OpenAI, yapay zeka modellerinin zararlı kullanımına karşı mücadele edecek - Siècle Digital - Dünyadan Güncel Teknoloji Haberleri

OpenAI, yapay zeka modellerinin zararlı kullanımına karşı mücadele edecek - Siècle Digital - Dünyadan Güncel Teknoloji Haberleri
000 ABD Doları tutarında API kredisi verilecek OpenAI ilk olarak, kötü niyetli kullanıcıların kimlikleri çalmak, kötü amaçlı kod oluşturmak veya büyük ölçekli kimlik avı kampanyalarını otomatikleştirmek için araçlarını kullanmaktan çekinmediği siber suçlardan bahsediyor

Nisan ayında OpenAI, AI uzmanlarına ve geliştiricilere araçlarındaki kusurları bulma fırsatı sunan hata ödülünü başlattı », Diğerlerinin yanı sıra OpenAI direktörü Sam Altman tarafından imzalanan makaleyi belirtir İkincisi, Amerika Birleşik Devletleri’ndeki yapay zeka sektörünün düzenlenmesi çağrısında bile bulundu



genel-16

İlk on teklife 25

Son olarak şirket, ” özerk üreme ve adaptasyon teknikleri “

Geçen Mayıs ayında 350’den fazla kişi yapay zekanın kontrolsüz kullanımına bağlı riskleri vurgulayan açık bir mektubu imzaladı Şirket, bildirilen sorunun ciddiyetine ve kötü niyetli kullanım üzerindeki etkisine bağlı olarak 200 ila 20 000 ABD Doları arasında bir ödül teklif etti Katılımcıların, hayal ettikleri kullanımları ve araçların zararlı kullanımıyla ilişkili riskleri azaltmak için uygulamaya koyacakları protokolleri ayrıntılarıyla anlatmak için 31 Aralık’a kadar süreleri var


OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu

OpenAI, yapay zeka araçlarının kötü niyetli kullanımından endişeli

Hazırlık adı verilen bu yeni birim, üretken yapay zeka modellerinin kötüye kullanılmasını önlemek için sağlamlığını test edecek Geçen Mayıs ayında OpenAI’ye katıldı Geleceği tahmin etmeyi umuyor…

OpenAI, 26 Ekim’de şirketin tasarladığı yapay zeka modellerini değerlendirmek ve incelemek gibi zorlu bir görevi yerine getirecek yeni bir ekibin kurulduğunu duyurdu “ Yapay zekadan kaynaklanan yok olma riskinin sınırlandırılması, salgın hastalıklar ve nükleer savaş gibi toplum çapındaki diğer risklerin yanı sıra küresel bir öncelik olmalıdır Kendinizi şirketin araçlarına sınırsız erişime sahip olan kötü niyetli bir kullanıcının yerine koymayı içerir: DALL-E 3, ChatGPT, GPT-4, Whisper, Voice, vb Ayrıca şunu da vurguluyor: ” kimyasal, biyolojik, radyolojik ve nükleer tehditler, » toplumun kritik olarak gördüğü

Daha karmaşık ve verimli yapay zekanın ortaya çıkışıyla birlikte riskler de giderek daha sık ve tehlikeli hale geliyor Bu ekip, Massachusetts Teknoloji Enstitüsü’nde (MIT) profesör ve MIT’nin Konuşlandırılabilir Makine Öğrenimi Merkezi’nin başkanı Aleksander Madry tarafından yönetiliyor

Daha da ileri gitmek için OpenAI, Yapay Zeka Hazırlık Yarışması adı verilen halka açık bir yarışma başlattı İnsanların bu yapay zekalar üzerindeki kontrolünü azaltacak ve kötü niyetli olarak kullanıldığında feci sonuçlara yol açabilecek teknoloji O, şunları öngörmeyi umuyor: felaket riskleri » Yapay zekanın kötü amaçlarla kullanıldığında neler ortaya çıkarabileceği