OpenAI’nin yapay zeka geliştirmeyle ilgili dahili tartışma forumu bilgisayar korsanları tarafından ele geçirildi

Bağlamda:Günümüzün en başarılı jeneratif AI ürünlerinden birine sahip olmasına rağmen, OpenAI yalan, kötü yönetim ve insanların biyometrik özelliklerinin açıkça kötüye kullanımı geçmişine sahip oldukça tartışmalı bir şirkettir. Şimdi, AI geliştirmeyle ilgili sırları çalma potansiyeline sahip bilgisayar korsanlarını da ekleyebilirsiniz.

Bilinmeyen, kötü niyetli aktörler OpenAI’nin dahili mesajlaşma sistemlerine erişerek şirketin AI teknolojileri ve araştırma materyalleri hakkındaki hassas tartışmaları dinlediler, ancak bilgisayar korsanları AI kaynak kodunu barındıran sunuculara erişim sağlayamadılar. Konuya aşina iki kişi bu hafta New York Times’a olayı açıklayarak, OpenAI’nin ihlali ifşa etmediğini çünkü hiçbir müşteri verisinin tehlikeye atılmadığını belirtti.

Kaynaklara göre yetkisiz erişim 2023’ün başlarında gerçekleşti ve OpenAI yöneticileri olayı şirketin San Francisco ofislerinde yapılan bir iç toplantıda çalışanlara açıkladı. Yönetim kurulu da bilgilendirildi ancak şirket dışından kimse olaya dahil olmadı. OpenAI, olay ulusal güvenlik açısından yeterince ilginç görülmediği için FBI veya başka bir kolluk kuvvetiyle iletişime geçmedi.

Bazı çalışanlar, ABD çıkarlarına ve teknolojisine zarar vermek için OpenAI’nin üretken algoritmalarını kullanabilecek Çin, Rusya veya başka yerlerde bulunan yabancı tehdit aktörlerinin olası katılımı konusunda endişelerini dile getirdiler. Ayrıca kendi şirketlerini operasyonel güvenliği yeterince ciddiye almamakla ve yukarıda belirtilen AI algoritmalarıyla ilgili potansiyel riskleri dikkate almamakla suçladılar.

Yapay zeka güvenlik risklerine odaklanan bir teknik program yöneticisi olan Leopold Aschenbrenner, yabancı ajanların şirketin teknolojisine erişmesini engellemek için yetersiz bir çaba olarak gördüğü şey hakkında OpenAI’nin yönetim kuruluna bir iç yazı gönderdi. OpenAI, yöneticiyi işten çıkararak misilleme yaptı ve Aschenbrenner daha sonra şirketin bildirilmeyen, belirtilmeyen bir güvenlik olayının ardından onu kovduğunu söyledi.

openainin yapay zeka gelistirmeyle ilgili dahili tartisma forumu bilgisayar korsanlari tarafindan ele gecirildi 0 Nlzu4H6u

NY Times’ın aktardığı yeni kaynaklar artık bu ihlali doğruluyor ve teyit ediyor. OpenAI ise bir röportajında ​​bu yapay zeka projesinde çalışmak için “en iyi ve en parlak beyinlere” ihtiyaç duyduklarını ve başa çıkılması gereken “bazı riskler” olduğunu söyledi.

OpenAI’nin rakibi Anthropic, Pekin’deki Komünist diktatörlüğün ChatGPT’nin daha gelişmiş bir versiyonunu geliştirebilmesine rağmen, yapay zekanın insanlığa yönelik riskleri konusundaki endişelerin fazlasıyla abartılı olduğunu düşünüyor.

Bugünkü duruma bakıldığında, OpenAI kimsenin güvenini özellikle hak etmediğini kanıtlamaya devam ediyor. Şirketin yönetimi, CEO Sam Altman’ı iddia edilen “yalan söylemenin zehirli kültürü” ve “psikolojik taciz” nedeniyle kovmak zorunda kaldı ve Altman şimdi kurucu ortağı olduğu şirketi yönlendirmeye geri döndü.

OpenAI’nin telif hakkı, kişisel veri ve gizlilik ihlalleri arasında, şirketin daha sonra aktrisin avukat tutmasının ardından kaldırdığı Scarlett Johansson modelli bir ChatGPT ses karakteri de yer alıyor.

Facebook
Twitter
LinkedIn
WhatsApp
Pinterest
Tumblr

Benzer Haberler

Son Haberler