Beyaz Saray’dan yapılan yazılı açıklamaya göre, aralarında OpenAI, Amazon, Google, Meta, Microsoft’un da bulunduğu 7 ABD şirketi, yapay zeka ürünlerini piyasaya sunmadan önce güvenlik tedbirlerine bağlı kalmayı kabul etti.
Söz konusu tedbirler, ticari amaçla kullanılan yapay zeka sistemlerinin, üçüncü taraflarca denetlenmesine ve vatandaşların kişisel bilgilerinin korunmasına ilişkin kuralları içeriyor.
Dört şirketin yanı sıra Anthropic, Inflection ve ChatGPT’yi geliştiren OpenAI şirketlerinin, “kısmi olarak bağımsız uzmanlar tarafından yürütülecek” güvenlik testlerini uygulamayı gönüllü olarak kabul ettiği bilgisi yer aldı.
Güvenlik testlerinin, yapay zekanın teşkil ettiği sorunların büyük bir çoğunluğunu oluşturan biyogüvenlik ve siber güvenlik risklerine karşı koruma sağlaması hedefleniyor.
Şirketler, ayrıca, söz konusu tedbirler kapsamında teknolojilerindeki kusur ve riskleri de kamuya duyurmayı kabul etti.
Üzerinde mutabık kalınan tedbirlerin, ABD Kongresinin ilerleyen dönemlerde yapay zekayı düzenleyen kanunları kabul etmesi için öncü niteliğinde olduğu kaydedildi.
Söz konusu tedbirlerin geliştirilmesi amacıyla İngiltere, Japonya, Güney Kore ve Avustralya dahil olmak üzere çeşitli ülkelere danışıldığı ifade edildi.
Birleşmiş Milletler (BM) Genel Sekreteri Antonio Guterres, 18 Temmuz’da BM bünyesinde yapay zekaya ilişkin küresel standartların oluşturulması amacıyla yıl sonunda rapor verecek çok taraflı yüksek düzeyli bir danışma kurulu oluşturulacağını söylemişti.
Senato Çoğunluk Lideri Chuck Schumer, Kongrenin yapay zeka güvenliğine ilişkin düzenlemeler için hızlı hareket etmesi gerektiğini söylemişti.
Yapay zeka alanında düzenleme çağrısında bulunan teknoloji alanındaki yöneticiler, mayıs ayında ABD Başkanı Joe Biden, Başkan Yardımcısı Kamala Harris ve diğer yetkililerle görüşmek için Beyaz Saray’a gitmişti.
Avrupa Birliği ve birçok ülke de yapay zeka güvenliğine ilişkin düzenlemelere yönelik yöntemler arıyor.