OpenAI: Kötü niyetli kampanyaların hiçbiri geniş kitlelere ulaşamadı
OpenAI, yapay zekanın etki operasyonları için nasıl kullanıldığını detaylandıran ilk raporunda şirketin Rusya, Çin, İsrail ve İran‘dan grupların yapmaya çalıştığı dezenformasyon kampanyalarını durdurduğunu açıkladı
Kötü niyetli kampanyaların hiçbiri geniş kitlelere ulaşamadı
OpenAI, “kötü niyetli aktörlerin” şirketin yapay zeka modelini propaganda yaratmak ve sosyal medyada yaymak için kullandığını, ayrıca içeriklerini farklı dillere çevirdiğini ifade etti. Rapora göre kampanyaların hiç biri büyüyemedi ve geniş kitlelere ulaşamadı.
Üretken yapay zekâya ilgi giderek artarken, araştırmacılar ve siyasetçiler OpenAI gibi araçların dezenformasyon için kullanılabileceği ile ilgili uyarılarda bulunuyordu.
3 ay içerisinde 5 farklı operasyondan hesaplar engellendi
OpenAI‘ın 39 sayfalık raporuna göre şirket, son 3 ay içinde 5 farklı gizli operasyondan hesaplar engellediğini bildirdi.
Rusya’dan iki operasyonun ABD, Ukrayna ve Baltık ülkelerini eleştiren içerikler ürettiği ve yaydığı belirtildi. Çin’in operasyonlarının ise içerikleri farklı dillere çevirip Twitter ve Medium’da paylaştığı tespit edildi.
Rapora göre İranlı aktörler ABD ve İsrail’e saldıran makaleler üreterek bunları İngilizce ve Fransızcaya çevirdiler. Stoic adlı İsrailli bir siyasi firma, İsrail’in Gazze’deki savaşına karşı ABD’li öğrenci protestolarını antisemitik olmakla suçlayan paylaşımlar da dahil olmak üzere bir dizi içerik oluşturan sahte sosyal medya hesaplarından oluşan bir ağ yönetti.