ABD Göç İdaresi, Yapay Zeka İçerikler Paylaşıyor: Güvenilirlik Krizi Derinleşiyor

ABD Göç İdaresi'nin Yapay Zeka İçerik Kullanımı
Geçtiğimiz hafta yayınladığım bir haberle, ABD Vatanseverlik ve Göç İdaresi'nin (DHS) Google ve Adobe'nin yapay zeka video düzenleme araçlarını kullanarak kamuoyuyla paylaştığı içeriklerin doğrulanmış ilk örneğini ortaya çıkardım. Bu gelişme, uzun süredir uyarıldığımız gerçek-dışı içerik ve güven bunalımı döneminin artık burada olduğunu gösteriyor.
Okuyucularımdan gelen tepkiler, bu sorunun daha da derinleştiğine işaret ediyor. Bazıları Beyaz Saray'ın 22 Ocak'ta, bir ICE protestosunda gözaltına alınan kadının görüntüsünü dijital olarak manipüle edip paylaşmasına şaşırmamış. Beyaz Saray'ın iletişim direktör yardımcısı Kaelan Dorr, fotoğrafın değiştirilip değiştirilmediği sorusuna yanıt vermeyerek, "memler (meme'ler) devam edecek" demiş.
Gerçekleri Doğrulama Araçları Yetersiz Kalıyor
Diğer okuyucular ise, haber kuruluşlarının da benzer uygulamalar yaptığına dikkat çekti. Örneğin, MS Now (eski MSNBC) kanalı, Alex Pretti'nin görüntüsünü yapay zeka ile daha çekici hale getirip yayınlamıştı. MS Now sözcüsü, görüntünün değiştirildiğini bilmediklerini söyledi.
Bu tepkiler, gerçekleri doğrulamak için geliştirilen araçların artık yetersiz kaldığını gösteriyor. 2024'te çok konuşulan İçerik Doğrulama Girişimi, Adobe öncülüğünde büyük teknoloji şirketleri tarafından benimsenmişti. Bu girişim, içeriklerin kimin tarafından, ne zaman ve hangi teknolojilerle oluşturulduğunu gösteren etiketler sunuyordu. Ancak Adobe, yalnızca tamamen yapay zeka tarafından üretilen içeriklere otomatik etiket ekliyor; diğer durumlarda etiketleme kullanıcının inisiyatifine bırakılmış durumda. Dahası, X gibi platformlar bu etiketleri kaldırabiliyorlar.
Gerçek Dışı İçerikler Duygusal Etkisini Koruyabiliyor
Beyaz Saray'ın fotoğrafının, manipüle edildiği ortaya çıkmasına rağmen hala çok ilgi görmesi, yapay zeka içeriklerin etkisinin sadece bilişsel değil, duygusal olduğunu da gösteriyor. Yeni bir araştırmaya göre, katılımcılar bir suça ilişkin sahte bir itirafı gerçek sanmaya devam etmişler, içeriğin sahte olduğu açıkça belirtilse bile.
Disinformasyon uzmanı Christopher Nehring, "Şeffaflık yardımcı oluyor ama tek başına yeterli değil. Deepfake'ler konusunda yeni bir strateji geliştirmemiz gerekiyor" diyor.
Sonuç
Yapay zeka tabanlı içerik üretim ve düzenleme araçları gittikçe daha gelişiyor, kullanımı kolaylaşıyor ve daha ucuzlaşıyor. Bu nedenle hükümetler de bu araçları giderek daha fazla kullanmaya başlıyor. Buna karşın, gerçekleri doğrulamaya yönelik çabalarımız yetersiz kalıyor. Artık yalnızca kafa karışıklığına değil, etkinin gerçekliği aşmasına ve şüphenin kolayca silah haline getirilmesine hazırlanmalıyız. Gerçeğin ortaya çıkarılması, artık sorunun çözümü için yeterli olmuyor.