AnaManşet

Minab'daki bu fotoğraf için Gemini "Kahramanmaraş", Grok "Jakarta" diyor; Yapay zekanın yanıtlarına inanmalı mıyız?

Her iki durumda da yapay zekânın cevapları kesin gibi görünüyor: tereddüt etmiyorlar ve hatta kontrol etmek isterseniz orijinal görüntünün "kaynaklarını" bile sunuyorlar. Ancak, bu kaynakları incelemek için konuyu takip ederseniz, çıkmaz sokaklara girmeye başlayacaksınız: ya görüntü hiç görünmüyor ya da verilen bağlantı var olmayan bir haber raporuna yönlendiriyor. Tüm netlik ve kesinlik izlenimlerine rağmen, yapay zekâlar basitçe yanılıyor.

The Guadian'dan 'un yazısına göe,

BBC Verify ekibinde kıdemli gazeteci olan ve bilgileri doğrulamak ve görsel araştırmalar yapmak için adli teknikler kullanan Shayan Sardarizadeh, "Bana dikkat çeken sahte görüntülerden biri, potansiyel bir suikastten kaçınmak için Tahran'da kadın kılığına girmiş üst düzey bir İranlı komutanı gösterdiğini iddia ediyordu" diyor. "Sokak, arka plandaki bina ve çevre, Tahran'da gerçekçi bir sahne gibi görünüyordu."

Sardarizadeh, ekibin çürüttüğü tüm yanlış bilgilerin büyük bir kısmının artık yapay zekâ tarafından oluşturulduğunu ve bu oranın giderek arttığını söylüyor. Örneğin, Gazze veya Ukrayna savaşlarının ilk birkaç haftasında, ekibin gördüğü sahte gönderilerin çoğu eski veya ilgisiz videolar ya da yeniden kullanılan video oyunu görüntüleriydi. Şimdi ise, "takip ettiğimiz ve çürüttüğümüz viral yanlış bilgilerin neredeyse yarısı, hatta daha fazlası, üretken yapay zekâ tarafından üretiliyor."

Sorunun bir kısmı, LLM yapay zeka modellerinin (Grok, ChatGPT ve Gemini gibi) çalışma şeklinden kaynaklanıyor. Çok temel bir düzeyde, bunlar olasılıksal dil modelleridir ve hangi sonraki kelimenin en uygun olma olasılığına sahip olduğuna bağlı olarak cümleleri parça parça oluştururlar. Bu süreç ikna edici, otoriter tınlayan cümleler üretse de, yapay zekanın önündeki materyali gerçekten analiz ettiği anlamına gelmez.

"