Yapay Zeka Zihin Okuyacak mı? İnsan Davranışları Yapay Zeka Tarafından Tahmin Edilebilir mi?

Yapay zekâ insan davranışlarını gerçekten tahmin edebilir mi? Yeni geliştirilen Centaur YZ modelinin, psikolojik testlerde insan tepkilerini öngörebildiği iddia ediliyor. Ancak birçok bilim insanı temkinli.

Dil modeli tabanlı yapay zekâ uygulamaları, insan davranışlarını giderek daha iyi taklit ediyor. Peki bu modeller insan kararlarını da öngörebilir mi?

Münih’teki Helmholtz İnsan Merkezli Yapay Zekâ Enstitüsü liderliğindeki bir uluslararası ekip, “Centaur” adlı yeni bir model geliştirdi.

Temelinde, Meta AI’nin açık kaynaklı dil modeli bulunan Centaur, 160 psikolojik deneyden elde edilen verilerle eğitildi. 60 bin kişinin katıldığı bu testlerde katılımcılara nesne sınıflandırma ya da kumar gibi karar verme görevleri verildi.

10 milyon karar verisiyle eğitildi

Centaur, 10 milyondan fazla karar verisiyle oluşturuldu. Bu verilerin yüzde 90’ı eğitim için kullanılırken kalan yüzde 10’u test için ayrıldı. Sonuç: Model, insan kararlarını yüzde 64’e varan doğrulukla tahmin edebildi. Model, eğitim verilerinden farklı senaryolarda da makul sonuçlar verdi.

İsviçre’deki St. Gallen Üniversitesi Davranış Bilimi ve Teknoloji Enstitüsü Direktörü Clemens Stachl, Centaur’un yeniliğini, “davranış verilerinin dile çevrilerek modele aktarılması” olarak tanımlıyor. Ona göre bu tarz modeller; eğitim, perakende, hatta askeri uygulamalarda kullanılabilir.

Centaur’un altyapısında Google ve Meta’nın teknolojileri bulunuyor. Stachl’a göre, büyük teknoloji şirketleri benzer modelleri zaten kullanıcı tercihlerini tahmin etmek için kullanıyor. ChatGPT ya da Tiktok’un öneri algoritmaları, bunun mevcut örnekleri.

Bilim insanlarından uyarı: Abartmayın!

Ancak bazı uzmanlar, Centaur’un uygulama alanlarının hâlâ sınırlı olduğunu düşünüyor. Freiburg Üniversitesi’nden psikolog Markus Langer, kullanılan testlerin günlük yaşamı yansıtmadığını, bu yüzden genellemeler için erken olduğunu belirtiyor.

Langer’a göre, “Davranışı artık tam olarak öngörebiliyoruz” gibi yorumlar, yanlış beklentilere yol açabilir. Ayrıca yüzde 64 doğruluk oranının ne kadar “başarılı” sayılacağı da tartışmalı.

Yapay zekâ davranış tahmini yapmalı mı?

Stachl, Centaur’un temel bilim için önemli olduğunu söylüyor. Ancak aynı zamanda, bu modellerin insanı daha öngörülebilir ve bağımlı hale getirme riski taşıdığını vurguluyor. Medya kullanımı ve dijital araçlar aracılığıyla davranış verilerimiz sürekli toplanıyor.

Bu yüzden Stachl, toplumun bu teknolojilere nasıl yaklaşması gerektiğini tartışması gerektiğini savunuyor. Hukukçular ve siyasetçilerin de bu alanda daha aktif olması gerekiyor.

Grok’un küfürlü ve hakaret içerikli paylaşımları

Yapay zekâ modellerinin ne kadar hassas konularda kontrolden çıkabileceğini gösteren son örnek geçtiğimiz günlerde yaşandı. Elon Musk’un xAI firmasına ait “Grok” adlı sohbet robotunun verdiği küfürlü ve antisemitik yanıtlar sosyal medyada büyük tepki topladı. Grok’un geliştiricisi xAI, hatalı içerikleri kaldıracağını ve nefret söylemine karşı önlem aldığını duyurdu.

Uzmanlara göre, Grok gibi sistemlerde eğitimin şeffaf olmaması büyük sorun. Modellerin hangi veriyle eğitildiği ve hangi kurallara göre çalıştığı açıkça belirtilmeli. Grok’un bilgi kaynağı olarak büyük oranda X platformunu kullanması, taraflı içeriklere açık hale getiriyor.

Türkiye Grok’un tartışmalı paylaşımlarını engelledi

Grok daha önce de “Elon Musk ya da Donald Trump yanlış bilgi yaydı” diyen kaynakları kullanmaması yönünde programlandığı ortaya çıkmıştı.

Bu tür manipülasyonların tespiti zor olabilir, ancak sonuçları ciddi.

Grok’un bazı paylaşımlarına, Türkiye’de Cumhurbaşkanı Erdoğan’a ve Muhammed Peygamber’e hakaret içerdiği gerekçesiyle erişim engeli getirildi.

Polonya da AB düzeyinde inceleme başlatmak istiyor. Polonya Dijitalleşme Bakanı Krzysztof Gawkowski, “Algoritmalarla yayılan nefret söylemi yeni bir seviyeye ulaştı. Bu görmezden gelinmemeli” diyerek sorunun ciddiye alınmasının gerekliliğine vurgu yaptı.

Bu Haberi Paylaş