Google ve Stanford Üniversitesi'nden araştırmacılar, sadece iki saatlik bir yapay zeka görüşmesinin insan kişiliğini yüksek doğrulukla taklit edebileceğini keşfetti. Bin 52 katılımcıyla gerçekleştirilen görüşmelerden elde edilen verilerle, her bireyin "simülasyon ajanı" (YZ kopyası) oluşturuldu. Uzmanlar, insan davranışlarını modelleme konusunda yeni fırsatlar sunan çalışmanın manipülasyon ve istismar gibi amaçlarla kullanılabileceği uyarısında bulundu.
Google ve Stanford Üniversitesi'nden araştırmacılar tarafından yapılan, ön baskı veritabanı arXiv'de 15 Kasım'da yayınlanan yeni bir çalışma, insan kişiliğinin birebir kopyasını çıkarmak için yapay zeka (YZ) modeliyle iki saatlik bir sohbetin yeterli olduğunu ortaya koydu. Çalışma kapsamunda bin 52 katılımcıyla gerçekleştirilen görüşmelerden elde edilen verilerle, her bireyin "simülasyon ajanı" (YZ kopyası) oluşturuldu.
Simülasyonların doğruluğunu test etmek için katılımcılar iki farklı zamanda kişilik testleri, sosyal anketler ve mantık oyunları tamamladı. Aynı testler, yapay zeka simülasyonlarına da uygulandığında, insan yanıtlarıyla yüzde 85 oranında doğru şekilde eşleştiği görüldü.
Çalışmada, yapay zeka simülasyonlarının halk sağlığı politikalarının etkisini değerlendirmekten ürün lansmanlarına verilen tepkileri ölçmeye kadar geniş bir kullanım alanı olduğu belirtildi. Ayrıca, etik ya da lojistik zorluklar nedeniyle insanların katılımının mümkün olmadığı durumlarda, büyük ölçekli toplumsal olaylara verilen tepkileri modellemek için kullanılabileceği ifade edildi.
Araştırmacılar tarafından "İnsan tutum ve davranışlarının simülasyonu, araştırmacılara geniş bir yelpazede teoriler ve müdahalelerİ test edebilecekleri bir laboratuvar sunabilir" diyerek teknolojinin potansiyelini vurguladı.
Araştırmada kullanılan yöntem, katılımcıların yaşam öyküleri, değerleri ve toplumsal görüşlerini kapsayan detaylı görüşmelerle zenginleştirildi. Yapay zekanın, standart anketlerin yakalayamayacağı nüansları algılayabildiği, ancak ekonomik karar verme gibi dinamik ve bağlamsal süreçlerde daha düşük doğruluk sergilediği belirtildi.
Teknolojinin olası kötüye kullanım riskleri de vurgulandı. Deepfake ve benzeri teknolojiler, sahte kimlikler oluşturmak, manipülasyon ve istismar gibi amaçlarla kullanılabiliyor. Araştırmacılar, yapay zeka simülasyonlarının da bu tür tehditlere açık olduğunu belirtti.
Stanford Üniversitesi'nden çalışmanın başyazarı Joon Sung Park, "Etrafınızda sizin yerinize karar veren bir grup küçük "siz" olduğunu hayal edin. Bu, insan davranışını anlamada yeni bir çağın başlangıcı olabilir." ifadelerini kullandı.
Kaynağa git...