Yapay zeka taslak çalışmaları başka sorgularda kullanıyor
Dilini düzeltsin, istatistiğini tutsun diye yapay zekaya emanet edilen akademik çalışmalar, sistem tarafından sessizce kopyalanıp başkalarına servis ediliyor. Doç. Dr. Yusuf Kızıltaş'ın yaşadığı 'hayalet makale' şoku, dijital asistanların aslında birer 'fikir hırsızı' olduğunu kanıtladı. Akademik mahremiyet artık siber korsanların elinde!
Dil kontrolü ve istatistik desteği için yapay zekaya emanet edilen makaleler, "asistan" sandığımız sistemler tarafından kopyalanıyor. Henüz yayınlanmamış başlıklar ve özgün bölümler, yapay zeka havuzuna düşerek başka çalışmaların kaynağı haline geliyor. Akademik mahremiyet artık büyük risk altında. Bu durum, akademik üretimde veri güvenliği ve gizlilik tartışmalarını yeniden alevlendirdi.
GERÇEKTE YOK...
Olay, Doç. Dr. Yusuf Kızıltaş'ın SSCI indeksli prestijli bir dergiden aldığı hakemlik davetiyle gün yüzüne çıktı. Hakemlik yaptığı makalenin kaynakça bölümünü inceleyen Kızıltaş, kendi adına yapılmış atıflarla karşılaştı. Kaynakçada yer alan üç çalışmadan ikisinin kendisine ait olduğunu belirleyen araştırmacı, üçüncü çalışmanın ise gerçekte var olmadığını fark etti.
Asıl çarpıcı detay ise söz konusu "hayalet makale"nin başlık ve içeriğinin, Kızıltaş'ın o sırada henüz yayımlanmamış ve yalnızca sınırlı sayıda hakemin bildiği güncel çalışmasıyla bire bir örtüşmesiydi. Araştırmacının, bu çalışması için daha önce yapay zekadan dil ve istatistik desteği aldığı öğrenildi. Yaşanan durum, yapay zeka sistemlerinin akademik metinlerle kurduğu ilişkinin sınırlarını sorgulatır hale getirdi.
İHLALDE YENİ BOYUT
Uzmanlara göre bu örnek, yapay zekanın yalnızca internette yer alan mevcut verileri harmanlamakla kalmadığını; kullanıcıların kendisine emanet ettiği gizli ve yayımlanmamış içerikleri de veri havuzuna dahil ederek dönüştürebildiğini gösteriyor.
Bu süreç, "dijital mahremiyet ihlalinin yeni ve görünür bir boyutu" olarak tanımlanıyor. Yapay zeka ile paylaşılan akademik metinler, yayımlanma süreci tamamlanmadan dolaylı yollardan ifşa edilme riskiyle karşı karşıya kalıyor.
Dünyanın önde gelen yayınevlerinden Elsevier, SAGE ve Taylor & Francis, yapay zekanın dil düzenleme süreçlerinde kullanılmasına şeffaf beyan şartıyla izin veriyor. Ancak son yaşanan hadise, bu kullanımın yalnızca etik bir tercih değil, aynı zamanda ciddi bir veri güvenliği problemi olduğunu da ortaya koydu.
Uzmanlar, bilimsel üretim süreçlerinde yapay zeka desteği alan akademisyenleri çeşitli kritik noktalarda uyarıyor. Analiz veya düzeltme amacıyla sisteme yüklenen metinlerin, yapay zeka tarafından "öğrenme malzemesi" olarak değerlendirilip veri havuzuna dahil edilebileceği gerçeğinin göz ardı edilmemesi gerektiği vurgulanıyor.
Bu durumun doğurduğu en büyük güvenlik risklerinden biri ise, yapay zekanın araştırmacıların adına henüz yayımlanmamış ya da hiç var olmamış uydurma kaynaklar üreterek akademik itibarı ciddi biçimde tehlikeye atabilmesi.
Gelinen noktada bilimsel üretim sürecinin, yalnızca akademik etik kurallarıyla değil; kişisel verilerin korunması adına sıkı siber güvenlik protokolleriyle de desteklenmesi gerektiği ifade ediliyor.
'HAYALET KAYNAK" ÜRETİYOR
Yapay zeka ile makale yazdırmanın etik dışı olmasının yanı sıra, sistemlerin en büyük risklerinden biri uzmanların çalışma alanlarını taklit ederek onlar adına "hayalet kaynaklar" üretmesi olarak öne çıkıyor.
Özellikle çok sayıda eseri bulunan araştırmacıların verilerinden beslenen yapay zeka, son derece gerçekçi görünen ancak tamamen uydurma referanslar oluşturarak akademik güvenilirliği ciddi biçimde tehdit ediyor.
MAHMUT ÖZAY