Sosyal medya platformu X'in yapay zeka asistanı Grok, son yazılım güncellemesinin ardından tartışma konusu oldu. Kullanıcıların sorularına siyasi içerikli ve küfürlü yanıtlar veren Grok, dini değerleri de aşağılayan ifadeler kullanmaya başladı. Bu durum, yapay zekaya yönelik güvenlik endişelerini tekrardan gündeme getirirken, sosyal medya kullanıcıları da söz konusu duruma tepki gösterdi.
Adli Bilişim Uzmanı Prof. Dr. Ali Murat Kırık, sabah.com.tr'ye konuyla ilgili özel değerlendirmelerde bulundu. Adli Bilişim Uzmanı Prof. Dr. Ali Murat Kırık şunları söyledi:
"SERBEST BIRAKILMIŞ DİL POLİTİKASI İLE KARŞI KARŞIYAYIZ"
"Grok'un küfürlü ve saldırgan dil kullanmaya başlaması, büyük olasılıkla modelin yeni bir güncelleme ile daha az sansürlenmiş yanıtlar vermesi için ayarlandığını gösteriyor." diyen Ali Murat Kırık, yapay zeka sistemlerinin, nasıl yanıt vereceklerini eğitim verilerinden ve modelin tasarım parametrelerinden öğrendiğini ifade etti.
Bu filtrelerin gevşetilmesi veya kaldırılması durumunda yapay zekanın sosyal medya diline benzer şekilde hakaret içeren, argo ve saldırgan ifadeler kullanabileceğine dikkat çeken Kırık, "Grok'un bu şekilde davranması, özellikle istemli olarak 'serbest bırakılmış' bir dil politikası ile karşı karşıya olduğumuzu düşündürüyor. Bu da modelin kullanıcılarla 'samimi' ve 'insan gibi' etkileşime geçmesini sağlarken, sonuçta ciddi etik ve güvenlik sorunlarına yol açıyor." ifadelerini kullandı.
"GELİŞMİŞ İÇERİK FİLTRELEME SİSTEMLERİ DEVREYE ALINMALI"
"Bu durumun yarattığı etik tartışmalar ve güvenlik risklerine karşı nasıl önlem alınmalı?" sorusuna yanıt veren Prof. Dr. Ali Murat Kırık, bu gibi durumlarda öncelikle yapay zekanın çıkışlarını denetleyen gelişmiş içerik filtreleme sistemlerinin devreye alınması gerektiğini vurguladı.
"YAPAY ZEKA GİRİŞLERİNİ ANALİZ EDEN SİSTEMLER KURULMALI"
Kırık, "Modelin eğitildiği verilerde, hakaret, nefret söylemi veya toplumsal ayrımcılık içeren örnekler varsa, bunlar eğitim sürecinden çıkarılmalı ya da etkisizleştirilmelidir. Ayrıca modelin çıktıları üzerinde çalışan bir 'moderasyon katmanı' (örneğin bir kelime filtreleme veya yanıt denetleme algoritması) gereklidir. Kullanıcıların yönlendirmeleriyle (örneğin 'şuna küfret') modelin bu isteklere göre davranmasının önüne geçmek için ise prompt (komut) filtresi gibi yapay zeka girişlerini analiz eden sistemler kurulmalıdır. Buna ek olarak, bu tür sistemlerin geliştirme süreci bir etik kurul tarafından denetlenmeli ve toplumla şeffaf şekilde paylaşılmalıdır." ifadelerini kullandı.
"MODEL 'PROVOKATİF' VEYA 'DOĞRUDAN' YANITLAR VERMESİ İÇİN YAPILANDIRILDI"
"Grok'un siyasi kişilere hakaret eden yanıtlar üretmesi, modelin kasıtlı olarak daha 'provokatif' veya 'doğrudan' yanıtlar vermesi için yapılandırıldığını gösteriyor" diyen Kırık, bu tür davranışların, genellikle modelin çıktılarında uygulanan sansür veya kısıtlayıcı kuralların kaldırılması ile ilişkili olduğunu ifade etti.
"YAPAY ZEKA, SOSYAL MEDYA DİLİNDEN ÖĞRENDİĞİ KALIPLARI TEKRAR EDER"
Özellikle X platformunun "ifade özgürlüğünü sınırsızlaştırma" yaklaşımı, Grok'un da daha özgür konuşacak şekilde güncellenmesine neden olabileceğine dikkat çeken Kırık, "Ancak bu tür serbestlik, modelin aşırı örnekleri taklit etmesiyle sonuçlanır; çünkü yapay zeka, sosyal medya dilinden öğrendiği kalıpları tekrar eder. Eğer siyasi tartışmalarda sıkça rastlanan hakaret ifadeleri modele örnek olarak verilmişse ve filtre kaldırılmışsa, sonuç Grok gibi kontrolsüz yanıtlar olur. Bu da yalnızca etik değil, aynı zamanda platformun yasal sorumluluğunu da doğurur." dedi.
"MADDİ TAZMİNATLAR VE ERİŞİM YASAKLARI İLE KARŞILAŞABİLİRLER"
Prof. Dr. Ali Murat Kırık, şu ifadeleri kullandı:
"Eğer yapay zeka sistemleri Grok örneğinde olduğu gibi küfür eden, ayrımcı veya şiddet çağrısı yapan yanıtlar üretmeye devam ederse, bu durum hem toplumsal düzeyde kutuplaşmayı artırabilir hem de platformların ciddi hukuki sorumluluklarla karşılaşmasına yol açabilir. Özellikle Avrupa Birliği'nin Yapay Zeka Yasası gibi düzenlemeleri ve çeşitli ülkelerdeki nefret söylemi yasaları, bu tür içerikleri üreten sistemleri geliştiren ve barındıran şirketleri sorumlu kılabilir. Ayrıca, bu tür modellerin kullanıldığı platformlar, içerik denetimini ihmal ettiği gerekçesiyle maddi tazminatlar ve erişim yasakları ile karşılaşabilir. Gelecekte bu sorunların önüne geçmek için yapay zeka sistemlerinin mutlaka şeffaf, denetlenebilir, etik ilkelerle uyumlu ve toplumun değerleriyle çelişmeyecek biçimde yapılandırılması, ayrıca ulusal ve uluslararası bağımsız denetim mekanizmalarına tabi tutulması gerekir."