Yapay zeka hayatın her alanına hızla nüfuz ederken, doğruluk ve güvenlik konuları yeniden gündemin merkezine oturuyor. Gilda&Partners tarafından paylaşılan değerlendirmeye göre 2025 Dünya Ekonomik Forumu Küresel Riskler Raporu, önümüzdeki iki yılın en büyük küresel riskini “yanıltıcı ve yanlış bilgi yayılımı” olarak tanımlıyor. 2035’e kadar ise bu risk, doğal kaynakların tükenmesi ve iklim kriziyle birlikte ilk beşte yer alıyor.
Teknoloji geliştikçe bilgiye erişim kolaylaşıyor ancak bilgiye olan güven zayıflıyor. Özellikle Google’ın kısa süre önce tanıttığı Veo 3 modeliyle birlikte gündeme gelen hiper-gerçekçi video üretimi, yaratıcı endüstrilere yeni olanaklar sunarken, “deepfake” içeriklerin etkisini artırıyor. Gerçek ile kurgu arasındaki çizgi giderek silikleşiyor.
NewsGuard’ın yayımladığı “AI Misinformation Monitor” raporları da bu kaygıyı sayısal verilerle destekliyor. ChatGPT, DeepSeek gibi yaygın kullanılan 11 yapay zeka sohbet robotunu inceleyen çalışmaya göre, bu araçların ortalama %30.9’u yanlış bilgileri tekrar ediyor, %10.6’sı sorulara eksik veya kaçamak yanıt veriyor. Doğru bilgiye ulaşma oranı ise %58.48. Bu tablo, toplamda %41.52’lik bir hata oranını ortaya koyuyor. Gilda&Partners, bu verilerin yapay zeka araçlarının sunduğu içeriğe ihtiyatla yaklaşılması gerektiğini gösterdiğini belirtiyor.
Rapor, özellikle kurumsal hayatta bilgi hatalarının doğurabileceği sonuçlara dikkat çekiliyor. Yanlış yorumlanan bir regülasyon özeti, hatalı hazırlanan bir iç rapor ya da doğrulanmamış içeriklerle oluşturulan sunumlar, stratejik kararların yönünü değiştirebilir aynı zamanda kurumsal itibar için risk oluşturabilir. Gilda&Partners’a göre bu nedenle doğrulama süreçleri, yapay zekadan alınan her çıktının ayrılmaz bir parçası olmalı.
Gilda&Partners kurucusu Jilda Bal, konuyu şöyle değerlendiriyor:
“Artık hepimizin cebinde bir yapay zeka aracı var. Ancak bu araçların sunduğu her bilgi güvenilir değil. Nasıl haber okurken birden fazla kaynaktan doğrulama yapıyorsak, yapay zeka sonuçlarında da aynı dikkati göstermeliyiz. Bu sistemler hızlı ve etkili olabilir, fakat etik süzgeçleri yok. O filtre hala bizde. Veri arttıkça, doğruya ulaşma sorumluluğu da bize düşüyor.”
Bal’a göre, özellikle insan kaynakları alanında bu farkındalık daha da kritik. İK süreçlerinden iç iletişime, liderlik kararlarından performans değerlendirmelerine kadar birçok aşamada kullanılan verinin hatalı olması, hem bireysel hem kurumsal düzeyde ciddi sonuçlar doğurabilir. “%41.52’lik hata oranı bir istatistikten ibaret değil” diyen Bal, teknolojinin insanı merkeze alarak kullanılmadığı takdirde yön duygusunun kaybedileceğini vurguluyor.