Kimse farkında değil: Şirket sırları ChatGPT’ye sızdırılıyor

Güvenlik firması LayerX’in yaptığı yeni bir araştırma, çalışanların üretkenliği artırmak için kullandığı yapay zekanın, şirketler için nasıl dev bir güvenlik riskine dönüştüğünü ortaya koydu.

“Kurumsal Yapay Zeka ve SaaS Veri Güvenliği Raporu 2025” başlıklı çalışmaya göre, birçok çalışan, müşteri bilgileri ve ödeme verileri gibi ‘hassas’ şirket sırlarını, farkında olmadan doğrudan ChatGPT’ye kopyalayıp yapıştırıyor. Daha da endişe verici olanı ise bu tehlikeli alışkanlığın büyük bir kısmının, şirket tarafından izlenemeyen kişisel hesaplar üzerinden yapılması.

LayerX’in araştırması, yapay zeka kullanımının kontrolsüz doğasına dair endişe verici bir tablo çiziyor:

Çalışanların yaklaşık %45’i, işlerinde ChatGPT gibi üretken yapay zeka araçları kullanıyor.

Bu kullanıcıların %77’si, sohbet robotlarına veri kopyalayıp yapıştırıyor.

Kopyalanan bu verilerin %22’si ise müşteri kimlik bilgileri (PII) ve ödeme kartı verileri (PCI) gibi ‘hassas’ kategoride yer alıyor.

Şirket tarafından denetlenmeyen kişisel hesaplar kullanılıyor

Durumu asıl tehlikeli kılan ise, bu hassas veri girişlerinin %82’sinin, şirket tarafından denetlenmeyen kişisel hesaplar üzerinden gerçekleşmesi. Bu, şirketin hangi verilerin yüklendiğinden, nereye gittiğinden veya OpenAI gibi platformlar tarafından nasıl kullanıldığından tamamen habersiz olduğu anlamına geliyor ve devasa bir “gölge IT” (Shadow IT) sorunu yaratıyor. Rapor ayrıca, yapay zeka sohbet robotlarına dosya olarak yüklenen belgelerin yaklaşık %40’ının da kişisel ve finansal veriler içerdiğini ortaya koydu.

LayerX CEO’su Or Eshed, bu riskin sadece teorik olmadığını, gerçek dünyada yaşanmış örnekleri olduğunu vurguluyor. Eshed, 2023’te bir Samsung çalışanının, şirketin hassas iç yazılım kodlarını ChatGPT’ye yüklediği olayı örnek gösterdi. Bu olayın ortaya çıkmasının ardından Samsung, veri sızıntısı riskine karşı çalışanlarının ChatGPT kullanımını geçici olarak yasaklamıştı.

Sonuç olarak, LayerX’in raporu, günümüzün en büyük siber güvenlik tehditlerinden birinin artık dışarıdan gelen hacker’lar değil, üretkenliği artırmaya çalışırken farkında olmadan devasa güvenlik açıkları yaratan ‘içerideki’ çalışanlar olabileceğini gözler önüne seriyor. Bu durum, şirketlerin yapay zeka kullanımına yönelik acil ve net politikalar oluşturması gerektiğini bir kez daha kanıtlıyor.

Author: mert can

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir