Securitas Technology Blog
Ana Sayfa » Haber » ChatGPT ve Diğer Üretken Yapay Zekâ Sistemlerinde Kullanım Riskleri

ChatGPT ve Diğer Üretken Yapay Zekâ Sistemlerinde Kullanım Riskleri

Yapay zeka ve üretken yapay zeka sistemleri tarihinin en hızlı büyümesini yaşıyor. Peki bu yapay zeka sistemlerini kullanırken hangi risklere dikkat etmemiz gerektiğini sizler için derledik!

ChatGPT ve diğer üretken yapay zekâ sistemlerini kullanırken hangi risklere dikkat etmek gerekir?

Yapay zeka ve üretken yapay zeka sistemleri tarihinin en hızlı büyümesini yaşıyor. Bugün tüm internet kullanıcıları sosyal, iş ve eğitim hayatlarında bir şekilde yapay zeka sistemleriyle temas ediyor. Hiç kuşkusuz üretken yapay zeka sistemleri içinde en hızlı popülerliğe ulaşan OpenAI şirketinin hayata geçirdiği ChatGPT oldu. Aylık 100 milyondan fazla aktif kullanıcısıyla tarihinin en hızlı büyüyen tüketici uygulaması unvanını elde eden ChatGPT, bu başarısıyla diğer uygulamaların da kullanıcılar tarafından benimsenmesinin kapılarını araladı. Snapchat’in yapay zeka destekli özelliği My AI da yine popülerlik konusunda ChatGPT’nin en yakın takipçisi oldu.

Bu yapay zeka örnekleri yeni ve orijinal içerik üretmek için bol miktarda kaynak veriyle tanımlaman kalıpları kullanarak bir insan tarafından yaratılmış hissi veren içerikler üretiyor. Bu kapsamda soruları yanıtlayabiliyor, hikayeler anlatabiliyor ve bilgisayar kodu yazabiliyorlar. Bugün birçok internet kullanıcısı, yapay zekayı iş, eğitim ve eğlence amaçlı kullanıyor. Kritik sorulara yapay zekayla yanıt ararken en kritik verilerini de yine yapay zekayla paylaşabiliyor.

Riskler ve tehditler 

Ancak işte bu noktada bu uygulamalar güvenlik ve gizlilik konusunda bazı risk ve tehditler yaratıyor. Avrupa’da birçok ülke bu yılın ilk çeyreğinden itibaren harekete geçti. Özellikle kişisel verilerin korunması konusunda yaşanan ihlaller nedeniyle İtalya bu konuda ilk adımı atan ülke oldu. ChatGPT kişisel verilerin toplanmasıyla ilgili kuralları ihlal ettiği gerekçesiyle ülkede bloke edildi. Ardından Avrupa Veri Koruma Kurulu (EDPB), ChatGPT konusunda bir görev gücü oluşturduğunu ve bunun yapay zeka konusunda gizlilik kurallarının belirlenmesine yönelik ortak bir politikaya doğru potansiyel olarak önemli bir ilk adım olduğunu söyledi. ABD yönetimi, diğer bazı Avrupa hükümetleri ve uzmanlar da ChatGPT ve benzeri yapay zeka ürünlerinin benimsenmesindeki hızla ilgili endişeleri dile getiriyor.

Gizli bilgiler dahil edilmemeli

Peki ChatGPT ve diğer üretken yapay zeka sistemleri hızla gelişimini sürdürüp kullanımını yaygınlaştırırken nelere dikkat etmek gerekiyor?

Öncelikle herhangi bir ChatGPT veya diğer üretken yapay zeka sistemine gizli bilgileri dahil etmemek önemli. Bir ChatGPT veya diğer üretken yapay zeka sistemine şirketlerin iç bilgilerini, faaliyetlerini veya planlarını dahil etmemek de diğer bir önemli unsur.
Uzmanlar, üretken bir yapay zekâ sistemiyle kaynak kodunu veya diğer fikri mülkiyeti paylaşmamak gerektiğinin altını çiziyor. “Eğer paylaşırsanız, onu tamamen vermiş olursunuz” diyor. Bir ChatGPT etkileşiminde doğrudan veya dolaylı olarak herhangi bir kişiyle ilgili kişisel verileri dahil etmemek de gerekiyor. Bu halka açık AI hizmetlerinin ücretsiz kullanımı için kurumsal kimliği kullanmamak da şart.

“Sizin adınıza karar vermesine izin vermeyin”

ChatGPT’nin birçok konuda fikir yürüttüğü, kullanıcıların çözüm bulmakta zorlandıkları alanlarda ChatGPT’ye danıştıkları biliniyor. Bu nedenler uzmanlar, “Yapay zekanın sizin adınıza karar vermesine izin vermeyin, çünkü verilen cevaplar ve öneriler etik dışı, saçma veya gerekli tüm gerçekleri dikkate almayabilir ve aldığınız kararlardan siz sorumlu tutulabilirsiniz” diye uyarıyor.

Neyin gizli ve dahili olabileceği konusunda da geniş kapsamlı düşünmek gerekiyor. Bir güvenlik şirketinde bir işlevi organize etmenin yollarını mı yoksa rol açıklamalarıyla ilgili ayrıntıları veya ürünleri ve hizmetleri optimize etmenin yollarını mı soruyorsunuz? Bu, halka açık olmayan ürün veya hizmet tekliflerindeki düzenlemeler veya organizasyonel değişiklikler hakkında bilgi verir mi? Sorduğunuz sorular zinciri aracılığıyla, hangi şirkette çalıştığınız veya ne hakkında soru sorduğunuzla ilgili sonuçlara varmanız mümkün olur mu? Tüm bu soruların yanıtlarını vermek gerekiyor.

Ortak akıl ve şüphecilikle yaklaşın

Örneğin, bir kişiyle ilgili belirli bir şirket içi olay veya değişiklik hakkındaki bilgilerin de dolaylı olarak kişisel veri olarak kabul edilebileceğini unutmamak da önemli. Bir yanıtın/tavsiyenin temelinin ne olduğu konusunda hiçbir fikriniz yoksa bu konuya da ortak akıl ve şüphecilik ile yaklaşmak şart. Kişilerin her defasında temel değerleri kendisine hatırlatması ve üretken yapay zekâ sistemlerini kullanırken bunları uygulamak için özellikle çalıştığı şirketin davranış kurallarını, dahili gizlilik politikasını, dijital güvenlik politikasını ve çalışma alanlarıyla ilgili tüm ek yönlendirme belgelerini dikkate alması da yine önemli bir detay olarak ön plana çıkıyor. Çalışanlar bu yönergeleri izleyerek, ChatGPT gibi üretken yapay zekanın hem kuruluşun hem paydaşlarının gizliliğini ve mahremiyetini koruyan sorumlu ve etik bir şekilde kullanılmasını sağlamaya yardımcı oluyor.