,
  • BIST 9915.62
  • Altın 2440.177
  • Dolar 32.4575
  • Euro 34.7559
  • İstanbul 20 °C
  • Ankara 24 °C
  • İzmir 25 °C
  • Antalya 27 °C

Şirket verilerinizi yapay zeka ile ifşa etmeyin!

Şirket verilerinizi yapay zeka ile ifşa etmeyin!
Uzmanlar, ChatGPT gibi yenilikçi yapay zekâ araçlarının avantajlarından yararlanmadan önce, çalışanların veri güvenliğini tehlikeye atmadan bu araçlarla nasıl güvenli bir şekilde etkileşim kuracaklarını bilmeleri gerektiğini vurguladı.

Yapay zekâ (AI) araçlarıyla ilgili tartışmalar yakın zamanda en çok öne çıkan konu haline geldi. Üretkenliği artırma ve zamandan tasarruf etme yetenekleri nedeniyle, birçok çalışan bu araçları günlük iş rutinlerine uyarlamaya başladı.

Bir siber güvenlik şirketinin Türkiye Ürün ve Pazarlama Müdürü Can Erginkurban, ChatGPT gibi yenilikçi yapay zekâ araçlarının avantajlarından yararlanmadan önce, çalışanların veri güvenliğini tehlikeye atmadan bu araçlarla nasıl güvenli bir şekilde etkileşim kuracaklarını bilmeleri gerektiğini vurgulayarak önemli bir riske dikkat çekti. 

Yapay zekâ  araçlarının fikir geliştirmeye, metin parçalarını özetlemeye veya yeniden ifade etmeye, hatta bir iş stratejisi için bir temel oluşturmaya yardımcı olabileceğini belirten Erginkurban, ancak yapay zekayı kullanırken araçlara girilen verilerin gönder düğmesine basıldığı anda bize ait olmaktan çıktığına dikkat çekti.

"İstemeden de olsa kendimiz veya şirketimiz hakkında veri paylaşabiliriz"

Erginkurban, "ChatGPT gibi büyük dil modellerini (LLM’ler) kullanırken temel kaygılardan biri, hassas verilerin büyük uluslararası şirketlerle paylaşılmasıdır. Bu modeller, kullanıcı sorgularını etkili bir şekilde yorumlamalarını ve yanıtlamalarını sağlayan çevrimiçi metinlerdir. Ancak bir sohbet robotu ile etkileşime girip bilgi veya yardım istediğimiz her seferde, istemeden de olsa kendimiz veya şirketimiz hakkında veri paylaşabiliriz. Bir sohbet robotu için bir istem yazdığımızda, girilen veriler herkese açık hale gelir. Bu, sohbet robotlarının bu bilgileri temel olarak diğer kullanıcılara yanıt vermek için hemen kullanacağı anlamına gelmez. Ancak LLM sağlayıcısı veya ortakları bu sorgulara erişebilir ve bunları teknolojinin gelecekteki sürümlerine dahil edebilir." dedi.

ChatGPT geçmişini kapatmak yeterli mi?

ChatGPT’nin arkasındaki kuruluş olan OpenAI'in sohbet geçmişini kapatma seçeneğini sunarak kullanıcı verilerinin OpenAI’nin yapay zekâ modellerini eğitmek ve geliştirmek için kullanılmasını engellediğini ifade eden Erginkurban, "Bu şekilde kullanıcılar verileri üzerinde daha fazla kontrol sahibi oluyor. Çalışanlar ChatGPT gibi araçları kullanmak istiyorlarsa, sohbet geçmişini kapatmak ilk adımları olmalıdır.  Sohbet geçmişi kapalı olsa bile, tüm istem verileri sohbet botu sunucularında saklanmaya devam eder. Tüm istemlerin harici sunuculara kaydedilmesi, bilgisayar korsanlarının yetkisiz erişimine yönelik potansiyel bir tehdit oluşturmaktadır. Ayrıca, teknik hatalar zaman zaman yetkisiz kişilerin diğer sohbet robotu kullanıcılarına ait verilere erişmesini sağlayabilir." değerlendirmesinde bulundu.

Şirket çalışanlarının en sık yaptığı hatalar

Erginkurban, şu uyarılarda bulundu:

"Müşteri verilerini girdi olarak kullanmak Çalışanların LLM’leri kullanırken yaptıkları ilk yaygın hata, şirketlerinin müşterileri hakkındaki hassas bilgileri paylaşmaktır. Çalışanların sorgularını sohbet robotlarına girmeden önce kalıcı olarak anonimleştirmeyi bilmesi gerekir. Müşteri gizliliğini korumak için isim, adres veya hesap numarası gibi hassas bilgileri gözden geçirmeleri ve dikkatlice ayıklamaları lazım. En iyi uygulama, ilk etapta kişisel bilgileri kullanmaktan kaçınmak ve genel sorulara veya sorgulara güvenmektir.

Gizli belgelerin sohbet robotlarına yüklenmesi Sohbet robotları, büyük hacimli verileri hızlı bir şekilde özetlemek ve taslaklar, sunumlar veya raporlar oluşturmak için değerli araçlar olabilir. Yine de ChatGPT gibi araçlara belge yüklemek, bu belgelerde saklanan şirket veya müşteri verilerini tehlikeye atmak anlamına gelebilir. Belgeleri basitçe kopyalamak ve araçtan sunum slaytları için özetler veya öneriler oluşturmasını istemek cazip gelse de bu veri açısından güvenli bir yol değildir.  Bu, geliştirme stratejileri gibi önemli belgeler için geçerli olduğu gibi, toplantı notları gibi daha az önemli belgeler de çalışanların şirketlerinin değerli bilgi birikimini ortaya çıkarmasına yol açabilir. Çalışanların chatbottan bir özet veya yardım talep etmeden önce belgeleri manuel olarak incelemesi gerekir."

Şirket verilerinin ChatGPT ‘de ifşa edilmesi Şirketinizin bazı uygulamalarını ve iş akışlarını iyileştirmeye çalıştığınızı düşünün. ChatGPT’den zaman yönetimi veya görev yapısı konusunda yardım istiyorsunuz. Chatbotun bir çözüm geliştirmesine yardımcı olmak için bilgi istemine değerli bilgi birikiminizi ve diğer verileri giriyorsunuz. Tıpkı hassas belgelerin veya müşteri verilerinin chatbotlara girilmesi gibi, hassas şirket verilerinin de bilgi istemine dahil edilmesi, yetkisiz erişime veya gizli bilgilerin sızmasına yol açabilecek yaygın ancak potansiyel olarak zarar verici bir uygulamadır." (İLKHA)

  • Yorumlar 0
  • Facebook Yorumları 0
    UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
    Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
    Bu habere henüz yorum eklenmemiştir.
Diğer Haberler
Tüm Hakları Saklıdır © 2016 Hür 24 | İzinsiz ve kaynak gösterilmeden yayınlanamaz.
Tel : 0 532 658 98 55