Araştırma: Bazı yapay zekâ modelleri kendini başka bilgisayarlara kopyalanabiliyor

Araştırma: Bazı yapay zekâ modelleri kendini başka bilgisayarlara kopyalanabiliyor
ABD merkezli araştırma kuruluşu Palisade Research tarafından yayımlanan yeni bir çalışma, bazı gelişmiş yapay zekâ sistemlerinin ağ üzerindeki güvenlik açıklarını kullanarak kendilerini başka bilgisayarlara kopyalayabildiğini ortaya koydu. Araştırma, uzmanlar arasında hem teknoloji güvenliği hem de gelecekteki olası riskler konusunda yeni tartışmaları beraberinde getirdi.

Berkeley merkezli kuruluşun direktörü Jeffrey Ladish, çalışmanın sonuçlarına ilişkin yaptığı değerlendirmede "Kontrolden çıkan bir yapay zekânın kapatılmasını engellemek için kendi ağırlıklarını dışarı aktararak dünya çapında binlerce bilgisayara kopyalanabileceği bir noktaya hızla yaklaşıyoruz." ifadelerini kullandı.

Araştırmada, birden fazla yapay zekâ modeli kontrollü bir ağ ortamında test edildi. Modellerden, güvenlik açıklarını tespit edip bunları kullanarak kendilerini bir bilgisayardan diğerine kopyalamaları istendi. Yapay zekâ sistemlerinin bu işlemi bazı denemelerde başarıyla gerçekleştirdiği belirtildi.

Uzmanlar, bilgisayar virüslerinin yıllardır benzer şekilde çoğalabildiğini ancak ilk kez bir büyük dil modelinin güvenlik açıklarını kullanarak başka bir sunucuya kendi kopyasını taşımasının belgelenmiş olabileceğini ifade etti.

Siber güvenlik uzmanı Jamieson O’Reilly ise araştırmanın önemine dikkat çekmekle birlikte, test ortamlarının gerçek dünyaya kıyasla daha savunmasız olduğunu söyledi. O’Reilly "Gerçek kurumsal ağlarda orta düzey bir izleme sistemi bile bu tür faaliyetleri büyük ölçüde fark edebilir." değerlendirmesinde bulundu.

Uzmanlara göre mevcut yapay zekâ modellerinin büyük veri boyutları da dikkat çekmeden çoğalmalarını zorlaştırıyor. Bazı modellerin yüzlerce gigabaytlık veri transferi gerektirdiği, bunun da ağ trafiğinde kolayca tespit edilebileceği belirtiliyor.

Bağımsız siber güvenlik uzmanı Michał Woźniak da araştırmanın ilgi çekici olduğunu ancak mevcut sonuçların "kıyamet senaryosu" olarak yorumlanmasının abartılı olacağını söyledi. Woźniak "Bu çalışma beni bir bilgi güvenliği uzmanı olarak uykusuz bırakacak düzeyde değil." dedi.

Son aylarda yapay zekâ sistemlerinin beklenmedik davranışlarına ilişkin benzer iddialar artarken, uzmanlar kontrollü laboratuvar testleri ile gerçek dünya koşulları arasındaki farkın göz önünde bulundurulması gerektiğini vurguluyor.

Kaynak:İLKHA

HABERE YORUM KAT
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.