Yapay Zekâ, Tehlikeleri de Beraberinde Getirecek
Yapay Zekâ, Tehlikeleri de Beraberinde Getirecek
Füzeye dönüştürülmüş insansız hava araçları, kamuoyunu manipüle eden sahte videolar ve otomatikleştirilmiş bilgisayar korsanlığı… Uzmanlara göre bunlar yanlış ellere düşen yapay zekânın getirdiği tehlikelerden sadece üçü.
Onlarca uluslararası güvenlik uzmanı yapay zekânın kötü niyetle kullanıldığında oluşturabileceği tehlikeler hakkında bir rapor yayımladı. 100 sayfalık raporda, yapay zekâyı tasarlayanlar, teknolojinin kötüye kullanımını engellemek için daha fazla çaba sabretmeleri konusunda uyarılıyor. Raporda, hükümetlerin bu konuda yapabilecekleri de sıralanıyor:- Kanun koyucular ve teknik araştırmacılar, yapay zekânın kötüye kullanımının açacağı sorunları anlamak ve buna karşı hazırlanmak için birlikte çalışmalılar.
– Yapay zekâ olumlu amaçlar için kullanılabilse de, gerçekte iki taraflı bir teknoloji olduğunun farkına varılmalı ve yapay zekâ araştırmacıları ve mühendisleri dikkatli olmalı ve kötüye kullanılma ihtimalini önceden göz önünde bulundurmalı.
– Bilgisayar güvenliği gibi, uzun zamandır çift yönlü riskleri olan disiplinlerden ders çıkarmalılar.
– Yapay zekânın kötüye kullanılmasının oluşturacağı tehditleri önlemek ve azaltmak konusunda daha fazla çıkar grubu harekete geçmeli.
Cambridge Üniversitesi Varoluşsal Risk Araştırması Merkezi’nden Shahar Avin, BBC’ye yaptığı açıklamada, raporda yapay zekânın uzak bir geleceğe dair ortaya koyduğu tehditlerden ziyade, şu an getirdiği ya da önümüzdeki beş yıl içinde getirebileceği tehditlerin ele alındığını söyledi.
YAKIN ZAMANDAKİ TEHLİKELER
Yapay zekâda özellikle endişe verici olan, rehberlik eden ya da bir insan örneği olmadan, insanüstü seviyelerde zekâya sahip olacak şekilde eğitilmeleri. Shahar Avin, yakın gelecekte yapay zekânın kötü amaçlı kullanılabileceği muhtemel birkaç senaryoyu sıraladı:- Google’ın yapay zekâ şirketi DeepMind tarafından geliştirilen ve zekâsıyla rakiplerini alt eden AlphaGo oyunu, bilgisayar korsanları tarafından verilerde yeni örüntüleri ve kodlardan yararlanmanın yeni yollarını bulmak için kullanılabilir.
– Kötü niyetli bir kişi bir insansız hava aracı satın alarak, belirli bir kişiyi hedef alması için onu yüz tanıma yazılımıyla eğitebilir.
– Botlar otomatikleştirilebilir ya da sahte videolar siyasi manipülasyon için kullanılabilir.
– Bilgisayar korsanları hedeflerin kimliğine bürünmek için ses sentezini kullanabilir.
Oxford Üniversitesi İnsanlığın Geleceği Enstitüsü’nden araştırmacı Miles Brundage şöyle diyor: “Yapay zekâ vatandaşlar, organizasyonlar ve devletler için risklerin büyüklüğünü değiştirecek. Suçlular makineleri hacklemek ya da şifre çalmak üzere insan kapasitesi seviyesinde eğitebilir ya da gözetleme, fişleme ve baskı amacıyla kullanılabilir. Güvenlik üzerindeki etkileri çok büyük.”
Genellikle yapay zekâ sistemleri sadece insan seviyesinde performansa ulaşmıyor, aynı zamanda onu önemli ölçüde aşıyor: “Hackleme, gözetim, ikna ve fiziki hedef tanımlamanın insanüstü seviyede yapılabilecek olduğunu düşünmek rahatsız edici ama gerekli. İnsan seviyesine ulaşmamış yapay zekânın insanlardan daha fazla geliştirilebilecek olması da aynı şekilde.”
İnsanlığın Geleceği Enstitüsü Müdürü Doktor Seán Ó hÉigeartaigh tehditlerin gerçek olduğuna dikkat çekiyor ve dünya çapında hükümetleri, kurumları ve insanları harekete geçmeye çağırıyor.
Haber: Jane Wakefield
Kaynak: BBC Türkçe