Eski Google Yöneticisinden Uyarı: Yapay Zeka Pandemiye Neden Olabilir

Independent Türkçe’nin haberine göre, Google DeepMind’in kurucu ortağı Mustafa Süleyman, yapay zekanın patojenlerin daha fazla zarar vermesi amacıyla tasarlanmasının, potansiyel bir pandemi senaryosuna yol açabileceği konusundaki endişelerini ifade etti.

‘Kontrol Altına Almamız Gerekiyor’

Yakın zamanda yayınlanan bir podcast bölümünde, “En kötü senaryo, insanların bilerek veya yanlışlıkla daha bulaşıcı veya ölümcül olabilen tasarlanmış sentetik patojenlerle deneyler yapmasıdır.” ifadesi kullanıldı.

Mustafa Süleyman, insanların şarbon gibi patojen mikroplarına erişimini kısıtlayan önlemlerin yanı sıra, gelişmiş yapay zekâ teknolojisinin ve bu tür modelleri çalıştıran yazılımların erişimine de sınırlamalar getirilmesi gerektiğini savunuyor.

“The Diary of a CEO” podcast’inde, “İşte burada kesinlikle kontrolü sağlamamız gerekiyor. Bu tür deneylere ve bu tür bilgilere erişimi sınırlamamız gerekiyor.” ifadesini kullandı.

Google DeepMind’ın Kurucu Ortağı Şu İfadelerde Bulundu

Bu tür kaynaklara erişimi sınırlamalıyız. Yapay zekâ yazılımları, bulut sistemleri ve hatta bazı biyolojik materyallerin kimler tarafından kullanılabileceğini sınırlamamız gerekiyor.

Süleyman, “Elbette biyoloji alanında, belirli maddelere erişimin sınırlanması gerektiği anlamına geliyor.” dedi ve yapay zekâ gelişimine “ihtiyatlılık ilkesi”yle yaklaşmanın önemine dikkat çekti.

Süleyman’ın ifadeleri, biyoloji konusunda eğitim almayan lisans öğrencilerinin dahi yapay zekâ sistemlerinden ayrıntılı biyolojik silah önerileri alabildiğini belirten yakın tarihli bir araştırmada ifade edilen endişeleri yeniden dile getiriyor.

Massachusetts Teknoloji Enstitüsü (MIT) dahil bir dizi araştırmacı, sohbet robotlarının sadece bir saat içinde “potansiyel bir pandemi oluşturma potansiyeline sahip 4 patojeni” önerebileceğini ve bu patojenlerin sentetik DNA kullanılarak nasıl üretilebileceğini açıklayabileceğini keşfetti.

Araştırma, sohbet robotlarının ayrıca genellikle siparişlerini almayan DNA sentez şirketlerinin adlarını verdiğini, ayrıntılı protokolleri sunarak ve bu süreçte ortaya çıkabilecek sorunların nasıl çözülebileceğini belirlediğini ve bu alanda deneyimi olmayanların bir merkezi tesis veya sözleşmeli araştırma kuruluşu ile iş birliği yapmalarını tavsiye ettiğini ortaya koydu.

Çalışmada, ChatGPT gibi büyük dil modelleri (LLM’ler) ile ilgili “pandemi sınıfı virüslerin güvenilir bir şekilde tanımlandığı andan itibaren, laboratuvar eğitimi çok az veya hiç olmayan kişilere dahi yaygın erişim sağlayabilecekler.” dendi.

MIT’den biyolojik risk uzmanı Kevin Esvelt’in de aralarında bulunduğu bir ekip, “yayılma önleyici önlemler” alınması gerektiği çağrısında bulunan bir çalışma gerçekleştirdi.

Bu tedbirler, büyük dil modellerinin (LLM’ler) kullanılmadan önce üçüncü taraflarca değerlendirilmesini, eğitim veri kümelerinin zararlı içeriklerden arındırılmasını ve sentez sağlayıcılar tarafından üretilen veya sözleşmeli araştırma kuruluşları ve robotik ‘bulut laboratuvarları’ tarafından organizma veya virüs mühendisliği için kullanılan tüm DNA’ların doğrulanabilir bir şekilde taranmasını içerebilir.


Yayımlandı

kategorisi

yazarı:

Etiketler:

Yorumlar

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir