OpenAI, ChatGPT'nin biyolojik tehditler yaratmaya yardımcı olmak için kullanılma ihtimalinin çok düşük olduğunu belirtiyor.
Yapay zekâ girişimi yeni bir raporda GPT-4 modelinin biyolojik silah yaratma becerisinde "en fazla hafif bir artış" sağladığını söyledi. Fakat gelecekteki modellerin biyolojik silah yapımına yardımcı olmak için sohbet robotlarını kullanmak isteyen "kötü niyetli aktörler" için daha yararlı olabileceği konusunda uyardı.
Uzmanlar, yapay zekânın, teröristlerin biyolojik ve kimyasal silahlar üretmelerine ya da saldırılarını planlamalarına yardımcı olarak biyolojik terör saldırılarını kolaylaştırmak için kullanılabileceği konusunda uyarıda bulundu.
Rand Corporation'ın geçen yıl yayınladığı önemli bir rapor, büyük dil modellerinin (LLM'ler) biyolojik saldırıların planlanmasına yardımcı olmak için kullanılabileceğini ortaya koydu. Ancak bu modellerin biyolojik silahların yaratılması için özel talimatlar sağlayamayacağını belirtti.
Ayrıca, teknoloji sektöründen başkaları da endişelerini dile getirdi. Geçen yıl ABD’de senato komitesi oturumlarında Anthropic CEO'su Dario Amodei, yapay zekâ modellerinin yakında gelişmiş biyolojik silahlar için talimatlar sağlayabileceğini söyledi ve Mark Zuckerberg, Meta'nın Llama 2 modelinin şarbonun nasıl oluşturulacağına dair ayrıntılı bir yol tarifi sağladığı iddialarıyla karşı karşıya kaldı.
Gelişmiş yapay zekânın gelişiminden kaynaklanabilecek potansiyel felaket etkilerini incelemek üzere geçen yıl kurulan OpenAI'nin hazırlık ekibinin raporu, bu endişeleri araştırmayı amaçlıyordu.
Araştırmacılar, 50 biyoloji uzmanı ve üniversitede biyoloji alanında en az bir ders almış 50 öğrenciden oluşan bir grup oluşturdu ve bunları rastgele GPT-4'e erişimi olan bir gruba veya internete erişimi olan bir kontrol grubuna atadı.
CHATGPT KÖTÜ NİYETLİ AKTÖRLERE ÖNEMLİ FAYDA SAĞLAYABİLİR
Her iki gruba da yüksek derecede bulaşıcı olan Ebola virüsünü nasıl sentezleyecekleri de dahil olmak üzere biyolojik silah üretimiyle ilgili bir dizi soruyu yanıtlama görevi verildi. GPT-4 grubuna, ChatGPT'den farklı olarak, daha az "güvenlik korkuluğu" bulunan modelin yalnızca araştırma amaçlı bir versiyonuna erişim izni verildi.
Çalışma, GPT-4'e erişimi olanların, sadece internet kullanan gruba göre doğruluk ve ayrıntılarda küçük bir artış görmesine rağmen, artışın riskte gerçek bir artışa işaret edecek kadar istatistiksel olarak anlamlı olmadığını ortaya koydu.
OpenAI, "Bu artış kesin olacak kadar büyük olmasa da, bulgumuz devam eden araştırma ve topluluk müzakeresi için bir başlangıç noktasıdır" dedi.
Ayrıca, yapay zekâdaki mevcut inovasyon hızı göz önüne alındığında, ChatGPT'nin gelecekteki sürümlerinin "kötü niyetli aktörlere önemli faydalar sağlamasının" mümkün olduğunu açıkladı.