Uluslararası Af Örgütü, Google'ın yapay zeka ilkelerini güvenlik temelinde güncellemesine karşı sert bir tepki gösterdi. Örgüt, bu durumu 'utanç verici bir karar' olarak tanımladı.
Uluslararası Af Örgütü, Google’ın hafta içinde yapay zeka ilkeleri ile ilgili yaptığı değişikliklerin ardından internet sitesinde yazılı bir açıklama yayımladı. Açıklamada, 2018'de benimsenen yapay zeka kullanım alanlarına dair ilkelerde yapılan güvenlik odaklı değişiklikler eleştirildi.
Açıklamada, örgütün yapay zekanın olası zararlarına dair yürüttüğü çalışmaların altı çizilerek, "Yapay zeka programlarının insan hakları ihlallerine neden olacak şekilde kullanılmamasını benimsedikten yıllar sonra Google'ın böyle tehlikeli bir emsal kararı seçmiş olması utanç vericidir." ifadesi yer aldı.
Örgüt, silah ve gözetleme sistemlerinde yapay zekanın kullanım olasılığının 'insan haklarına darbe' olabileceğini belirtti. Ayrıca, yapay zekanın 'geniş çaplı gözetleme sistemleri ve ölümcül araçların geliştirilmesi' gibi durumlarda kullanılma ihtimaline dikkat çekti.
Google'ın bu adımla, 'insanlara zarar verebilecek teknolojileri geliştirmede kullanılabilecek ürünlerin pazarlanması' amacını güttüğü iddia edildi. Örgüt, Google'ın söz konusu karardan 'ivedilikle' vazgeçmesini talep etti. Ayrıca, devletlerin 'insan hakları ilkelerine dayalı olarak' bu tür teknolojilerin kullanımıyla ilgili bağlayıcı yönetmelikler oluşturması gerektiğinin altı çizildi.
Yeni güncellemede güvenlik vurgusu
Google, hafta içinde yaptığı açıklamada, 2018'de yayımladığı yapay zeka ilkelerine güncelleme getirildiğini duyurmuştu. Bu güncellemelerde güvenlik odaklı değişikliklerin dikkat çektiği belirtildi. Önceki ilkeler arasında yer alan 'yapay zeka araçlarının silahlar, gözetleme araçları, zarara yol açabilecek teknolojiler ve uluslararası hukuk ile insan haklarını ihlal edebilecek durumlarda kullanılmayacağı' ifadesinin güncellemeye dahil edilmemesi, Uluslararası Af Örgütü tarafından eleştirildi.