Bist 100
9.344,97 1%
DOLAR
30,93 0,03%
EURO
33,47 -0,01%
ALTIN
2.011,93 0%

AB, yapay zeka teknolojilerine katı kurallar getiriyor

Avrupa Birliği (AB) kurumları, ChatGPT ve Gemini gibi çeşitli yapay zeka teknolojilerine katı kurallar getirecek yeni yasa konusunda anlaşma sağladı. Yüksek riskli yapay zeka sistemlerine daha katı kurallar getirilecek. Kolluk kuvvetleri, acil durumlarda yüksek riskli bir yapay zeka aracını devreye sokabilecek.

Yayın Tarihi: 09.12.2023 12:52
Güncelleme Tarihi: 09.12.2023 12:52

AB, yapay zeka teknolojilerine katı kurallar getiriyor

Avrupa Birliği (AB), yapay zeka teknolojilerinin güvenli, adil ve şeffaf bir şekilde kullanılmasını sağlamak için dünyada ilk kez kapsamlı bir yasal çerçeve oluşturuyor. AB kurumları, yapay zeka sistemlerinin topluma zarar verme ihtimaline göre “risk temelli” bir yaklaşımla düzenleneceği yeni yasa konusunda anlaşma sağladı.

Yapay zeka sistemleri, günlük hayatın pek çok alanında kullanılıyor. Örneğin, akıllı telefonlarda, sosyal medyada, e-ticarette, sağlıkta, eğitimde, ulaşımda, tarımda ve güvenlikte yapay zeka teknolojilerinden faydalanılıyor. Ancak yapay zeka sistemlerinin yanlış veya kötüye kullanılması durumunda insan hakları, özgürlükler, gizlilik, ayrımcılık, güvenlik ve demokrasi gibi değerler tehlikeye girebilir.

Bu nedenle, AB, yapay zeka sistemlerinin güvenli olmasını, temel haklara ve Birlik değerlerine saygılı göstermesini gerektiren bir yasal çerçeve oluşturuyor. Bu çerçevede, yapay zeka sistemleri yasaklanan, yüksek riskli, sınırlı riskli ve minimal riskli olmak üzere dört kategoriye ayrılıyor.

YASAKLANAN YAPAY ZEKA SİSTEMLERİ

Yapay zekanın bazı kullanımlarındaki risk kabul edilemez olarak değerlendiriliyor ve bu sistemler AB’de yasaklanıyor. Bu sistemler, insanların temel haklarını, özgürlüklerini ve değerlerini ihlal eden veya ciddi şekilde tehdit eden sistemlerdir.

uygulamalarının ihlali durumunda şirket cirosunun yüzde 7'si veya 35 milyon avro, yükümlülüklere uymama durumunda cirosunun yüzde 3'ü veya 15 milyon avro, hatalı veri paylaşılması durumunda da cirosunun yüzde 1,5'i veya 7,5 milyon avro para cezası kesilecek. Ceza kesilirken şirkete maliyeti yüksek olan değer kullanılacak.

AB ülkeleri ve AP tarafından resmen onaylanmasının ardından yürürlüğe girecek yasanın uygulamasına resmi onayın 2 yıl sonrasında başlanacak.

YÜKSEK RİSKLİ YAPAY ZEKA SİSTEMLERİ

Yüksek riskli yapay zeka sistemleri, insanların hayatını, sağlığını, güvenliğini veya temel haklarını etkileyebilecek sistemlerdir. Bu sistemler, AB pazarına erişmeden önce bir dizi kural ve yükümlülüğe tabi olacak.

Örneğin, sağlık, ulaşım, adalet, kolluk, istihdam, sosyal güvenlik, eğitim, göç, sınır kontrolü ve vatandaşlık gibi alanlarda kullanılan yapay zeka sistemleri yüksek riskli olarak kabul ediliyor.

Bu tür yapay zeka sistemlerinin, güvenilir, güvenli ve doğru olması, insan müdahalesine izin vermesi, şeffaf ve izlenebilir olması, insan gözetimi altında çalışması, ayrımcılık yapmaması ve insan onuruna saygılı olması gerekiyor.

Yüksek riskli yapay zeka sistemlerinin geliştiricileri, sağlayıcıları ve kullanıcıları, bu sistemlerin uygunluk değerlendirmesinden geçtiğini, kalite yönetim sistemine sahip olduklarını, risk yönetimi planı hazırladıklarını, kullanım kılavuzu ve güvenlik bilgileri sunduklarını, insan gözetimi mekanizmaları kurduklarını, veri yönetimi politikaları uyguladıklarını ve olay bildirim sistemine katıldıklarını kanıtlamak zorunda olacak.

yapay zeka

SINIRLI RİSKLİ YAPAY ZEKA SİSTEMLERİ

Sınırlı risk sunan yapay zeka sistemleri, kullanıcıların bilinçli kararlar alabilmesi için içeriğin yapay zeka tarafından oluşturulduğunu açık biçimde bildirecek. Bu sistemler, hafif şeffaflık yükümlülüklerine tabi tutulacak.

Örneğin, video, metin, görüntü oluşturma, başka dilde konuşma, hesaplama veya bilgisayar kodu yazma gibi çok çeşitli farklı görevleri yerine getirebilen büyük sistemlere özel kurallar getirilecek. Söz konusu genel amaçlı yapay zeka sistemlerinin piyasaya sürülmeden önce çeşitli şeffaflık yükümlülüklere uyması sağlanacak.

Bu tür yapay zeka sistemleri, insanların gerçeklik algısını bozabilir, yanlış bilgilere veya sahte haberlere yol açabilir, insanların karar alma süreçlerini etkileyebilir veya insanların haklarını ihlal edebilir.

MİNİMAL RİSKLİ YAPAY ZEKA SİSTEMLERİ

Minimal riskli yapay zeka sistemleri, insanların hayatını, sağlığını, güvenliğini veya temel haklarını etkilemeyen sistemlerdir. Bu sistemler, herhangi bir yasal yükümlülüğe tabi olmayacak.

Örneğin, video oyunları, spam filtreleri, e-posta otomatik yanıtları, akıllı kişisel asistanlar, çevrimiçi alışveriş tavsiyeleri, müzik veya film önerileri gibi alanlarda kullanılan yapay zeka sistemleri minimal riskli olarak kabul ediliyor.

Bu tür yapay zeka sistemleri, insanların günlük hayatını kolaylaştırmak, eğlendirmek veya bilgilendirmek için kullanılıyor. Bu sistemler, insanların özerkliğine, özgür iradesine, özel hayatına, kişisel verilerine ve diğer haklarına zarar vermiyor.

YAPAY ZEKA OFİSİ KURULUYOR

AB Komisyonu bünyesinde, gelişmiş yapay zeka modellerini denetlemek, standartların ve test uygulamalarını geliştirmeye katkıda bulunmak ve bütün üye ülkelerde ortak kuralları uygulamakla görevli bir “Yapay Zeka Ofisi” kurulacak.

Bağımsız uzmanlardan oluşan bilimsel bir panel, Yapay Zeka Ofisine tavsiyelerde bulunacak. Üye ülkelerin temsilcilerinden oluşacak olan Yapay Zeka Kurulu, Komisyon için bir koordinasyon platformu ve danışma organı olarak çalışacak.