AB Yapay Zeka Yasası

AB Yapay Zeka Yasası

Son yılların belki de en heyecanlandırıcı gelişmelerinden olan yapay zeka; sağlık, finans, ulaşım de dahil olmak üzere bir çok sektörde çeşitli ekonomik ve toplumsal faydalar getirmesi bekleniyor. Hastalıkların tedavisi, üretkenliğin artması ve iklim değişikliğine yönelik çözümler gibi potansiyel faydaları yaygın olarak kabul edilse de, bu ilerlemelerin doğal riskleri de beraberinde getirdiğinin kabul edilmesi önemlidir.

Yapay zeka pek çok farklı sektör ve uygulamada kullanılmaya başlandı ancak bazı durumlarda insan haklarını etkileyen sorunlar da yaşandı. Hollanda hükümeti sosyal yardımları yönetmek için bir uygulama başlattı ancak ne yazık ki bu uygulama yabancılara karşı ciddi bir önyargı sergileyerek büyük bir skandala yol açtı ve ardından başvurunun durdurulmasına yol açtı. Gizlilik de önemli bir endişe kaynağı olarak ortaya çıkıyor. Tüm makine öğrenimi sistemleri kişisel verilere dayanmasa da önemli bir çoğunluk bunu yapıyor. Üstelik bu sistemler kişisel verileri yalnızca eğitim modelleri için kullanmakla kalmıyor, aynı zamanda kişisel verilerden çıkarım yapıp tahmin edebiliyor, bu da bireyler için mahremiyet sonuçlarıyla ilgili geçerli endişeleri artırıyor.

AB Yapay Zeka Yasası

Kişisel tedbirlerle ne kadar başarılı olacağımız merak konusuyken devletler de yapay zekayı gündemine aldı. Dünyanın çeşitli yerlerinde yapay zekânın yasal çerçevesini oluşturmak üzere çalışmalar sürerken bu alanda kapsamlı bir kanun için ilk somut adımı Avrupa Birliği attı. Avrupa Birliği, dijital stratejisinin bir parçası olarak yapay zekayı, bu teknolojinin geliştirilmesi ve kullanılması için uygun koşulları sağlayacak şekilde düzenlemeyi amaçlıyor. AB hükümetleri ve Avrupa Parlamentosu Üyeleri, ChatGPT dahil yapay zeka sistemlerini yöneten bir anlaşmaya vardı. Yeni yasa ile yapay zeka uygulamasına risk temelli bir yaklaşım izlenecek. Bu uygulamanın yaratacağı riskler, “en yüksek” ve “en düşük”, “kabul edilemez” ve “spesifik şeffaflık riski” olarak sınıflandırılıyor.

Kabul edilemez risk: İnsanların temel haklarına yönelik açık bir tehdit olarak değerlendirilen yapay zeka sistemleri yasaklanacak. Bu kapsamda, insanları davranışlarından dolayı ödüllendiren ya da cezalandıran vatandaş takip sistemleri ya da insan davranışlarını manipüle etmeye çalışan yapay zeka sistemlerine izin verilmeyecek.

Yüksek risk: Su, enerji, yargı, güvenlik, sağlık ve biyometri gibi yaşamsal öneme sahip alanları yönetmek için kullanılan yapay zeka sistemleri bu kapsamda yer alıyor.

Spesifik şeffaflık riski: Kullanıcıların, sohbet robotları gibi yapay zeka sistemlerini kullanırken bir makineyle etkileşimde bulunduklarının farkında olmaları sağlanacak.

Düşük risk: İnsan hakları ve güvenliği açısından daha düşük düzeyde riske sahip olan yapay zeka destekli öneri sistemleri veya spam filtreleri gibi uygulamalar, daha esnek kurallara sahip olacak.

Yapay Zeka Yasası konusunda AB’nin en büyük üç ülkesi olan Almanya, Fransa ve İtalya’nın çekinceleri vardı. Bu ülkeler, katı kuralların sadece ABD’li teknoloji şirketlerini değil, Avrupalı kuruşları da etkileyeceğini savunuyordu. Uzun süren müzakereler sonucu, bu ülkeler ikna edildi. Yapay Zeka Yasası’nın, “temel haklara ve demokrasiye saygı gösterdiği, aynı zamanda işletmelerin gelişmesine ve büyümesine izin verdiği” konusunda anlaşma sağlandı.

Kaynak: https://emag.directindustry.com/2023/12/20/eu-ai-act-different-rules-for-different-risk-levels/

Samed Gençkaya

IoT Mühendisi İtü Mekatronik Müh. YL

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir