AB, AI Yasası ile gelecekte teknolojiyi düzenlemek istiyor. Peki düzenleme tüketiciler açısından aslında ne anlama geliyor? Genel Bakış.
Son aylarda AB'nin yapay zeka düzenlemeleri – Yapay Zeka Yasası hakkında pek çok tartışma oldu: Bazıları kuralların çok katı, bazıları ise çok gevşek olduğunu düşünüyor.
Şirketler düzenlemenin inovasyonu yavaşlatacağından korkuyor. Ancak tüketici savunucuları, alışveriş asistanları veya ChatGPT gibi sesli programlar gibi bazı uygulamaların risklerinin yeterince ciddiye alınmamasını eleştiriyor.
Bazıları AB'nin neden yapay zekanın (AI) kullanımını düzenlemek istediğini merak ediyor. Ve eğer teknoloji izleniyorsa, Avrupa Birliği tam olarak neyi düzenlemek istiyor? İşte cevaplar.
AB neden yapay zeka kullanımını düzenlemek istiyor?
Birincisi: AI Yasası bir ürün güvenliği düzenlemesidir. Bu, Avrupa Birliği'nin “yapay zeka” ürününün AB çapındaki güvenlik standartlarını karşıladığından ve kullanıcılar için tehlike oluşturmadığından emin olmak istediği anlamına geliyor.
AB perspektifinden bakıldığında, dijital ses asistanları gibi uygulamaların çoğu çok az risk taşıyor veya hiç risk oluşturmuyor.
Ancak tıpta veya güvenlik sistemlerinde yapay zeka konusunda işler farklıdır. AB'ye göre bunlar arasında örneğin parmak izlerini veya insanların yüzlerini tanıyan biyometrik tanımlama sistemleri yer alıyor.
Finans ve sigorta sektörlerinde halihazırda kullanıldığı gibi, yapay zeka kontrollü yüz ve duygu tanıma da sorunlu olabilir.
Örneğin bazı yapay zeka sistemleri, özel kişilerin kişisel çıkarlarını etkileyen kararlar almak için kullanılıyor. Bunlar işe alım ve eğitim alanlarındaki programları içerir.
AB, bu tür uygulamaların temel demokratik hakları ve özel kişilerin güvenliğini tehlikeye atmasından korkuyor. Bu yüzden yapay zeka sistemlerini düzenlemek ve gelişimlerini izlemek istiyor.
AB gelecekte yapay zeka sistemlerini nasıl izlemek istiyor?
AB, Yapay Zeka Yasasında yapay zeka sistemlerini dört kategoriye ayırıyor.
- Minimum risk veya sıfır risk: Minimum risk içeren programlar, ek yasal yükümlülükler olmaksızın geliştirilip kullanılabilmelidir. Bunlar, diğer şeylerin yanı sıra, e-posta programlarındaki spam filtrelerini ve yapay zeka destekli video oyunlarını içerir.
- Sınırlı risk: AB, bazı yapay zeka sistemlerinin riskini sınırlı olarak sınıflandırıyor. Örneğin ChatGPT gibi sohbet robotlarını kullanırken durum böyledir. AB'ye göre kullanıcılar bir makine ile etkileşimde olduklarının farkında olmalı ve buna göre bilgilendirilmelidir.
- Yüksek risk: Bu, AB'ye göre “insanların güvenliği veya temel hakları üzerinde olumsuz etkisi olan” yapay zeka sistemlerini içermelidir. Bunlar otonom araçlara veya tıbbi cihazlara yönelik uygulamalar olabilir.
- Kabul edilemez risk: Az sayıda sistemin bu kategoriye girdiği söyleniyor. AB'ye göre bunlar, temel hakları ihlal ettiği için değerlerine aykırı uygulamalardır.
Bu aynı zamanda sosyal puanlama olarak adlandırılan programları da içerir. Sosyal puanlama ile insanlar kökenlerine ve davranışlarına göre derecelendirilir.
Biyometrik verilere dayanarak kişilere cinsel yönelim veya siyasi görüş atamaya yönelik uygulamalar da AB tarafından kabul edilmiyor.
AB başvuru risklerini nasıl belirlemek istiyor?
Avrupa Birliği, yüksek riskli yapay zeka sistemlerini tanımlayabilecek bir metodoloji geliştirmek istiyor. Bu tespitin nasıl olması gerektiği bilinmiyor. Gelecekte bu tür teknolojilerin sağlayıcılarının, sistemlerinin nasıl çalıştığı hakkında bilgi vermeleri gerekecek.
AB ayrıca yüksek riskli olduğunu düşündüğü kullanım durumlarının bir listesini de yönetmeliğe eklemek istiyor. Bu listeyi sürekli güncellemek istediklerini söylüyorlar.
Yüksek riskli yapay zeka sistemleri sağlayıcıları için hangi yükümlülükler geçerlidir?
Bir yapay zeka uygulaması piyasaya çıkmadan önce sağlayıcıların yazılımlarının AB tarafından değerlendirilmesi gerekiyor. AB, değerlendirmeden sonra geliştiricilerin “sistemlerinin güvenilir yapay zeka için zorunlu gereksinimleri karşıladığını” kanıtlayabileceklerini yazıyor.
Yüksek riskli yapay zeka sistemleri sağlayıcıları aynı zamanda uygulamalarına kalite ve risk yönetimi sistemleri de yerleştirmelidir. Amaç, kullanıcılar için risklerin mümkün olduğunca düşük tutulmasını sağlamaktır.
Tüketiciler kendilerini nasıl koruyabilir?
AI Yasası, kusurlu bir AI ürünü nedeniyle yaralanan veya mali açıdan zarar gören kullanıcıların tazminat alabilmesini sağlamak için sözde ürün sorumluluğu politikaları gerektirir.
Kural ihlalleri durumunda ulusal makamlara şikayette bulunma imkanı da bulunmalıdır. Bu kurumların uygun izleme prosedürlerini başlatabilmeleri gerektiği söyleniyor.