Yapay zekanın sorumluluğunu sıkça tartıştığımız şu günlerde, İngiltere Veri Koruma Otoritesi (ICO) ve Alan Turing Enstitüsü tarafından yapay zekanın nasıl karar verdiğini açıklayan geniş kapsamlı bir rehber yayınlandı. ‘Project ExplAIn’ işbirliği sonucu ortaya konulan rehber kuruluşlara, kullandıkları YZ sistemlerinin nasıl karar aldığını ve çalıştığını kullanıcılara açıklamaları için çeşitli methodlar sunuyor.
ICO, rehberin Veri Koruma Yasası gibi yaptırımları olmadığını vurgulamaktadır. Yine de rehber, YZnin karar verme sürecini açıklamakta zorluk çeken kuruluşlar için yararlı bir araç olacaktır.
Rehber kuruluşların sadece açıklanamayan kararlarla ilgili sorunları ve riskleri anlamalarına yardımcı olmakla kalmıyor, ayrıca kuruluşlara iş süreçlerinin her düzeyinde açıklanabilirlik sağlamak için uygulamaları da gösteriyor.
Rehberde AB’nin Genel Veri Koruma Tüzüğü’nün gerektirdiği politikalar, prosedürler ve belgeler hakkında ayrıntılı bilgilere yer verilerek firmalara, işlemlerinden etkilenen bireylere açıklama yapmaları noktasında yeterliliklerini test etme imkanı sağlanmış.
Rehber üç ana bölüme ayrılmış: yapay zeka temelleri, uygulamada yapay zeka ve yapay zekayı açıklamanın kuruluşlar için anlamı. Rehberin ilk bölümü başta kuruluşların veri koruma görevlileri ve uyum ekiplerine olmak üzere yapay zeka sistemlerinin geliştirilmesinde görev alan herkese; ikinci bölüm teknik ekiplere, son bölüm ise üst düzey yöneticilere yönelik olduğu belirtilmiş. Ayrıca veri koruma görevlileri ve uyumluluk ekiplerinin son iki bölümü de yararlı bulabileceği öne sürülmüştür.
Rehberle beraber kuruluşların YZ kullanımı konusunda yasayla uyumluluklarına dair güvence verebilir konuma gelmeleri, riskleri azaltması amaçlanmıştır. Dahası, YZ kullanmanındaki açıklanabilirliğin, kurumların bireysel müşterilerle olan güven ilişkisine de olumlu yönde etki edeceği vurgulanmıştır. Diğer taraftan, kuruluşlar açıklanabilirlik sonucu yapay zeka sistemlerinin ve modellerinin çalışmasındaki ticari nitelikteki hassas bilgilerin ifşa olmasından endişe duymaktadır. Bu endişe karşısında ICO, yapay zekanın kaynak kodu veya algoritması gibi detaylı bilgilerin açıklanmasının gerekli olmadığını belirtmiştir.
Rehber, kuruluşların YZ açıklamalarını iki kategoriye ayırmasını önermektedir: Süreç tabanlı açıklamalarda bir YZ sisteminin tasarımı boyunca yönetimi hakkında bilgi verilirkenken; sonuca dayalı açıklamalarda ise yapay zekanın belirli bir kararı vermesi durumunda gerçekleşen adımları ana hatlarıyla ortaya koyan açıklamalar yapılmaktadır.
Rehber, YZ kararlarını açıklamada altı farklı metod tanımlamaktadır; bunlar arasında erişilebilir ve teknik olmayan şekilde açıklama yapma; ve yapay zeka kararıları karşısında müşterilerin iletişeme geçebilecekleri birinin olmasını sağlanmak da var.
Rehber aynı zamanda kuruluşların izlemesi gereken dört ilkeyi ve bunların her bir karar türü ile ilişkisini ortaya koyuyor. Bu bağlamda, kurumlar şeffaflık, hesap verilebilirlik, faaliyet alanı ile sınırlılılık ilkelerine dikkat etmelerinden ve yapay zekanın birey ve toplum üzerindeki etkilerinden bahsedilmiştir.
Rehberin tamamına aşağıdan ulaşabilirsiniz.
explaining-decisions-made-with-artificial-intelligence-1-0-4
Click to access explaining-decisions-made-with-artificial-intelligence-1-0.pdf
betül merhaba, rehbere ios ve windows’tan ulaşamadım linkini koyarsan iyi olur. iyi çalışmalar…
LikeLike
Geri dönüş için teşekkür ederim. Yazıya rehberin linkini ekleyerek güncelledim. Keyifli okumalar!
LikeLike