Yapay Zekayı Anlamaya Başlıyoruz!

Yapay zekanın sorumluluğunu sıkça tartıştığımız şu günlerde, İngiltere Veri Koruma Otoritesi (ICO) ve Alan Turing Enstitüsü tarafından yapay zekanın nasıl karar verdiğini açıklayan geniş kapsamlı bir rehber yayınlandı. ‘Project ExplAIn’ işbirliği sonucu ortaya konulan rehber kuruluşlara, kullandıkları YZ sistemlerinin nasıl karar aldığını ve çalıştığını kullanıcılara açıklamaları için çeşitli methodlar sunuyor.  

ICO, rehberin Veri Koruma Yasası gibi yaptırımları olmadığını vurgulamaktadır. Yine de rehber, YZnin karar verme sürecini açıklamakta zorluk çeken kuruluşlar için yararlı bir araç olacaktır.

Rehber kuruluşların sadece açıklanamayan kararlarla ilgili sorunları ve riskleri anlamalarına yardımcı olmakla kalmıyor, ayrıca kuruluşlara iş süreçlerinin her düzeyinde açıklanabilirlik sağlamak için uygulamaları da gösteriyor. 

Rehberde AB’nin Genel Veri Koruma Tüzüğü’nün gerektirdiği politikalar, prosedürler ve belgeler hakkında ayrıntılı bilgilere yer verilerek firmalara, işlemlerinden etkilenen bireylere açıklama yapmaları noktasında yeterliliklerini test etme imkanı sağlanmış.

Property118 | ICO demand - is it a scam? - Property118

 

What is The Alan Turing Institute? - YouTube

 

Rehber üç ana bölüme ayrılmış: yapay zeka temelleri, uygulamada yapay zeka ve yapay zekayı açıklamanın kuruluşlar için anlamı. Rehberin ilk bölümü başta kuruluşların veri koruma görevlileri ve uyum ekiplerine olmak üzere yapay zeka sistemlerinin geliştirilmesinde görev alan herkese; ikinci bölüm teknik ekiplere, son bölüm ise üst düzey yöneticilere yönelik olduğu belirtilmiş. Ayrıca veri koruma görevlileri ve uyumluluk ekiplerinin son iki bölümü de yararlı bulabileceği öne sürülmüştür.

Rehberle beraber kuruluşların YZ kullanımı konusunda yasayla uyumluluklarına dair  güvence verebilir konuma gelmeleri, riskleri azaltması amaçlanmıştır. Dahası, YZ kullanmanındaki açıklanabilirliğin, kurumların bireysel müşterilerle olan güven ilişkisine de olumlu yönde etki edeceği vurgulanmıştır. Diğer taraftan, kuruluşlar açıklanabilirlik sonucu yapay zeka sistemlerinin ve modellerinin çalışmasındaki ticari nitelikteki hassas bilgilerin ifşa olmasından endişe duymaktadır. Bu endişe karşısında ICO, yapay zekanın kaynak kodu veya algoritması gibi detaylı bilgilerin açıklanmasının gerekli olmadığını belirtmiştir.

Rehber, kuruluşların YZ açıklamalarını iki kategoriye ayırmasını önermektedir: Süreç tabanlı açıklamalarda bir YZ sisteminin tasarımı boyunca yönetimi hakkında bilgi verilirkenken; sonuca dayalı açıklamalarda ise yapay zekanın belirli bir kararı vermesi durumunda gerçekleşen adımları ana hatlarıyla ortaya koyan açıklamalar yapılmaktadır.

Rehber, YZ kararlarını açıklamada altı farklı metod tanımlamaktadır; bunlar arasında erişilebilir ve teknik olmayan şekilde açıklama yapma; ve yapay zeka kararıları karşısında müşterilerin iletişeme geçebilecekleri birinin olmasını sağlanmak da var. 

Rehber aynı zamanda kuruluşların izlemesi gereken dört ilkeyi ve bunların her bir karar türü ile ilişkisini ortaya koyuyor. Bu bağlamda, kurumlar şeffaflık, hesap verilebilirlik, faaliyet alanı ile sınırlılılık ilkelerine dikkat etmelerinden ve yapay zekanın birey ve toplum üzerindeki etkilerinden bahsedilmiştir.

Rehberin tamamına aşağıdan ulaşabilirsiniz.

explaining-decisions-made-with-artificial-intelligence-1-0-4

Click to access explaining-decisions-made-with-artificial-intelligence-1-0.pdf

 

2 comments

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.

%d bloggers like this: