YAPAY ZEKA DÜZENLEMESİ YOLDA

Son 10 yılın büyük kısmında kamuoyunun dijital teknolojilere dair en büyük endişesi kişisel verilerin kötüye kullanılma ihtimaliydi. İnsanlar hareketlerinin şirketler tarafından çevrimiçi takip edilmesinden, kredi kartı numaralarının, adreslerinin ve diğer kritik bilgilerinin toplanmasından rahatsızdı. Yaptıkları rastgele aramalardan beslenen reklamlar yüzünden internet üzerinden takip edilmeyi ürkütücü buluyor, kimlik hırsızlığı ve sahtekarlık mağduru olma endişesi taşıyorlardı.

Bu endişeler, ABD ve Avrupa’da, başta 2018 tarihli Avrupa Birliği Genel Veri Koruma Tüzüğü (GDPR) olmak üzere, internet kullanıcılarına kişisel verileri ve görüntüleri üzerinde belirli bir düzeyde kontrol garantisi veren önlemlere geçilmesine yol açtı. Elbette bu önlemler şirketlerin kişisel verileri kullanmaları konusundaki tartışmaları sona erdirmedi. Kimileri, bu kısıtlamaların Avrupa ve ABD’nin ekonomik performansını, kısıtlamaların daha gevşek olduğu ülkelere (özellikle Çin’e) kıyasla engelleyeceğini savunuyor. Çinli dijital devler ülkede kişisel veri düzenlemelerin sıkı olmaması ve açık erişimin etkisiyle güçlerine güç kattılar. (Ancak Çin hükümeti son zamanlarda dijital şirketlerin özgürlüğünü sınırlamaya başladı. Alibaba’ya uygulanan büyük para cezaları buna bir örnek.) Bazı kesimler ise sıkı düzenlemelerin nispeten daha küçük Avrupalı şirketleri, Google ve Amazon gibi harcayacak bolca parası olan ABD’li rakiplerinin karşısında ciddi bir dezavantaja soktuğuna dair birçok kanıt olduğuna işaret ediyor.

Ancak tartışma yeni bir aşamaya geçiyor. Şirketler ürünlerine, hizmetlerine, işlemlerine ve karar alma süreçlerine giderek daha fazla yapay zeka entegre ededursun, dikkatler verilerin yazılımlar aracılığıyla (özellikle de kanseri teşhis edebilen, araba sürebilen veya kredi onaylayabilen karmaşık, evrilen algoritmalarla) nasıl kullanıldığına kaymış durumda. Bu konuda yine öncülük eden AB, (2020 tarihli “Yapay Zeka Üzerine: Avrupa’nın Mükemmellik ve Güven Yaklaşımı” konulu komisyon raporunda ve 2021 tarihli yapay zeka yasal çerçevesi teklifinde görüldüğü üzere) tüketicilerin güvenebileceği yapay zeka araçlarının geliştirilmesi için düzenlemelerin elzem olduğu kanaatinde.

Peki, tüm bunlar şirketler için ne anlama gelecek? Bizler çalışmalarımızda yapay zeka algoritmalarının ne gibi düzenlemelere tabi olacaklarını ve mevzuata ilişkin taslak çerçevelerin temelini oluşturan ilkelere dayalı yapay zeka sistemlerinin nasıl uygulanacağını araştırıyoruz ve farklı sektörlerden çok sayıda şirketin yapay zeka odaklı inisiyatifler geliştirerek bunları ölçeklendirmesine yardımcı oluyoruz. İlerleyen sayfalarda, yöneticilerin yapay zekayı karar alımlarına ve süreçlere dahil etmede ve aynı zamanda yapay zekayı müşteriler nezdinde güvenilir kılmaya çalışırken karşılaştıkları üç temel zorluğu inceleyeceğiz. Bu inceleme sırasında kendi araştırmamızdan ve diğer araştırmacıların çalışmalarından yararlanacağız. Ayrıca, stratejik risklerin yönetiminde uygulanan kavramlara da değinerek yöneticilere ilgili süreçlerde rehberlik edecek bir çerçeve sunacağız.

TARAFLI SONUÇLAR: YAPAY ZEKAYI KULLANMANIN RİSKLERİ

Yanlı sonuçlar üreten yapay zeka sistemleri manşetleri süslüyor. Bunun en meşhur örneklerinden biri, Apple’ın kadınlara karşı ayrımcılık yapmakla suçlanan ve New York Eyaleti Finansal Hizmetler Departmanı tarafından hakkında soruşturma başlatılan kredi kartı algoritması.

Ancak bu sorun çok farkı şekillerde tezahür edebiliyor (izleyicileri ırk, din veya cinsiyete göre hedefleyebilen, hemen her yerde karşımıza çıkan çevrimiçi reklam algoritmaları ve Amazon’un kadın adayları filtreleyen otomatik özgeçmiş tarama sistemi gibi). Science dergisinde yayımlanan yakın tarihli bir araştırma, ABD’de her yıl milyonlarca insanı etkileyen, sağlık hizmetlerinde kullanılan risk tahmin araçlarının önemli ırksal önyargılar sergilediğini ortaya koydu. Journal of General Internal Medicine’da yayımlanan bir başka araştırma, önde gelen hastaneler tarafından böbrek nakli alıcıları arasında öncelik belirlemek için kullanılan yazılımın siyahi hastalara karşı ayrımcılığa neden olduğunu saptadı.

Çoğu vakada sorun, yapay zekayı çalıştırmak için kullanılan verilerden kaynaklanıyor. Bu veriler taraflıysa yapay zeka bu önyargıyı yakalıyor, hatta belki de güçlendiriyor. Örneğin Twitter kullanıcılarıyla etkileşim kurmak amacıyla bir sohbet robotunu eğitmek için tweet’lerden faydalanan Microsoft kışkırtıcı, ırkçı mesajları nedeniyle robotu devreye alındığının ertesi günü devre dışı bıraktı. Ancak, eğitim verilerinden sadece ırk veya cinsiyet gibi demografik bilgileri elemek yeterli olmuyor, çünkü bazı durumlarda önyargıları düzeltmek için bu verilere ihtiyaç duyuluyor.

Tüm çıktıların belirli koşulları karşılamasını gerekli kılarak yazılıma bir tür tarafsızlık kavramı kodlamak teoride mümkün olabilir. Amazon, koşullu demografik eşitsizlik adı verilen bir tarafsızlık metriğini deniyor ve diğer şirketler de benzer metrikler geliştiriyor. Ancak üzerinde uzlaşılmış bir tarafsızlık tanımının olmaması ve eşitlikçi sonuçları belirleyen genel koşullar hakkında katı sınırlar koymanın mümkün olmaması bir engel olarak karşımıza çıkıyor. Dahası, paydaşlar herhangi bir durumda tarafsızlığın ne anlama geldiği konusunda çok farklı fikirlere sahip olabiliyor. Sonuç olarak, tarafsızlığı yazılım bünyesinde tasarlamaya yönelik her tür girişim risk taşıyor.

Düzenleyiciler, yanlı sonuçlarla uğraşırken, çoğunlukla standart ayrımcılıkla mücadele mevzuatına başvuruyorlar. Karşınızda tartışmalı kararlardan sorumlu tutabileceğiniz çalışanlar olduğu sürece bu işleyebilecek bir uygulama. Ancak yapay zekanın giderek daha karmaşık hale gelmesiyle bireysel hesap verebilirlik yavaş yavaş yok oluyor. Daha da kötüsü, yapay zeka potansiyel önyargı ölçeğini artırıyor: En ufak bir hata şirketleri tarihe geçecek büyüklükte grup davalarına maruz bırakarak ve itibarlarını riske atarak milyonlarca insanı etkileyebiliyor.

Yöneticiler bu tür sorunları önlemek için neler yapabilir?

İlk adım olarak, herhangi bir karar vermeden önce aşağıda sayacağımız dört faktörü inceleyip olası riskler konusunda daha derin düşünmeleri gerekiyor:


Çıktıların etkisi. Bazı algoritmalar, insanların yaşamları üzerinde doğrudan ve önemli sonuçları olan kararlar alıyor veya bu kararları etkiliyor. Örneğin, tıbbi durumları teşhis ediyor, belirli bir pozisyon için adayları tarıyor, ev kredilerini onaylıyor veya hapis cezası öneriyorlar. Bu gibi durumlarda, yapay zekayı kullanmaktan kaçınmak veya en azından insan yargısına tabi kılmak akıllıca olabiliyor.

Ancak bu yaklaşım da her şeye rağmen enine boyuna düşünmeyi gerektiriyor. Bir yargıcın yapay zeka tarafından aksi tavsiye edilmesine rağmen bir suçluya erken tahliye hakkı verdiğini ve ardından bu kişinin şiddet içeren bir suç işlediğini varsayalım. Yargıç, yapay zekayı neden görmezden geldiğini açıklamak konusunda baskı altında kalacaktır. Bu nedenle yapay zeka kullanmak, karar merciilerinin hesap verebilirliğini artırabilir ve bu da insanların algoritmalara gereğinden fazla riayet etmelerine neden olabilir.

Bu, yapay zekanın büyük etki yaratacak durumlarda kullanılamayacağı anlamına gelmiyor. Yine de karar mercii olarak insanlara itimat eden organizasyonların, bu insanların sahip olabileceği ve yapay zekanın ortaya çıkarılmasına yardımcı olabileceği bilinçsiz önyargıları kontrol etmeye devam etmesi gerekecek. Amazon sonunda yapay zekayı bir işe alım aracı olarak kullanmamaya karar verdi, bunun yerine onu mevcut işe alım yaklaşımındaki kusurları tespit etmek için kullanacak. Temelde şunu söylemek istiyoruz: Yapay zekanın kullanılıp kullanılmayacağına karar verilirken, insanlar tarafından yürütülen karar verme süreçlerine ilişkin algoritmaların tarafsızlığının dikkate alınması gerekiyor.

Kararların niteliği ve kapsamı. Araştırmalar, yapay zekaya olan güvenin, yapay zekanın ne tür kararlar için kullanıldığına göre çeşitlilik gösterdiğini ortaya koyuyor. Bir görev nispeten mekanik ve sınırlı olarak algılandığında, yazılım en az insanlar kadar güvenilir görülüyor: Buna örnek olarak zaman çizelgesi optimizasyonunu veya görsel analizini verebiliriz.

Ancak kararların öznel olduğu düşünüldüğünde veya değişkenler farklılık gösterdiğinde (suçluların hafifletici koşullarının farklılık gösterebileceği yasal hükümlerde olduğu gibi), empati kabiliyetinin de etkisiyle insan muhakemesine daha fazla güveniliyor. Bu doğrultuda şirketler yapay zekaya tabi tuttukları kararların kendine has doğası ve kapsamını ve bu tip durumlarda neden insan muhakemesinin tercih sebebi olduğunu son derece dikkatli bir biçimde açıklamalılar. Bu, birçok durumda, hatta ciddi sonuçları olanlarda bile epey basit bir uygulama. Örneğin, tıbbi taramaların makineyle teşhisinde, insanlar, milyarlarca doğru tanımlanmış veri noktasını kullanan yazılımın, yalnızca birkaç bini işleyebilen insana kıyasla sahip olduğu avantajları kolayca kabul edebiliyorlar.
Öte yandan, davranışsal, tanımlanması zor ve vakaya özgü faktörlerin işin içinde olabileceği, akıl sağlığıyla ilgili bir teşhis koymak için yapay zekadan faydalanmak muhtemelen uygunsuz olacaktır.

İnsanların makinelerin gerçek hayata dair bu tip senaryoları işleyebileceğini kabul etmesi zor. Ve kritik değişkenler doğru şekilde tanımlandığında bile, bu tip durumların popülasyondan popülasyona farklılık gösterme biçimleri genellikle tam olarak anlaşılamıyor ve bu da bizi bir sonraki faktöre getiriyor.

Operasyonel karmaşıklık ve kısıtlı ölçeklendirme. Bir algoritma tüm coğrafya ve pazarlarda adil sonuçlar üretmeyebilir. Örneğin, indirim için tüketici seçen bir algoritma, tüm ABD nüfusu genelinde adil görünse de başka bir coğrafyaya uygulandığında taraflı olabilir. Örneğin, Manhattan’daki tüketici davranışları ve tutumları ulusal ortalamalara uymuyorsa ve algoritmanın çalışmasına yansıtılmıyorsa algoritma taraflılık gösterebilir. Ortalama istatistikler, bölgeler veya alt popülasyonlar arasındaki ayrımcılığı maskeleyebilir ve bundan kaçınmak için her bir alt küme için algoritmaların özelleştirilmesi gerekebilir. Bu, yerel veya küçük grup önyargılarını azaltmayı amaçlayan herhangi bir düzenlemenin, yapay zeka sayesinde elde edilecek olası ölçek avantajını niçin azaltabileceğini açıklıyor. Yapay zekayı en baştan kullanma nedeninin çoğunlukla bu olasılık olduğunu da eklemeliyiz. 

Pazarlar arasındaki farklılıklara göre düzeltmeler yapmak, algoritmalara katmanlar ekleyerek geliştirme maliyetlerini artırıyor. Ürün ve hizmetlerin belirli pazarlar için özelleştirilmesi de benzer şekilde üretim ve izleme maliyetlerini önemli ölçüde yükseltiyor. Tüm bu değişkenler, örgütsel karmaşıklığı ve genel masrafları artırıyor. Maliyetlerin aşırı yükselmesi durumunda, şirketlerin bazı pazarları terk ettiği dahi oluyor. Ragnarok ve Dragon Saga oyunlarının yapımcısı Gravity Interactive gibi bazı geliştiriciler Genel Veri Koruma Tüzüğü (GDPR) nedeniyle bir süreliğine AB’de ürün satışını durdurmayı seçtiler. Çoğu şimdiye kadar düzenlemeye uymanın bir yolunu bulmuş olsa da (örneğin Dragon Saga, geçen Mayıs ayında Avrupa’da yeniden piyasaya sürüldü),  yüksek maliyet ve kaybedilen fırsatlar önem teşkil ediyor.

Uyumluluk ve yönetişim becerileri. Şirketlerin, (en azından Avrupa ve ABD için) ufukta görünen sıkı yapay zeka düzenlemelerine uymak için sistem denetimi, izlenebilirlik için dokümantasyon ve veri protokolleri, yapay zeka izleme ve çeşitlilik farkındalığı eğitimi gibi yeni süreçlere ve araçlara ihtiyacı olacak. Bir dizi şirket, algoritma çıktısının şirket değerleriyle uyumlu olup olmadığını ve düzenlemeye dair endişe yaratma olasılığını değerlendirmek için her yeni yapay zeka algoritmasını halihazırda çeşitli paydaşlarda test ediyor.

Google, Microsoft, BMW ve Deutsche Telekom; güvenlik, adalet, çeşitlilik ve gizlilik konularında taahhüt vererek resmi yapay zeka politikaları geliştiriyor. Amerikan Federal Konut İpotek Kredisi Şirketi (Freddie Mac) gibi bazı şirketler, bu politikaları uygulamada denetlemek için baş etik sorumluları dahi atıyor ve pek çok durumda onları etik yönetim kurullarıyla destekliyor.

ŞEFFAFLIK: NEYİN TERS GİTTİĞİNİ AÇIKLAMAK

Yapay zeka da aynı insan muhakemesi gibi yanılabilir. Algoritmalar kaçınılmaz olarak birtakım taraflı (hatta güvenilmez) kararlar verecektir.

İnsanlar hata yaptıklarında, genellikle karar vericiler hakkında yasal yaptırımlar içeren bir soruşturma yürütülür ve bu merciler birtakım yükümlülükler yüklenir. Bu, ilgili organizasyon veya topluluğun adaletsiz kararları anlamasına, düzeltmesine ve paydaşlarıyla olan ilişkisinde güven inşa etmesine yardımcı olur. Bu doğrultuda, yapay zekadan kararlarını açıklamasını da talep etmeli miyiz? Hatta ondan böyle bir şey yapmasını bekleyebilir miyiz?

Düzenleyiciler kesinlikle bu yönde hareket ediyor. Genel Veri Koruma Tüzüğü (GDPR) algoritmalar tarafından “ulaşılan kararın bir açıklamasını alma hakkına” dair zaten bir tanım yapıyor ve AB, ilgili komisyon raporunda ve yapay zeka düzenlemesi teklifinde yapay zekaya olan güveni artırmada açıklanabilirliği kilit bir faktör olarak tanımlıyor. 

Peki, haklarındaki neden-sonuç bilgimizin genellikle eksik olduğu otomatik kararlara dair açıklamalara kavuşmak bize ne ifade eder? Aristoteles’in böyle bir durumda, sonuçlara nasıl ulaşıldığını açıklama becerisinin, sonuçları yeniden üretme ve ampirik olarak doğruluğunu teyit etme becerisinden daha az önemli olabileceğine dikkat çektiği bilinir. Şirketler de bunun aynısını yapay zekanın tahminlerini sonuçlarla karşılaştırarak yapabilirler.

Yapay zeka uygulamalarını göz önünde bulunduran yöneticilerin iki faktör üzerinde daha derinlemesine düşünmesi gerekiyor:

Gerekli açıklama düzeyi. Yapay zeka algoritmaları söz konusu olduğunda açıklamalar, farklı koşullara uygun olarak iki gruba ayrılabilir.

Geniş kapsamlı açıklamalar, belirli bir sürecin tüm çıktılarına dair eksiksiz açıklamalardır ve giriş değişkenleri arasındaki ilişkileri belirten kuralları veya formülleri tanımlarlar. Genellikle prosedürel tarafsızlık önemli olduğunda, (örneğin, paydaşların ilgili kararların nasıl alınacağını baştan bilmesi gerektiği için kaynakların tahsisine ilişkin kararlarda) gereklidirler.

Bir algoritma için kapsamlı bir açıklama sunmak basit bir iş gibi görünebilir: Ne de olsa tek yapmanız gereken formülü paylaşmaktır. Bununla beraber birçok kişi formüldeki bağıntıların uygun olup olmadığını belirlemeyi bir kenara bırakın, böyle bir formülü anlamak için gerekli ileri düzeyde matematik veya bilgisayar bilimleri becerilerinden yoksundur. Ve yapay zeka yazılımının, eğitim verisindeki değişkenler arasındaki açık bağıntıları tanımlamak için algoritmalar oluşturduğu makine öğrenimi durumunda herhangi bir sorunun nihai nedeni algoritma değil, bu verilerdeki kusurlar veya önyargılar olabilir.

Ayrıca, şirketlerin algoritmalarının işleyişine dair doğrudan bilgi sahibi olmadıkları da olur ve açıklamalara dair düzenleyici kısıtlamalara karşılık verebilmek için bakışlarını veri ve BT birimlerinin ötesine, belki de dış uzmanlara çevirmeleri gerekebilir. Oracle, SAP ve Salesforce gibi büyük hizmet olarak yazılım (SaaS) sağlayıcılarının tekliflerinin genellikle üçüncü parti sağlayıcılardan gelen birden fazla yapay zeka bileşenini birleştirdiğini göz önünde bulundurun. Bunların müşterileri bazen yapay zeka özellikli çözümleri cımbızlar ve birleştirir. Yine de bir nihai ürünün tüm bileşenlerinin ve bunların nasıl birleştirilip birbirine bağlandıklarının açıklanabilir olması gerekecektir.

Yerel açıklamalar ise belirli bir çıktının ardındaki mantığı paylaşır, örneğin neden bir (veya bir grup) başvuru sahibinin kredisi reddedilirken diğerine kredi verildiğini açıklar. Bu tür açıklamalar alıcıya bir çıktının gerekçesini söyleme kapasitesine sahip, açıklanabilir yapay zeka algoritmaları tarafından sağlanır. Şahısların sadece kendileri hakkında neden belirli bir karar verildiğini bilmek istemeleri durumunda ve başkaları hakkındaki kararlara erişimleri olmadığında veya bunlara erişemediklerinde kullanılabilirler.

Yerel açıklamalar, “Farklılaşmaları halinde yapay zekanın çıktısını veya kararını değiştirmesi beklenen anahtar müşteri özellikleri nelerdir?” sorusuna yanıt sunan farklı ifadeler şeklinde olabilir.

Örneğin, iki başvuru sahibi arasındaki tek fark, birinin 24 ve diğerinin 25 yaşında olması ise, açıklama, ilk başvuru sahibine 24 yaşından büyük olsaydı kredi verilmiş olacağı şeklinde olacaktır. Buradaki sorun, tanımlanan özelliklerin taraflılıkları gizleyebilmesidir. Örneğin, siyahi başvuru sahiplerinin yaşadığı mahallelerden gelen sağlam başvurular haksız yere dezavantajlı konuma geldiğinde, fark yaratanın başvuranın posta kodu olduğu ortaya çıkabilir.

Gerekli ödünleşmeler. En güçlü algoritmalar doğaları gereği şeffaflıktan uzaktır. Alibaba’nın Çin’deki şirketi Ant Group’u düşünelim: MYbank birimi, küçük işletme kredilerini insan müdahalesi olmadan üç dakikadan kısa bir sürede onaylamak için yapay zeka kullanıyor. Bunu yapmak için, kendi e-ticaret platformlarından gelen satış verileri de dahil olmak üzere, Alibaba ekosisteminin tamamından gelen verileri, varsayılan riskleri tahmin etmek ve gerçek zamanlı kredi derecelendirmelerini korumak için makine öğrenimi ile birleştiriyor. 

Ant’in yazılımı 3 binden fazla veri girişi kullandığından, geniş kapsamlı bir açıklama sunmak şöyle dursun, belirli değerlendirmelere nasıl ulaştığını açıkça söylemek dahi neredeyse imkansız. En heyecan verici yapay zeka uygulamalarının çoğu benzer ölçekte algoritmik giriş gerektiriyor. B2B pazarlarda özel ayarlanmış ödeme vadeleri, sigortacılıkta risk analizi ve otonom arabalar, katı yapay zeka açıklanabilirlik gereksinimlerinin şirketlerin inovasyon yapma veya büyüme becerilerine engel oluşturabileceği alanlardan yalnızca birkaçı.

Şirketler; tüketicilerin ve düzenleyicilerin kişisel haklara son derece değer verdiği, özellikle AB ve ABD gibi pazarlarda Ant’inki gibi bir hizmet sunarken zorluklarla karşılaşacak. Şirketlerin böyle bir yapay zekayı etkin biçimde kullanabilmek için, bir algoritmanın müşteriler arasındaki benzerlikleri nasıl tanımladığını, iki potansiyel müşteri arasındaki belirli farklılıkların neden farklı yaklaşımları haklı çıkarabileceğini ve benzer müşterilere yapay zeka hakkında neden farklı açıklamalar sunulabileceğini açıklayabilmesi gerekecek.

Açıklama beklentileri coğrafyadan coğrafyaya da farklılıklar gösteriyor; bu da küresel operatörlere çeşitli zorluklar çıkarıyor. Doğrudan dünya çapındaki en katı açıklanabilirlik gerekliliklerini benimseyebilirler ama bunu yapmak onları bazı pazarlardaki yerel oyuncular karşısında dezavantajlı bir konuma getirebilir. AB kurallarına uyan bankalar, borçlunun temerrüde düşme olasılığını tahmin etmede Ant’ınki kadar doğru algoritmalar üretmekte zorlanacaktır ve bunun sonucunda kredi gereksinimleri konusunda daha katı olmaları gerekebilir. Diğer yandan, birden çok açıklanabilirlik standardını uygulamaya koymak büyük olasılıkla daha karmaşık ve maliyetli olacaktır çünkü bir şirket esasen farklı pazarlar için farklı algoritmalar oluşturacak ve birlikte çalışabilirliği sağlamak için muhtemelen daha fazla yapay zeka eklemek zorunda kalacaktır.

Yine de bazı fırsatlar da yok değil. Açıklanabilirlik gereksinimleri bir farklılaşma kaynağı sunabiliyor: Açıklayıcı olmak konusunda daha güçlü becerilere sahip yapay zeka algoritmaları geliştirebilen şirketler, tüketicilerin ve düzenleyicilerin güvenini kazanmak söz konusu olduğunda daha iyi bir konumda olacaklar. Bunun stratejik sonuçları olabilir. Örneğin Citibank, küçük işletme kredileri için Ant’inki kadar açıklanabilir bir yapay zeka üretebilseydi, kesinlikle AB ve ABD pazarlarına hükmedebilir ve hatta Ant’in sahasında kendine bir yer bulabilirdi. Tekliflerin kararlarının tarafsızlığını ve şeffaflığını iletme becerisi, teknoloji şirketleri için de potansiyel bir farklılaştırıcı. IBM, işletmelere özel yapay zeka destekli bir veri analitiği platformu olan Watson OpenScale’i geliştirerek şirketlerin bunu yapmasına yardımcı oluyor.

Uzun lafın kısası, bir şirketin aldığı kararları açıklamak için yapay zekaya ihtiyaç duyması, tarafsızlığını ilerletmek ve paydaşların güvenini artırmak için iyi bir yol gibi görünse de bunun her zaman ödemeye değmeyebilecek ağır bir bedeli var. Bu durumda karşımıza tek bir seçenek çıkıyor: Şirketlerin ya birtakım taraflı sonuçlar elde etme olasılığı ile genel olarak daha doğru çıktılardan elde edilen geri dönüşler arasında yeniden bir denge kurmaları ya da yapay zekayı kullanmayı bırakmaları gerekiyor.

ÖĞRENME VE GELİŞİM: DEĞİŞEN BİR FAALİYET ALANI 

Yapay zekanın ayırt edici özelliklerinden biri de öğrenme yeteneği. Örneğin, bir görüntü tanıma algoritması etiketli inek ve zebra görselleriyle ne kadar çok beslenirse, bir ineği veya zebrayı tanıma olasılığı o kadar artıyor. Ancak sürekli öğrenmenin dezavantajları da var: Hatasızlık zaman içinde iyileşebilse de dün belirli bir çıktı meydana getiren aynı girdiler, aradan geçen sürede toplanan veriler algoritmayı değiştirdiği için yarın farklı bir çıktı oluşturabiliyor.

İş liderleri evrilen algoritmaların nasıl yönetileceğini ve ilk etapta sürekli öğrenmeye izin verilip verilmeyeceğini belirlerken üç faktöre odaklanmalılar:

Riskler ve ödüller. Müşteriler evrilen yapay zekaya yönelik nasıl bir tutum takınacaklarını muhtemelen kişisel bir risk-getiri hesabı ile belirleyeceklerdir. Öğrenme algoritmalarının, örneğin sigorta fiyatlandırmalarında, müşteri ihtiyaçlarına insanların sunabileceği her tekliften daha çok hitap eden sonuçlar sunması çok olasıdır. Bu nedenle müşteriler muhtemelen bu tür bir yapay zeka kullanımına diğerlerine nazaran daha fazla tolerans gösterecektir. Öğrenmenin hiçbir şekilde mesele edilmediği durumlar da var. Örneğin, film veya kitap önerileri üreten bir yapay zeka, bir müşterinin satın alımları ve görüntüleme seçenekleri hakkında daha fazla veri geldikçe evrimini güvenli bir şekilde sürdürebiliyor.

Ancak adil olmayan veya olumsuz bir çıktının riski ve etkisi yüksek olduğunda, insanlar evrilen yapay zeka konusunda daha az kabullenici oluyor. Bazı ürün türlerinin, örneğin tıbbi cihazların gözetim dışı değiştirilmeleri durumunda kullanıcılarına zarar vermesi olasıdır. Bu nedenle, başta Amerikan Gıda ve İlaç Dairesi (FDA) olmak üzere bazı düzenleyiciler sadece “kilitli” algoritmaların kullanımına izin veriyor; bu algoritmalar ürün her kullanıldığında öğrenmiyor, dolayısıyla değişmiyor. Bir şirket bu tür teklifler için, aynı algoritmanın iki paralel sürümünü çalıştırabiliyor: yani sürekli öğrenen ve sadece Ar-Ge’de kullanılan sürüm ile düzenleyiciler tarafından onaylanmış, ticari kullanım için olan kilitli sürüm. Ticari sürüm, düzenleyicinin onayının ardından, sürekli gelişeni temel alan yeni bir sürümle belirli bir sıklıkta değiştirilebiliyor.

Düzenleyiciler ayrıca daimi öğrenmenin algoritmaların ayrımcılık yapmasına veya yeni, tespit edilmesi zor yollarla güvensiz hale gelmesine neden olabileceğinden endişe ediyor. Taraflılığın temel bir kaygı olduğu ürün ve hizmetlerde, evrilebilirlik konusuna özel bir vurgu yapılmasını bekleyebilirsiniz.

Karmaşıklık ve maliyet. Öğrenen yapay zekayı etkin biçimde kullanmak operasyonel maliyetleri artırabiliyor. Birincisi, şirketler kendilerini, farklı bölge, pazar veya bağlamlarda her biri yerel verilere ve ortamlara yanıt veren birden fazla algoritma çalıştırırken bulabiliyor. Devamında organizasyonların tüm bu algoritmaların uygun biçimde ve yetkilendirilmiş risk aralıkları dahilinde çalıştığından emin olmak için yeni denetimci rolleri ve süreçleri oluşturması gerekebiliyor. Risk yönetiminden sorumlu baş yöneticiler yetkilerini; otonom yapay zeka süreçlerini izlemeyi ve şirketin evrilebilir yapay zeka için almaya istekli olduğu yasal, finansal, itibari ve fiziksel risk düzeylerini değerlendirmeyi içerecek şekilde genişletmek zorunda kalabiliyor.

Şirketlerin ayrıca yapay zekanın öğrenme oranını artıran standardize edilmiş uygulamalara karşı özerkleşmeyi dengelemesi gerekiyor. Acaba şirketin dijital ve yapay zeka çözümlerini güçlendirecek küresel bir veri yapısı oluşturup bunu sürdürebilirler mi? Kendi sistemleri özerkleşmiş depolama ve işleme için yeterli mi? Siber güvenlik saldırılarına ne kadar hazırlar? Üretimin son müşteriye daha fazla mı yakınlaşması gerekiyor yoksa bu, operasyonları yeni risklere mi maruz bırakır? Şirketler, yerel pazarlardaki doğru liderlik pozisyonlarına yapay zeka konusunda donanımlı yetenekleri yeterince çekebiliyor mu? Tüm bu sorular üzerine ciddi biçimde kafa yorulmalı.

İnsan girdisi. Yeni veriler veya çevresel değişiklikler, insanların kararlarında düzenlemeler yapmalarına, hatta zihinsel modellerini değiştirmelerine neden olabiliyor. Örneğin bir işe alım yöneticisi rakip adayların kalitesinin değişmesi durumunda ya da belki de sadece ikinci seferde sıkılmış olduğu için, iş başvurusunda bulunan aynı kişi hakkında iki farklı zamanda farklı kararlar verebiliyor. Bunun olmasını engelleyecek bir düzenleme olmadığı için, yeni veriler sonucunda yapay zekanın gelişmesine izin verilebilir gibi bir iddiada bulunulabilir. Ancak, insanları bu bakış açısına ikna etmek gerekiyor.

Oysa insanlar, insana özgü karar verme mekanizmasıyla akıllı bir şekilde tamamlanmış bir yapay zekayı daha kolay kabul edebilirler. Ağustos 2020 tarihli, Theodoros Evgeniou’nun ortak yazarlarından biri olduğu “Yapay Zekayı Kullanmanın Daha İyi Bir Yolu” başlıklı HBR makalesinde tanımlandığı üzere, yapay zeka sistemleri, çalışanlara geribildirim ve girdi sağlayan “koçlar” (varlık yönetim şirketlerinde finansal varlıkları alıp satanlar gibi) şeklinde görevlendirilebilir. Ancak bu tek taraflı bir ilişki değil: Bu işbirliğinden ortaya çıkan değerin çoğu, insanların algoritmalara verdiği geribildirimlerden geliyor. Aslına bakılırsa, Facebook Dynabench platformuyla yapay zeka öğrenimini izlemek ve hızlandırmak için ilginç bir yaklaşım benimsedi. Şirket insan uzmanlarından dinamik çekişmeli veri toplama (dynamic adversarial data collection) adı verilen bir yöntem kullanarak yapay zekayı yanlış veya adil olmayan bir sonuç üretmesi için kandırmanın yollarını bulmalarını istiyor.

İnsanlar yapay zekayı bilfiil iyileştirdiklerinde, değer yaratımı da epey hızlı olabiliyor. BCG’den Sylvain Duranton bir TED konuşmasında, bir giyim perakendecisinin, insan alıcıların uzmanlıklarını, giyim trendlerini öngören yapay zekaya entegre etmesine olanak sağlayan bir süreç sayesinde sadece bir yılda 100 milyon doları aşkın tasarruf ettiğini anlattı.

Yapay zekaya (özellikle de makine öğrenimine) artan güven, işletmelerin karşı karşıya olduğu stratejik riskleri önemli ölçüde artırıyor ve şirketlerin algoritmalara yönelik düzenlemelerin hazırlanmasında aktif rol almaları gerekiyor. Kredi onayı veya suçta tekerrürün değerlendirilmesi gibi kararlar alınırken mantıksal analizden faydalanıldıkça, gizli önyargılarla ilgili çekinceler artmaya devam ediyor. Makine öğreniminin altında yatan karmaşık programlamanın özünde şeffaflıktan yoksun oluşu da insanları tedirgin ediyor ve bir popülasyon için geliştirilen yapay zeka destekli araçların diğer popülasyonlar hakkında güvenli bir şekilde karar alıp alamayacağına dair endişeler artıyor. Yapay zeka geliştirmeye doğrudan katılmayanlar da dahil olmak üzere bütün şirketler geç kalmadan tüm bu zorlukların üzerine eğilmeye başlamadıkça, yapay zeka özellikli ürünlere olan güveni sarsma ve gereksiz biçimde kısıtlayıcı düzenlemeleri tetikleme tehlikesi yaratıyorlar. Bu da yalnızca ticari kazançlarını değil, aynı zamanda yapay zekanın tüketicilere ve topluma sunabileceği potansiyel değeri de baltalıyor.

Kaynak; Theodoros Evgeniou, Rodolphe Charme Di Carlo, Midas De Bondt, François Candelon, Ekim 2021

Written by