Yapay zeka algoritmalarının daha şeffaf, hesap verebilir ve etik yönergelerle desteklenmesi ise kusurların önlenmesine yardımcı olabilir.
Yapay zeka algoritmaları hakkında dikkat edilmesi gereken bahisler genelde şu alanlarda kümeleniyor:
İnsan önyargıları: Yapay zeka algoritmaları beşerler tarafından geliştirildiği için insan önyargılarının algoritmaya yansıması mümkündür. Bu nedenle algoritmaların geliştirilmesi kademesinde önyargıların minimize edilmesine dikkat edilmelidir.
Veri eksikliği: Algoritmaların yanlışsız sonuçlar vermesi için kâfi ve hakikat dataya muhtaçlıkları vardır. Lakin kimi durumlarda kâfi data bulunamayabilir yahut yanlış bilgiler algoritmaya yansıyabilir.
Güvenlik açıkları: Algoritmaların güvenliği ve bilgi kapalılığı konusunda da dikkatli olunması
gerekmektedir. Kimi durumlarda algoritmaların güvenlik açıkları nedeniyle istenmeyen sonuçlar ortaya çıkabilir.
Algoritmaların açıklanamaması: Algoritmaların nasıl çalıştığına dair kâfi bilginin olmaması, sonuçların gerçek olup olmadığına dair kuşkuları beraberinde getirebilir.
Sınırlı kullanım alanları: Algoritmaların kullanım alanlarının hudutlu olması ve algoritmaların tek bir alanda başarılı olup öteki alanlarda yanlışlar yapabilmesi üzere durumlar kelam konusu olabilir.
Yanlış sonuçlar: Algoritmaların bilgi yanlışlıkları yahut yanılgılı programlamalar nedeniyle yanlış sonuçlar verebilmesi mümkündür.
İşsizlik: Yapay zeka algoritmalarının kullanımı işsizliği artırabilir. Örneğin, birtakım işlerin robotlar tarafından yapılması nedeniyle insan iş gücüne muhtaçlık kalmayabilir.
Etik meseleler: Birtakım yapay zeka uygulamaları etik problemler ortaya çıkarabilir. Örneğin, insan haklarına hürmet göstermeyen yahut ayrımcılık yapan algoritmalar kullanılabilir.
İşleyişin karmaşıklığı: Yapay zeka algoritmalarının işleyişi epey karmaşıktır ve bu nedenle algoritmaların kusurlarının fark edilmesi sıkıntı olabilir.
Tarihte yapay zeka modellerinin tarihte yaptığı kimi kritik kusurlar şunlar:
ABD tarafından geliştirilen bir yazılım, Sovyetler Birliği’nden bir nükleer akın olduğunu düşündü ve yanılgılı bir formda ABD’nin nükleer silahlarını ateşlemesi için ikaz verdi.
2010’da bir arabanın kazaya neden olması:
Stanford Üniversitesi’ndeki araştırmacılar, yapay zeka sürüş sistemi öğrenirken, bir otomobil kaza yaptı ve kazaya neden olan bir yanlışa işaret etti.
2016’da Microsoft Tay chatbot’unun ırkçı telaffuzları:
Microsoft’un toplumsal medya botu Tay, kullanıcılardan öğrendiği yanlış bilgiler nedeniyle ırkçı ve ayrımcı iletiler yayınladı.
2018’de Çin’de yüz tanıma yanlışı:
Çin’deki bir okul, öğrencilerin yüzlerini tanımak için kullanılan bir sistemde kusur yaptı ve bir veliye bir yabancı olarak tanındı.
2019’da bir hava taşıtının düşmesi:
Boeing 737 Max’in otomatik pilota sahip sistemlerindeki yanılgı, iki farklı kazada 346 kişinin vefatına neden oldu.
2019’da bir kanser teşhisi kusuru:
Bir yapay zeka modeli, kanser teşhisi için kullanıldığında, sağlıklı hücreleri kanserli olarak yanlış teşhis etti.
2020’de bir alışveriş uygulamasında fiyat yanılgıları:
Bir alışveriş uygulaması, yapay zeka modeli yanılgıları nedeniyle, olağanda çok daha yüksek fiyatlı olan birtakım eserleri 1 dolara sattı.
2018’de Amazon’un cinsiyetçi özgeçmiş kıymetlendirme süreci
2018 yılında Amazon’un geliştirdiği yapay zeka algoritmasının cinsiyet ayrımcılığı yaptığı ortaya çıktı. Algoritmanın CV’leri değerlendirirken bayanların özelliklerine daha az tartı verdiği ve erkek adayların müracaatlarını daha çok kabul ettiği tespit edilmişti.
2016: Microsoft Tay Bot’un içerik kirliliği
Microsoft Tay botu, kullanıcılarla konuşarak kendisini geliştiren bir sohbet botu olarak tasarlandı. Fakat, Twitter’daki kullanıcıların karşılık vererek botu manipüle etmesi sonucunda bot, ırkçı, cinsiyetçi ve aşırılık yanlısı içerik üretmeye başladı. Bu durum, Microsoft’un insan kontrolü olmadan yapay zeka sistemleri üretmenin risklerine dair bir örnek teşkil etti.
Stanford Üniversitesi tarafından geliştirilen bir yapay zeka modeli, deri rengi ile bağlı tabirleri kullanarak rassiyalist sözleri iddia edebildiği ortaya çıktı. Bu durum, yapay zeka sistemlerinin önyargılı sonuçlara yol açabileceği konusunda ihtar verdi.