Yapay zekâ karmaşıklaştıkça ve yaygınlaştıkça, yapay zekânın potansiyel tehlikelerine karşı uyarı sesleri de yükseliyor. Makine öğrenimi ve sinir ağı algoritmaları üzerine yaptığı temel çalışmalarla “Yapay zekânın babası” olarak bilinen ünlü bilgisayar bilimcisi Geoffrey Hinton daha önce yaptığı açıklamalarından birinde kafalarda soru işareti yaratmış ve “Bu şeyler bizden daha zeki hale gelebilir ve yönetimi ele geçirmeye karar verebilir ve bunun olmasını nasıl engelleyeceğimiz konusunda şimdiden endişelenmemiz gerekiyor” ifadelerini kullanmıştı.
Hinton endişelerinde yalnız da değil. Tesla ve SpaceX’in kurucusu Elon Musk, 1.000’den fazla diğer teknoloji lideriyle birlikte, 2023 açık mektubunda teknolojinin “toplum ve insanlık için derin riskler oluşturabileceğini” belirterek büyük yapay zeka deneylerine ara verilmesi çağrısında bulunmuştu.
İster belirli işlerin artan otomasyonu, ister cinsiyet ve ırk temelli algoritmalar, isterse de insan gözetimi olmadan çalışan otonom silahlar olsun (sadece birkaçını saymak gerekirse), birçok cephede tedirginlik hakim. Ve yapay zekanın gerçekte neler yapabileceğini henüz tam olarak bilemiyoruz.
Yapay zekayı kimin ve hangi amaçlarla geliştirdiğine dair sorular, potansiyel dezavantajlarını anlamayı daha da önemli hale getiriyor.
Şeffaflığın Eksikliği
Yapay zeka ve derin öğrenme modellerinin anlaşılması, doğrudan teknolojiyle çalışanlar için bile zor olabilir. Bu durum, yapay zekanın sonuçlara nasıl ve neden ulaştığı konusunda şeffaflık eksikliğine yol açıyor, yapay zeka algoritmalarının hangi verileri kullandığı veya neden önyargılı veya güvensiz kararlar verebilecekleri konusunda açıklama eksikliği yaratıyor.
Bu endişeler, açıklanabilir yapay zekanın kullanılmasına yol açtı, ancak şeffaf yapay zeka sistemlerinin yaygın bir uygulama haline gelmesi için hala uzun bir yol var. İşin kötüsü ise yapay zeka şirketleri ürünleri hakkında ağzını sıkı tutmaya devam ediyor. OpenAI ve Google DeepMind’ın eski çalışanları, her iki şirketi de yapay zeka araçlarının potansiyel tehlikelerini gizlemekle suçladı. Bu gizlilik, kamuoyunu olası tehditlerden habersiz bırakırken kanun koyucuların yapay zekanın sorumlu bir şekilde geliştirilmesini sağlamak için proaktif önlemler almasını zorlaştırıyor.
Yapay Zeka Otomasyonu Nedeniyle İş Kayıpları
Yapay zeka destekli iş otomasyonu, teknolojinin pazarlama, üretim ve sağlık hizmetleri gibi sektörlerde benimsenmesiyle birlikte hızla bir endişe kaynağı haline geldi. McKinsey’e göre, 2030 yılına kadar ABD ekonomisinde şu anda çalışılan saatlerin yüzde 30’una kadarını oluşturan görevler otonom hale gelebilir. Özellikle Siyah ve Hispanik çalışanlar bu değişime karşı savunmasız kalabilir.
Goldman Sachs, 300 milyon tam zamanlı işin yapay zeka otomasyonu nedeniyle kaybedilebileceğini bile belirtiyor. Fütürist Martin Ford, Built In’e verdiği demeçte, “Aslında iş aramayan insanları yakalamayan düşük işsizlik oranına sahip olmamızın nedeni, büyük ölçüde düşük ücretli hizmet sektörü işlerinin bu ekonomi tarafından oldukça güçlü bir şekilde yaratılmış olmasıdır” dedi ve ekledi:
“Ancak yapay zekanın yükselişiyle birlikte bunun devam edeceğini sanmıyorum”.
Yapay zekalı robotlar daha akıllı ve becerikli hale geldikçe, aynı görevler için daha az insan gerekecek. Yapay zekanın 2025 yılına kadar 97 milyon yeni iş yaratacağı tahmin edilse de, birçok çalışan bu teknik roller için gereken becerilere sahip olmayacak ve şirketler işgücüne beceri kazandırmazsa geride kalabilir.
Ford sözlerine şöyle devam ediyor:
“McDonald’s’ta hamburger çeviriyorsanız ve daha fazla otomasyon gelirse, bu yeni işlerden biri sizin için iyi bir eşleşme olacak mı? Yoksa yeni iş çok fazla eğitim veya öğretim ya da belki de sahip olamayacağınız içsel yetenekler gerektiriyor olabilir mi? Çünkü bunlar, en azından şu ana kadar, bilgisayarların çok iyi olmadığı şeyler”
Teknoloji stratejisti Chris Messina’nın da belirttiği gibi, hukuk ve muhasebe gibi alanlar da yapay zekaya teslim olmak üzere. Hatta Messina’ya göre bu alanlardan bazıları yok olabilir. Yapay zeka halihazırda tıp üzerinde önemli bir etkiye sahip. Sırada hukuk ve muhasebenin olduğunu söyleyen Messina, ilkinin “büyük bir sarsıntıya” hazır olduğunu belirtti ve “Çok sayıda avukat çok fazla bilgiyi okuyor, yüzlerce veya binlerce sayfa veri ve belge. Bazı şeyleri gözden kaçırmak gerçekten çok kolay. Dolayısıyla, elde etmeye çalıştığınız sonuç için mümkün olan en iyi sözleşmeyi tarama ve kapsamlı bir şekilde sunma yeteneğine sahip olan yapay zeka, muhtemelen birçok şirket avukatının yerini alacak” sözlerini kaydetti.
Manipülasyon
Sosyal manipülasyon da yapay zeka için bir tehlike oluşturuyor. Çevrimiçi medya ve haberler, yapay zeka tarafından üretilen görüntüler ve videolar, yapay zeka ses değiştiricileri ve siyasi ve sosyal alanlara sızan deepfake’ler ışığında daha da bulanık hale geldi. Bu teknolojiler gerçekçi fotoğraflar, videolar, ses klipleri oluşturmayı ya da mevcut bir resim veya videoda bir figürün görüntüsünü başka bir figürle değiştirmeyi kolaylaştırıyor. Sonuç olarak, kötü aktörler yanlış bilgi ve savaş propagandası paylaşmak için başka bir yola sahip oldular ve güvenilir ve hatalı haberleri ayırt etmenin neredeyse imkansız olabileceği bir kabus senaryosu yarattılar.
Gizlilik Endişeleri
Ford, daha varoluşsal bir tehdit olmasının yanı sıra, yapay zekânın gizlilik ve güvenliği olumsuz etkilemesine de odaklanmış durumda. Bunun en önemli örneği Çin’in ofislerde, okullarda ve diğer mekanlarda yüz tanıma teknolojisini kullanması. Çin hükümeti, bir kişinin hareketlerini izlemenin yanı sıra, bir kişinin faaliyetlerini, ilişkilerini ve siyasi görüşlerini izlemek için yapay zekayı kullanarak yeterli veri toplayabilir.
2024 AvePoint anketi, şirketler arasındaki en büyük endişenin veri gizliliği ve güvenliği olduğunu ortaya koydu. Yapay zeka araçlarında yoğunlaşan büyük miktarda veri ve bu bilgilerle ilgili düzenleme eksikliği göz önüne alındığında, işletmelerin tereddütlü olmak için gerçekçi nedenleri var.
Yapay zeka sistemleri genellikle kullanıcı deneyimlerini özelleştirmek veya kullandığınız yapay zeka modellerini eğitmeye yardımcı olmak için kişisel verileri toplar (özellikle de bu araçlar ücretsiz ise). ChatGPT’de 2023 yılında meydana gelen bir hatanın bazı kullanıcıların başka bir aktif kullanıcının sohbet geçmişindeki başlıkları görmesine izin vermesi gibi büyük güvenlik krizleri yaşanmış durumda.
Otonom Silahlar
Çoğu zaman olduğu gibi, teknolojik gelişmeler savaş için kullanılıyor. Yapay zeka söz konusu olduğunda, bazıları çok geç olmadan bu konuda bir şeyler yapmak istiyor: 2016 yılında yayınlanan bir açık mektupta, aralarında yapay zeka ve robotik araştırmacılarının da bulunduğu 30.000’den fazla kişi, yapay zeka destekli otonom silahlara yatırım yapılmasına karşı çıktı ve şu satırlar öne çıktı:
“Bugün insanlık için kilit soru, küresel bir yapay zeka silahlanma yarışını başlatmak mı yoksa başlamasını önlemek mi?. Eğer herhangi bir büyük askeri güç yapay zeka silahları geliştirmeye devam ederse, küresel bir silahlanma yarışı neredeyse kaçınılmaz ve bu teknolojik gidişatın son noktası açıktır: Otonom silahlar yarının kalaşnikofları haline gelecektir.”
Bu öngörü, çok az düzenlemeye uyarak hedefleri kendi başlarına bulan ve yok eden Öldürücü Otonom Silah Sistemleri ile hayatımıza girdi. Güçlü ve karmaşık silahların yaygınlaşması nedeniyle, dünyanın en güçlü ülkelerinden bazıları endişelerine yenik düştü ve teknolojik bir soğuk savaşa katkıda bulundu. Bu yeni silahların birçoğu sahadaki siviller için büyük riskler oluşturuyor, ancak otonom silahlar yanlış ellere geçtiğinde tehlike daha da büyüyor.
Bilgisayar korsanları çeşitli siber saldırı türlerinde ustalaşmış durumda, bu nedenle kötü niyetli bir aktörün otonom silahlara sızıp mutlak bir kıyamet yaratabileceğini hayal etmek zor değil.
Finansal Krizler
Finans sektörü, yapay zeka teknolojisinin günlük finans ve ticaret süreçlerine dahil olmasına daha açık hale geldi. Sonuç olarak, algoritmik ticaret, piyasalardaki bir sonraki büyük finansal krizimizden sorumlu olabilir. Yapay zeka algoritmaları insan yargısı veya duyguları tarafından gölgelenmezken, aynı zamanda bağlamları, piyasaların birbirine bağlılığını ve insan güveni ve korkusu gibi faktörleri de hesaba katmazlar.
Bu algoritmalar birkaç saniye sonra küçük karlar için satış yapmak amacıyla hızlı bir şekilde binlerce işlem yapar. Binlerce işlemin satılması yatırımcıları korkutarak aynı şeyi yapmalarına neden olabilir ve bu da ani çöküşlere ve aşırı piyasa oynaklığına yol açabilir.
Bu, yapay zekanın finans dünyasına sunabileceği hiçbir şey olmadığı anlamına gelmiyor. Aslında, yapay zeka algoritmaları yatırımcıların piyasada daha akıllı ve bilinçli kararlar almasına yardımcı olabilir. Ancak finans kuruluşlarının yapay zeka algoritmalarını ve bu algoritmaların nasıl karar verdiğini anladıklarından emin olmaları gerekir. Şirketler, yatırımcılar arasında korkuları körüklemekten ve finansal kaos yaratmaktan kaçınmak için teknolojiyi tanıtmadan önce yapay zekanın güvenlerini artırıp artırmadığını düşünmeli.
İnsani Duygular Azalabilir
Yapay zeka teknolojisine aşırı güvenmek, toplumun bazı kesimlerinde insan etkisinin kaybolmasına ve insani işlevlerin eksikliğine neden olabilir. Örneğin, sağlık hizmetlerinde yapay zeka kullanımı insan empatisinin ve muhakemesinin azalmasına neden olabilir. Yaratıcı çabalar için üretken yapay zekanın uygulanması ise insan yaratıcılığını ve duygusal ifadeyi azaltabilir. Yapay zeka sistemleriyle çok fazla etkileşime girmek, akran iletişiminin ve sosyal becerilerin azalmasına bile neden olabilir. Dolayısıyla, yapay zeka günlük işleri otomatikleştirmek için çok yararlı olabilirken, bazıları genel insan zekasını, yeteneklerini ve topluluk ihtiyacını engelleyip engellemeyeceğini sorguluyor.
Yapay Zeka ve Bilinç
Ayrıca yapay zekanın çok hızlı gelişeceğini ve bilinçli hale geleceğinden korkanlar da yok değil. Yapay zekanın kendi bilincini kazanması ve kontrolü ele geçirmesi kabus senaryosu gibi görülüyor. Ancak bu noktada alınan bir önlem de yok.