ANALİZ
Dünya Yapay Zekayı Nasıl Denetleyecek?
Dünya yapay zekayı denetlemek istiyor ama bunu nasıl yapacağını henüz daha tam olarak bilmiyor. Neyin, nasıl, niçin ve kim tarafından denetleneceği konusunda görüş ayrılıkları var.
TOPLANTI, Pitoresk’ta yapıldı. İkinci Dünya Savaşı sırasında Alan Turing'e, kod kırma ekibine ve ilk programlanabilir dijital bilgisayara ev sahipliği yapan Londra'nın kuzeyindeki 19. yüzyıldan kalma bir yerde. Katılımcılar dünya lideri ve teknoloji yöneticilerinden oluşan yüz kişilik seçkin bir grup. Cevaplamaya çalıştıkları soru ise çok önemli: Yapay zekanın kontrolden çıkmış bir suiistimal aracı ve insanlığı tehdit eden bir unsur haline gelmemesi için neler yapılabilir?
İngiliz hükümetinin 1-2 Kasım tarihlerinde Bletchley Park'ta ev sahipliği yaptığı bu "Yapay Zeka Güvenlik Zirvesi" tarih kitaplarına girecek gibi görünüyor. Belki de bir gün bu zirve, küresel güç sahiplerinin oturup dünyayı değiştirebilecek bir teknoloji hakkında ne yapılması gerektiğini ciddi bir şekilde tartıştıkları ilk zirve olarak görülecek. Organizatörlerden Jonathan Black'in gözlemlerine göre, iklim değişikliği gibi başka büyük çaplı karar alma süreçlerinin aksine, yapay zeka hakkında "fazlasıyla iyi niyet söz konusu" ancak "doğru cevabın ne olduğunu hala bilmiyoruz."
Yapay zekayı dizginlemeye yönelik pek çok girişim var. Brüksel'deki müzakereler 25 Ekim'de kritik bir sürece girilirken, yetkililer Avrupa Birliği'nin hedeflediği yapay zeka yasası 2023 sonunda ilk şeklini aldı. İngiltere'deki zirvenin dışında, Beyaz Saray'ın yapay zeka konusunda bir kararname yayınlaması bekleniyor. Dünyanın zengin demokrasilerinden oluşan G7 kulübü, 2023 sonbaharında yapay zeka firmaları için bir yönetmelik taslağı hazırlamaya başladı. Diğer taraftan Çin, 18 Ekim'de bir "Küresel Yapay Zeka Yönetim İnisiyatifi" başlattığını ilan etti.
Bu hareketlenme alışılmışın dışında gelişen bir ekonomik politikadan kaynaklanıyor. Harekete geçmek ve bunu birlikte yapmak için güçlü nedenler var. Öncelikle, yapay zeka gerçekten küresel bir teknoloji. Chatgpt gibi insana benzer hizmetlerin ürkütücü derecede güç sağladığı büyük dil modelleri (LLM) kolaylıkla taşınabiliyor. Hatta bazı modeller dizüstü bilgisayarlarda bile çalıştırılabiliyor. Bazı ülkelerde yapay zeka üzerindeki baskılar giderek artarken diğerlerinde gevşek kalması pek işe yaramayacak. Pew Araştırma Merkezi tarafından yapılan ankete göre, Amerikalıların yarısından fazlası yapay zeka kullanımı konusunda "heyecanlı olmak yerine endişeli".
Pekin etkisi mi Brüksel etkisi mi?
Yasal düzenlemelerdeki rekabet bu konudaki aciliyeti daha da artırıyor. Avrupa'nın yapay zeka yasası, bir yönüyle bloğun küresel dijital standartlarının belirleyicisi rolünü pekiştirmeyi amaçlıyor. Beyaz Saray ise böyle bir "Brüksel etkisinin" önüne geçmek istiyor. Ne AB ne de Amerika, halihazırda birkaç yapay zeka yasasını kabul etmiş olan Çin’den geri kalmak istemiyor. Amerika, Çin'i zirveye davet ettiği için İngiliz hükümetine kızgın olsa da böyle bir davet olmadıkça hiçbir düzenleyici rejimin gerçek anlamda küresel olmayacağının da farkındalar. (Çıkarı insanlığı korumaktan ziyade Komünist Parti'yi korumak olsa bile, Çin gerçekten de bu toplantıya katılabilir).
Yapay zeka konusunda yürütülen diplomasinin bir diğer tetikleyicisi ise şaşırtıcı: Bizzat bu modeli oluşturanlar. Teknoloji endüstrisi eskiden bu tür düzenlemelere büyük oranda karşı çıkıyordu. Şimdi ise Alphabet ve Microsoft gibi teknoloji devleri ve Chatgpt'yi yaratan Anthropic ve Openai gibi yapay zeka sevdalıları bu düzenlemelerin lehinde lobicilik yapıyor. Çünkü şirketler arasındaki dizginlenemeyen rekabet onları istemedikleri şeyler yapıp pervasızca hareket etmeye itecektir. Kolayca suistimal edilebilecek ya da kendi akıllarını geliştirmeye başlayabilecek modelleri piyasaya sürmek gibi. Böyle bir durumda başları gerçekten derde girebilir.
Başka bir deyişle, harekete geçme isteği ortada. Johns Hopkins Üniversitesi'nden Henry Farrell, "nasıl çözmemiz gerektiği bir yana, çözmemiz gereken sorunların ne olduğu konusunda bile fikir birliğine yaklaşan bir şey yok" diyor. Burada üç farklı mesele öne çıkıyor. Dünya ne hakkında endişelenmeli? Kurallar neyi hedeflemeli? Ve nasıl uygulanmalılar?
Düzenlemelerin hedeflerinden başlayalım. Bunları belirlemek zor, çünkü yapay zeka hızla gelişiyor. Gün geçmiyor ki bir startup yeni bir şeyle ortaya çıkmasın. llms geliştiricileri bile yeni teknolojilerin hangi yetenekleri sergileyeceğini kesin olarak söyleyemiyor. Bu da ne kadar riskli olabileceklerini ölçebilecek testlere sahip olmayı çok önemli hale getiriyor. Ama bunu belirlemek henüz bir bilim olmaktan çok bir sanat. Bu tür değerlendirmeler olmadan, bir modelin kurallara uyup uymadığını kontrol etmek zor olacaktır.
Teknoloji şirketleri düzenlemelere destek verebilir, ancak bunun dar kapsamlı olmasını ve yalnızca aşırı riskleri hedef almasını da isteyebilirler. Temmuz ayında Washington'da yapılan bir Senato oturumunda Anthropic'in CEO'su Dario Amodei, yapay zeka modellerinin birkaç yıl içinde biyolojik silah üretmek için gereken tüm bilgileri sağlayabileceği ve "çok daha fazla aktörün büyük ölçekli biyolojik saldırılar gerçekleştirmesine" olanak tanıyacağı uyarısında bulundu. Buna benzer başka ürkütücü öngörüler de siber silahlar için yapılıyor. Ayın başlarında Amerikan Menkul Kıymetler ve Borsa Komisyonu Başkanı Gary Gensler, hızla müdahale edilmediği takdirde yapay zeka tarafından tasarlanmış bir mali krizin "neredeyse kaçınılmaz" olduğunu söyledi.
Bazıları ise bu spekülatif tehlikelerin bizi diğer tehditlerden uzaklaştırdığını savunuyor, örneğin demokratik süreci zedelemek gibi. Daha önceki bir Senato oturumunda, ünlü yapay zeka eleştirmeni Gary Marcus, ifadesine Openai'nin en iyi modeli GPT-4 tarafından yazılmış bir son dakika haberiyle başladı. Bu haber Kongre'nin bazı birimlerinin "dünya dışı varlıklar tarafından gizlice manipüle edildiğini" ikna edici bir şekilde iddia ediyordu. Marcus, "Hepimiz akıcı bir şekilde kafa karıştırabilen bu sistemler konusunda derin endişe duymalıyız," dedi.
Tam olarak neyin düzenleneceğine ilişkin tartışmayı çözmek hiç de kolay olmayacak. Teknoloji firmaları denetimin ağırlıklı olarak en güçlü "öncü" modellerle sınırlandırılmasını öneriyor. Microsoft, diğerlerinin yanı sıra, firmalara, performans açısından belirli eşikleri aşan modellerin kayıt altına alınmasını gerektiren bir lisanslama sistemi oluşturulması çağrısında bulundu. Diğer öneriler arasında, LLM'leri geliştirmek için kullanılan güçlü çiplerin satışının kontrol edilmesi ve bulut bilişim firmalarının, öncü modelleri geliştiren müşterilerini yetkililere bildirmelerinin zorunlu kılınması yer alıyor.
Ayrıca çoğu firma, düzenlenmesi gerekenin, modellerin kendisinden ziyade modellerin uygulamaları olduğu konusunda hemfikir. Office yazılımı? Hafif dokunuş. Sağlık hizmetleri yapay zekası? Sıkı kurallar. Kamuya açık alanlarda yüz tanıma? Muhtemelen mümkün değil. Bu tür kullanıma dayalı düzenlemelerin avantajı, mevcut yasaların yeterli olmasıdır. Yapay zeka geliştiricileri daha geniş ve müdahaleci kuralların inovasyonu yavaşlatacağı konusunda endişeli.
Geçen yıla kadar Amerika, İngiltere ve AB bu risk temelli yaklaşım konusunda hemfikir görünüyordu. Bir yıl önce Chatgpt'nin piyasaya sürülmesinden bu yana dil modellerinin gösterdiği olağanüstü gelişme, bu ülkelerin yeni kararlar almasına neden oldu. AB şimdi modellerin denetlenmesinin gerekip gerekmediğini sorguluyor. Avrupa Parlamentosu, model üreticilerinin, dil modellerini insan sağlığından insan haklarına kadar her şey üzerindeki potansiyel etkileri açısından test etmelerini istiyor. Modellerin üzerinde çalıştığı veriler hakkında bilgi almakta ısrar ediyor. Kanada'nın parlamento çalışmalarında daha sert bir "Yapay Zeka ve Veri Yasası" var. Brezilya da benzer bir konuyu tartışıyor. Amerika'da ise Başkan Joe Biden'ın yakında yayınlayacağı kararnamenin daha sert kurallar getireceği tahmin ediliyor. İngiltere bile kendi serbest yaklaşımını yeniden gözden geçirebilir.
Bu sert düzenlemeler, şimdiye kadar tercih edilen esnek kuralları değiştirmek anlamına gelecektir. Geçtiğimiz yaz Beyaz Saray, 15 model üreticisinin imzaladığı bir dizi "gönüllü taahhüt" üzerinde müzakerede bulundu. Firmalar, modellerini piyasaya sürmeden önce dahili ve harici olarak test ettirmeyi ve yapay zeka risklerini nasıl yönettiklerine dair bilgileri paylaşmayı kabul ettiler.
Bir de düzenlemeyi kimin yapması gerektiği sorusu var. Amerika ve İngiltere mevcut devlet kurumlarının işin çoğunu yapabileceğini düşünüyor. AB ise yeni bir düzenleyici kurum oluşturmak istiyor. Uluslararası alanda ise birkaç teknoloji yöneticisi, BM'nin küresel ısınmayla ilgili araştırmaları takip etmek ve etkilerini ölçmek için yeni yollar bulmakla görevlendirdiği Hükümetlerarası İklim Değişikliği Paneli'ne (IPCC) benzer bir yapının oluşturulmasını talep ediyor.
Tüm bu açık sorular göz önüne alındığında, Londra zirvesini düzenleyenlerin çok da iddialı görünmemeleri şaşırtıcı değil. Black, bunun temelde bir tür "sohbet" olarak düşünülmesi gerektiğini söyledi. Buna rağmen bilhassa en önemli şirket ve dünya liderlerinden sadece 20 kadarının salonda kalacağı ikinci gün somut birkaç sonuç elde edileceğine dair, pek de gizli olmayan bir umut söz konusuydu. Beyaz Saray'ın verdiği taahhütleri destekleyebilirler ve yapay zeka için bir IPCC kurulmasını, hatta İngiltere'nin mevcut "Frontier ai Taskforce"unun küreselleştirilmesini önerebilirler.
Böyle bir sonuç İngiltere hükümeti için başarı hanesine yazılacaktır. Ayrıca G7'nin etik kuralları gibi küresel yapay zeka alanındaki daha resmi çabaları da hızlandıracaktır. Bu açıdan faydalı bir ilk adım. Elbette son değil.
Bu yazı, The Economist’de “The world wants to regulate AI, but does not quite know how” başlığıyla yayımlanmıştır. Çeviri yapılırken yazının belirli kısımlarında editoryal düzenleme yapılmıştır.
Görsel: Mari Fouz