OpenAI, metinden yüksek kaliteli videolar oluşturmayı sağlayan Sora'yı tanıttı. / Videoyu yaratan metin: Kamera, New York'taki büyük bir müze galerisinde yer alan, hepsi farklı programları gösteren büyük bir eski televizyon yığınının etrafında dönüyor - 1950'lerin bilimkurgu filmleri, korku filmleri, haberler, statik, 1970'lerin durum komedisi vb.

Hakikati sora sora mı bulacağız?

“Er ya da geç, gerçekçiliğin artık özgünlüğün bir göstergesi olmadığı gerçeğine uyum sağlamamız gerekiyor”

İLKAN AKGÜL

21.02.2024

Dünyadaki yapay zeka gelişmelerinin hızı artık hepinizin malumu. O kadar agresif büyüyen bir sektör ki günde onlarca haber, haftada onlarca yeni girişim incelerken kendimizi kaybedebiliyoruz. Her yeni olgu, peşinden takipçilerini yeni tartışmalarla çevrelemeye devam ederken geçtiğimiz hafta OpenAI çığır açan teknolojisi olan Sora’yı duyurdu. Farkettiyseniz artık her gelişme çığır açıcı nitelikte oluyor çünkü çarpan etkisi diğer sektörlere kıyasla çok fazla ve yeni gelen arkasında bıraktığını unutturuyor.

Sora’yı kısaca tanıtmak gerekirse kendisi metinden videoya içerik üreten bir yapay zeka modeli. Birden fazla karakteri hayal edilen her evrende keskin ayrıntıları ve komplike sahneleriyle birlikte olağanüstü bir biçimde yaratma becerisine sahip. Dikkat ederseniz olağanüstü diyerek kusursuz demekten kaçınıyorum. Çünkü yapay zeka modelleri fizik bilgilerinin olmamasından dolayı neden-sonuç ilişkilerini anlayamıyorlar ve böylece hayatın doğal akışına uygun bir şekilde üretim yapamıyorlar. Zaten doğrulama platformlarının bir fotoğrafın gerçek olup olmadığını bulmak için faydalandıkları ipuçlarından biri de bu noksanlık. İşte Sora’da bu tür sorunlar mevcut ve yapay zekanın ileride buna nasıl çözümler üretebileceğini hep beraber göreceğiz.

Princeton Üniversitesi’nden bilgisayar bilimleri profesörü Arvind Narayanan da şu anda Sora’nın ürettiği videolarda çok fazla tutarsızlık olduğunu belirterek sıradan bir insanın bu tür ayrıntıları fark edemeyeceğini de ekliyor.

“Er ya da geç, gerçekçiliğin artık özgünlüğün bir göstergesi olmadığı gerçeğine uyum sağlamamız gerekiyor.”

Ancak şunu söylemek gerekir: Sora’nın en büyük farkı, yaratıcılarının geçmişte tanıttığı diğer ürünlerinin aksine insanların hem sevmesi hem meraklanması hem korkması hem çekinmesi hem de nefret etmesi oldu. Bir yapay zeka modeli düşünün ki kendisine hükmederek metin talimatları verecek olan insanlara birçok uç duyguyu aynı anda hissettiriyor.

Basitçe sadece etki odaklı bile bakacak olursak, üretken yapay zeka ve modelleri özellikle toplumu ilgilendiren birçok potansiyel soruna karşı çözüm ortağımız olabilecek seviyede. Bunlar ne olabilir diye düşünmeye başladığımızda akla ilk gelen şeylerden birisi hiç şüphesiz İklim Krizi. Kontrolsüz bir şekilde artan nüfusla birlikte buna paralel olarak artan kaynak talebi ve dünya ülkelerinin acil durumlara ve afetlere yeterince efektif bir şekilde yanıt verememesi bizi ister istemez bu teknoloji ile yan yana getiriyor. Örneğin emisyon modellemeleri, ulaşım ağlarının kusursuzlaştırılması, binalarda enerji kullanım dönüşümü, düşük emisyonlu altyapılar, iklim dostu inşaatlar, ormansızlaşmanın azaltılması, deniz seviyelerinin yükselmesi gibi birbirinden farklı ama üst çatısı aynı olan ve yazarak buraya sığdıramayacağımız diğer onlarca konunun her biri için yapay zekanın söyleyecek sözü var.

Ama her şeyin olduğu gibi bu konunun da en çok konuşulan ve tartışılan noktaları kötü senaryolar. Zaten dezenformasyon ile boğuşan ve bunun bedellerini ödeyen bir toplumda durum daha da kötüye gidebilir. Sora üzerinden devam edecek olursak ve OpenAI’nın paylaştığı videolara bakarsak Sora’nın yapabildiği en büyük şeylerden biri gerçek hayatta göremeyeceğimiz kadar fantastik şeyler yaratabilmesi. Ve bunu da internet ile ortalama bir ilişkisi olan birini gerçekliğinden şüphe ettirecek kadar iyi yapması. Tahmin edilebileceği gibi piyasada böylesi bir ‘silah’ varken gerçekte var olan kişilerin içerisinde bulunmadıkları durumlara sokuldukları akışlar yaratılabilir.

Büyük teknoloji devleri bu tür dezenformasyon sorunlarının üzerinde çalıştıklarını uzun süredir dile getirseler de sorun şu ki halen sahte içerikleri tespit etme, etiketleme ve sonrasında da kaldırma konusunda yeterince hızlı değiliz

Sora şu anda halka açık değil. Sadece bazı araştırmacılar ve içerik oluşturucuları ile kısıtlanmış durumda. Üretilecek olan içerikler ise şimdilik 1 dakikayla sınırlı. Sora ile birlikte cinsel içerik ve şiddet içerikleri üretilemeyecek. Ayrıca ünlü benzerlikleri de söz konusu olmayacak. Ancak birçok uzmana göre bunlar oldukça yetersiz. OpenAI için yeterince kısıtlanmış ve zararsız görünen şeyler belli bir sınır içerisinde kurallara uyarak dahi çeşitli toplumsal infiale sebep olabilir.

Güçlü işbirlikleri gerekiyor

Social Proof Security CEO’su Rachel Tobac’ın da sosyal medyada dile getirdiği eleştiriye göz atarsak konuyu daha iyi kavrayabiliriz. Sora’nın‘ ATM sırası bekleyen takım elbiseli insanlardan oluşan uzun bir kuyruk’ metniyle gerçekçi bir video ürettiğini düşünelim. Bu video piyasalarda paniğe sebep olabilir ve insanların bankalara akın etmesini tetikleyebilir. Ya da aklıma gelen başka bir senaryoda ‘Aşı olduktan sonra kopan kolu için ağlayan insan’ metninden üretilecek bir videoyu izleyen insanlar aşı alışkanlıklarında negatif değişikliklere gidebilir. ‘ABD semalarında süzülen uzay gemisi’ videosunu izleyen insanlar panikleyebilir. “Uzaydan düz dünyaya bakan astronot” metniyle üretilen bir videoda ise insanlar daha gerçekçi görünen bir komplo teorisine sarılabilir.

Tobac ayrıca yapay zeka şirketlerinin, Sora tamamen halka açıldığında ortaya çıkması potansiyel dezenformasyonla başa çıkmak için sosyal medya ağları ve hükümetlerle sıkı işbirliğini öneriyor. Bu önerisini de yapay zeka tarafından oluşturulan içerikler için insanların gördükleri anda sahte olduğunu anlamalarını sağlayacak “filigranların” uygulanması yönünde somutlaştırıyor.

Yapay zekadan henüz konuşmadığımız zamanlarda dahi insanların bizzat yarattıkları Photoshop’lu fotoğrafların uzun yıllar boyunca kaç kişiyi yanılttığını deneyimledik. Manipüle edilmiş basit bir görseli ayırt etme kaslarımız bile yıllar içerisinde yeni yeni güçlenmiş ve teyit mekanizmalarını tartışmaya başlamışken demokrasimizin tarihin en çok tehdit altında olduğu ve en fazla seçim olan yılda buna karşı bir savunma mekanizması yaratmak oldukça zor hatta imkansıza yakın görünüyor.

Büyük teknoloji devleri bu tür dezenformasyon sorunlarının üzerinde çalıştıklarını uzun süredir dile getirseler de sorun şu ki halen sahte içerikleri tespit etme, etiketleme ve sonrasında da kaldırma konusunda yeterince hızlı değiliz. Üstelik buna benzer her eylem ardından başka bir etik ve ifade özgürlüğü tartışmasını da beraberinde getiriyor.

Regülasyon yarışları

Beğensek de beğenmesek de yapay zeka kalite olarak her yıl daha iyiye gidiyor. Bugünün Sora’sı önümüzdeki dönemde tanıtımı yapılacak olan xxxxx’in yanında hiçbir şey değil.  1 yıl önce Will Smith’in spagetti yediği videoyu yaratan yapay zeka modeline de “çığır açıcı” diyorduk. Baş döndürücü bir hıza ulaşan her ne varsa onun arkasındaki riskler gözardı edilemez.

Geçtiğimiz yıl sonunda Avrupa Birliği Komisyonu’ndan geçen Yapay Zeka Yasası ile hatırlayacağınız üzere yüz tanıma amaçlı veri tabanı oluşturan bütün sistemler yasaklanmış ve su, enerji, yargı, sağlık vb. alanlarda yapay zeka ‘yüksek risk’ kapsamına alınmıştı. Bunu ucundan feyz alınabilecek ve devamının tüm dünyada getirilmesi gereken bir gelişme olduğunu düşünüyorum. Amerika Birleşik Devletleri Federal Hükûmetine bağlı Federal Ticaret Komisyonu ise, giderek kimliğe dayalı dolandırıcılık konusunda artan sayıda şikayetler aldığı için “Kişilerin taklit edilmesini yasaklayacak” yeni bir kanun önererek buna yapay zekayı da dahil etti. Ayrıca ABD’de Biden-Harris yönetimi Mayıs 2023’te bireylerin haklarını ve güvenliğini korumaya yönelik geliştirilecek yapay zekanın araştırılması, geliştirilmesi ve yaygınlaştırılmasını hızlandıracak yeni bazı adımları duyurmuştu.

Bize hakikatin güvencede olduğunu tek başına bir grup büyük teknoloji kodamanının garanti edemeyeceğini biliyoruz

Özellikle açık toplumlu birbirlerine benzer ülkelerin başlattıkları yapay zekaya dair bu düzenleme yarışlarına karşı Çin gibi dışa kapalı ve güçlü ülkeler de kendi regülasyon ve teknolojilerini geliştirerek alana öncülük etmeye çalışıyor. Ancak batı dünyası, özellikle Çin’in düzenlemelerini tabir-i caizse ciddiye almıyor ve bir uzay yarışı gibi jeopolitik bir rekabetten ibaret görüyor.Türkiye’de yapılan son genel seçimlerde de gördüğümüz gibi her ne kadar popülist liderlerin işine bu tür dezenformasyon araçları bir noktaya kadar yarıyor olsa da tehlikeli sınır aşıldıktan sonra ucu bucağı olmayan bu tür bir teknolojiden herkes zararlı çıkabilir.

Yukarıda yazılan her şeyi birlikte deneyimliyoruz. Yapay zeka ve algoritmalar yaşadığımız ülkelerin demokrasisini zedeliyor. Hiçbir şey yapmasa bile dünyadaki gerçeklik algımızda kırılganlık ve geri döndürülemez bir güven problemine yol açıyor. Bu arada farkındaysanız yapay zeka ile ilgili tartışmalar tıpkı siyaset bilimcilerin yıllardır içerisinde boğuştuğu ‘’özgürlük mü yoksa güvenlik mi?’’ sorusuyla oluşan çıkmaz sokağa doğru evrilmiş durumda. Peki seçilmesi gereken ne? Yapay zeka ilerlemesi mi yoksa yapay zeka güvenliği mi? Yoksa başka bir formül mü? Sorunun cevabını henüz bilmiyoruz çünkü potansiyel riskler ve bunun nerelere uzanacağı ile ilgili en ufak bir fikrimiz yok.

Uzmanlar insan düzeyinde hatta belki de daha yetenekli yapay zeka modelinin 2030’dan önce geleceğini düşünürken medeniyet ve demokrasimizin görebileceği zararları büyük bir resim üzerinde ancak bütüncül bir yaklaşımla görebiliriz. Bence eksik olan da tam olarak bu.

Bize hakikatin güvencede olduğunu tek başına bir grup büyük teknoloji kodamanının garanti edemeyeceğini biliyoruz. Öyleyse şu sorunun cevabını kendi içimizde tartışabiliriz: Sahtelik hakikatten ayırt edilemez duruma gelip kendimizi üretilmiş bir videoda asla yapamayacağımız bir şeyi yaparken gördüğümüzde hakikati sora sora mı bulacağız?