Yapay zeka öncelikle görseller, videolar ve bir bütün olarak bakıldığında oldukça ikna edici görünen büyük miktarda metin oluşturmak için gerekli araçların sağlanmasında kullanılıyor.
Bu tür üretken yapay zekadaki patlamanın ışığında uyarılar gelmeye devam ediyor. Yapay zekaya eşlik eden olgular daha önce yaygın değildi.
Günümüzde ise yapay olarak oluşturulan içeriğin yalnızca varlığı bile herhangi bir görselin, videonun veya metin parçasının gerçekliği konusunda şüphe uyandırabilir.
Bu içeriğin miktarı arttıkça ve modelleri geliştikçe bu şüphenin giderek artacağı kesin.
Kimi insanlar bu şüphe dalgalarını istismar ediyor; örneğin dijital belgelerle desteklenen bir davadaki sanıklardan biri, kendisine yönelik iddiaların doğru olmasına rağmen, insanların kalplerinde şüphe uyandırmak isteyebiliyor.
Bütün meseleyi yapay zekaya ve onun hilelerine bağlamak, aslında dünyanın pek çok bölgesinde çeşitli siyasi, ekonomik ve toplumsal olaylarda yaşanan bir durum.
Buradan hareketle birçok sektör, yapay zekanın yarattığı metinler ve sanat eserleriyle ilgili alarma geçti.
Özellikle öğrencilerin, ödevlerini yazmak için tamamen ChatGPT’yi kullanacaklarından korkan eğitim sektörü alarma geçti.
Zamanla yapay zeka tarafından üretilen bilgiler, çeşitli çalışmaların, yapay olarak oluşturulan metinlerin insanlar tarafından yazılanlardan daha ikna edici göründüğünü göstermesinin ardından gerçek bir endişe kaynağı haline geldi.
Gerçek şu ki hiç kimsenin, hatta lansmanına yardımcı olan şirketin bile olup biten her şeyle nasıl başa çıkılacağına dair bir yanıtı yok.
Yapay içeriğin belirlenmesi
Tüm bunlara rağmen hükümetler henüz yapay zekayı dizginlemenin net ve etkili bir yolunu bulamadılar.
Çevrimiçi yanlış bilgileri ortadan kaldırmak amacıyla kendi kurallarını ve politikalarını belirlemek ve kendi koruma önlemlerini geliştirmek hâlâ bireysel grup ve kuruluşlara kalmış durumda.
Avrupa Komisyonu, yasaların yürürlüğe girmesini beklemek yerine insanların gerçeği kurgudan ayırt etmesini kolaylaştırmak için Google, Facebook ve TikTok gibi büyük teknoloji şirketlerinden yapay zeka tarafından oluşturulan içerikleri net bir şekilde sınıflandırmaya başlamasını istedi.
Bu şekilde büyük platformlar ve arama motorları Dijital Hizmetler Yasası (DSA) kapsamında, "deepfake" olarak bilinen, yapay olarak oluşturulan veya manipüle edilen içeriği tanımlamak zorunda kalacak, aksi takdirde ağır para cezalarıyla karşı karşıya kalacak.
Dolayısıyla günümüzün zorlu görevi yapay zekanın sahtecilikte kullanımını önleyecek etkili bir araç tasarlamak.
Özellikle önerilen hiçbir teknolojinin şu ana kadar etkili olduğu kanıtlanmadığı için bu araç, içeriğin doğru bir şekilde tespit edilmesini sağlamak için güçlü teknik mekanizmalar geliştirmeyi de içeriyor.
Denemeler
Watermark teknolojisi, haber ajansları ve görsel üretiminde uzmanlaşmış şirketler tarafından (görsellerinin izinsiz kullanılmasını önlemek amacıyla) yaygın olarak kullanılırken, yapay zekanın birçok modelle üretebildiği içerik çeşitliliği, işleri daha da karmaşık hale getiriyor.
Özellikle birçok uzman, watermark teknolojisinin atlatılabileceği çeşitli yolların olduğunu ortaya koyduktan sonra bu karmaşıklık artıyor.
Ayrıca, örneğin görüntü boyutunu değiştirmek gibi içeriğin kendisinde değişiklik yaparken bazı teknolojilerin bunları tespitte etkili olmaması da mümkün.
Üstelik geçen temmuz ayında OpenEye, yapay zeka tarafından yazılan metinleri tespit etmesi gereken bir aracı, doğruluk oranının düşük olması nedeniyle kapatmıştı.
Daha sonra bu aracın yapay zeka tarafından oluşturulan metni yakalamada yeterince iyi olmadığını kabul etti ve yanlış sonuçlar ortaya koyabileceği konusunda uyardı.
Ayrıca OpenEye kullanıcıların işitsel mi yoksa görsel içeriğin mi yapay zeka tarafından oluşturulduğunu bilmesini sağlayacak teknolojiler geliştirmeyi ve uygulamayı planladığını duyurdu
Geliştirilmiş teknik standart
Bugün yeniden kendini gösteren teknolojilerden biri de iki yıl önce Adobe, Microsoft, Intel, ARM ve Tropic ortaklığıyla başlatılan proje.
Daha sonra British Broadcasting Corporation (BBC), Nikon ve Sony gibi diğer şirketler de bu gruba katıldı.
Bu koalisyona Coalition for Content Provenance and Authenticity (C2PA) adı veriliyor.
C2PA, yayıncılara, üreticilere ve tüketicilere farklı medya türlerinin kökenini takip etme imkanı sağlamak amacıyla dijital olarak üretilen medyanın kaynağını ve geçmişini ortaya koymak için geliştirilmiş bir teknik standart.
Ocak 2022'de C2PA, politika yapıcıların, akademisyenlerin ve sektör liderlerinin güvenilir dijital medya oluşturma, yayınlama ve paylaşmanın geleceğini tartıştığı bir etkinlik düzenledi.
Etkinlik sonunda yayınlanan metne göre koalisyon, medya türlerinin kökenini takip etme sorununu çözecek, içeriğin kaynağını ve orijinalliğini belirlemek için teknik özellikler geliştirecek ve üreticilerin, yayıncıların ve tüketicilerin gizlilik ve veri kaygılarını ele alacak.
Ayrıca burada, dijital ürünün oluşturulduğu andan yayınlanıp tüketicilere sunulduğu ana kadar olan süre boyunca kaynağa ilişkin bilgi sağlayarak ve işleyerek içeriğe erişimin dijital kaynak teknolojilerinden olumsuz etkilenmemesini sağlamak amaçlanıyor.
Görüntünün hikayesi
Koalisyonun internet sitesinde yayınladığı ve bir fotoğrafın C2PA uygulamasını destekleyen bir kamerayla çekildiği andan itibaren hayat hikayesini anlatan videoda anlatılan da bu.
Tüm görüntü kaynağı bilgilerini kaydetme ve şifreli imza içeren bir görüntüyle birbirine bağlama süreci başlatılır.
Daha sonra görsel bir editöre ulaşır ve editör, internette yayınlamadan önce üzerinde bazı küçük değişiklikler yapar.
Burada önceki seriye yeni bilgiler eklenir ve ardından görseli indiren herkes görselin sol üst köşesinde yer alan bilgi simgesine tıklayarak, kaynağına, üzerinde yapılan değişikliklere ilişkin tüm bilgileri öğrenebiliyor ve yolculuğunun her bölümünü inceleyebilir.
Eğer C2PA tarafından desteklenmeyen bir sistemdeki görüntüde değişiklikler yapılırsa eksik bir mesajın içerik kimlik bilgilerinde bununla ilgili bilgi verilecek.
İzleyici ayrıca dilediği zaman orijinal görüntü ile mevcut görüntü arasında karşılaştırma da yapabilecek.