OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI, AI tarafından oluşturulan görüntü dedektörünün ne zaman piyasaya sürüleceğini tartışıyor - Dünyadan Güncel Teknoloji Haberleri

OpenAI’nin araç için hedeflenen doğruluğu olağanüstü derecede yüksek görünüyor [classifier] aletler Başka bir firma olan Steg Öyle olsa bile, filigranların ve hatta dedektörlerin işe yarayacağının garantisi yoktur

“Şu anda bunun nedenlerinden biri [the classifier is] Agarwal, DALL-E 3’e özgü olmasının nedeninin teknik olarak çok daha kolay takip edilebilir bir sorun olması olduğunu söyledi Kendisi bunu taahhüt etmedi ancak görüntü sınıflandırma aracının bugünkü algısına bağlı olarak bunun OpenAI’nin keşfetmeyi düşüneceği bir yol olduğunu söyledi ”

OpenAI’nin isteksizliği, yalnızca OpenAI modellerinden değil, aynı zamanda üçüncü taraf sağlayıcılar tarafından piyasaya sürülen metin oluşturma modellerinden de yapay zeka tarafından oluşturulan metni tespit etmek için tasarlanan önceki genel sınıflandırma aracıyla ilgili tartışmalara bağlı olabilir

DALL-E 3 tarafından oluşturulan bir görüntü OpenAI’nin baş teknoloji sorumlusu Mira Murati, söz konusu bu hafta The Wall Street Journal’ın Tech Live konferansında, sınıflandırıcının DALL-E 3 kullanılarak değiştirilmemiş bir fotoğrafın oluşturulup oluşturulmadığını belirlemede “%99” güvenilir olduğu açıklandı Peki ya DALL-E 3’ten alınan, birkaç tur düzenlemeden geçen, diğer görüntülerle birleştirilen ve ardından birkaç işlem sonrası filtreden geçirilen bir görüntüye ne dersiniz? Daha az net

Sorun şu ki, endüstri henüz tek bir filigran veya tespit standardı etrafında birleşmemiştir Sınıflandırma aracının doğruluğu “gerçekten iyi” olsa da – en azından kendi tahminine göre – OpenAI’nin kalite eşiğini karşılamadığını söyledi

Agarwal, “Bir eserin bir sanatçı tarafından yapılmış olarak mı görüldüğü, yoksa sahte ve yanıltıcı mı olduğu gibi, alabileceği kararların fotoğrafları önemli ölçüde etkileyebileceği göz önüne alındığında, bir şekilde güvenilmez bir araç ortaya koyma sorunu var” dedi

TechCrunch ile paylaşılan bir OpenAI blog yazısı taslağı şu ilginç bilgiyi ortaya çıkardı:

“[The classifier] %95’in üzerinde doğru kalır [an] görüntü, kırpma, yeniden boyutlandırma, JPEG sıkıştırma veya gerçek görüntülerden alınan metin veya kesiklerin, oluşturulan görüntünün küçük bölümleri üzerine bindirilmesi gibi yaygın türde değişikliklere maruz kalmıştır

DeepMind yakın zamanda AI tarafından oluşturulan görüntüleri insan gözüyle algılanamayacak ancak özel bir dedektör tarafından tespit edilebilecek şekilde işaretlemek için SynthID adında bir özellik önerdi



genel-24

Resim Kredisi: OpenAI

Agarwal, “Bu noktada, bu görüntünün yapay zeka tarafından üretilmiş bir şey olduğu düşünülmeli mi, düşünülmemeli mi?” dedi


OpenAI, bir görüntünün OpenAI’nin üretken yapay zeka sanat modeli olan DALL-E 3 ile yapılıp yapılmadığını belirleyebilecek bir aracın ne zaman yayınlanacağını “oldukça kapsamlı tartıştı ve tartıştı” 2020 yılında piyasaya sürülen Fransız startup Imatag, SynthID’ye benzer şekilde görüntülerin yeniden boyutlandırılmasından, kırpılmasından, düzenlenmesinden veya sıkıştırılmasından etkilenmediğini iddia ettiği bir filigran aracı sunuyor Ancak girişim yakın zamanda bir karar vermeye yakın değil AI, yeniden boyutlandırma ve diğer düzenlemelerde hayatta kalan filigranları uygulamak için bir yapay zeka modeli kullanıyor

Agarwal, OpenAI’nin aynı zamanda yapay zeka tarafından oluşturulan bir görüntünün tam olarak neyin oluşturduğuna dair felsefi soruya takılıp kaldığını ima ediyor OpenAI, AI tarafından yazılan metin dedektörünü, geniş çapta eleştirilen “düşük doğruluk oranı” nedeniyle çekti Belki de hedef %100’dür; Agarwal söylemedi DALL-E 3 tarafından sıfırdan oluşturulan sanat eserleri elbette bu kategoriye giriyor “Şu anda bu sorunun cevabını bulmaya çalışıyoruz ve bu durumdan önemli ölçüde etkilenecek sanatçılardan ve insanlardan haber almayı gerçekten istiyoruz ”

Yalnızca OpenAI değil, birçok kuruluş yapay zeka gibi üretken medya için filigran ekleme ve tespit tekniklerini araştırıyor derin sahtekarlıklar çoğalmak “[A general detector] şu anda yaptığımız bir şey değil… Ama nereye bağlı [the classifier tool] giderse, bunu asla yapmayacağımızı söylemiyorum olmayacak yenilebilir

Agarwal’a OpenAI’nin görüntü sınıflandırıcısının OpenAI olmayan diğer üretken araçlarla oluşturulan görüntüleri tespit etmeyi destekleyip desteklemeyeceğini sordum

Bu hafta TechCrunch ile bir telefon görüşmesinde konuşan, güvenlik ve politikaya odaklanan OpenAI araştırmacısı Sandhini Agarwal’a göre bu böyle