Görüntü üreten yapay zeka dünyasında işler gerçekten garipleşmek üzere.
OpenAI'nin makine öğrenimi aracı DALL-E, metin istemlerinden tuhaf şekilde özel görüntüler oluşturma yeteneği nedeniyle son zamanlarda çok fazla ses getirdi. Şimdi, AI modelinin dahili kullanım politikalarında yakın zamanda yapılan bir değişikliğin ardından, OpenAI, araştırmacıların var olmayan insanlara ait fotogerçekçi insan yüzlerinin oluşturulmuş görüntülerini paylaşmalarına izin veriyor.
Salı günü DALL-E test kullanıcılarına gönderilen bir e-postaya göre, geliştiriciler derin sahte görüntülerin oluşturulmasını önlemek için tasarlanmış güvenlik önlemleri aldıktan sonra, kullanıcıların artık sistem tarafından oluşturulan gerçekçi yüz fotoğraflarını paylaşmasına izin veriliyor.
Anakart ile paylaşılan e-postada, "Bunun nedeni, aldatıcı içerik oluşturmak için DALL·E'nin kullanılma riskini en aza indirecek şekilde tasarlanmış iki yeni güvenlik önlemidir." Spesifik olarak, sistem artık otomatik olarak "ünlüler de dahil olmak üzere herhangi bir tanınmış şahsiyetin benzerliğini yaratma girişimlerini reddediyor" ve ayrıca kullanıcıların insan yüzlerinin resimlerini siteye yüklemesini engelliyor Daha önce, sistemin güvenlik önlemleri kullanıcıların yalnızca siyasi figürlerin resimlerini yapmasını engelledi.
Araştırmacılar şimdiden bazı erken örnekleri paylaşmaya başladılar ve sonuçlar oldukça garip.
DALL-E hala kapalı test aşamasındadır ve OpenAI normalde testçilerin ne tür üretilen sonuçları herkese açık olarak paylaşabileceği konusunda sıkı bir kontrolü mevcut. Bu arada, DALL-E Mini gibi daha küçük ölçekli gönüllü projeler, genel halka, çok daha düşük kaliteli sonuçlarla da olsa , metin istemlerinden AI tarafından oluşturulan görüntüler ve memler oluşturma yeteneği verdi.
Söylemeye gerek yok, gerçekçi insan yüzleri oluşturma yeteneği, gerçek insanlara ait olmasalar bile her türlü etik soruyu gündeme getiriyor.
AI etiği araştırmacıları, DALL-E gibi büyük ölçekli makine öğrenim sistemlerinin, kolayca tasarlanamayan derinlere gömülü önyargılar yoluyla marjinal insanlara zarar verebileceği konusunda uyardılar. OpenAI'nin kendi araştırmacıları, metin istemlerine belirli kelimeler eklendiğinde DALL-E'nin sıklıkla ırkçı ve cinsiyetçi klişeleri yeniden ürettiğini de kabul etti. Ve Facebook ve Google'ın diğer AI modelleri çok daha iyi sonuç vermedi.
Yapay zeka mühendisleri, kötüye kullanımı önleyen güvenlik önlemleri oluşturmak için ellerinden gelenin en iyisini yaptıklarını söylese de, DALL-E gibi büyük yapay zeka sistemlerinin neler yapabildiğini ve ne tür zararlara yol açabileceklerini muhtemelen daha yeni görmeye başladık.
0 Yorumlar