В опит да помогне за предотвратяване на разпространението на дезинформация, Google ще слага воден знак върху изображения, който ще ги идентифицира като компютърно генерирани.
Технологията, наречена SynthID, вгражда водния знак директно в изображения, създадени от Imagen, един от най-новите генератори на текст към изображение на Google. Етикетът, генериран от AI, остава независимо от модификации като добавени филтри или променени цветове.
Инструментът SynthID може също да сканира входящи изображения и да идентифицира вероятността те да са направени от Imagen чрез сканиране за воден знак с три нива на сигурност: открити, неоткрити и евентуално открити.
Тъй като фалшивите и редактирани изображения и видеоклипове стават все по-реалистични, технологичните компании се борят да намерят надежден начин за идентифициране и маркиране на манипулирано съдържание. През последните месеци генерирано от AI изображение на папа Франциск в пухено яке стана вирусно, a генерирани от AI изображения на бившия президент Доналд Тръмп, който е арестуван, бяха широко разпространени, преди той да бъде обвинен.
Вера Йоурова, вицепрезидент на Европейската комисия, призова подписалите Кодекса на ЕС относно дезинформацията – списък, който включва Google, Meta, Microsoft и TikTok – да „въведат технология за разпознаване на такова съдържание и ясно да го етикетират на потребителите ".
През май Google обяви инструмент, наречен About this image, предлагащ на потребителите възможността да видят кога изображения, открити на неговия сайт, първоначално са били индексирани от Google, къде изображенията може да са се появили за първи път и къде другаде могат да бъдат намерени онлайн.
Технологичната компания също обяви, че всяко изображение, генерирано от AI, създадено от Google, ще носи маркиране в оригиналния файл, за да „даде контекст“, ако изображението бъде намерено на друг уебсайт или платформа.
Но тъй като AI технологията се развива по-бързо, отколкото хората могат да се справят, не е ясно дали тези технически решения ще могат да се справят напълно с проблема. OpenAI, компанията, която стои зад Dall-E и ChatGPT, призна по-рано тази година, че нейните собствени усилия да помогне за откриване на генерирани от AI текстове, а не на изображения, са „несъвършени“ и предупреди, че не трябва да се „за чиста монета“.
Вижте всички актуални новини от Standartnews.com