Во обид да спречи ширење на дезинформации, Google откри невидлив, постојан воден жиг на сликите што ќе ги идентификува како компјутерски генерирани.

Системот ќе работи со вградување на промени во поединечни пиксели на слики, така што водените жигови ќе бидат невидливи за човечкото око, но забележливи од машина. 

Со цел да се бори против дезинформациите, Google преку „DeepMind“ спроведува дигитално испитување за воден жиг за да ги идентификува сликите создадени со вештачка интелигенција (AI).

Технологијата наречена SynthID, го вградува водениот печат директно во сликите создадени од Imagen, еден од најновите генератори на текст во слика на Google, известува Investor. Ознаката генерирана со вештачка интелигенција останува без оглед на модификациите како што се додадени филтри или променети бои.

Алатката SynthID исто така може да ги скенира дојдовните слики и да ја идентификува веројатноста дека тие се создадени од Imagen со скенирање на воден печат со три нивоа на безбедност: откриено, неоткриено и евентуално откриено.

„Иако оваа технологија не е совршена, нашето внатрешно тестирање покажува дека е точна против многу вообичаени манипулации со слики“, напиша Google во блог пост.

Бета верзијата на SynthID сега е достапна за некои корисници на Vertex AI, генеративната ВИ платформа на Google за програмери. Компанијата вели дека SynthID, создадена од единицата DeepMind на Google во партнерство со Google Cloud, ќе продолжи да се развива и може да се прошири на други производи на Google или трети страни.

 Дипфејкови и изменети фотографии

Како што длабоките лажни и уредувани слики и видеа (deepfakes) стануваат пореални, технолошките компании се обидуваат да најдат сигурен начин за идентификување и обележување на манипулирана содржина.

 Си-Ен-Ен потсетува дека во последниве месеци, сликата на папата Франциско генерирана со вештачка интелигенција стана вирална, а сликите генерирани од вештачката интелигенција од апсењето на поранешниот претседател Доналд Трамп беа широко распространети дури и пред да биде обвинет.

Вера Јоурова, потпретседател на Европската комисија, во јуни ги повика потписниците на Кодексот за дезинформација на ЕУ - список што ги вклучува Гугл, Мета, Мајкрософт и ТикТок - да „воведат технологија за да препознаваат такви содржини и јасно да им ги означат на корисниците“.

Гугл беше една од седумте водечки компании за вештачка интелигенција која потпиша доброволен договор во САД за да обезбеди безбеден развој и употреба на вештачката интелигенција, вклучително и обезбедување дека луѓето можат да препознаваат компјутерски генерирани слики со примена на водни жигови.

Со објавувањето на SynthID, Google се приклучува на се поголемиот број стартапи и Big Tech компании кои се обидуваат да најдат решенија. Некои од овие компании се нарекуваат Truepic и Reality Defender, кои зборуваат за потенцијална длабока лажна содржина: заштита на нашето чувство за тоа што е реално, а што не.

Следење на потеклото на содржината

Коалицијата за потекло и автентичност на содржината (C2PA), конзорциум поддржан од Adobe, беше лидер во напорите за дигитално водени жигови, додека Google во голема мера зазеде свој пристап.

Во мај, Google објави алатка наречена „За оваа слика“, која им нуди на корисниците можност да видат кога сликите пронајдени на неговата веб-страница првично биле индексирани од Google, каде сликите можеби првпат се појавиле и каде на друго место можат да се најдат на интернет.

Технолошката компанија исто така објави дека секоја слика генерирана со вештачка интелигенција креирана од Google ќе има ознака во оригиналната датотека за да „даде контекст“ доколку сликата се најде на друга веб-страница или платформа.

Но, бидејќи технологијата на вештачка интелигенција се развива побрзо отколку што луѓето можат да го следат, не е јасно дали овие технички решенија ќе можат целосно да го решат проблемот. OpenAI, компанијата зад Dall-E и ChatGPT, призна претходно оваа година дека нејзиниот сопствен напор да помогне во откривањето на пишување генерирано од вештачка интелигенција наместо слики е „несовршено“ и предупреди дека треба „да се земе со резерва“.