АИ Алатките можат да откријат длабоки удари, но колку долго?

Deepfakes – видеата кои изгледаат реалистични и ги одржува АИ кои опишуваат настани што никогаш не се случиле – веќе неколку години биле загриженост, а како што напредува технологијата, откривањето станува сè потешко.

Засега, изменетите слики и видеа оставаат дигитални отпечатоци што можат да се откријат со вистинските алатки. Истражувачите од Универзитетот во Калифорнија, Риверсајд, на пример, развија алгоритам за АИ кој може да препознае слики и видеа што се манипулираат со пронаоѓање впечатливи артефакти оставени со алатки за уредување.

Овој алгоритам за длабоко учење – од Амит Рој-Чоуди, професор по електротехника и компјутерски инженеринг и истражувачи на УЦР – откри аномалии предизвикани од вметнување, бришење или манипулирање со предмети на слика. Идејата, објасни Рој-Чоууди, беше да се локализира манипулацијата со слики. „Ние обучуваме нервни мрежи за да идентификуваме области што се манипулираат со идните слики“, рече тој.

Развивање на ‘добро обучена нервна мрежа’

Нервните мрежи се основна компонента на алгоритмите за длабоко учење. За разлика од класичниот софтвер, каде програмерите рачно даваат компјутерски упатства, нервните мрежи го развиваат своето однесување со анализа и споредување на примери.

Нервните мрежи се многу добри во наоѓање на модели и класифицираат податоци што се неуредни и неструктурирани, како што се слики и видеа. Кога ќе обезбедите нервна мрежа со доволни примери на одредени типови слики – процес наречен „тренинг“ – ќе можете да најдете слични карактеристики во слики што порано не биле видени.

„Кога некој манипулира со слика, тие се обидуваат да го сторат тоа на начин што не е откриен од човечкото око“, рече Рој-Чоуди. “Но, обично дел од просторот на пиксели е под влијание на оваа манипулација.”

Истражувачите на UCR ги обучуваат своите нервни мрежи на прибелешки слики што се манипулираат со различни алатки и им оставаат да најдат вообичаени модели на пиксели кои се видливи на границата на зафатениот предмет. По обуката, моделот на АИ може да истакне области на сликата што содржат манипулирани предмети.

Фати длабоко

Во тековната фаза, моделот за учење работи на слики, но истата техника може да се промени за да се најдат длабоки лажни и други техники за манипулација со видео. Deepfake во основа е видео каде секоја рамка се менува за да се замени едно лице со друго.

„Идејата може да се искористи и за видео. Во секоја рамка има области што се манипулирани, а обучена нервна мрежа може да истакне области кои се оштетени“, рече Рој-Чоувди.

Нервната мрежа UCR е еден од неколкуте обиди насочени кон фаќање длабоки удари и други деструктивни техники на слики и видеа. Претходно оваа година, истражувачите од Универзитетот во Сари развија комбинација на блоккеин и нервни мрежи за да регистрираат автентични видеа и да идентификуваат неисправни верзии. Друг проект на Универзитетот во Албанија користи две нервни мрежи за откривање на синтетизираните видеа со откривање на неприродни феномени како што се очи што не трепнуваат.

Но, како што се зголемува методот на препознавање, така се развива и технологијата за создавање реални лажни слики и видеа. „Тоа е игра со мачки и глувци“, рече Рој Чоууди. „Ова не е тривијална работа. Што и да правиме, лицето што ја прави манипулацијата произведува нешто друго. Не знам дали ќе има време кога ќе можеме да откриеме секој вид манипулација“.