Научниците предупредуваат: „AI ројеви“ ќе ги преплават социјалните мрежи со дезинформации

Скопје1.мк's avatar
Автор: Скопје1.мк

објавено пред 4 часа -

Свет
media-library5hegc93e08mtb8uWKBU

Социјалните мрежи наскоро би можеле да бидат преплавени од т.н. „ројеви“ на вештачка интелигенција кои ќе шират дезинформации, ќе ги вознемируваат корисниците и ќе ги поткопуваат демократските процеси, предупредуваат научници во коментар објавен на 22 јануари во реномираното научно списание Science.

— реклама —

Според авторите, овие „AI ројеви“ претставуваат ново и исклучително опасно оружје во современите информациски војни. За разлика од досегашните ботови, кои најчесто се примитивни и релативно лесно препознатливи, новите системи ќе можат уверливо да го имитираат човечкото однесување, да се приспособуваат на заедниците во кои се инфилтрираат и да создаваат впечаток на спонтано и автентично дејствување.

Како резултат на тоа, корисниците би можеле да стекнат чувство дека пред нивните очи се формира јасен став на мнозинството по одредено прашање, иако во реалноста станува збор за координирана активност управувана од вештачка интелигенција. Овој привид на консензус, според научниците, може силно да влијае врз јавното мислење, бидејќи луѓето по природа се склони да ги следат ставовите што ги доживуваат како доминантни.

— реклама —

Коавторот на анализата, Јонас Кунст, професор по комуникации на BI Norwegian Business School, објаснува дека луѓето се конформни и често прифаќаат ставови на мнозинството затоа што тоа им дава чувство на сигурност и припадност, дури и кога не се целосно убедени дека тоа мнозинство е во право. Токму оваа психолошка слабост, предупредува Кунст, AI ројевите би можеле да ја искористат со голема ефикасност.

Опасноста, сепак, не се ограничува само на манипулација со јавното мислење. Истите системи можат да се користат и за организирано дигитално вознемирување, при што лица со поинакви ставови би биле изложени на координирани напади од „вештачки корисници“, сè додека не бидат замолчени или истиснати од платформите.

Авторите нагласуваат дека напредокот на големите јазични модели и автономните агенти овозможува кампањите за влијание да достигнат досега невидени размери и прецизност. Генеративните алатки можат масовно да произведуваат пропаганда и невистини со низок трошок, при што тие често делуваат „почовечки“ од содржините создадени од луѓе. Со поврзување на овие модели во повеќеагентски системи, AI ројевите можат автономно да се координираат, да се инфилтрираат во заедници и долгорочно да создаваат илузија на општествен консензус, со што директно ја загрозуваат демократијата.

Научниците предупредуваат дека проблемот не е само во злоупотребата, туку и во самиот начин на кој се дизајнирани и управувани овие технологии, како и во економските модели зад нив. Поради тоа, тие не веруваат дека одговорното однесување може да се остави на добра волја на компаниите или корисниците, туку бараат јасни правила и конкретни мерки што би ја ограничиле потенцијалната штета.

Иако не се наведува точен временски рок кога ваквите ројеви би можеле масовно да се појават, авторите предупредуваат дека тие ќе бидат исклучително тешки за откривање, па не е исклучено некои форми веќе да се користат. Проценките покажуваат дека и денес повеќе од половина од вкупниот интернет-сообраќај го сочинуваат ботови, што дополнително ја заматува границата меѓу автентична и автоматизирана комуникација.

Како илустрација за реалноста на овој ризик, авторите потсетуваат на случајот кога платформата Reddit минатата година се закани со правни чекори против научници кои користеле AI-чатботови во експеримент за влијание врз мислењата на милиони корисници. Прелиминарните резултати покажале дека одговорите на чатботовите биле неколкукратно поубедливи од оние на луѓето.

Заклучокот на научниците не е дека апокалипсата е неизбежна, туку дека станува збор за реален и растечки ризик кој бара сериозна и навремена општествена дебата. Доколку општествата не се подготват навреме, предупредуваат тие, границата меѓу вистинското јавно мислење и вештачки создадениот привид може да стане опасно нејасна.

Сподели

Сподели
Сподели
Сподели
Сподели
Сподели
Сподели

Поврзани содржини

media-librarygmi2rrdopk4a4WqKzdb

(Видео) AI хорор од Холивуд: апликација за разговор со починати шокира светот

Свет | пред 2 месеци

Согласност за колачиња (cookies)

Нашата веб-страница користи колачиња за подобрување на корисничкото искуство и анализа на сообраќајот.

Дознај ексклузивно и прв

Прв ќе ги дознаваш ударните и вонредните случувања