ВО ЖИВО

Претрес на Јовановски: Kако им пресудија на 27 април, проституцијата во затвор, УЧК во 2001, МВР

AI

media-library5hegc93e08mtb8uWKBU

Научниците предупредуваат: „AI ројеви“ ќе ги преплават социјалните мрежи со дезинформации

Социјалните мрежи наскоро би можеле да бидат преплавени од т.н. „ројеви“ на вештачка интелигенција кои ќе шират дезинформации, ќе ги вознемируваат корисниците и ќе ги поткопуваат демократските процеси, предупредуваат научници во коментар објавен на 22 јануари во реномираното научно списание Science.Според авторите, овие „AI ројеви“ претставуваат ново и исклучително опасно оружје во современите информациски војни. За разлика од досегашните ботови, кои најчесто се примитивни и релативно лесно препознатливи, новите системи ќе можат уверливо да го имитираат човечкото однесување, да се приспособуваат на заедниците во кои се инфилтрираат и да создаваат впечаток на спонтано и автентично дејствување.Како резултат на тоа, корисниците би можеле да стекнат чувство дека пред нивните очи се формира јасен став на мнозинството по одредено прашање, иако во реалноста станува збор за координирана активност управувана од вештачка интелигенција. Овој привид на консензус, според научниците, може силно да влијае врз јавното мислење, бидејќи луѓето по природа се склони да ги следат ставовите што ги доживуваат како доминантни.Коавторот на анализата, Јонас Кунст, професор по комуникации на BI Norwegian Business School, објаснува дека луѓето се конформни и често прифаќаат ставови на мнозинството затоа што тоа им дава чувство на сигурност и припадност, дури и кога не се целосно убедени дека тоа мнозинство е во право. Токму оваа психолошка слабост, предупредува Кунст, AI ројевите би можеле да ја искористат со голема ефикасност.Опасноста, сепак, не се ограничува само на манипулација со јавното мислење. Истите системи можат да се користат и за организирано дигитално вознемирување, при што лица со поинакви ставови би биле изложени на координирани напади од „вештачки корисници“, сè додека не бидат замолчени или истиснати од платформите.Авторите нагласуваат дека напредокот на големите јазични модели и автономните агенти овозможува кампањите за влијание да достигнат досега невидени размери и прецизност. Генеративните алатки можат масовно да произведуваат пропаганда и невистини со низок трошок, при што тие често делуваат „почовечки“ од содржините создадени од луѓе. Со поврзување на овие модели во повеќеагентски системи, AI ројевите можат автономно да се координираат, да се инфилтрираат во заедници и долгорочно да создаваат илузија на општествен консензус, со што директно ја загрозуваат демократијата.Научниците предупредуваат дека проблемот не е само во злоупотребата, туку и во самиот начин на кој се дизајнирани и управувани овие технологии, како и во економските модели зад нив. Поради тоа, тие не веруваат дека одговорното однесување може да се остави на добра волја на компаниите или корисниците, туку бараат јасни правила и конкретни мерки што би ја ограничиле потенцијалната штета.Иако не се наведува точен временски рок кога ваквите ројеви би можеле масовно да се појават, авторите предупредуваат дека тие ќе бидат исклучително тешки за откривање, па не е исклучено некои форми веќе да се користат. Проценките покажуваат дека и денес повеќе од половина од вкупниот интернет-сообраќај го сочинуваат ботови, што дополнително ја заматува границата меѓу автентична и автоматизирана комуникација.Како илустрација за реалноста на овој ризик, авторите потсетуваат на случајот кога платформата Reddit минатата година се закани со правни чекори против научници кои користеле AI-чатботови во експеримент за влијание врз мислењата на милиони корисници. Прелиминарните резултати покажале дека одговорите на чатботовите биле неколкукратно поубедливи од оние на луѓето.Заклучокот на научниците не е дека апокалипсата е неизбежна, туку дека станува збор за реален и растечки ризик кој бара сериозна и навремена општествена дебата. Доколку општествата не се подготват навреме, предупредуваат тие, границата меѓу вистинското јавно мислење и вештачки создадениот привид може да стане опасно нејасна.

Свет | пред 3 дена

media-librarygmi2rrdopk4a4WqKzdb

(Видео) AI хорор од Холивуд: апликација за разговор со починати шокира светот

Поранешниот актер на „Дизни“, Калум Ворти (34), се најде во центарот на жестоки критики поради својата нова апликација 2wai, која им овозможува на корисниците да создадат вештачки аватари на починати блиски лица. Актерот, познат по улогата на Дез Војд во серијата Austin & Ally, ја претстави апликацијата на социјалните мрежи, предизвикувајќи лавина од негативни реакции и дебата за етиката на технологијата што „ги оживува мртвите“.„Што ако можеме повторно да зборуваме со нашите сакани?“Во промотивното видео, Ворти ја опиша апликацијата како „жив архив на човештвото“, поставувајќи го прашањето:„Што ако луѓето што ги изгубивме можат повторно да бидат дел од нашата иднина?“Во рекламата се прикажува бремена жена која преку апликацијата разговара со AI реплика на својата почината мајка. „Дигиталната баба“ потоа му чита приказна на внучето, зборува со него по училиште и се потсетува на сопственото породување. Рекламата завршува со слоганот:„Со 2wai, три минути можат да траат засекогаш.“Корисниците на социјалните мрежи беа едногласни – апликацијата е морбидна. Многумина ја опишаа идејата како „демонска, неетична и дегуманизирачка“.Еден коментатор напиша:„Ако некој се обиде да ме рекреира по смртта, ќе го проколнам.“Други ја нарекоа „најлошата идеја во историјата на технологијата“, додека еден саркастично забележа:„Што ако едноставно престанеме да правиме некромантија со месечна претплата?“Многумина веднаш повлекоа паралела со серијата „Black Mirror“, особено со епизодата Be Right Back, каде вдовица создава дигитална верзија на својот покоен партнер. „Не разбирам каков тип претприемач гледа епизода на Black Mirror и вели: ‘Да, ова е бизнис идеја!’“ – напиша еден твитерџија.Апликацијата, достапна за iOS, создава „HoloAvatar“ – виртуелен лик кој изгледа и зборува како реална личност, врз основа на само троминутен видео-запис. Освен аватари на блиски лица, платформата нуди и готови модели, како личен тренер, астролог или готвач, па дури и аватари на историски личности – како Шекспир и кралот Хенри VIII.Компанијата, сепак, не објасни како со толку малку податоци вештачката интелигенција може реално да ја пресоздаде нечия личност. На прашањата од новинарите не одговорија.Оваа технологија отвора сериозни дилеми – дали е морално да се „оживуваат“ починати лица и кој поседува права над нивниот дигитален идентитет. Корисниците предупредуваат дека компанијата може да ги користи создадените аватари за огласување или комерцијални цели без согласност.„Замислете вашиот дигитален татко ви препорачува намалена цена на грав во маркет“, предупреди еден корисник.Психолозите, пак, стравуваат дека овие „дигитални воскреснувања“ ќе го попречат процесот на жалење и ќе создадат зависност од лажна утеха.Истражувачи од Универзитетот во Кембриџ предупредуваат на појавата на таканаречени „deadbot-ови“ – вештачки копии на починати што можат да предизвикаат психолошка траума. Тие опишуваат сценарија во кои дигиталните „духови“ испраќаат пораки, потсетници или реклами, па дури и комуницираат со деца, уверувајќи ги дека родителот „сè уште е тука“.„Овие услуги носат огромен ризик од анксиозност, особено ако луѓето се соочат со неочекувани дигитални контакти од шокантно верни AI реплики на своите најблиски,“ изјави д-р Томаш Холанек од Кембриџ.

Свет | пред 2 месеци

Согласност за колачиња (cookies)

Нашата веб-страница користи колачиња за подобрување на корисничкото искуство и анализа на сообраќајот.

Дознај ексклузивно и прв

Прв ќе ги дознаваш ударните и вонредните случувања