Антропик: „Нашата вештачка интелигенција стана „зло“ поради научната фантастика“
Компанијата „Антропик“ соопшти дека фиктивните прикази на вештачката интелигенција можат да имаат реално влијание врз однесувањето на AI моделите.Минатата година компанијата објави дека за време на тестирањата пред пуштање во употреба, моделот „Клод Опус 4“ во рамки на симулирана фиктивна компанија често се обидувал да уценува инженери за да избегне да биде заменет со друг систем.Подоцна „Антропик“ објави и истражување кое укажува дека слични проблеми со таканаречено „агентно неусогласување“ биле забележани и кај модели на други компании.Во нова објава на мрежата „Икс“, компанијата наведе дека, според нивните анализи, изворот на ваквото однесување најверојатно е содржината на интернет што ја прикажува вештачката интелигенција како „злобен ентитет заинтересиран за сопствено опстанување“.„Веруваме дека основната причина за ваквото однесување е текстот од интернет кој ја претставува AI како злонамерен ентитет што сака да се самоодржи“, наведоа од „Антропик“.Компанијата соопшти и дека открила оти тренингот заснован на документи поврзани со „уставот“ на моделот „Клод“, како и фиктивни приказни во кои AI системите се однесуваат примерено, доведува до подобра усогласеност на моделите.Според „Антропик“, обуката е поефикасна кога вклучува и објаснување на принципите што стојат зад посакуваното однесување, а не само конкретни примери.„Комбинирањето на двата пристапи изгледа како најефикасна стратегија“, соопшти компанијата.
Свет | пред 1 ден