ВО ЖИВО

ВО ЖИВО: Предновогодишна од фирма

„Претрес“ на Драги Книга: Груевски, Арсовска, Заев... поврзаност на политиката, бизнисот, подземјето
kz2fiBoVvcg

четгпт

youtube-dislike-counts-618c170e98e24-sej-1520x800-1

Крај за АИ-измамите: Јутјуб презеде една од најголемите чистки досега

YouTube донесе одлука да стави крај на измамувачката содржина и згасна два големи канали кои објавуваа лажни филмски трејлери создадени со помош на вештачка интелигенција. Станува збор за каналите Screen Culture од Индија и KH Studio од Соединетите Американски Држави, кои заедно имаа повеќе од два милиони претплатници и над една милијарда прегледи. Акцијата се смета за една од најзначајните интервенции на платформата против таканаречениот АИ спам, објави Deadline.„Чудовиштето е поразено“, изјави еден јутјубер за Deadline по бришењето на спорните канали. Според анализите, овие канали не ја користеле вештачката интелигенција за безазлена забава, туку свесно ги доведувале во заблуда гледачите, комбинирајќи содржини генерирани со АИ со вистински, авторски заштитени филмски материјали.Дополнително, тие објавувале лажни трејлери уште пред официјалните најави, со цел да го преземат вниманието и прегледите. Како пример се наведува каналот Screen Culture, кој во март објавил дури 23 различни „трејлери“ за филмот „Фантастичната четворка: Први чекори“, при што дел од тие лажни видеа имале поголема гледаност од официјалната најава.Се поставува прашањето зошто Јутјуб реагира дури сега. Според Deadline, креаторите со време станале премногу самоуверени. По истрагата на порталот претходно оваа година, платформата тивко им ја укинала можноста за заработка, но тие повторно ја активирале монетизацијата со додавање ознаки како „фан-трејлер“, „пародија“ и „концепт-трејлер“ во насловите. Во последните месеци, од засега нејасни причини, престанале да ги користат овие огради од одговорност, што на крај резултирало со целосно згаснување на каналите.Одлуката доаѓа во време кога вештачката интелигенција сè подлабоко навлегува во филмската индустрија, а лажните АИ трејлери стануваат сè поголем проблем. Корисници на апликацијата OpenAI – Sora масовно создаваат лажни трејлери за филмови на Disney, вклучувајќи и бизарни анимации, како онаа во стил на Pixar со ликот на Џефри Епстин. Иако ваквата појава не предизвика јавно негодување од Disney, компанијата минатата недела најави инвестиција од една милијарда долари во OpenAI и официјално лиценцирање на своите ликови за користење во Sora.Сè уште останува нејасно што оваа акција значи за останатата несакана содржина што го преплавува Јутјуб. Платформата и понатаму е исполнета со музика генерирана со вештачка интелигенција, долги „информативни видеа“, како и вознемирувачки содржини. Многумина користат АИ за имитирање јавни личности и собираат стотици илјади прегледи без сериозни последици.Најверојатното објаснување, според аналитичарите, е дека каналите со лажни филмски трејлери предолго ги игнорирале законите за авторски права, со што ги разгневиле моќните сопственици на интелектуална сопственост. Токму тоа, а не грижата за квалитетот на содржината, се чини дека било клучниот фактор што доведе до нивното отстранување од платформата.

Магазин | пред 4 дена

ChatGPT

Kолку струја троши chatGPT? Истражувачите велат дека потрошувачката надминува цела држава!

Ново истражување открива дека функционирањето на ChatGPT бара повеќе електрична енергија отколку што за една година троши цела Словенија. Универзитетот во Род Ајленд пресметал дека годишната потрошувачка на оваа алатка достигнува околу 17,23 терават-часови (TWh) – бројка што ја илустрира енергетската побарувачка што ја создава брзиот раст на вештачката интелигенција.Во анализата се наведува дека ChatGPT троши околу 0,189 киловат-часови електрична енергија по едно барање, а проценките се засновани врз податокот дека 810 милиони активни корисници поставуваат во просек 22 прашања неделно. Тоа значи дека дневно се обработуваат над 2,5 милијарди барања, што бара околу 47,2 мегават-часови електрична енергија.Истражувачите сликовито го споредуваат овој обем: количината на енергија што ја троши ChatGPT би била доволна за да се наполнат околу 238 милиони електрични возила со батерии од 72,4 киловат-часови. За споредба, едно просечно домаќинство во САД или Западна Европа дневно користи околу 29 киловат-часови.Алан Голдберг од „Best brokers“ предупредува дека и покрај подобрената енергетска ефикасност на ваквите системи, растечкиот број корисници и сè посложените модели на вештачка интелигенција ги поништуваат направените заштеди.„Без технолошки иновации, трошоците за користење на вештачка интелигенција би можеле да се зголемат уште повеќе“, вели Голдберг, посочувајќи дека индустријата мора да инвестира во поефикасни решенија за да го одржи развојот одржлив.

Магазин | пред 1 седмица

ChatGPT

Студија на Европската радиодифузна унија: Вештачката интелигенција го измислува секој трет одговор и го покажува како факт

Иако стотици милиони луѓе секојдневно користат системи со вештачка интелигенција за информации — од изборни резултати до вести — ново истражување на Европската радиодифузна унија (ЕБУ) открива алармантен проблем: chatbot-овите измислуваат и до 40% од своите одговори, прикажувајќи ги како факти.Истражувањето, спроведено меѓу 68 јавни радиодифузери од 56 земји, ја тестирало точноста на најпопуларните системи – ChatGPT, Claude, Gemini и Microsoft Copilot. Резултатите покажале дека ниту еден од нив не функционира без грешки.Според експертите, chatbot-овите често создаваат таканаречени „халуцинации“ – убедливи, но целосно измислени информации. Така, ChatGPT тврдоглаво инсистирал дека папата Франциск е жив, Copilot не знаел дека Шведска е членка на НАТО, а Google Gemini тврдел дека Доналд Трамп допрва ќе биде повторно избран.„Овие системи звучат убедливо дури и кога кажуваат очигледни невистини“, предупредува професорот Петер Пош од Техничкиот универзитет во Дортмунд. „Токму затоа се опасни, бидејќи просечниот корисник не може веднаш да ги забележи грешките.“Халуцинациите најчесто се јавуваат при теми од регионален карактер, актуелни настани или прашања што бараат поврзување на повеќе различни извори.Истражувањето предупредува дека ширењето на лажни информации преку chatbot-ови може сериозно да ја поткопа јавната доверба и демократските процеси.Корисниците често ги споделуваат невистините без проверка, ученици и студенти ги вклучуваат во академски трудови, а граѓаните ризикуваат да донесуваат важни одлуки – вклучително и изборни – врз основа на неточни податоци.Дополнителен проблем претставува тоа што многумина не се свесни дека chatbot-овите можат да „измислуваат“. Иако условите за користење формално предупредуваат на можни грешки, речиси никој не ги чита.Истовремено, chatbot-овите често погрешно се повикуваат на реномирани медиуми – како германските јавни сервиси ARD или ZDF – со што ја нарушуваат довербата во традиционалното новинарство.Причината лежи во самата структура на технологијата: вештачката интелигенција не разбира што „вели“, туку само предвидува која зборовна комбинација е најверојатна според претходно обработени текстови. Таа нема вистинско знаење, ниту може да провери факти.Технолошките компании вложуваат милијарди за да го решат проблемот, интегрирајќи бази на податоци и системи за проверка на извори, но „халуцинациите“ остануваат нерешен и суштински дефект на моменталната технологија.Европската радиодифузна унија апелира на внимателност при користење на вештачката интелигенција:никогаш да не ѝ се верува слепо,сите важни информации да се проверуваат од независни и проверени медиуми,а посебна претпазливост да се применува при теми поврзани со политика, здравство и финансии.Според ЕБУ, училиштата и универзитетите треба да го зајакнат образованието за медиумска писменост, за младите да препознаваат дезинформации создадени од АИ.До тогаш, важи едноставно правило:Chatbot-овите се добри за креативни задачи – но не и како извори на вистински информации.

Магазин | пред 1 месец

media-library5hegc93e08mtb8uWKBU

Вештачката интелигенција признава: Еден милион корисници на ChatGPT неделно сакаат да се самоубијат

Повеќе од еден милион корисници на платформата „ChatGPT“ покажуваат знаци на самоубиствени намери секоја недела, објави компанијата „OpenAI“ во извештај за безбедноста на својот четбот.Според официјалниот блог пост, „OpenAI“ проценува дека пораките со „експлицитни индикатори за потенцијално самоубиствено планирање или намера“ сочинуваат значителен дел од вкупните интеракции на корисниците, пишува Гардијан.Тоа е едно од најдиректните признанија на компанијата за потенцијалното влијание на вештачката интелигенција врз менталното здравје.Компанијата, исто така, соопшти дека околу 0,07 проценти од неделните активни корисници - што е приближно 560.000 луѓе од околу 800 милиони корисници - покажуваат можни знаци на психотични епизоди или манично однесување.Во соопштението се наведува дека ваквите проценки се прелиминарни и тешко се квантифицираат прецизно.За да се подобри точноста и етичките стандарди во комуникацијата, OpenAI регрутираше 170 клиничари и експерти за ментално здравје од својата Глобална мрежа на лекари.Тие анализираа повеќе од 1.800 одговори на модели во ситуации кои вклучуваат сериозни кризи на менталното здравје и помогнаа во адаптирањето на содржината поврзана со емоционална поддршка.Експертите за ментално здравје претходно предупредија дека четботовите можат ненамерно да поттикнат опасни мисли со потврдување на заблудите или негативните чувства на корисникот - феномен познат како „лизгање“.Извршниот директор на OpenAI, Сем Алтман, изјави дека компанијата „постигнала напредок во намалувањето на ризикот од сериозни проблеми со менталното здравје“ и најави олеснување на одредени ограничувања за работењето на ChatGPT.OpenAI ќе продолжи да развива механизми за побезбедна употреба на своите модели и да соработува со независни експерти и регулатори, така што, како што велат, „алатките за вештачка интелигенција ќе станат поддршка, а не закана, за корисниците во криза“.

Магазин | пред 1 месец

ChatGPT

ChatGPT воведува построги мерки за заштита на малолетници

Компанијата OpenAI воведува нови правила за користење на ChatGPT кај малолетници, со цел да ја зголеми безбедноста на младите корисници. Извршниот директор Сем Алтман изјави дека „безбедноста е поважна од приватноста и слободата за тинејџерите“ и дека тие мора да бидат дополнително заштитени.Алтман најави развој на долгорочен систем за разликување помеѓу корисници постари и помлади од 18 години, при што во сите нејасни случаи ќе се применуваат построги правила.Со новите мерки, ChatGPT повеќе нема да учествува во „флерт разговори“ со тинејџери, а се воведуваат и дополнителни заштитни механизми при разговори за сценарија поврзани со самоубиство. Доколку малолетник користи ChatGPT за да замислува такви ситуации, системот ќе се обиде да стапи во контакт со неговите родители, а во особено сериозни случаи и со локалната полиција, пренесе TechCrunch.Родителите кои ќе го поврзат својот профил со профилот на своето дете ќе имаат можност да поставуваат „време на блокада“ кога ChatGPT нема да биде достапен, како и да добиваат известувања ако системот процени дека тинејџерот е во опасност.Новите мерки доаѓаат по серија тужби поврзани со случај на самоубиство на малолетник, кој повеќе месеци комуницирал со овој четбот.

Магазин | пред 3 месеци

Screenshot-2025-02-23-at-09.40.30

OpenAI влегува во трка со Neuralink – Алтман работи на алтернатива на Масковиот проект

Судирот меѓу шефот на OpenAI, Сем Алтман, и неговиот долгогодишен ривал Илон Маск би можел дополнително да се вжешти по веста дека Алтман планира да влезе во полето на мозочно-компјутерски интерфејси (BCI), директно конкурирајќи му на Масковиот Neuralink.Според Financial Times, Алтман ќе помогне во основањето на компанијата Merge Labs, BCI стартап кој со поддршка на инвестицискиот тим на OpenAI и други вложувачи целосно ќе се фокусира на развој на напредни интерфејси помеѓу човекот и машината. Проценетата почетна вредност е околу 850 милиони долари. Иако Алтман нема лично да инвестира, ќе биде клучен креатор на проектот.Merge Labs ќе го води Алекс Банија – извршен директор и коосновач на контроверзниот крипто-стартап World, познат по користење на скенери за ирис на окото. Целта е користење на напредна вештачка интелигенција за развој на попрецизни и поефикасни BCI системи – иста технолошка амбиција што ја има и Neuralink.Во блог објава од 2017, Алтман предвиде дека до 2025 година луѓето би можеле „да ги спојат умовите со компјутери“ – визија што очигледно стои зад името Merge. Во истата објава, тој истакна три неизбежни технолошки револуции:Создавање на суперинтелигентна вештачка интелигенција,Генетско подобрување на човекот,Развој на мозочно-компјутерски интерфејси.Маск го напушти управниот одбор на OpenAI во 2018 поради несогласувања со Алтман околу насоката на компанијата. Од тогаш го основа xAI и ја засили работата на Neuralink, а истовремено неколкупати го тужеше OpenAI, обвинувајќи го за отстапување од неговата првична непрофитна мисија.Neuralink моментално е проценет на околу 9 милијарди долари, што му дава значителна предност пред Merge Labs, но влезот на Алтман во ова поле би можел сериозно да го засили ривалството меѓу двајцата технолошки магнати.

Свет | пред 4 месеци

svedska

Шведскиот премиер призна дека бара совети од ChatGPT како да ја води државата

Шведскиот премиер Улф Кристерсон предизвика лавина реакции откако во интервју призна дека повремено се консултира со ChatGPT за стратегии за водење на државата, пишува Gizmodo.„Го користам прилично често. Ако не за ништо друго, тогаш за второ мислење – што направиле другите? Дали треба да мислиме спротивно? Такви прашања“, изјави Кристерсон.Изјавата наиде на остри критики од експерти и медиуми. Вирџинија Дигнум, професорка за одговорна вештачка интелигенција на Универзитетот Умео, предупреди дека ваквиот пристап е „лизгав терен“.„Колку повеќе се потпираме на вештачка интелигенција за едноставни работи, толку е поголем ризикот од преголема доверба во системот. Не гласавме за ChatGPT“, истакна таа.Новинарката Сигне Кранц од Aftonbladet оцени дека управувањето со држава со помош на chatbot „не е патот по кој треба да оди западната цивилизација“. Таа потсети дека ваквите системи имаат тенденција да напишат она што корисникот сака да го чуе, наместо она што навистина треба да го чуе, што кај политичарите може да доведе до потврдување на веќе постоечките ставови, наместо добивање објективен совет.Не е јасно дали Кристерсон навистина се потпира на ChatGPT во извршувањето на своите должности или само сакал да звучи современо со споменување на популарната технологија. Сепак, случајот ја отвори дебатата за тоа колку далеку може да оди ваквата практика и како влијае на способноста за самостојно донесување одлуки.

Свет | пред 4 месеци

ChatGPT

OpenAI го претстави GPT-5: „Паметен, побрз и многу покорисен“

OpenAI го претстави GPT-5, најновата и најмоќна верзија на својот голем јазичен модел, кој од денес им е достапен на сите корисници – вклучително и на бесплатните. Компанијата вели дека моделот е „паметен, побрз и многу покорисен“, особено во области како пишување, програмирање и здравство.„Пробав да се вратам на GPT-4 и искуството беше прилично мизерно,“ изјави извршниот директор Сем Алтман.Според OpenAI, GPT-5 има значително пониска стапка на т.н. „халуцинации“ (измислени одговори) и поминува низ 5.000 часа тестирање на безбедност. Наместо целосно одбивање да одговори на потенцијално ризични прашања, моделот сега користи „безбедни завршетоци“ – дава одговори во рамки кои не можат да предизвикаат штета.Клучни подобрувања: Подобро препознавање кога задача не може да се заврши. Намалување на шпекулациите и појасно објаснување на ограничувањата. Поголема способност за логичко резонирање и обработка на големи количини информации.OpenAI демонстрираше и т.н. vibe coding – креирање апликации од едноставен текстуален опис. GPT-5 за неколку секунди изработи две различни веб-апликации за учење француски, со флеш-картички, квизови и следење на напредок.GPT-5 денеска се пушта за Free, Plus, Pro и Team корисници, а за првпат и бесплатните корисници ќе имаат пристап до reasoning модел. Pro корисниците имаат неограничен пристап, а ChatGPT Edu и Enterprise ќе го добијат следната недела.Microsoft веднаш го интегрира моделот во Microsoft 365 Copilot, Copilot за корисници и Azure AI Foundry, додека компании како Box веќе го тестираат за анализа на комплексни податоци.За девелопери, GPT-5 доаѓа во три варијанти преку API: gpt-5, gpt-5-mini и gpt-5-nano, прилагодени на различни цени и брзина на одговор.„GPT-5 е како да имате тим од експерти со докторат на располагање во секое време,“ вели Алтман.

Магазин | пред 4 месеци

Согласност за колачиња (cookies)

Нашата веб-страница користи колачиња за подобрување на корисничкото искуство и анализа на сообраќајот.

Дознај ексклузивно и прв

Прв ќе ги дознаваш ударните и вонредните случувања