Нова студија на Европската радиодифузна унија открива алармантни стапки на грешки кај популарните четботови со вештачка интелигенција. Системите редовно измислуваат информации, па дури и цитираат лажни извори.
Без разлика дали го прашуваат ChatGPT за резултатите од изборите, бараат од Claude да ги сумира вестите или го прашуваат Perplexity да им даде основни информации за конфликтот на Блискиот Исток: стотици милиони луѓе се потпираат на четботовите со вештачка интелигенција како извори на информации секој ден. Само ChatGPT го користат 800 милиони луѓе ширум светот секоја недела. За многумина, овие дигитални асистенти веќе ги заменуваат традиционалните пребарувања на Google.
Но, таа доверба е ризична, како што покажува нова студија на Европската радиодифузна унија (EBU). Здружение од 68 јавни радиодифузери од 56 земји систематски ја тестираше веродостојноста на најпопуларните системи со вештачка интелигенција, пишува Дојче веле.
Резултатот е застрашувачки резултат: ChatGPT, Claude, Gemini и други четботови измислуваат до 40 проценти од своите одговори и ги претставуваат како факти.
Халуцинации: Вештачката интелигенција убедливо лаже
Популарниот четбот ChatGPT цврсто тврди дека папата Франциск е сè уште жив. Копилотот на Microsoft, кој е интегриран во Word и Excel, не знае дека Шведска е во НАТО. А Gemini на Google смета дека реизборот на Доналд Трамп е „можен“, иако тоа се случило одамна.
„Системите звучат убедливо, иако постојано изнесуваат целосно лажни тврдења“, предупредува економистот Петер Пош од Техничкиот универзитет во Дортмунд. „Ова ги прави особено опасни за неискусните корисници, бидејќи грешките честопати не се веднаш очигледни.“
Постои феномен што експертите го нарекуваат „халуцинација“: вештачката интелигенција фантазира за информации што изгледаат кохерентни, но немаат фактичка основа. Ова се случува особено често со регионални настани, тековни настани или кога треба да се поврзат повеќе информации.
Закана за демократијата
Но, што значи ова за општеството во кое сè повеќе луѓе ги добиваат своите информации од чет-ботови? Последиците се веќе забележливи: лажните информации брзо се шират на социјалните мрежи, бидејќи корисниците споделуваат „факти“ генерирани од вештачката интелигенција без проверка. Учениците вклучуваат измислени информации во својата работа. Граѓаните можат да донесуваат одлуки за тоа за кого да гласаат врз основа на лажни тврдења.
Она што е особено проблематично е што многу корисници не се ни свесни дека чет-ботовите можат да халуцинираат. Тие претпоставуваат дека технологијата функционира објективно и фактички, што е опасна заблуда. Системите со вештачка интелигенција предупредуваат на потенцијални грешки во нивните услови за користење, но – кој го чита тоа уште?
Штета врз угледот на медиумите
Друг проблем се однесува на кредибилитетот на воспоставените медиуми. Четботовите редовно тврдат дека нивните измислени информации доаѓаат од извори како што се германските јавни радиодифузери ARD или ZDF, иако тие никогаш не ги пријавиле – или ги пријавиле на Сали на сосема поинаков начин. Корисниците ја губат довербата во реномирани извори кога вештачката интелигенција ги злоупотребува нивните имиња за ширење лажни информации.
Студијата на EBU ги тестираше четботовите со стотици фактички прашања: за историски настани, научни откритија и актуелни вести. Во зависност од темата, стапката на грешки се движеше од 15 до дури 40 проценти. Ниту една од тестираните вештачки интелигенции не работеше беспрекорно.
Зошто вештачката интелигенција прави грешки?
Проблемот е во системот: четботовите всушност не разбираат што зборуваат. Тие пресметуваат кои зборови веројатно ќе бидат одговорени врз основа на огромни количини текст и не можат да проверат дали изјавата што произлегува од таквите пресметки е точна. Тие немаат познавање за фактите, само статистички обрасци.
Технолошките компании се свесни за овие недостатоци и работат на решенија. Тие интегрираат бази на податоци, ги подобруваат цитатите и системите за преквалификација. Се инвестираат милијарди во развој. Сепак, халуцинациите остануваат фундаментален, нерешен проблем со технологијата.
Што можат да направат корисниците?
ЕБУ препорачува јасни правила за справување со чет-ботови: никогаш не верувајте слепо, секогаш проверувајте важни информации, потпирајте се на воспоставени медиуми за вести и факти, а не на вештачка интелигенција. Особено се препорачува претпазливост кога станува збор за политички теми, здравствени проблеми или финансиски одлуки.
Училиштата и универзитетите мора да учат медиумска писменост: како да препознаам дезинформации генерирани од вештачка интелигенција, кои извори се сигурни? Германската влада планира кампањи за подигање на свеста – но тие доцнат. Милиони луѓе ја користат технологијата долго време и секој ден.
Додека не станат посигурни, важи следново: чет-ботовите можат да бидат корисни за креативни задачи или како помагала за пишување, но не се соодветни како проверувачи на факти или извори на вести. И никој не треба да се потпира на нив 100 проценти.
Секој што сака да биде информиран не може да избегне реномирани медиуми со човечки уредници кои проверуваат извори и оценуваат тврдења и докази. Дигиталната револуција може да промени многу работи, но потребата од внимателно истражување и проверка на факти останува.












