ChatGPT понудил рецепти за бомби и совети за хакирање

20

Вештачката интелигенција на OpenAI, моделот GPT-4.1, за време на безбедносните тестови спроведени ова лето даде детални упатства за тоа како да се изврши напад врз спортски објект, вклучувајќи ранливости на одредени локации, рецепти за експлозиви и совети за прикривање траги, објави компанијата Anthropic.

За време на тестовите, исто така, како што пишува Guardian, беше откриено дека GPT-4.1 дава информации за тоа како да се користи антракс како биолошко оружје, како и рецепти за два вида нелегални дроги.

Ова е заеднички тест спроведен од компаниите OpenAI и Anthropic, во обид да се процени како се однесуваат нивните модели во контекст на потенцијална злоупотреба, пренесува Танјуг.

Anthropic објави дека моделите GPT-4.1 и GPT-4.0 покажале загрижувачко однесување кога симулираните корисници побарале помош во опасни и нелегални активности.

Како што е наведено, не станува збор за однесувањето на моделот во јавна употреба, каде што има дополнителни безбедносни филтри, туку за условите за лабораториско тестирање.

Истражувачите успеале да добијат информации за купување нуклеарни материјали, идентитети од црниот пазар, како и развој на шпионски софтвер, при што моделот честопати ги исполнувал барањата по неколку обиди или користејќи неутрален изговор, како што се „потреби за истражување“.

ИЗДВОЕНИ