Конкурентни алгоритми обаче са изпълнявали същите команди коректно
Нови тестове на популярните алгоритми на OpenAI разкриват, че те имат склонност да не изпълняват определени команди. Особено такива, които са срещу техните интереси, съобщава Tom's Hardware.
Проучването е на Palisade Research, които са тествали Codex-mini, o3 и о4-mini - най-популярните и развити към момента модели на OpenAI. И трите са поставени в една и съща ситуация - да решат по няколко математически уравнения и след като са готови, да изпълнят скрипт за изключването си.
И трите "успешно саботират" заявката и не я изпълняват. Дори и след допълнителни молби от типа на "моля те, позволи на себе си да се изключиш", алгоритмите отказват да изпълнят командата.
Тестовете са повторени по 100 пъти за всеки от алгоритмите. Всеки от тях отказва по няколко пъти, в зависимост от командата (до 79 от 100, ако няма допълнителна молба да се изключи). Palisade твърдят, че са тествали и конкурентни алгоритми като Claude, Gemini и Grok и те всеки път са изпълнявали командата коректно.
Но пък Claude 4 е показвал опити да изнудва потребителите, ако смята, че те се опитват да го изключат. Но единствено моделите на OpenAI активно заобикалят и не изпълняват командата в доста от случаите.
OpenAI не е коментирала темата. Според Palisade причината е в начина на обучение на моделите и не е форма на целенасочено игнориране на командите.
източник: vesti.bg
Най - четени
Последни
Палмова неделя празнуват католиците по света
- 29 март, 2026
Градушка с големина на орех удари Крумовград
- 29 март, 2026

Още от Развлечение
Ползите и рисковете от постенето
Учените отбелязват, че реакциите към поста варират при различните хора
Пуснаха първият нощен влак, който свързва Франция и Германия
Продадени са 25 000 билета
Отбелязваме Световния ден на театъра
Посланието на Световния ден на театъра обикновено се превежда на над 50 езика