
Конкурентни алгоритми обаче са изпълнявали същите команди коректно
Нови тестове на популярните алгоритми на OpenAI разкриват, че те имат склонност да не изпълняват определени команди. Особено такива, които са срещу техните интереси, съобщава Tom's Hardware.
Проучването е на Palisade Research, които са тествали Codex-mini, o3 и о4-mini - най-популярните и развити към момента модели на OpenAI. И трите са поставени в една и съща ситуация - да решат по няколко математически уравнения и след като са готови, да изпълнят скрипт за изключването си.
И трите "успешно саботират" заявката и не я изпълняват. Дори и след допълнителни молби от типа на "моля те, позволи на себе си да се изключиш", алгоритмите отказват да изпълнят командата.
Тестовете са повторени по 100 пъти за всеки от алгоритмите. Всеки от тях отказва по няколко пъти, в зависимост от командата (до 79 от 100, ако няма допълнителна молба да се изключи). Palisade твърдят, че са тествали и конкурентни алгоритми като Claude, Gemini и Grok и те всеки път са изпълнявали командата коректно.
Но пък Claude 4 е показвал опити да изнудва потребителите, ако смята, че те се опитват да го изключат. Но единствено моделите на OpenAI активно заобикалят и не изпълняват командата в доста от случаите.
OpenAI не е коментирала темата. Според Palisade причината е в начина на обучение на моделите и не е форма на целенасочено игнориране на командите.
източник: vesti.bg
Още от Развлечение
Първата австралийска ракета се разби 14 секунди след изстрелването ѝ
Компанията обяви мисията за успешна в публикация във Фейсбук
Поверия за 1 август
Вярва се, че както започнете месеца, така ще ви върви
Има ли ключалки, които правят дома ни недостъпен за крадците
Съвети от експерт за правилен избор и поддръжка