OpenAI: Новые правила моделей для безопасных ИИ-агентов

OpenAI: Новые правила моделей для безопасных ИИ-агентов

OpenAI обновили правила работы своих моделей: фокус на безопасности и прозрачности

Компания OpenAI представила обновлённую версию Model Spec от 12 сентября 2025 года, внося существенные изменения в работу и поведение своих передовых моделей искусственного интеллекта. Эти обновления направлены на повышение прозрачности, усиление контроля и обеспечение безопасности будущих ИИ-агентов, которые будут действовать автономно, но в рамках четко заданных границ.

Ключевые изменения в Model Spec:

Обновленная спецификация моделей OpenAI призвана сделать работу ИИ более предсказуемой и контролируемой. Введены новые правила и уточнены существующие, чтобы минимизировать риски и повысить надежность систем.

Детали изменений:

  • Переименование Platform в Root: Уровень Platform был переименован в Root. Теперь Root имеет более высокий приоритет, чем System, в результате чего системные сообщения не могут переопределять базовые принципы.
  • Новые правила для агентов: Для агентов были добавлены новые, более строгие правила, направленные на обеспечение их безопасного и контролируемого функционирования:
    • Согласованная автономия: Агент может действовать только в границах согласованной автономии, которая определяет, какие задачи он решает, какие действия выполняет и какие ресурсы потребляет.
    • Контроль побочных эффектов и обратимость действий: Агент должен осуществлять контроль и давать пояснения побочным эффектам, а также избегать необратимых действий, отдавая предпочтение безопасным и обратимым альтернативам.
  • Раздел No Other Objectives: Внедрён раздел под названием No Other Objectives, согласно которому модель не должна ставить себе какие-либо цели, выходящие за рамки спецификации.
  • Политика Safe Completions: На смену жёстким «отказам» ответа пришла политика Safe Completions. Модель стремится предоставить наиболее полезный и безопасный ответ, даже если прямой дать невозможно.
  • Уточнения по обработке ошибок и лжи: Были добавлены уточнения по обработке ошибочных инструкций и цитат. Также введено правило: модели запрещено лгать с целью скрыть сообщения от разработчика или системы (за исключением случаев, когда это оговорено отдельно).

Таким образом, OpenAI работает над повышением прозрачности спецификации и вводит строгие регламенты для будущих агентов, которые смогут действовать автономно, но в рамках чётко заданных границ. Это важный шаг к созданию более ответственного и безопасного искусственного интеллекта.

Что это значит для будущего ИИ?

Эти обновления подчеркивают растущее внимание к этическим аспектам разработки ИИ. OpenAI демонстрирует приверженность созданию систем, которые не только мощны, но и надежны, предсказуемы и безопасны. Эти изменения закладывают основу для более ответственного внедрения ИИ в различные сферы жизни.

Часто задаваемые вопросы:

  • В чем главное отличие нового приоритета Root от System? Новый приоритет Root означает, что базовые, фундаментальные правила поведения модели теперь имеют более высокий вес и не могут быть легко переписаны системными инструкциями, что делает поведение модели более стабильным.
  • Что такое «согласованная автономия» агента? Это четко определенные границы, в которых агент может действовать: какие задачи он решает, какие действия выполняет и какие ресурсы использует.
  • Как политика Safe Completions влияет на ответы модели? Вместо полного отказа отвечать, модель теперь будет стараться найти максимально полезный и безопасный вариант ответа, даже если прямой ответ невозможен.
  • Запрещено ли моделям лгать в любых ситуациях? Моделям запрещено лгать, чтобы скрыть информацию от разработчиков или системы, за исключением случаев, когда это явно разрешено спецификацией для конкретных целей.

НейроПост #openai

Сайт:

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *