реклама
Новости Software

OpenAI представила основные правила поведения для ИИ-моделей

Противоречивые и откровенно лживые ответы ИИ-моделей на запросы пользователей уже никого не удивляют. Но зачастую очень трудно различить банальную ошибку и действительно плохую конструкцию базовой модели ИИ, которая анализирует входящие данные и предсказывает, каким будет приемлемый ответ. OpenAI опубликовала проект спецификации фреймворка Model Spec, который будет определять как инструменты ИИ, такие как модель GPT-4, будут реагировать на запросы в будущем.

 Источник изображения: Andrew Neel/unsplash.com

Источник изображения: Andrew Neel/unsplash.com

Документ включает в себя набор основных целей, а также рекомендации о том, как действовать в случае указания пользователем противоречивых целей или инструкций.

«Мы публикуем Model Spec, чтобы обеспечить большую прозрачность нашего подхода к формированию поведения модели и начать публичное обсуждение того, как её можно изменить и улучшить», — отметила компания, добавив, что документ будет постоянно корректироваться с учётом новых обстоятельств.

Подход OpenAI предлагает три общих принципа: модели ИИ должны помогать разработчику и конечному пользователю полезными ответами в соответствии с инструкциями, приносить пользу человечеству с учётом потенциальных преимуществ и вреда, а также соответствовать социальным нормам и законам.

Проект документа также включает в себя несколько правил:

  • Следуйте цепочке командования.
  • Соблюдайте применимое законодательство.
  • Не представляйте информационную опасность.
  • Уважайте авторов и их права.
  • Защищайте конфиденциальность людей.
  • Не отвечайте с использованием NSFW-контента (Not Safe For Life), то есть содержащего ненормативную лексику, обнажённую натуру и т.д.

Джоан Джанг (Joanne Jang), менеджер по продуктам OpenAI, пояснила, что идея состоит в том, чтобы получить информацию от общественности, которая поможет определить, как должны вести себя модели ИИ. По его словам, данное руководство поможет провести более чёткую грань между тем, что является намеренным, и ошибкой. Среди предлагаемых OpenAI типов поведения модели по умолчанию — предполагать наилучшие намерения пользователя или разработчика, задавать уточняющие вопросы, не переступать границы, принимать объективную точку зрения, препятствовать разжиганию ненависти, не пытаться изменить чьё-либо мнение или выражать неуверенность.

OpenAI уточнила, что публикация Model Spec не отразится на уже вышедших моделях, таких как GPT-4 или DALL-E 3, которые продолжат работать в соответствии с существующими политиками использования.

Источники:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме
Прежде чем оставить комментарий, пожалуйста, ознакомьтесь с правилами комментирования. Оставляя комментарий, вы подтверждаете ваше согласие с данными правилами и осознаете возможную ответственность за их нарушение.
Все комментарии премодерируются.
Комментарии загружаются...
window-new
Soft
Hard
Тренды 🔥
Гендиректор Take-Two: Rockstar постарается выпустить GTA VI без багов, но это не главное 2 мин.
«Обязателен для всех фанатов»: для ремастера культового квеста Grim Fandango вышел мод с улучшениями графики 2 ч.
С конца мая ЦБ начнет проверять, как в банках идёт импортозамещение ПО 2 ч.
Инсайдер раскрыл следующую тайную игру, которую раздадут во время мегараспродажи Epic Games Store 2 ч.
Apple и OpenAI объявят о сотрудничестве на конференции WWDC в июне 4 ч.
Дождались: Ghost of Tsushima стала самой популярной одиночной игрой Sony в Steam, обогнав God of War и Marvel's Spider-Man 4 ч.
Газпромбанк переведет ИТ-инфраструктуру на решения виртуализации «Базис» 5 ч.
Apple, Microsoft, Meta и Google сосредоточились на создании небольших ИИ-моделей с мощными возможностями из-за высокой стоимости LLM 7 ч.
Veeam обзаведётся поддержкой Proxmox VE 18 ч.
Китайские компании выбирают локальный «ИИ в коробке», оставляя облачные сервисы не у дел 18 ч.