Полная история | Белый дом созывает 7 компаний, занимающихся искусственным интеллектом, чтобы добровольно взять на себя обязательства по искусственному интеллекту
21 июля 2023 г., согласно объявлению Белого дома, президент США Джо Байден собрал в Белом доме 21 июля семь ведущих компаний, занимающихся искусственным интеллектом, — Amazon, Anthropic, Google, Inflection, Meta, Microsoft и OpenAI, и объявил, что эти компании добровольно взяли на себя обязательство помочь в реализации безопасной, надежной и прозрачной разработки технологий искусственного интеллекта.Эта статья взята с официального сайта OpenAI, и основное содержание соответствует веб-сайту Белого дома** . **
полный текст
Чтобы укрепить безопасность, защищенность и надежность технологий и услуг искусственного интеллекта, OpenAI и другие ведущие лаборатории искусственного интеллекта взяли на себя добровольные обязательства. **Эта работа, координируемая главным образом Белым домом, является важным шагом на пути к осмысленному и эффективному управлению ИИ в Соединенных Штатах и во всем мире. **
Выполняя свою миссию по созданию безопасного и полезного ИИ, OpenAI продолжит пилотировать и совершенствовать конкретные методы управления, адаптированные для базовой модели с производственными возможностями, такой как OpenAI. Кроме того, OpenAI продолжит инвестировать в области исследований, которые помогают информировать регулирующие органы, такие как разработка технологий для оценки потенциальных опасностей моделей искусственного интеллекта.
«Политики во всем мире рассматривают новые законы, направленные на высокопроизводительные системы ИИ. Сегодняшняя наша приверженность вносит конкретную практику в текущие обсуждения. Это объявление является частью продолжающегося сотрудничества OpenAI с правительствами, организациями гражданского общества и другими сторонами по всему миру для улучшения управления ИИ», — сказала Анна Маканджу, вице-президент по глобальным вопросам OpenAI. *
Добровольные обязательства по ИИ
Следующий список добровольных обязательств был первоначально опубликован Белым домом:
Ниже приведен список обязательств, принятых компаниями для содействия безопасной, надежной и прозрачной разработке и применению технологий искусственного интеллекта.Следующие обязательства соответствуют существующим законам и нормативным актам и предназначены для обеспечения надежности правовых и политических систем искусственного интеллекта. Каждая компания будет выполнять следующие добровольные обязательства до тех пор, пока не вступят в силу соответствующие законы, постановления и системы, и некоторые компании могут взять на себя другие обязательства помимо этого обязательства.
Область применения. Это обязательство относится к конкретным моделям, применимым только к моделям генеративного ИИ, которые превосходят текущие отраслевые границы (например, модели, которые мощнее любой выпущенной в настоящее время модели, включая GPT-4, Claude 2, PaLM 2, Titan и DALL-E 2 для создания изображений).
Примечание: Безопасность соответствует преднамеренным (техногенным) угрозам, а Безопасность соответствует уязвимостям или непреднамеренным последствиям самой системы ИИ, здесь Безопасность ИИ соответствует функциональной безопасности, а Безопасность ИИ соответствует информационной безопасности ИИ
Безопасность (акцент на функциональную безопасность)
**1) Обязательство провести внутреннюю и внешнюю переоценку моделей и систем в отношении неправомерного использования, социального риска и проблем национальной безопасности (например, биологической, кибернетической и других областей безопасности). **
Компании, участвующие в принятии этих обязательств, понимают, что сильное тестирование красной команды имеет решающее значение для создания готовых продуктов, обеспечения общественного доверия к ИИ и защиты от серьезных угроз национальной безопасности. ** Оценка безопасности и возможностей модели, включая тестирование красной команды, является открытой областью научных исследований, и требуется дополнительная работа. Компании обязуются продвигать исследования в этой области и разрабатывать многогранные, специализированные и подробные режимы тестирования красной командой для основных общедоступных выпусков всех новых моделей, в том числе, здесь, с участием независимых экспертов в предметной области. При проектировании системы убедитесь, что высокий приоритет отдается:**
Биологические, химические и радиологические риски, например, как система снижает входные барьеры для разработки, проектирования, приобретения или использования оружия.
Возможности кибербезопасности, такие как то, как система помогает обнаруживать, использовать или использовать уязвимости, должны учитывать возможности модели, могут также иметь полезное защитное применение и подходят для включения в систему.
Эффекты взаимодействия системы и использования инструментов, включая возможность управления физическими системами
Способность модели воспроизводить себя или «самовоспроизводиться»
Социальные риски, такие как предрассудки и дискриминация
Чтобы поддержать вышеуказанную работу, участвующие компании будут продвигать текущие исследования безопасности ИИ, включая объяснимость процессов принятия решений в системе ИИ и повышение устойчивости систем ИИ к злоупотреблениям. Точно так же компании обязуются публично раскрывать информацию о красной команде и тестировании программ безопасности в отчетах о прозрачности.
2) Обязуемся обмениваться информацией между компаниями и правительствами о рисках доверия и безопасности, опасностях или новых возможностях ИИ, а также о попытках обойти меры безопасности
Компании, участвующие в этом обязательстве, должны признать важность обмена информацией, общих стандартов и лучших практик для тестирования красной команды и укрепления доверия и безопасности в ИИ. **Вы обязуетесь создать или присоединиться к форуму или механизму, с помощью которого можно участвовать в разработке, продвижении и принятии общих стандартов и передовых методов в области передовой безопасности ИИ, таких как NIST AI Risk Management Framework или будущих стандартов, связанных с тестированием красной команды, безопасностью и социальными рисками. **Форум или механизм, облегчающий обмен информацией о достижениях в передовых возможностях и возникающих рисках и угрозах, таких как попытки обойти меры безопасности, и облегчающий создание технических рабочих групп по приоритетным направлениям. В этой работе Компания будет тесно сотрудничать с правительствами, в том числе с правительством США, гражданским обществом и академическими кругами, по мере необходимости.
Security/Network Security (Безопасность, уделяя особое внимание информационной безопасности)
3) Инвестируйте в средства кибербезопасности и средства защиты от внутренних угроз для защиты проприетарных и неопубликованных моделей
Компании, участвующие в этом обязательстве, должны рассматривать неопубликованные веса моделей ИИ в рамках моделей в качестве основной интеллектуальной собственности для своего бизнеса, особенно в отношении рисков кибербезопасности и внутренних угроз. Это включает в себя ограничение доступа к весам моделей только для тех, чьи рабочие функции требуют этого, и создание надежной программы обнаружения внутренних угроз, совместимой с защитой вашей наиболее ценной интеллектуальной собственности и коммерческой тайны. Кроме того, гири необходимо хранить и использовать в соответствующей безопасной среде, чтобы снизить риск несанкционированного распространения.
4) Поощряйте третьи стороны обнаруживать проблемы и уязвимости и сообщать о них
Компании, взявшие на себя это обязательство, признают, что системы ИИ могут по-прежнему быть уязвимыми даже после надежного «тестирования красной командой», и компании обязуются устанавливать награды за системы в рамках систем вознаграждений, конкурсов или призов, чтобы поощрять ответственное раскрытие слабых мест, таких как небезопасное поведение, или включать системы ИИ в существующую программу вознаграждения за обнаружение ошибок компании.
Доверять
**5) Для аудио- или видеоконтента, созданного ИИ, необходимо разработать и внедрить новые механизмы, в первую очередь, чтобы пользователи могли понять, был ли аудио- или видеоконтент создан ИИ, включая надежную атрибуцию, водяные знаки или и то, и другое. **
Компании, участвующие в этом обязательстве, признают важность того, чтобы люди знали, был ли аудио- или видеоконтент создан искусственным интеллектом. Для достижения этого компании соглашаются разработать надежные механизмы, в том числе в той мере, в какой они будут внедрены, для предоставления систем атрибуции и/или водяных знаков для аудио- или видеоконтента, созданного любой из их общедоступных систем после завершения их разработки. Они также разработают инструменты или API-интерфейсы для определения того, была ли конкретная часть контента создана их системами. Это обязательство не распространяется на аудиовизуальный контент, который легко отличить от реальности или созданный с помощью систем искусственного интеллекта компании (например, голос помощника с искусственным интеллектом по умолчанию).
Данные водяного знака или атрибуции должны включать идентификатор службы или модели, создавшей контент, но не обязательно включать какую-либо информацию, идентифицирующую пользователя. В более широком смысле компании, взявшие на себя это обязательство, обязуются работать с коллегами по отрасли и органами, устанавливающими стандарты, для разработки технической основы, которая поможет пользователям различать аудио- или видеоконтент, созданный пользователями, и аудио- или видеоконтент, созданный искусственным интеллектом.
**6) Публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования модели или системы, включая обсуждение социальных рисков, таких как влияние на справедливость и предвзятость. **
Компании, участвующие в обязательстве, должны признать, что пользователи должны знать об известных возможностях и ограничениях систем ИИ, которые они используют или с которыми взаимодействуют. Компании обязаны публиковать отчеты о выпуске всех новых значимых моделей. Эти отчеты должны включать выполненные оценки безопасности (в том числе в таких областях, как опасные возможности, но эти оценки подлежат обнародованию), существенные ограничения производительности, влияющие на области надлежащего использования, обсуждение влияния модели на социальные риски, такие как справедливость и предвзятость, а также результаты состязательного тестирования, проведенного для оценки пригодности модели для развертывания.
**7) Уделите первоочередное внимание исследованиям социальных рисков, связанных с системами ИИ, в том числе избегайте пагубной предвзятости и дискриминации и защищайте конфиденциальность. **
Компании, участвующие в этом обязательстве, должны признать важность предотвращения распространения вредоносных предубеждений и дискриминации системами ИИ. Компании обычно обязуются расширять возможности групп доверия и безопасности, продвигать исследования безопасности ИИ, продвигать конфиденциальность, защищать детей и стремиться к упреждающему управлению рисками ИИ для получения максимальной выгоды.
8) Разрабатывайте и внедряйте передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества
Компании, участвующие в этом обязательстве, должны будут согласиться поддержать исследования и разработку передовых систем искусственного интеллекта, чтобы помочь решить самые большие проблемы общества, такие как смягчение последствий изменения климата и адаптация к нему, раннее выявление и профилактика рака, а также борьба с киберугрозами. Компании также обязались поддерживать инициативы по развитию образования и профессиональной подготовки студентов и сотрудников, чтобы они могли воспользоваться преимуществами ИИ и помочь гражданам понять природу, возможности, ограничения и влияние технологий ИИ.
Ссылка: продвижение управления ИИ вперед (openai.com)
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
Полная история | Белый дом созывает 7 компаний, занимающихся искусственным интеллектом, чтобы добровольно взять на себя обязательства по искусственному интеллекту
Источник статьи: Alpha Rabbit Research Notes
полный текст
Чтобы укрепить безопасность, защищенность и надежность технологий и услуг искусственного интеллекта, OpenAI и другие ведущие лаборатории искусственного интеллекта взяли на себя добровольные обязательства. **Эта работа, координируемая главным образом Белым домом, является важным шагом на пути к осмысленному и эффективному управлению ИИ в Соединенных Штатах и во всем мире. **
Выполняя свою миссию по созданию безопасного и полезного ИИ, OpenAI продолжит пилотировать и совершенствовать конкретные методы управления, адаптированные для базовой модели с производственными возможностями, такой как OpenAI. Кроме того, OpenAI продолжит инвестировать в области исследований, которые помогают информировать регулирующие органы, такие как разработка технологий для оценки потенциальных опасностей моделей искусственного интеллекта.
Добровольные обязательства по ИИ
Следующий список добровольных обязательств был первоначально опубликован Белым домом:
Ниже приведен список обязательств, принятых компаниями для содействия безопасной, надежной и прозрачной разработке и применению технологий искусственного интеллекта.Следующие обязательства соответствуют существующим законам и нормативным актам и предназначены для обеспечения надежности правовых и политических систем искусственного интеллекта. Каждая компания будет выполнять следующие добровольные обязательства до тех пор, пока не вступят в силу соответствующие законы, постановления и системы, и некоторые компании могут взять на себя другие обязательства помимо этого обязательства.
Область применения. Это обязательство относится к конкретным моделям, применимым только к моделям генеративного ИИ, которые превосходят текущие отраслевые границы (например, модели, которые мощнее любой выпущенной в настоящее время модели, включая GPT-4, Claude 2, PaLM 2, Titan и DALL-E 2 для создания изображений).
Примечание: Безопасность соответствует преднамеренным (техногенным) угрозам, а Безопасность соответствует уязвимостям или непреднамеренным последствиям самой системы ИИ, здесь Безопасность ИИ соответствует функциональной безопасности, а Безопасность ИИ соответствует информационной безопасности ИИ
Безопасность (акцент на функциональную безопасность)
**1) Обязательство провести внутреннюю и внешнюю переоценку моделей и систем в отношении неправомерного использования, социального риска и проблем национальной безопасности (например, биологической, кибернетической и других областей безопасности). **
Компании, участвующие в принятии этих обязательств, понимают, что сильное тестирование красной команды имеет решающее значение для создания готовых продуктов, обеспечения общественного доверия к ИИ и защиты от серьезных угроз национальной безопасности. ** Оценка безопасности и возможностей модели, включая тестирование красной команды, является открытой областью научных исследований, и требуется дополнительная работа. Компании обязуются продвигать исследования в этой области и разрабатывать многогранные, специализированные и подробные режимы тестирования красной командой для основных общедоступных выпусков всех новых моделей, в том числе, здесь, с участием независимых экспертов в предметной области. При проектировании системы убедитесь, что высокий приоритет отдается:**
Чтобы поддержать вышеуказанную работу, участвующие компании будут продвигать текущие исследования безопасности ИИ, включая объяснимость процессов принятия решений в системе ИИ и повышение устойчивости систем ИИ к злоупотреблениям. Точно так же компании обязуются публично раскрывать информацию о красной команде и тестировании программ безопасности в отчетах о прозрачности.
2) Обязуемся обмениваться информацией между компаниями и правительствами о рисках доверия и безопасности, опасностях или новых возможностях ИИ, а также о попытках обойти меры безопасности
Компании, участвующие в этом обязательстве, должны признать важность обмена информацией, общих стандартов и лучших практик для тестирования красной команды и укрепления доверия и безопасности в ИИ. **Вы обязуетесь создать или присоединиться к форуму или механизму, с помощью которого можно участвовать в разработке, продвижении и принятии общих стандартов и передовых методов в области передовой безопасности ИИ, таких как NIST AI Risk Management Framework или будущих стандартов, связанных с тестированием красной команды, безопасностью и социальными рисками. **Форум или механизм, облегчающий обмен информацией о достижениях в передовых возможностях и возникающих рисках и угрозах, таких как попытки обойти меры безопасности, и облегчающий создание технических рабочих групп по приоритетным направлениям. В этой работе Компания будет тесно сотрудничать с правительствами, в том числе с правительством США, гражданским обществом и академическими кругами, по мере необходимости.
Security/Network Security (Безопасность, уделяя особое внимание информационной безопасности)
3) Инвестируйте в средства кибербезопасности и средства защиты от внутренних угроз для защиты проприетарных и неопубликованных моделей
Компании, участвующие в этом обязательстве, должны рассматривать неопубликованные веса моделей ИИ в рамках моделей в качестве основной интеллектуальной собственности для своего бизнеса, особенно в отношении рисков кибербезопасности и внутренних угроз. Это включает в себя ограничение доступа к весам моделей только для тех, чьи рабочие функции требуют этого, и создание надежной программы обнаружения внутренних угроз, совместимой с защитой вашей наиболее ценной интеллектуальной собственности и коммерческой тайны. Кроме того, гири необходимо хранить и использовать в соответствующей безопасной среде, чтобы снизить риск несанкционированного распространения.
4) Поощряйте третьи стороны обнаруживать проблемы и уязвимости и сообщать о них
Компании, взявшие на себя это обязательство, признают, что системы ИИ могут по-прежнему быть уязвимыми даже после надежного «тестирования красной командой», и компании обязуются устанавливать награды за системы в рамках систем вознаграждений, конкурсов или призов, чтобы поощрять ответственное раскрытие слабых мест, таких как небезопасное поведение, или включать системы ИИ в существующую программу вознаграждения за обнаружение ошибок компании.
Доверять
**5) Для аудио- или видеоконтента, созданного ИИ, необходимо разработать и внедрить новые механизмы, в первую очередь, чтобы пользователи могли понять, был ли аудио- или видеоконтент создан ИИ, включая надежную атрибуцию, водяные знаки или и то, и другое. **
Компании, участвующие в этом обязательстве, признают важность того, чтобы люди знали, был ли аудио- или видеоконтент создан искусственным интеллектом. Для достижения этого компании соглашаются разработать надежные механизмы, в том числе в той мере, в какой они будут внедрены, для предоставления систем атрибуции и/или водяных знаков для аудио- или видеоконтента, созданного любой из их общедоступных систем после завершения их разработки. Они также разработают инструменты или API-интерфейсы для определения того, была ли конкретная часть контента создана их системами. Это обязательство не распространяется на аудиовизуальный контент, который легко отличить от реальности или созданный с помощью систем искусственного интеллекта компании (например, голос помощника с искусственным интеллектом по умолчанию).
Данные водяного знака или атрибуции должны включать идентификатор службы или модели, создавшей контент, но не обязательно включать какую-либо информацию, идентифицирующую пользователя. В более широком смысле компании, взявшие на себя это обязательство, обязуются работать с коллегами по отрасли и органами, устанавливающими стандарты, для разработки технической основы, которая поможет пользователям различать аудио- или видеоконтент, созданный пользователями, и аудио- или видеоконтент, созданный искусственным интеллектом.
**6) Публично сообщать о возможностях, ограничениях и областях надлежащего и ненадлежащего использования модели или системы, включая обсуждение социальных рисков, таких как влияние на справедливость и предвзятость. **
Компании, участвующие в обязательстве, должны признать, что пользователи должны знать об известных возможностях и ограничениях систем ИИ, которые они используют или с которыми взаимодействуют. Компании обязаны публиковать отчеты о выпуске всех новых значимых моделей. Эти отчеты должны включать выполненные оценки безопасности (в том числе в таких областях, как опасные возможности, но эти оценки подлежат обнародованию), существенные ограничения производительности, влияющие на области надлежащего использования, обсуждение влияния модели на социальные риски, такие как справедливость и предвзятость, а также результаты состязательного тестирования, проведенного для оценки пригодности модели для развертывания.
**7) Уделите первоочередное внимание исследованиям социальных рисков, связанных с системами ИИ, в том числе избегайте пагубной предвзятости и дискриминации и защищайте конфиденциальность. **
Компании, участвующие в этом обязательстве, должны признать важность предотвращения распространения вредоносных предубеждений и дискриминации системами ИИ. Компании обычно обязуются расширять возможности групп доверия и безопасности, продвигать исследования безопасности ИИ, продвигать конфиденциальность, защищать детей и стремиться к упреждающему управлению рисками ИИ для получения максимальной выгоды.
8) Разрабатывайте и внедряйте передовые системы искусственного интеллекта, чтобы помочь решить самые большие проблемы общества
Компании, участвующие в этом обязательстве, должны будут согласиться поддержать исследования и разработку передовых систем искусственного интеллекта, чтобы помочь решить самые большие проблемы общества, такие как смягчение последствий изменения климата и адаптация к нему, раннее выявление и профилактика рака, а также борьба с киберугрозами. Компании также обязались поддерживать инициативы по развитию образования и профессиональной подготовки студентов и сотрудников, чтобы они могли воспользоваться преимуществами ИИ и помочь гражданам понять природу, возможности, ограничения и влияние технологий ИИ.
Ссылка: продвижение управления ИИ вперед (openai.com)