Соединенные Штаты, Великобритания, Австралия и 15 других стран выпустили глобальные рекомендации, направленные на защиту моделей искусственного интеллекта от несанкционированного доступа, призывая компании гарантировать, что их модели «безопасны по своей конструкции». Руководство в основном включает в себя общие рекомендации, такие как жесткий контроль инфраструктуры моделей ИИ, мониторинг моделей на предмет несанкционированного доступа до и после их выпуска, а также обучение сотрудников рискам кибербезопасности. В руководстве рекомендуются методы кибербезопасности, которые компаниям, занимающимся искусственным интеллектом, следует применять при проектировании, разработке, запуске и мониторинге моделей искусственного интеллекта. Другие страны, подписавшие новые рекомендации, включают Канаду, Францию, Германию, Израиль, Италию, Японию, Новую Зеландию, Нигерию, Норвегию, Южную Корею и Сингапур. Компании, занимающиеся искусственным интеллектом, такие как OpenAI, Microsoft, Google, Anthropic и Scale AI, также внесли свой вклад в разработку руководства. (Коинтелеграф)
Все комментарии