OpenAI, ведущая компания в сфере искусственного интеллекта, по сообщениям уволила сотрудников своей команды, отвечавшей за защиту программного обеспечения от кражи и шпионажа. Это решение было принято сразу после введения новых правил в США, направленных на предотвращение утечек чувствительных данных AI в неправильные руки. Команда внутреннего риска, отвечавшая за безопасность, должна была гарантировать, что такие ключевые данные, как веса модели, остаются защищёнными и не передаются посторонним организациям.
Увольнение произошло после того, как в этом году США ввели так называемые правила диффузии ИИ. Эти правила накладывают строгие ограничения на передачу данных о моделях ИИ в зарубежные страны, особенно в враждебные государства. Кроме того, новая политика предполагает, что наиболее совершенные веса моделей ИИ должны храниться за пределами США только в условиях усиленной безопасности. Это решение было принято с целью предотвратить эксфильтрацию этих данных зловредными актерами, что стало особенно актуальным на фоне роста корпоративного шпионажа и международных рисков.
Веса моделей ИИ — это параметры, определяющие, как модель реагирует на запросы пользователей, и являются ключевыми для того, чтобы OpenAI оставалась конкурентоспособной на рынке. Эти уникальные элементы, наряду с другими параметрами программного обеспечения, служат важными отличиями для компании в противостоянии с конкурентами. Решение OpenAI уволить команду, которая обеспечивала защиту этих данных, вызвало массу вопросов относительно стратегии компании в условиях растущих угроз в области кибербезопасности и международной политики.
Хотя рост OpenAI был поддержан сотрудничеством с оборонными структурами США и международными проектами в сфере инфраструктуры ИИ, последние изменения в составе её команды по безопасности заставляют задуматься о долгосрочных планах компании по защите своей интеллектуальной собственности. Может ли этот шаг оказаться ошибочным на фоне усиливающейся конкуренции и напряженности на международной арене?