.
.
СЕГОДНЯ:
.
.
.
Главное
.
СВЯЗАННЫЕ МАТЕРИАЛЫ
22 сентября 2025 года 08:39
В РФ готовят правила безопасности для искусственного интеллекта
![]() |
![]() |

Александр Щербак/ТАСС
22 сентября. FINMARKET.RU - До конца 2025 г. Федеральная служба по техническому и экспортному контролю (ФСТЭК) планирует представить проект стандарта по безопасной разработке систем искусственного интеллекта (ИИ) в дополнение к стандарту по безопасной разработке программного обеспечения (ПО). Об этом заявил первый заместитель директора ФСТЭК Виталий Лютиков на форуме BIS-2025. Лютиков уточнил, что речь идет о тех уязвимостях и угрозах, которые специфичны для ИИ, связанных с дата-центричностью, с моделями машинного обучения и т. д., пишут "Ведомости".
Новый проект стандарта ФСТЭК будет представлять собой детализированное методическое руководство, дополняющее существующие "Требования по безопасной разработке программного обеспечения" специфическими мерами для жизненного цикла систем ИИ, предположил директор департамента расследований T.Hunter Игорь Бедеров. По его словам, существующий стандарт по безопасной разработке ПО (SDLC) охватывает общие практики безопасности на всех этапах создания ПО. Но ИИ-системы имеют фундаментальные отличия, которые не учитываются в традиционных моделях угроз, отмечает эксперт.
В 117-м приказе ФСТЭК, который вступает в силу с 1 марта 2026 г. и устанавливает новые требования к защите информации в государственных информационных системах, есть достаточно большой раздел, посвященный вопросам безопасности ИИ, моделей и датасетов, которые используются для обучения этих моделей, напоминает консультант по безопасности Positive Technologies Алексей Лукацкий.
Поэтому и назрела необходимость наличия стандарта, который будет описывать конкретные меры, предназначенные для компаний, внедряющих ИИ в свои проекты, объясняет Лукацкий. В таком документе будут прописаны вопросы, связанные не только с ИИ-моделями, но и с тем, как собирать датасеты, как их хранить, как их размечать безопасным образом, как обеспечивать их целостность и конфиденциальность, поскольку они могут представлять интерес для различных злоумышленников, перечисляет эксперт. Там будет прописан процесс, связанный с обеспечением всего цикла разработки безопасного ИИ, сообщил Лукацкий.
Опубликовано Финмаркет
.
Мнение посетителей сайта, оставляющих свои комментарии на новости и статьи, может не совпадать с мнением редакции ИА «Финмаркет», и за содержание комментариев ИА «Финмаркет» ответственности не несет. При этом агентство оставляет за собой право модерировать и удалять любые комментарии посетителей сайта.
ПОДПИСКА НА РАССЫЛКУ АНАЛИТИКИ ФИНМАРКЕТ:
.
.