AI пишет код все быстрее, но безопаснее он от этого не становится
Искусственный интеллект все активнее используют для написания программного кода. Он помогает разработчикам быстрее собирать сайты, приложения, базы данных, тесты и отдельные функции.
На первый взгляд это выглядит как большой шаг вперед: работа идет быстрее, а часть рутинных задач можно передать машине. Но вместе с этим становится заметна и другая проблема: код, созданный с помощью ИИ, далеко не всегда оказывается надежным и безопасным.
Поводом для новой волны обсуждений стала публикация издания The Register от 26 марта 2026 года. В статье говорится, что массовое использование ИИ для программирования не делает код автоматически более безопасным. И это важно, потому что сегодня такие инструменты начинают использовать не только отдельные программисты, но и крупные компании. Они все чаще встраивают ИИ в повседневную разработку программного обеспечения.
Проблема в том, что между "код работает" и "код безопасен" есть большая разница. Программа может запускаться, выполнять нужную задачу и выглядеть исправной, но при этом содержать слабые места, через которые злоумышленники смогут получить доступ к данным, нарушить работу сервиса или внедрить вредоносные изменения.
Эту проблему подтверждают и исследования. В отчете компании Veracode за 2025 год изучались более 100 моделей искусственного интеллекта, которые создавали код на разных языках программирования. По итогам проверки оказалось, что 45% сгенерированных фрагментов содержали уязвимости, то есть ошибки, которые могут угрожать безопасности программы. Исследователи также отметили важную деталь: новые модели стали лучше писать код, который просто работает, но заметного улучшения именно с точки зрения безопасности не произошло.

Это и есть главный парадокс нынешнего этапа развития ИИ в программировании. Он действительно помогает ускорить работу. С его помощью можно быстрее создать черновик программы, написать типовые элементы, проверить идеи и сократить время на рутину. Но скорость сама по себе не означает качество. И тем более она не означает безопасность.
Для обычного читателя это можно объяснить просто. Представим, что человек очень быстро строит дом. Снаружи дом выглядит готовым: стены стоят, окна вставлены, крыша есть. Но если внутри плохо сделана проводка, непрочно закреплены балки или есть трещины в основании, жить в таком доме опасно. С кодом та же история. Он может выглядеть готовым, но внутри могут скрываться ошибки, которые проявятся позже.
Ситуацию усложняет то, что код, написанный с помощью ИИ, уже широко проникает в цифровую среду. Даже если какая-то компания сама не использует такие инструменты, она все равно может столкнуться с их результатами. Такой код может попасть в ее продукты через подрядчиков, сторонние библиотеки, готовые модули и открытые проекты, которыми пользуются другие разработчики.
Для российских разработчиков и компаний эта проблема имеет и прикладное значение. Если продукт создается для государственного сектора или рассчитывает на Регистрацию ПО в реестре Минцифры https://gpg.ru/services/programmy/registratsiya-po-v-reestre-mintsifry/, вопросы прозрачности разработки, контроля над исходным кодом и проверки безопасности становятся особенно важными. Чем больше в создании продукта используется автоматически сгенерированный код, тем выше значение внутреннего аудита и понятных процедур проверки.
Отдельную тревогу у специалистов вызывает то, что происхождение такого кода часто трудно отследить. Если ошибка появилась в программе, не всегда можно быстро понять, кто именно ее допустил: человек или система искусственного интеллекта. Это усложняет проверку, поиск причины проблемы и распределение ответственности.
Кроме того, появляются и новые угрозы, связанные именно с использованием больших языковых моделей. Например, международная организация OWASP, которая занимается вопросами безопасности программного обеспечения, публикует список основных рисков для систем на базе искусственного интеллекта. Среди них - утечки конфиденциальных данных, ошибки при обработке ответов модели, уязвимости в цепочке поставок программного обеспечения и случаи, когда системе дают слишком много полномочий. Иначе говоря, речь идет уже не только об обычных ошибках в коде, но и о новых рисках, которые возникают из-за самого способа создания цифровых продуктов.
Поэтому главный вывод для рынка сегодня звучит довольно жестко: искусственный интеллект может ускорить разработку, но не способен сам по себе заменить опытного специалиста, полноценную проверку безопасности и контроль качества. Код, который предлагает ИИ, нельзя автоматически считать надежным только потому, что его создала современная система.
Напротив, такой код требует особенно внимательной проверки. Его нужно просматривать, тестировать, искать в нем уязвимости, проверять, какие сторонние компоненты в нем используются, и оценивать, не создает ли он новых рисков для пользователей и компаний. Если этого не делать, высокая скорость разработки может обернуться быстрым накоплением опасных ошибок.
Именно поэтому сегодня все чаще говорят: искусственный интеллект делает создание программ быстрее, но безопасность по-прежнему обеспечивают люди, их опыт и строгие процедуры проверки. Пока нет оснований считать, что новые модели сами решили эту проблему. Значит, индустрии придется принять простую мысль: ИИ - это полезный инструмент, но не гарантия качества и не страховка от ошибок.
Метки: ai; ии; программирование; код; безопасность
Опрос
Как на ваш взгляд изменились цены на недвижимость в Дубае за 2013 год? (голосов: 1069)
- Не изменились - 89 (8%)

- Выросли на 5% - 42 (4%)

- Выросли на 10% - 130 (12%)

- Выросли на 25% - 286 (27%)

- Выросли на 50% - 169 (16%)

- Выросли на 100% - 82 (8%)

- Снизились - 11 (1%)

- Затрудняюсь ответить - 35 (3%)

- Мне все равно - 28 (3%)

- Живу в другом эмирате - 46 (4%)

- Живу не в ОАЭ - 151 (14%)

-
- (0%)

