Русский Дом
Купить домен uaeprice.ru

AI пишет код все быстрее, но безопаснее он от этого не становится

Искусственный интеллект все активнее используют для написания программного кода. Он помогает разработчикам быстрее собирать сайты, приложения, базы данных, тесты и отдельные функции.

На первый взгляд это выглядит как большой шаг вперед: работа идет быстрее, а часть рутинных задач можно передать машине. Но вместе с этим становится заметна и другая проблема: код, созданный с помощью ИИ, далеко не всегда оказывается надежным и безопасным.

Поводом для новой волны обсуждений стала публикация издания The Register от 26 марта 2026 года. В статье говорится, что массовое использование ИИ для программирования не делает код автоматически более безопасным. И это важно, потому что сегодня такие инструменты начинают использовать не только отдельные программисты, но и крупные компании. Они все чаще встраивают ИИ в повседневную разработку программного обеспечения.

Проблема в том, что между "код работает" и "код безопасен" есть большая разница. Программа может запускаться, выполнять нужную задачу и выглядеть исправной, но при этом содержать слабые места, через которые злоумышленники смогут получить доступ к данным, нарушить работу сервиса или внедрить вредоносные изменения.

Эту проблему подтверждают и исследования. В отчете компании Veracode за 2025 год изучались более 100 моделей искусственного интеллекта, которые создавали код на разных языках программирования. По итогам проверки оказалось, что 45% сгенерированных фрагментов содержали уязвимости, то есть ошибки, которые могут угрожать безопасности программы. Исследователи также отметили важную деталь: новые модели стали лучше писать код, который просто работает, но заметного улучшения именно с точки зрения безопасности не произошло.

Разработчик работает за двумя мониторами, где видны программный код и предупреждение о рисках безопасности при использовании ИИ для написания программ
Риски ИИ в разработке ПО и проверке безопасности кода

Это и есть главный парадокс нынешнего этапа развития ИИ в программировании. Он действительно помогает ускорить работу. С его помощью можно быстрее создать черновик программы, написать типовые элементы, проверить идеи и сократить время на рутину. Но скорость сама по себе не означает качество. И тем более она не означает безопасность.

Для обычного читателя это можно объяснить просто. Представим, что человек очень быстро строит дом. Снаружи дом выглядит готовым: стены стоят, окна вставлены, крыша есть. Но если внутри плохо сделана проводка, непрочно закреплены балки или есть трещины в основании, жить в таком доме опасно. С кодом та же история. Он может выглядеть готовым, но внутри могут скрываться ошибки, которые проявятся позже.

Ситуацию усложняет то, что код, написанный с помощью ИИ, уже широко проникает в цифровую среду. Даже если какая-то компания сама не использует такие инструменты, она все равно может столкнуться с их результатами. Такой код может попасть в ее продукты через подрядчиков, сторонние библиотеки, готовые модули и открытые проекты, которыми пользуются другие разработчики.

Для российских разработчиков и компаний эта проблема имеет и прикладное значение. Если продукт создается для государственного сектора или рассчитывает на Регистрацию ПО в реестре Минцифры https://gpg.ru/services/programmy/registratsiya-po-v-reestre-mintsifry/, вопросы прозрачности разработки, контроля над исходным кодом и проверки безопасности становятся особенно важными. Чем больше в создании продукта используется автоматически сгенерированный код, тем выше значение внутреннего аудита и понятных процедур проверки.

Отдельную тревогу у специалистов вызывает то, что происхождение такого кода часто трудно отследить. Если ошибка появилась в программе, не всегда можно быстро понять, кто именно ее допустил: человек или система искусственного интеллекта. Это усложняет проверку, поиск причины проблемы и распределение ответственности.

Кроме того, появляются и новые угрозы, связанные именно с использованием больших языковых моделей. Например, международная организация OWASP, которая занимается вопросами безопасности программного обеспечения, публикует список основных рисков для систем на базе искусственного интеллекта. Среди них - утечки конфиденциальных данных, ошибки при обработке ответов модели, уязвимости в цепочке поставок программного обеспечения и случаи, когда системе дают слишком много полномочий. Иначе говоря, речь идет уже не только об обычных ошибках в коде, но и о новых рисках, которые возникают из-за самого способа создания цифровых продуктов.

Поэтому главный вывод для рынка сегодня звучит довольно жестко: искусственный интеллект может ускорить разработку, но не способен сам по себе заменить опытного специалиста, полноценную проверку безопасности и контроль качества. Код, который предлагает ИИ, нельзя автоматически считать надежным только потому, что его создала современная система.

Напротив, такой код требует особенно внимательной проверки. Его нужно просматривать, тестировать, искать в нем уязвимости, проверять, какие сторонние компоненты в нем используются, и оценивать, не создает ли он новых рисков для пользователей и компаний. Если этого не делать, высокая скорость разработки может обернуться быстрым накоплением опасных ошибок.

Именно поэтому сегодня все чаще говорят: искусственный интеллект делает создание программ быстрее, но безопасность по-прежнему обеспечивают люди, их опыт и строгие процедуры проверки. Пока нет оснований считать, что новые модели сами решили эту проблему. Значит, индустрии придется принять простую мысль: ИИ - это полезный инструмент, но не гарантия качества и не страховка от ошибок.

Метки: ai; ии; программирование; код; безопасность

Опрос

Где вы покупаете алкогольные напитки? (голосов: 1401)

  • в Абу-Даби - 90 (6%)
  • в Дубае - 191 (14%)
  • в Аджмане - 303 (22%)
  • в Умм эль-Кавайне - 332 (24%)
  • в Рас эль-Хайме - 25 (2%)
  • в Фуджейре - 56 (4%)
  • в Duty Free - 169 (12%)
  • не покупаю - 235 (17%)
  • - (0%)