Провал переписывания SQLite и споры о лицензировании ИИ-кода
Мартовский отчет 2026 года выявил критический разрыв между способностью ИИ генерировать рабочий код и реальной системной производительностью. Пока разработчики спорят о лицензиях на ИИ-код, инфраструктурный дефицит начинает диктовать новые правила игры в индустрии.
Попытка разработчика воссоздать базу данных SQLite на языке Rust с помощью искусственного интеллекта привела к критическому падению производительности. Хотя сгенерированный код успешно прошел функциональные тесты, при выполнении простых запросов система работала в 20 000 раз медленнее оригинала.
Причиной деградации стала ошибка в выборе алгоритмов: нейросеть применила полный скан таблиц вместо использования оптимизированных деревьев. Этот инцидент демонстрирует проблему поверхностной проверки кода, когда отсутствие чётких критериев приемки не позволяет учитывать глубокие системные инварианты при генерации архитектуры.
В проекте Charada возник юридический конфликт после переписывания ядра программы с использованием ИИ-модели Claude. Мейнтейнер проекта принял решение сменить лицензию ПО с LGPL на MIT, обосновывая это независимостью сгенерированного кода от исходных наработок. Представители сообщества открытого программного обеспечения выступили с критикой данного шага, расценив его как нарушение принципов взаимности в разработке.
Специалисты прогнозируют сохранение ограничений вычислительных мощностей до 2027 года. Текущий дефицит обусловлен нехваткой оперативной памяти, систем питания и задержками в строительстве новых дата-центров. Ситуацию осложняет высокая плотность ИИ-агентов, которая увеличивает потребление токенов даже при отсутствии резкого роста числа пользователей.
Для решения проблем пропускной способности памяти индустрия переходит на использование SRAM-ускорителей, оптимизирующих фазу декодирования в больших языковых моделях (LLM). Одновременно с этим компания Meta сформировала группу Applied AI Engineering, целью которой стало ускорение разработки суперинтеллекта через создание новой инфраструктуры и инструментов.
Компания Anthropic совместно с Mozilla провела тестирование модели Claude на исходном коде браузера Firefox. В ходе проверок ИИ выявил уязвимости высокой степени серьёзности, которые были оперативно исправлены. При этом эксперты зафиксировали разрыв в возможностях нейросетей: модели успешно находят ошибки, но могут создавать рабочие эксплойты только в крайне ограниченных средах.
Параллельно OpenAI ведёт разработку специализированного агента Codec. Система предназначена для фильтрации багов, создания моделей угроз и подготовки патчей. Основной задачей Codec является идентификация приоритетных уязвимостей для упрощения процесса их устранения и снижения количества ложных срабатываний.
Топ-менеджер OpenAI Кейтлин Калиновски покинула компанию из-за несогласия с контрактом, заключённым с Пентагоном. Она заявила о рисках, связанных с внутренним наблюдением и созданием автономных летальных систем без участия человека. На фоне роста венчурных инвестиций на рынке труда наблюдается сокращение штатов и замещение персонала вычислительными мощностями.
В январе 2026 года было объявлено о закрытии площадки Capwing, которая планировала выплачивать роялти художникам за использование их работ в обучении ИИ. Проект не смог привлечь достаточное количество участников и выйти на окупаемость в условиях правовой неопределенности. В свою очередь, Великобритания столкнулась с критикой после проверки данных о завышенных государственных инвестициях в сферу искусственного интеллекта.