В апреле 2026 года вышел
34-й выпуск технологического радара от компании Thoughtworks. Мы внимательно изучили новый выпуск и подготовили краткий обзор. Технологический радар выходит два раза в год на протяжении уже 15 лет, за это время на радаре появилось свыше
1900 практик, платформ, инструментов и фреймворков. В подготовке радара участвуют 22 эксперта компании Thoughtworks, входящие в Technology Advisory Board (TAB). Технологии на радаре группируются по четырем категориям: практики (Techniques), платформы (Platforms), инструменты (Tools), языки и фреймворки (Languages and frameworks). В новом выпуске на радаре представлены 118 технологий:
41 практика,
24 платформы и более
50 инструментов и
фреймворков. Дополнительно технологии распределяются по четырем кольцам, в соответствии с рекомендациями экспертов Thoughtworks:
- Adopt. Следует активно внедрять и использовать технологии;
- Trial. Стоит опробовать технологии в проектах, допускающих приемлемый уровень риска;
- Assess. Стоит изучить, чтобы понять, как технологии могут повлиять на вашу организацию;
- Caution (Ранее Hold). Требуют осторожного подхода, технологии связаны с существенными рисками или ограничениями и требуют внимательной оценки в контексте вашей организации.
Отчет начинается с четырех инсайтов в индустрии на начало 2026 года:
- Сложность оценки технологий. При подготовке этого выпуска эксперты заметили, что оценивать технологии становится сложнее по мере того, как индустрия внедряет AI. Одним из факторов является семантическая диффузия (Semantic diffusion): быстрое появление новых терминов для развивающихся практик, зачастую до того, как их значение успевает стабилизироваться;
- Усиление инженерных принципов и пересмотр устоявшихся практик. Индустрия возвращается к таким практикам, как Pair programming, Mutation testing, DORA metrics, а также к базовым принципам Software Craftsmanship. При этом меняются подходы к совместной работе и структуре команд, возможно потребуется рассматривать Agent Topologies наряду с Team Topologies. Ключевым вызовом становится управление когнитивным долгом: AI позволяет создавать решения быстрее, чем команды успевают их осмысливать, что увеличивает риск как потери понимания систем, так и усталости от постоянного принятия решений (Decision fatigue);
- Обеспечение безопасности агентов, требующих доступа к данным и системам. Механизмы защиты пока не успевают за скоростью развития: сохраняются риски инъекция промптов, утечек данных, непредсказуемого поведения моделей и обхода контрольных механизмов. В этих условиях базовыми требованиями становятся Zero Trust, Least privilege, Defense in depth и переход от монолитных агентов к более контролируемым специализированным агентам;
- Внедрение механизмов контроля работы агентов в разработке. Команды все активнее используют специальные Harness подходы, которые управляют поведением агентов до генерации кода и обеспечивают автоматическую обратную связь после нее.
Мы подготовили краткое описание практик, упомянутых на технологическом радаре Thoughtworks.
Практики в статусе Adopt:
- Context engineering. Практика проектирования и управления контекстом AI систем как самостоятельным архитектурным слоем. Подход предполагает осознанное формирование информационной среды модели: динамическую подгрузку релевантного контекста, управление объемом и структурой контекста для снижения шума, предотвращения деградации качества рассуждений и повышения устойчивости Agentic AI систем;
- Curated shared instructions for software teams. Практика централизованного управления и совместного сопровождения инструкций для AI в инженерных командах как общего инженерного артефакта. Подход предполагает хранение и распространение стандартизированных AI инструкций через Service templates, Reference applications и Repository-level конфигурации, обеспечивая единообразное поведение AI инструментов, консистентность инженерных практик и встроенное применение командных стандартов во всех новых проектах;
- DORA metrics. Набор ключевых метрик производительности поставки, используемых для оценки скорости, стабильности и эффективности инженерных организаций. Подход включает измерение Change lead time, Deployment frequency, Mean time to restore (MTTR), Change failure rate и Rework rate, позволяя отслеживать влияние инженерных практик и AI инструментов на поток поставки изменений, устойчивость поставки и качество разработки. DORA metrics применяются как инструмент для анализа, обучения и улучшения работы команд, а не только для отчетности;
- Passkeys. Современный механизм беспарольной аутентификации на основе стандарта FIDO2, использующий асимметричную криптографию и защищенное хранение приватного ключа на устройстве пользователя. Подход обеспечивает встроенную устойчивость к фишингу, упрощает пользовательский опыт аутентификации и снижает риски, связанные с компрометацией паролей и одноразовых кодов. Благодаря широкой поддержке со стороны крупных платформ и провайдеров идентификации passkeys становятся новым стандартом для построения безопасных систем аутентификации;
- Structured output from LLMs. Практика ограничения формата ответов языковых моделей заранее определенной структурой, например JSON, Schema-based объектами или типизированными программными структурами. Подход позволяет надежно использовать результаты работы LLM в программных интеграциях, повышает предсказуемость взаимодействия с моделями, упрощает валидацию ответов и снижает количество ошибок;
- Zero trust architecture. Fрхитектурный подход к обеспечению безопасности, основанный на принципе "Never trust, always verify", то есть непрерывной верификации идентичности и предоставлении минимально необходимых прав доступа (Least privilege). Подход применяется для защиты современных распределенных систем и AI/Agentic решений, снижая риски несанкционированного доступа, компрометации учетных данных и неконтролируемого поведения автономных компонентов.
Практики в статусе Trial:
- Agent Skills. Подход к модульному управлению контекстом и поведением AI агентов через переиспользуемые пакеты инструкций, скриптов и связанных ресурсов, которые подключаются агентом по мере необходимости. Подход позволяет снижать потребление токенов, уменьшать риск исчерпания контекстного окна модели и упрощать масштабирование agentic AI систем за счет более структурированного и управляемого способа конфигурации поведения агентов;
- Browser-based component testing. Подход к компонентному тестированию пользовательских интерфейсов в реальном браузерном окружении. Использование браузерных инструментов тестирования позволяет повысить реалистичность выполнения тестов, улучшить соответствие Production окружению, снизить количество расхождений между тестовым и реальным поведением интерфейсов и повысить надежность проверки UI компонентов;
- Feedback sensors for coding agents. Механизмы обратной связи, встроенные в процессы агентов для разработки кода и предоставляющие им сигналы о качестве результатов. Обычно реализуются через линтеры, тесты и другие проверки, позволяя агентам самостоятельно обнаруживать ошибки и выполнять коррекцию до участия человека;
- Mapping code smells to refactoring techniques. Практика сопоставления типовых Code smells с заранее определенными практиками рефакторинга и правилами их применения в AI workflow. Подход позволяет направлять агентов к использованию конкретных стратегий для обнаруженных проблем в коде, обеспечивая более предсказуемое исправление дефектов, соответствие инженерным стандартам и повышение качества работы AI;
- Mutation testing. Практика оценки качества тестового покрытия, при которой в исходный код намеренно вносятся небольшие изменения (мутации) для проверки способности тестов обнаруживать ошибки в поведении системы. Подход позволяет измерять реальную способность тестового набора выявлять дефекты, что делает Mutation testing более надежным индикатором качества тестов по сравнению с традиционными метриками покрытия кода;
- Progressive context disclosure. Практика управления контекстом в AI системах, при которой детальная информация и инструкции подгружаются в контекст модели постепенно и только по мере необходимости. Подход позволяет избегать перегрузки контекстного окна, снижать объем нерелевантного контекста, повышать качество модели и улучшать управляемость Agentic AI систем;
- Sandboxed execution for coding agents. Практика запуска агентов для разработки кода в изолированных средах с ограниченным доступом к файловой системе, сети и вычислительным ресурсам. Подход позволяет снизить риски повреждения окружений, компрометации учетных данных и неконтролируемых действий AI агентов при выполнении кода, сборке проектов и работе с инфраструктурой;
- Semantic layer. Архитектурный подход к управлению данными, при котором между источниками данных и потребителями создается единый слой бизнес-семантики, определяющий метрики, бизнес-правила, связи между данными и правила доступа. Подход обеспечивает единое понимание бизнес-терминов и расчетов во всех аналитических, BI, API и AI системах, снижает расхождения в интерпретации данных и повышает консистентность использования данных в организации;
- Server-driven UI. Архитектурный подход к построению пользовательских интерфейсов, при котором структура и конфигурация UI определяются сервером, а клиентское приложение отвечает преимущественно за универсальный рендеринг полученных схем и данных. Подход позволяет ускорять вывод изменений, снижать зависимость от циклов релиза клиентских приложений и централизованно управлять динамическими интерфейсами на разных платформах.
Практики в статусе Assess:
- Agentic reinforcement learning environments. Специализированные среды обучения для AI агентов, в которых модели обучаются выполнению многошаговых задач через взаимодействие с контекстом, инструментами и механизмами обратной связи с использованием Reinforcement learning. Подход позволяет повышать эффективность подготовки специализированных AI агентов для сложных прикладных сценариев;
- Architecture drift reduction with LLMs. Подход к выявлению и сокращению архитектурного дрейфа с использованием LLM в сочетании с инструментами архитектурного анализа. Подход позволяет обнаруживать структурные и семантические отклонения от целевой архитектуры, помогать в их приоритизации и автоматизировать подготовку исправлений, снижая накопление архитектурной сложности и поддерживая соответствие кодовой базы архитектурным стандартам;
- Code intelligence as agentic tooling. Подход к расширению возможностей AI агентов инструментами семантического анализа кода, использующими AST, LSP и другие структурные представления кодовой базы. Подход позволяет агентам выполнять навигацию, поиск зависимостей, рефакторинг и изменение кода на уровне структуры программы, что снижает количество ошибок, уменьшает потребление токенов и повышает точность работы AI при анализе и модификации кода;
- Context graph. Практика представления знаний, при которой решения, политики, исключения, прецеденты, обоснования и результаты моделируются как связанные узлы графа в машиночитаемой структуре, пригодной для использования AI системами. Подход позволяет формализовать знание и логику принятия решений в организации, обеспечивая AI агентам доступ к контексту причин, взаимосвязей и исторических прецедентов для более точных рассуждений и принятия решений;
- Feedback flywheel. Практика непрерывного улучшения AI workflow и Coding agent harness на основе систематического анализа результатов взаимодействия с агентами. Подход предполагает регулярный сбор обратной связи о качестве работы AI агентов и использование этих данных для итеративного улучшения инструкций, ограничений и других элементов AI workflow, повышая предсказуемость и эффективность использования AI в разработке;
- HTML Tools. Подход к упаковке и распространению небольших утилит и вспомогательных инструментов в виде самостоятельных HTML файлов, которые могут запускаться напрямую в браузере без отдельного деплоя или установки. Подход упрощает доставку легковесных инструментов, снижает накладные расходы на распространение и обеспечивает простой способ публикации и совместного использования небольших утилит внутри команд или организаций;
- LLM evaluation using semantic entropy. Подход к оценке надежности ответов языковых моделей через анализ семантической энтропии, измеряющей степень неопределенности модели на уровне смысла, а не только текстовых различий между вариантами ответа. Подход позволяет эффективнее выявлять потенциальные проблемы, оценивать уверенность модели в своих ответах и повышать надежность AI систем в ответах и генерации знаний;
- Measuring collaboration quality with coding agents. Подход к оценке эффективности взаимодействия инженеров и AI агентов через метрики качества совместной работы, а не только скорости генерации кода. Подход предполагает анализ таких показателей, как First-pass acceptance rate, количество итераций на задачу, Post-merge rework, Failed builds и Review burden, позволяя оценивать реальное качество Human-Agent collaboration и зрелость использования AI в инженерных процессах;
- MITRE ATLAS. Специализированная база знаний и фреймворк классификации угроз безопасности для AI и ML систем, описывающий тактики и техники атак на модели, AI приложения, ML pipelines и Agentic системы. Подход помогает организациям систематизировать угрозы AI безопасности, улучшать моделирование угроз и формировать единый язык для анализа и управления рисками в области защиты AI решений;
- Ralph loop. Практика организации автономной работы AI агента, при которой агент циклически выполняет задачи по спецификации в повторяющихся итерациях с полным сбросом контекста между запусками. Подход позволяет избегать деградации качества из-за накопления контекста, обеспечивать постепенное приближение кодовой базы к целевой спецификации и реализовывать автономную многошаговую разработку без сложной оркестрации нескольких агентов;
- Reverse engineering for design system. Подход к автоматическому восстановлению и формализации дизайн системы на основе анализа существующих интерфейсов, визуальных артефактов и UI компонентов с использованием Multimodal AI моделей. Подход позволяет выявлять паттерны интерфейсов и формировать структурированное представление дизайн системы, ускоряя стандартизацию интерфейсов и создание поддерживаемых библиотек;
- Role-based contextual isolation in RAG. Архитектурный подход к управлению доступом в RAG системах, при котором ограничения прав доступа применяются на уровне слоя извлечения данных через фильтрацию контекста по ролям пользователя до передачи данных модели. Подход обеспечивает изоляцию контекста на основе ролевой модели доступа, предотвращает попадание неавторизованных данных в AI модель и формирует Zero trust основу для безопасного использования корпоративных баз знаний в AI системах;
- Skills as executable onboarding documentation. Подход к использованию Agent Skills в качестве исполняемой onboarding документации, совмещающей инструкции, автоматизацию и AI-assisted guidance для адаптации разработчиков и команд. Подход позволяет превращать статическую документацию, setup гайды и onboarding материалы в интерактивные AI сценарии, снижая порог входа в новые кодовые базы, платформы, API и внутренние инструменты;
- Small language models. Компактные языковые модели, оптимизированные для снижения стоимости инференса, задержек и требований к вычислительным ресурсам при сохранении достаточного качества для ряда прикладных задач. Подход позволяет использовать более экономичные модели для сценариев, где возможности крупных LLM избыточны, суммаризацию, генерацию простого кода, автоматизацию AI сценариев и запуск моделей на периферийных устройствах;
- Team of coding agents. Подход к организации совместной работы нескольких специализированных AI агентов при выполнении задач разработки, где отдельные агенты отвечают за разные роли или части системы, а координирующий агент управляет их взаимодействием и оркестрацией работы. Подход позволяет распределять задачи между агентами по специализациям, повышать эффективность выполнения сложных многоэтапных задач и масштабировать применение AI;
- Temporal fakes. Практика создания высокоточных симуляторов внешних систем и зависимостей, моделирующих не только ответы интерфейсов, но и изменение состояния системы во времени. В отличие от статических moc объектов, Temporal fakes воспроизводят временную динамику и поведение реальных систем, что позволяет реалистично тестировать сложные сценарии взаимодействия и отказов в распределенных и инфраструктурных системах;
- Toxic flow analysis for AI. Практика анализа потоков данных и взаимодействий в AI/Agentic системах для выявления небезопасных маршрутов передачи данных, потенциальных векторов атак и сценариев компрометации безопасности. Позволяет обнаруживать уязвимости, связанные с инъекцией промптов, утечкой данных и небезопасным взаимодействием агентов с внешними системами, еще на этапе проектирования и аудита AI решений;
- Vision language models for end-to-end document parsing. Подход использования мультимодальных Vision language моделей для сквозного разбора документов без многоэтапных OCR pipeline. Подход позволяет обрабатывать структуру, содержимое, визуальную компоновку и сложные элементы документов в рамках единой модели, упрощая архитектуру Document processing систем и повышая качество обработки сложных макетов, таблиц и математических формул.
Практики в статусе Caution:
- Agent instruction bloat. Антипаттерн избыточного накопления инструкций, правил и контекста для AI агентов, при котором чрезмерный объем ухудшает качество работы модели, снижает внимание к важным инструкциям и повышает вероятность игнорирования критически значимых правил. Проблема требует осознанного управления объемом инструкций, их регулярного упрощения и применения практик Selective loading и Progressive context disclosure;
- AI-accelerated shadow IT. Риск неконтролируемого роста теневых IT решений, ускоренного использованием AI инструментов, когда сотрудники вне инженерных команд самостоятельно создают автоматизации, процессы и внутренние приложения без необходимого уровня архитектурного и операционного контроля и управления. Явление повышает риски фрагментации решений, дублирования функциональности, накопления технического долга и появления неуправляемых систем вне формальных процессов организаци;
- Codebase cognitive debt. Накопление разрыва между фактической реализацией системы и коллективным пониманием того, как и почему эта система устроена и работает. Проблема возникает при росте скорости изменений, когда кодовая база эволюционирует быстрее, чем команда успевает формировать и поддерживать ментальные модели ее архитектуры, логики и взаимосвязей. Накопление такого когнитивного долга усложняет сопровождение системы, повышает риск ошибок и снижает способность команды эффективно развивать и контролировать кодовую базу;
- Coding agent swarms. Подход к массовому параллельному использованию большого количества AI агентов для совместного выполнения задач разработки с динамической оркестрацией их ролей и состава. Несмотря на высокий потенциал масштабирования, данный подход пока остается дорогим, технически сложным и недостаточно зрелым, требует развитых механизмов координации и контроля качества, поэтому его применение связано с существенными рисками;
- Coding throughput as a measure of productivity. Антипаттерн оценки инженерной продуктивности по метрикам AI generated output, таким как количество строк кода, Pull Requests или иных показателей скорости генерации. Использование подобных метрик в отрыве от качества и поставки ценности искажает поведение команд, стимулирует рост низкокачественного кода и не отражает реальную эффективность инженерной деятельности. Более релевантной является оценка влияния AI на качество поставки, устойчивость систем и итоговые результаты Delivery процесса.
- Ignoring durability in agent workflows. Антипаттерн проектирования AI/Agentic процессов без учета требований к устойчивости, восстановлению после сбоев и сохранению состояния долгоживущих процессов. Отсутствие Durable Execution приводит к ненадежной работе агентов, потере прогресса при ошибках и росту операционных рисков;
- MCP by default. Антипаттерн использования Model Context Protocol в качестве стандартного слоя интеграции между AI агентами и внешними системами без оценки необходимости такого уровня абстракции. Несмотря на преимущества MCP для стандартизации интеграций, его неоправданное применение увеличивает архитектурную сложность и может ухудшать точность взаимодействия агентов с внешними API. Использование MCP должно быть осознанным архитектурным выбором, а не дефолтным решением;
- Pixel-streamed development environments. Подход к организации среды разработки через удаленные VDI/Desktop окружения с потоковой передачей изображения рабочего стола вместо локального выполнения инструментов разработки или Code-centric remote environments. Несмотря на преимущества в стандартизации и централизованном контроле, такой подход часто приводит к росту задержек, ухудшению Developer Experience и снижению продуктивности инженеров, поэтому его использование должно быть оправдано требованиями безопасности или регуляторики.
Подробнее про практики, платформы и инструменты читайте в 34-м выпуске технологического радара на
сайте Thoughtworks и
в текстовом отчете.