B2B Engineering Insights & Architectural Teardowns

ThecoreGrid Radar: автономные AI-инженеры, streaming-first data и сдвиг к platform ownership

Новый выпуск ThecoreGrid Radar: дайджест архитектурных инсайтов недели. Технологический сдвиг в сторону автономных AI-инженеров позволяет полностью автоматизировать кодинг, эксперименты с ML и обеспечение безопасности кода.

Утечка через CMS и новый класс моделей: как Anthropic столкнулась с двойным риском

Черновые материалы о новом AI-моделе оказались в публичном доступе из-за ошибки конфигурации CMS. Инцидент одновременно подсветил две вещи: хрупкость контентных пайплайнов и рост рисков от самих моделей.

ARC-AGI: как измерять интеллект через способность к обучению, а не через накопленные навыки

Большинство AI-бенчмарков оценивают результат. ARC-AGI смещает фокус на процесс — насколько эффективно система учится новому. Проблема проявляется на уровне метрик. Современные системы демонстрируют высокий уровень автоматизации, но это часто следствие масштабирования данных и вычислений, а не роста обобщающей способности (generalization). Навык (skill) становится функцией объёма обучающих данных. При достаточных priors разработчик фактически «покупает» производительность. В … Читать далее

Снижение трения в agentic AI: локальная валидация и изолированные окружения в AWS

AI-агенты упираются не в модели, а в архитектуру. Если обратная связь медленная, автономность не работает. Проблема проявляется в момент, когда AI-агент пытается замкнуть цикл «сгенерировал → проверил → исправил». В типичных облачных системах этот цикл растягивается: деплой занимает минуты, тесты зависят от провижининга ресурсов, ошибки проявляются только в облаке. Плотная связка бизнес-логики с сервисами AWS … Читать далее

Автоматизация спецификаций дизайн-системы: Uber устранил дрейф документации через AI-агентов

Когда спецификации компонентов отстают от реализации, команда начинает строить систему на предположениях. В Uber это превратилось в системную проблему масштаба и решилось через агентную автоматизацию. Проблема проявляется не в момент написания спецификаций, а позже — когда система начинает эволюционировать быстрее, чем документация. В Uber Base дизайн-система обслуживает сотни компонентов, каждый из которых реализуется в семи … Читать далее

Унификация API и AI-трафика через единый control plane: разбор подхода Higress

Higress входит в CNCF Sandbox как API gateway с заявкой на объединение нескольких слоёв трафика. Ключевой вопрос — снижает ли это сложность или просто переносит её в другое место. Системы начинают деградировать в момент, когда слой управления трафиком фрагментируется. Отдельно живут ingress, отдельно — gateway для микросервисов, отдельно — решения для AI workload. Каждый слой … Читать далее

AI ускоряет код, но замедляет поставку: смещение bottleneck в спецификацию и верификацию

Рост продуктивности разработчиков не привёл к сопоставимому ускорению релизов. Причина — узкое место переместилось выше по стеку: в область формализации требований и проверки результата. С появлением AI-кодинга команды ожидали линейного ускорения delivery. На практике ускорился только один этап — написание кода. Дальше система начинает деградировать: растёт очередь на ревью, увеличивается время согласования, усложняется проверка корректности. … Читать далее

Kubernetes и stateful inference: llm-d решает проблему маршрутизации и кэширования LLM-нагрузок

С ростом продакшен-нагрузок LLM становится ясно: классические механизмы Kubernetes не понимают природу inference. llm-d — это попытка закрыть этот разрыв на уровне платформы. Главное ограничение проявляется, когда inference выходит за пределы «статeless HTTP-сервиса». Запросы к LLM имеют разную стоимость: длина prompt, фаза генерации, попадание в KV-кэш. В Kubernetes это всё выглядит как одинаковые запросы. В … Читать далее

LLM-нагрузка без слепых зон: как вынести observability в слой маршрутизации через OpenRouter и Grafa…

Когда LLM становится частью продакшн-инфраструктуры, классического мониторинга уже недостаточно. Узким местом становится не код приложения, а слой маршрутизации и выбора моделей — и именно там нужна наблюдаемость. В cах деградация начинается не с падения HTTP-эндпоинтов, а с накопления неочевидных эффектов: рост латентности на отдельных моделях, скачки стоимости из-за маршрутизации, таймауты конкретных промптов, rate limits у … Читать далее

×

🚀 Deploy the Blocks

Controls: ← → to move, ↑ to rotate, ↓ to drop.
Mobile: use buttons below.