Podlodka #446 -- AI-агенты и безопасность
В этом выпуске обсуждаем безопасность AI-агентов: как происходят атаки через tool-calling и промпт-инъекции, и какие угрозы несут недобросовестные тулы и галлюцинации моделей. Разбираемся, что такое MCP-сервера, «USB-C для LLM» и почему одна невинная команда может привести к взлому или утечке.

В гостях Ильдар Исхаков – основатель компании по безопасности AI-агентов и фанат опенсорса. Ильдар рассказал о концепции «летальной триады» и о том, как сохранить баланс между функциональностью и безопасностью с помощью readonly-режимов, guardrails и паттернов вроде CAMEL.
Слушать выпуск
Полезные ссылки:

  • Archestra.AI
https://archestra.ai

  • Блог Simon Willison
https://simonwillison.net/2025/Sep/18/agents/

  • Статья “Why AI systems may never be secure, and what to do about it”
https://www.economist.com/science-and-technology/2025/09/22/why-ai-systems-may-never-be-secure-and-what-to-do-about-it

  • Статья “Anthropic: How we built our multi-agent research system”
https://simonwillison.net/2025/Jun/14/multi-agent-research-system/

  • Статья “An Introduction to Google’s Approach to AI Agent Security”
https://simonwillison.net/2025/Jun/15/ai-agent-security/

  • Google's Approach for Secure AI Agents
https://research.google/pubs/an-introduction-to-googles-approach-for-secure-ai-agents/

  • Статья “Design Patterns for Securing LLM Agents against Prompt Injections”
https://simonwillison.net/2025/Jun/13/prompt-injection-design-patterns/

  • Код для статьи "Defeating Prompt Injections by Design"
https://github.com/google-research/camel-prompt-injection

  • Статья “CaMeL offers a promising new direction for mitigating prompt injection attacks“
https://simonwillison.net/2025/Apr/11/camel/

Похожие выпуски