Podlodka #452 -- Архитектура LLM-приложений
Продолжаем погружение с Владиславом Танковым! С устройством LLM мы уже разобрались, а теперь пора разобраться, гонять ли инференс локально или в облаке, какие модели брать, и во что можно упереться при масштабировании своего сервиса на LLM!
Слушать выпуск
Похожие выпуски