
Александр Нозик
Центр Научного Програмирования
Разработка AI-агентов сегодня — задача уже классическая. Это не только прописанные промпты, но и обвязка с подходящим стеком — многие решения здесь ставят на интеграцию с OpenAI API и его производными. Однако внедрение российских LLM в контур имеет свои особенности, ведь поддержка проприетарных моделей (GigaChat) и требований безопасности (mTLS) не интегрирована в популярные библиотеки.
Мы покажем, как построить приложение для автоматизации написания тестов на стеке Kotlin Multiplatform, Compose и агентного фреймворка Koog, решив обозначенные проблемы. Мы прошли путь от использования моделей на OpenRouter, неудобного Python-прокси к локальной LLM для трансляции запросов, до полноценной нативной интеграции.
Разберем архитектурные детали адаптации GigaChat Java SDK под абстракции Koog (PromptExecutor), реализацию стриминга ответов и маппинга инструментов (Tool Calling). Покажем, как настроить HTTP-клиент (Ktor/Java HttpClient) для работы с mTLS и кастомными хранилищами сертификатов.
В финале продемонстрируем, что получилось по итогу с UI на Compose! Доклад будет полезен Java/Kotlin-разработчикам, которые хотят внедрить LLM в свои проекты, не выходя за пределы JVM-стека и требований корпоративной безопасности.

Центр Научного Програмирования