Как работает TIA Portal
AI Copilot
Прозрачный взгляд на архитектуру AI-ассистента T-IA Connect. Поймите, как ваши сообщения превращаются в действия в TIA Portal через интеллектуальный выбор инструментов и оркестрацию LLM.
Обзор
Copilot в T-IA Connect — это интегрированный AI-ассистент, который управляет TIA Portal через инструменты (function calling). Вы отправляете сообщение на естественном языке, LLM решает, какие инструменты вызвать, а T-IA Connect выполняет соответствующие действия в TIA Portal.
Весь процесс запускается локально на вашем компьютере. Ваши API ключи шифруются с помощью Windows DPAPI, никогда не логируются и не передаются третьим лицам. T-IA Connect связывается с LLM провайдерами напрямую без прокси или ретрансляционных серверов.
Поток данных
Пользователь
Отправляет сообщение на естественном языке
T-IA Connect
Формирует контекст, выбирает инструменты, вызывает LLM
LLM провайдер
Анализирует и возвращает вызовы инструментов
TIA Portal
Выполняет действия через Openness API
Поддерживаемые LLM провайдеры
T-IA Connect не зависит от провайдера. Используйте свой собственный API ключ и выбирайте предпочтительного провайдера.
| Провайдер | Модель по умолчанию | Аутентификация |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | заголовок x-api-key |
| Gemini (Google) | gemini-1.5-flash | API key в запросе |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM и т.д. | Опциональный bearer token |
Безопасность API ключей
- ✓Ключи хранятся локально, зашифрованы через Windows DPAPI
- ✓Прямое соединение с провайдерами, без прокси или ретрансляции
- ✓Ключи никогда не логируются и не передаются третьим лицам
- ✓Поддержка пользовательских эндпоинтов (Azure OpenAI, корпоративные прокси)
Умный выбор инструментов
При наличии около 400 доступных инструментов отправка их всех при каждом запросе была бы затратной и контрпродуктивной. T-IA Connect решает эту проблему с помощью контекстного выбора категорий.
Проблема
- ⚠Каждое определение инструмента потребляет около 50 входных токенов
- ⚠Некоторые провайдеры ограничивают количество инструментов до 128 максимум (OpenAI)
- ⚠Слишком много инструментов может запутать LLM
Решение: контекстные категории
T-IA Connect анализирует ваше сообщение и активирует только релевантные категории инструментов.
Всегда включены
Ядро (около 34 инструментов): управление проектами, устройства, экспорт/импорт
Знания (около 21 инструмента): документация, советы, анализ, память
| Категория | Инструменты | Ключевые слова-триггеры |
|---|---|---|
| Блоки | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Теги | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Оборудование | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Симуляция | ~23 | plcsim, simul, runtime, power_on, instance... |
| Безопасность | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Онлайн | ~10 | online, offline, download, upload, go_online... |
| Продвинутое | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Инфраструктура | ~54 | report, vcs, git, test, library, codesys... |
Конкретные примеры
"Создать FB Motor"
core + knowledge + blocks
около 86 инструментов
"Настроить PLCSim"
core + knowledge + simulation
около 78 инструментов
"Добавить экран HMI"
core + knowledge + hmi
около 106 инструментов
Закрепленный контекст
Если ваше сообщение не содержит ключевых слов (например, «да», «продолжить», «сделай это»), T-IA Connect повторно использует категории из предыдущего сообщения. Это обеспечивает естественное общение без потери контекста.
Цикл выполнения
Copilot работает циклично: LLM может последовательно вызывать несколько инструментов перед ответом пользователю.
Защита от бесконечных циклов
| Защита | Порог | Поведение |
|---|---|---|
| Идентичные последовательные вызовы | 2 | Останавливает цикл |
| Последовательные сбои (один инструмент) | 3 | Останавливает цикл |
| Макс. абсолютных итераций | 200 | Предохранитель |
| Повторные попытки при ошибке LLM | 2 | Затем отказ |
| Повторные попытки при пустом ответе | 3 | Затем отказ |
Потребление токенов
Поймите, что потребляет токены и как T-IA Connect оптимизирует затраты.
| Компонент | Оценочное кол-во токенов | Частота |
|---|---|---|
| Системный промпт (инструкции) | ~2,000-3,000 | Каждое сообщение |
| Контекст проекта (устройства, блоки) | ~500-2,000 | Каждое сообщение |
| Определения инструментов (макс. 128) | ~5,000-8,000 | Каждое сообщение |
| История переписки | ~1,000-10,000 | Растущая |
| Сообщение пользователя | ~50-500 | Каждое сообщение |
| Типичный общий вход | ~10,000-20,000 | За сообщение |
| Ответ LLM | ~200-2,000 | За сообщение |
Оценка стоимости
Для типичного сообщения с GPT-4o (цены OpenAI, апрель 2026):
Полный обмен с использованием tool calling (2-3 итерации LLM) стоит примерно $0.10-0.15.
Автоматические оптимизации
- Контекстный выбор: отправляются только релевантные инструменты (а не все 400)
- Авто-сжатие: когда история превышает ~200,000 символов, старые сообщения автоматически резюмируются
- Ограниченная история: в контексте сохраняется не более 20 сообщений и 32,000 символов
- Лимит 128 инструментов: ограничивает фиксированную стоимость определений инструментов
Мультимодальная поддержка
Copilot может обрабатывать изображения и PDF документы наряду с текстом.
Изображения
Изображения, отправленные в Copilot, передаются в LLM в формате base64 (формат vision). Полезно для анализа скриншотов программ, выявления визуальных ошибок или описания схем.
PDF (Спецификации дизайна)
PDF файлы обрабатываются через систему CDC (Custom Design Companion): извлечение текста, разбиение на чанки (1,500 символов с перекрытием 200), внедрение оглавления в промпт и доступ к чанкам по запросу через специальные инструменты. Это позволяет избежать отправки всего PDF в контекст.
Автономный режим
Автономный режим позволяет Copilot выполнять последовательности действий без подтверждения пользователя.
| Аспект | Интерактивный | Автономный |
|---|---|---|
| Подтверждения | Требуются перед деструктивными действиями | Пропускаются |
| Системный промпт | Полный (правила, форматирование, интерактив) | Компактный (правила, область действия) |
| Обнаружение ранней остановки | Нет | Да (макс. 3 попытки) |
Ограничение частоты запросов
T-IA Connect применяет отдельные квоты для каждого канала доступа.
Бесплатные инструменты (не учитываются)
Инструменты только для чтения не потребляют квоту: list_*, get_documentation, get_llm_tips, инструменты обнаружения и статуса.
Связь в реальном времени
Copilot использует SignalR для оперативных обновлений во время выполнения.
onAssistantResponseОтображение в чатеonToolExecutionИндикатор «Думает...»onTokenUsageСчетчик токеновonStatusUpdated«Отправка в Claude...»Совместимые модели
Подробная совместимость по провайдерам.
OpenAI
Рекомендуется: gpt-4o, gpt-4o-mini, gpt-4-turbo
Несовместимы: o1, o3-mini (используют Responses API, а не Chat Completions)
Claude (Anthropic)
Рекомендуется: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Все модели Claude совместимы
Gemini (Google)
Рекомендуется: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
Автофильтр исключает модели, не предназначенные для чата (embedding, vision-only)
Groq
Рекомендуется: llama-3.3-70b-versatile, mixtral-8x7b
Примечание: бесплатного уровня может быть недостаточно для 128 инструментов
Пользовательские (Ollama, vLLM)
Любая модель, поддерживающая function calling в формате OpenAI
Автоматическое обнаружение «поддельных вызовов инструментов» (модели, возвращающие JSON как текст)
Dual Model Routing
Для пользовательских провайдеров T-IA Connect поддерживает две модели: модель рассуждения для анализа/планирования и модель кода для генерации SCL/LAD. Переключение происходит автоматически в зависимости от типа выполняемого инструмента.
Ключевые показатели
Часто задаваемые вопросы
Отправляет ли T-IA Connect мой код PLC в облако?
Только когда вы используете облачного LLM провайдера (OpenAI, Claude, Gemini). Ваши сообщения и контекст проекта отправляются выбранному вами провайдеру. Для максимальной конфиденциальности используйте Ollama с локальной моделью, и тогда ничто не покинет ваш компьютер.
Сколько стоит AI за одно сообщение?
С GPT-4o типичное сообщение стоит около $0.04, а полный обмен с вызовом инструментов стоит $0.10-0.15. Вы платите LLM провайдеру напрямую, используя свой собственный API ключ.
Может ли Copilot повредить мой проект TIA Portal?
В интерактивном режиме Copilot запрашивает подтверждение перед деструктивными действиями. Защита от циклов предотвращает неконтролируемое выполнение инструментов. Вы также можете остановить выполнение в любой момент.
Какую модель LLM мне выбрать?
Для достижения наилучших результатов используйте GPT-4o или Claude Sonnet. Для экономного использования GPT-4o-mini или Gemini Flash хорошо подходят для простых задач. Для полной конфиденциальности используйте Ollama с локальной моделью, такой как Llama 3.
Связанные страницы
AI-ассистент для TIA Portal
Узнайте о всех возможностях интегрированного AI-ассистента.
Read moreГенерация кода PLC с помощью AI
Узнайте, как AI генерирует код SCL, LAD и STL для контроллеров Siemens.
Read moreMCP сервер для TIA Portal
Используйте T-IA Connect как MCP сервер с Claude Desktop или Cursor.
Read morevs Siemens Industrial Copilot
Сравните T-IA Connect с официальным AI-решением от Siemens.
Read more