Техническая документация

Как работает TIA Portal
AI Copilot

Прозрачный взгляд на архитектуру AI-ассистента T-IA Connect. Поймите, как ваши сообщения превращаются в действия в TIA Portal через интеллектуальный выбор инструментов и оркестрацию LLM.

Обзор

Copilot в T-IA Connect — это интегрированный AI-ассистент, который управляет TIA Portal через инструменты (function calling). Вы отправляете сообщение на естественном языке, LLM решает, какие инструменты вызвать, а T-IA Connect выполняет соответствующие действия в TIA Portal.

Весь процесс запускается локально на вашем компьютере. Ваши API ключи шифруются с помощью Windows DPAPI, никогда не логируются и не передаются третьим лицам. T-IA Connect связывается с LLM провайдерами напрямую без прокси или ретрансляционных серверов.

Поток данных

Пользователь

Отправляет сообщение на естественном языке

T-IA Connect

Формирует контекст, выбирает инструменты, вызывает LLM

LLM провайдер

Анализирует и возвращает вызовы инструментов

TIA Portal

Выполняет действия через Openness API

User >Создать FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB успешно создан

Поддерживаемые LLM провайдеры

T-IA Connect не зависит от провайдера. Используйте свой собственный API ключ и выбирайте предпочтительного провайдера.

ПровайдерМодель по умолчаниюАутентификация
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514заголовок x-api-key
Gemini (Google)gemini-1.5-flashAPI key в запросе
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM и т.д.Опциональный bearer token

Безопасность API ключей

  • Ключи хранятся локально, зашифрованы через Windows DPAPI
  • Прямое соединение с провайдерами, без прокси или ретрансляции
  • Ключи никогда не логируются и не передаются третьим лицам
  • Поддержка пользовательских эндпоинтов (Azure OpenAI, корпоративные прокси)

Умный выбор инструментов

При наличии около 400 доступных инструментов отправка их всех при каждом запросе была бы затратной и контрпродуктивной. T-IA Connect решает эту проблему с помощью контекстного выбора категорий.

Проблема

  • Каждое определение инструмента потребляет около 50 входных токенов
  • Некоторые провайдеры ограничивают количество инструментов до 128 максимум (OpenAI)
  • Слишком много инструментов может запутать LLM

Решение: контекстные категории

T-IA Connect анализирует ваше сообщение и активирует только релевантные категории инструментов.

Всегда включены

Ядро (около 34 инструментов): управление проектами, устройства, экспорт/импорт

Знания (около 21 инструмента): документация, советы, анализ, память

КатегорияИнструментыКлючевые слова-триггеры
Блоки~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Теги~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Оборудование~24hardware, module, rack, cpu, slot, profinet, gsd...
Симуляция~23plcsim, simul, runtime, power_on, instance...
Безопасность~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Онлайн~10online, offline, download, upload, go_online...
Продвинутое~66fds, graph, sfc, safety, blueprint, motion, alarm...
Инфраструктура~54report, vcs, git, test, library, codesys...

Конкретные примеры

"Создать FB Motor"

core + knowledge + blocks

около 86 инструментов

"Настроить PLCSim"

core + knowledge + simulation

около 78 инструментов

"Добавить экран HMI"

core + knowledge + hmi

около 106 инструментов

Закрепленный контекст

Если ваше сообщение не содержит ключевых слов (например, «да», «продолжить», «сделай это»), T-IA Connect повторно использует категории из предыдущего сообщения. Это обеспечивает естественное общение без потери контекста.

Цикл выполнения

Copilot работает циклично: LLM может последовательно вызывать несколько инструментов перед ответом пользователю.

Отправка сообщения + контекста в LLM
LLM возвращает ответ
Обнаружены вызовы инструментов?
Да
Выполнение инструментов в TIA Portal
Отправка результатов обратно в LLM
Нет
Финальный ответ пользователю

Защита от бесконечных циклов

ЗащитаПорогПоведение
Идентичные последовательные вызовы2Останавливает цикл
Последовательные сбои (один инструмент)3Останавливает цикл
Макс. абсолютных итераций200Предохранитель
Повторные попытки при ошибке LLM2Затем отказ
Повторные попытки при пустом ответе3Затем отказ

Потребление токенов

Поймите, что потребляет токены и как T-IA Connect оптимизирует затраты.

КомпонентОценочное кол-во токеновЧастота
Системный промпт (инструкции)~2,000-3,000Каждое сообщение
Контекст проекта (устройства, блоки)~500-2,000Каждое сообщение
Определения инструментов (макс. 128)~5,000-8,000Каждое сообщение
История переписки~1,000-10,000Растущая
Сообщение пользователя~50-500Каждое сообщение
Типичный общий вход~10,000-20,000За сообщение
Ответ LLM~200-2,000За сообщение

Оценка стоимости

Для типичного сообщения с GPT-4o (цены OpenAI, апрель 2026):

Вход: ~15,000 токенов x $2.50/1M =~$0.037
Выход: ~500 токенов x $10/1M =~$0.005
Итого за сообщение:~$0.04

Полный обмен с использованием tool calling (2-3 итерации LLM) стоит примерно $0.10-0.15.

Автоматические оптимизации

  • Контекстный выбор: отправляются только релевантные инструменты (а не все 400)
  • Авто-сжатие: когда история превышает ~200,000 символов, старые сообщения автоматически резюмируются
  • Ограниченная история: в контексте сохраняется не более 20 сообщений и 32,000 символов
  • Лимит 128 инструментов: ограничивает фиксированную стоимость определений инструментов

Мультимодальная поддержка

Copilot может обрабатывать изображения и PDF документы наряду с текстом.

Изображения

Изображения, отправленные в Copilot, передаются в LLM в формате base64 (формат vision). Полезно для анализа скриншотов программ, выявления визуальных ошибок или описания схем.

PDF (Спецификации дизайна)

PDF файлы обрабатываются через систему CDC (Custom Design Companion): извлечение текста, разбиение на чанки (1,500 символов с перекрытием 200), внедрение оглавления в промпт и доступ к чанкам по запросу через специальные инструменты. Это позволяет избежать отправки всего PDF в контекст.

Автономный режим

Автономный режим позволяет Copilot выполнять последовательности действий без подтверждения пользователя.

АспектИнтерактивныйАвтономный
ПодтвержденияТребуются перед деструктивными действиямиПропускаются
Системный промптПолный (правила, форматирование, интерактив)Компактный (правила, область действия)
Обнаружение ранней остановкиНетДа (макс. 3 попытки)

Ограничение частоты запросов

T-IA Connect применяет отдельные квоты для каждого канала доступа.

apiПрямые вызовы REST API
mcpИнструменты MCP (Claude Desktop и т.д.)
copilotИнтегрированный ассистент

Бесплатные инструменты (не учитываются)

Инструменты только для чтения не потребляют квоту: list_*, get_documentation, get_llm_tips, инструменты обнаружения и статуса.

Связь в реальном времени

Copilot использует SignalR для оперативных обновлений во время выполнения.

onAssistantResponseОтображение в чате
onToolExecutionИндикатор «Думает...»
onTokenUsageСчетчик токенов
onStatusUpdated«Отправка в Claude...»

Совместимые модели

Подробная совместимость по провайдерам.

OpenAI

Рекомендуется: gpt-4o, gpt-4o-mini, gpt-4-turbo

Несовместимы: o1, o3-mini (используют Responses API, а не Chat Completions)

Claude (Anthropic)

Рекомендуется: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Все модели Claude совместимы

Gemini (Google)

Рекомендуется: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Автофильтр исключает модели, не предназначенные для чата (embedding, vision-only)

Groq

Рекомендуется: llama-3.3-70b-versatile, mixtral-8x7b

Примечание: бесплатного уровня может быть недостаточно для 128 инструментов

Пользовательские (Ollama, vLLM)

Любая модель, поддерживающая function calling в формате OpenAI

Автоматическое обнаружение «поддельных вызовов инструментов» (модели, возвращающие JSON как текст)

Dual Model Routing

Для пользовательских провайдеров T-IA Connect поддерживает две модели: модель рассуждения для анализа/планирования и модель кода для генерации SCL/LAD. Переключение происходит автоматически в зависимости от типа выполняемого инструмента.

Ключевые показатели

~400
Всего инструментов
128
Инструментов за запрос (макс)
5 (+ пользовательские)
Поддерживаемые провайдеры
13
Категории инструментов
90 секунд
Тайм-аут HTTP
20 сообщений / 32,000 симв.
История в контексте
~$0.04
Оценочная стоимость за сообщение (GPT-4o)
~$0.10-0.15
Оценочная стоимость за полный обмен

Часто задаваемые вопросы

Отправляет ли T-IA Connect мой код PLC в облако?

Только когда вы используете облачного LLM провайдера (OpenAI, Claude, Gemini). Ваши сообщения и контекст проекта отправляются выбранному вами провайдеру. Для максимальной конфиденциальности используйте Ollama с локальной моделью, и тогда ничто не покинет ваш компьютер.

Сколько стоит AI за одно сообщение?

С GPT-4o типичное сообщение стоит около $0.04, а полный обмен с вызовом инструментов стоит $0.10-0.15. Вы платите LLM провайдеру напрямую, используя свой собственный API ключ.

Может ли Copilot повредить мой проект TIA Portal?

В интерактивном режиме Copilot запрашивает подтверждение перед деструктивными действиями. Защита от циклов предотвращает неконтролируемое выполнение инструментов. Вы также можете остановить выполнение в любой момент.

Какую модель LLM мне выбрать?

Для достижения наилучших результатов используйте GPT-4o или Claude Sonnet. Для экономного использования GPT-4o-mini или Gemini Flash хорошо подходят для простых задач. Для полной конфиденциальности используйте Ollama с локальной моделью, такой как Llama 3.

Связанные страницы

Готовы попробовать Copilot?

Скачайте T-IA Connect и начните генерировать код PLC с помощью AI уже сегодня.