Documentação Técnica

Como o TIA Portal
AI Copilot Funciona

Uma visão transparente da arquitetura por trás do assistente de IA do T-IA Connect. Entenda como suas mensagens se tornam ações no TIA Portal através da seleção inteligente de ferramentas e orquestração de LLM.

Visão Geral

O T-IA Connect Copilot é um assistente de IA integrado que controla o TIA Portal via ferramentas (function calling). Você envia uma mensagem em linguagem natural, o LLM decide quais ferramentas chamar e o T-IA Connect executa as ações correspondentes no TIA Portal.

Todo o processo roda localmente em sua máquina. Suas chaves de API são criptografadas via Windows DPAPI, nunca registradas e nunca transmitidas a terceiros. O T-IA Connect contata os provedores de LLM diretamente, sem servidor proxy ou relay.

Fluxo de Dados

Usuário

Envia uma mensagem em linguagem natural

T-IA Connect

Constrói o contexto, seleciona ferramentas, chama o LLM

Provedor de LLM

Analisa e retorna chamadas de ferramentas

TIA Portal

Executa ações via Openness API

User >Criar um FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB criado com sucesso

Provedores de LLM Suportados

O T-IA Connect é agnóstico em relação ao provedor. Traga sua própria chave de API e escolha seu provedor preferido.

ProvedorModelo PadrãoAutenticação
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key header
Gemini (Google)gemini-1.5-flashAPI key na query
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM, etc.bearer token opcional

Segurança da Chave de API

  • Chaves armazenadas localmente, criptografadas via Windows DPAPI
  • Conexão direta com provedores, sem proxy ou relay
  • Chaves nunca são registradas ou transmitidas a terceiros
  • Endpoints personalizados suportados (Azure OpenAI, proxies empresariais)

Seleção Inteligente de Ferramentas

Com ~400 ferramentas disponíveis, enviar todas elas em cada requisição seria caro e contraproducente. O T-IA Connect resolve isso com seleção de categoria contextual.

O Desafio

  • Cada definição de ferramenta consome ~50 tokens de entrada
  • Alguns provedores limitam as ferramentas a 128 no máximo (OpenAI)
  • Muitas ferramentas podem confundir o LLM

A Solução: Categorias Contextuais

O T-IA Connect analisa sua mensagem e ativa apenas as categorias de ferramentas relevantes.

Sempre Incluído

Core (~34 ferramentas): gestão de projetos, dispositivos, exportação/importação

Conhecimento (~21 ferramentas): documentação, dicas, análise, memória

CategoriaFerramentasPalavras-chave de Gatilho
Blocos~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Tags~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Hardware~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulação~23plcsim, simul, runtime, power_on, instance...
Segurança~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Avançado~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infraestrutura~54report, vcs, git, test, library, codesys...

Exemplos Concretos

"Criar um FB Motor"

core + knowledge + blocks

~86 ferramentas

"Configurar PLCSim"

core + knowledge + simulation

~78 ferramentas

"Adicionar uma tela HMI"

core + knowledge + hmi

~106 ferramentas

Contexto Persistente (Sticky Context)

Se sua mensagem não contiver palavras-chave (ex: "sim", "continuar", "faça isso"), o T-IA Connect reutiliza as categorias da mensagem anterior. Isso permite conversas naturais sem perda de contexto.

Loop de Execução

O Copilot funciona em loop: o LLM pode chamar múltiplas ferramentas sucessivamente antes de responder ao usuário.

Enviar mensagem + contexto ao LLM
LLM retorna resposta
Chamadas de ferramentas detectadas?
Sim
Executar ferramentas no TIA Portal
Enviar resultados de volta ao LLM
Não
Resposta final ao usuário

Proteções Anti-Loop Infinito

ProteçãoLimiteComportamento
Chamadas consecutivas idênticas2Interrompe o loop
Falhas consecutivas (mesma ferramenta)3Interrompe o loop
Iterações absolutas máximas200Rede de segurança
Tentativas de erro do LLM2Depois falha
Tentativas de resposta vazia3Depois falha

Consumo de Tokens

Entenda o que consome tokens e como o T-IA Connect otimiza custos.

ComponenteTokens EstimadosFrequência
System prompt (instruções)~2,000-3,000Cada mensagem
Contexto do projeto (dispositivos, blocos)~500-2,000Cada mensagem
Definições de ferramentas (128 máx)~5,000-8,000Cada mensagem
Histórico da conversa~1,000-10,000Crescente
Mensagem do usuário~50-500Cada mensagem
Entrada total típica~10,000-20,000Por mensagem
Resposta do LLM~200-2,000Por mensagem

Estimativa de Custo

Para uma mensagem típica com GPT-4o (preços da OpenAI, abril de 2026):

Entrada: ~15,000 tokens x $2.50/1M =~$0.037
Saída: ~500 tokens x $10/1M =~$0.005
Total por mensagem:~$0.04

Uma troca completa com chamadas de ferramentas (2-3 iterações do LLM) custa aproximadamente $0.10-0.15.

Otimizações Automáticas

  • Seleção contextual: apenas ferramentas relevantes são enviadas (não as 400)
  • Auto-compactação: quando o histórico excede ~200,000 caracteres, mensagens antigas são resumidas automaticamente
  • Histórico limitado: no máximo 20 mensagens e 32,000 caracteres mantidos no contexto
  • Limite de 128 ferramentas: limita o custo fixo das definições de ferramentas

Suporte Multimodal

O Copilot pode processar imagens e documentos PDF junto com texto.

Imagens

Imagens enviadas ao Copilot são transmitidas ao LLM em base64 (formato de visão). Útil para analisar capturas de tela de programas, identificar erros visuais ou descrever esquemáticos.

PDFs (Especificação de Design)

PDFs são processados via sistema CDC (Custom Design Companion): extração de texto, fragmentação (1.500 caracteres com sobreposição de 200), índice injetado no prompt e acesso a fragmentos sob demanda via ferramentas dedicadas. Isso evita o envio de todo o PDF para o contexto.

Modo Autônomo

O modo autônomo permite que o Copilot execute sequências de ações sem confirmação do usuário.

AspectoInterativoAutônomo
ConfirmaçõesObrigatórias antes de ações destrutivasIgnoradas
System promptCompleto (regras, formatação, interativo)Compacto (regras, escopo)
Detecção de parada precoceNãoSim (máx 3 tentativas)

Limitação de Taxa (Rate Limiting)

O T-IA Connect aplica quotas separadas para cada canal de acesso.

apiChamadas diretas da API REST
mcpFerramentas MCP (Claude Desktop, etc.)
copilotAssistente integrado

Ferramentas Gratuitas (Não Contabilizadas)

Ferramentas de apenas leitura não consomem quota: list_*, get_documentation, get_llm_tips, ferramentas de descoberta e status.

Comunicação em Tempo Real

O Copilot usa SignalR para atualizações ao vivo durante a execução.

onAssistantResponseExibição no chat
onToolExecutionIndicador "Pensando..."
onTokenUsageContador de tokens
onStatusUpdated"Enviando para o Claude..."

Modelos Compatíveis

Compatibilidade detalhada por provedor.

OpenAI

Recomendados: gpt-4o, gpt-4o-mini, gpt-4-turbo

Incompatíveis: o1, o3-mini (usam API de Responses, não Chat Completions)

Claude (Anthropic)

Recomendados: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Todos os modelos Claude são compatíveis

Gemini (Google)

Recomendados: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Filtro automático exclui modelos que não são de chat (embedding, apenas visão)

Groq

Recomendados: llama-3.3-70b-versatile, mixtral-8x7b

Nota: o nível gratuito pode ser insuficiente para 128 ferramentas

Personalizado (Ollama, vLLM)

Qualquer modelo que suporte function calling no formato OpenAI

Detecção automática de "falsas chamadas de ferramentas" (modelos retornando JSON como texto)

Roteamento de Modelo Duplo

Para provedores Personalizados, o T-IA Connect suporta dois modelos: um modelo de raciocínio para análise/planejamento e um modelo de código para geração de SCL/LAD. A alternância é automática baseada no tipo de ferramenta executada.

Números Principais

~400
Total de ferramentas
128
Ferramentas por requisição (máx)
5 (+ personalizado)
Provedores suportados
13
Categorias de ferramentas
90 segundos
Timeout HTTP
20 mensagens / 32,000 caracteres
Histórico no contexto
~$0.04
Custo est. por mensagem (GPT-4o)
~$0.10-0.15
Custo est. por troca completa

Perguntas Frequentes

O T-IA Connect envia meu código de PLC para a nuvem?

Apenas quando você usa um provedor de LLM na nuvem (OpenAI, Claude, Gemini). Suas mensagens e o contexto do projeto são enviados para o provedor que você escolheu. Para máxima privacidade, use Ollama com um modelo local e nada sairá da sua máquina.

Quanto custa a IA por mensagem?

Com o GPT-4o, uma mensagem típica custa cerca de $0.04 e uma troca completa com chamadas de ferramentas custa entre $0.10 e $0.15. Você paga o provedor de LLM diretamente usando sua própria chave de API.

O Copilot pode danificar meu projeto do TIA Portal?

No modo interativo, o Copilot solicita confirmação antes de ações destrutivas. Proteções anti-loop evitam execuções descontroladas de ferramentas. Você também pode interromper a execução a qualquer momento.

Qual modelo de LLM devo escolher?

Para melhores resultados, use o GPT-4o ou Claude Sonnet. Para um uso econômico, o GPT-4o-mini ou Gemini Flash funcionam bem para tarefas simples. Para privacidade total, use o Ollama com um modelo local como o Llama 3.

Páginas Relacionadas

Pronto para Testar o Copilot?

Baixe o T-IA Connect e comece a gerar código de PLC com IA hoje mesmo.