Como o TIA Portal
AI Copilot Funciona
Uma visão transparente da arquitetura por trás do assistente de IA do T-IA Connect. Entenda como suas mensagens se tornam ações no TIA Portal através da seleção inteligente de ferramentas e orquestração de LLM.
Visão Geral
O T-IA Connect Copilot é um assistente de IA integrado que controla o TIA Portal via ferramentas (function calling). Você envia uma mensagem em linguagem natural, o LLM decide quais ferramentas chamar e o T-IA Connect executa as ações correspondentes no TIA Portal.
Todo o processo roda localmente em sua máquina. Suas chaves de API são criptografadas via Windows DPAPI, nunca registradas e nunca transmitidas a terceiros. O T-IA Connect contata os provedores de LLM diretamente, sem servidor proxy ou relay.
Fluxo de Dados
Usuário
Envia uma mensagem em linguagem natural
T-IA Connect
Constrói o contexto, seleciona ferramentas, chama o LLM
Provedor de LLM
Analisa e retorna chamadas de ferramentas
TIA Portal
Executa ações via Openness API
Provedores de LLM Suportados
O T-IA Connect é agnóstico em relação ao provedor. Traga sua própria chave de API e escolha seu provedor preferido.
| Provedor | Modelo Padrão | Autenticação |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key header |
| Gemini (Google) | gemini-1.5-flash | API key na query |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM, etc. | bearer token opcional |
Segurança da Chave de API
- ✓Chaves armazenadas localmente, criptografadas via Windows DPAPI
- ✓Conexão direta com provedores, sem proxy ou relay
- ✓Chaves nunca são registradas ou transmitidas a terceiros
- ✓Endpoints personalizados suportados (Azure OpenAI, proxies empresariais)
Seleção Inteligente de Ferramentas
Com ~400 ferramentas disponíveis, enviar todas elas em cada requisição seria caro e contraproducente. O T-IA Connect resolve isso com seleção de categoria contextual.
O Desafio
- ⚠Cada definição de ferramenta consome ~50 tokens de entrada
- ⚠Alguns provedores limitam as ferramentas a 128 no máximo (OpenAI)
- ⚠Muitas ferramentas podem confundir o LLM
A Solução: Categorias Contextuais
O T-IA Connect analisa sua mensagem e ativa apenas as categorias de ferramentas relevantes.
Sempre Incluído
Core (~34 ferramentas): gestão de projetos, dispositivos, exportação/importação
Conhecimento (~21 ferramentas): documentação, dicas, análise, memória
| Categoria | Ferramentas | Palavras-chave de Gatilho |
|---|---|---|
| Blocos | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Tags | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Hardware | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulação | ~23 | plcsim, simul, runtime, power_on, instance... |
| Segurança | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| Avançado | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Infraestrutura | ~54 | report, vcs, git, test, library, codesys... |
Exemplos Concretos
"Criar um FB Motor"
core + knowledge + blocks
~86 ferramentas
"Configurar PLCSim"
core + knowledge + simulation
~78 ferramentas
"Adicionar uma tela HMI"
core + knowledge + hmi
~106 ferramentas
Contexto Persistente (Sticky Context)
Se sua mensagem não contiver palavras-chave (ex: "sim", "continuar", "faça isso"), o T-IA Connect reutiliza as categorias da mensagem anterior. Isso permite conversas naturais sem perda de contexto.
Loop de Execução
O Copilot funciona em loop: o LLM pode chamar múltiplas ferramentas sucessivamente antes de responder ao usuário.
Proteções Anti-Loop Infinito
| Proteção | Limite | Comportamento |
|---|---|---|
| Chamadas consecutivas idênticas | 2 | Interrompe o loop |
| Falhas consecutivas (mesma ferramenta) | 3 | Interrompe o loop |
| Iterações absolutas máximas | 200 | Rede de segurança |
| Tentativas de erro do LLM | 2 | Depois falha |
| Tentativas de resposta vazia | 3 | Depois falha |
Consumo de Tokens
Entenda o que consome tokens e como o T-IA Connect otimiza custos.
| Componente | Tokens Estimados | Frequência |
|---|---|---|
| System prompt (instruções) | ~2,000-3,000 | Cada mensagem |
| Contexto do projeto (dispositivos, blocos) | ~500-2,000 | Cada mensagem |
| Definições de ferramentas (128 máx) | ~5,000-8,000 | Cada mensagem |
| Histórico da conversa | ~1,000-10,000 | Crescente |
| Mensagem do usuário | ~50-500 | Cada mensagem |
| Entrada total típica | ~10,000-20,000 | Por mensagem |
| Resposta do LLM | ~200-2,000 | Por mensagem |
Estimativa de Custo
Para uma mensagem típica com GPT-4o (preços da OpenAI, abril de 2026):
Uma troca completa com chamadas de ferramentas (2-3 iterações do LLM) custa aproximadamente $0.10-0.15.
Otimizações Automáticas
- Seleção contextual: apenas ferramentas relevantes são enviadas (não as 400)
- Auto-compactação: quando o histórico excede ~200,000 caracteres, mensagens antigas são resumidas automaticamente
- Histórico limitado: no máximo 20 mensagens e 32,000 caracteres mantidos no contexto
- Limite de 128 ferramentas: limita o custo fixo das definições de ferramentas
Suporte Multimodal
O Copilot pode processar imagens e documentos PDF junto com texto.
Imagens
Imagens enviadas ao Copilot são transmitidas ao LLM em base64 (formato de visão). Útil para analisar capturas de tela de programas, identificar erros visuais ou descrever esquemáticos.
PDFs (Especificação de Design)
PDFs são processados via sistema CDC (Custom Design Companion): extração de texto, fragmentação (1.500 caracteres com sobreposição de 200), índice injetado no prompt e acesso a fragmentos sob demanda via ferramentas dedicadas. Isso evita o envio de todo o PDF para o contexto.
Modo Autônomo
O modo autônomo permite que o Copilot execute sequências de ações sem confirmação do usuário.
| Aspecto | Interativo | Autônomo |
|---|---|---|
| Confirmações | Obrigatórias antes de ações destrutivas | Ignoradas |
| System prompt | Completo (regras, formatação, interativo) | Compacto (regras, escopo) |
| Detecção de parada precoce | Não | Sim (máx 3 tentativas) |
Limitação de Taxa (Rate Limiting)
O T-IA Connect aplica quotas separadas para cada canal de acesso.
Ferramentas Gratuitas (Não Contabilizadas)
Ferramentas de apenas leitura não consomem quota: list_*, get_documentation, get_llm_tips, ferramentas de descoberta e status.
Comunicação em Tempo Real
O Copilot usa SignalR para atualizações ao vivo durante a execução.
onAssistantResponseExibição no chatonToolExecutionIndicador "Pensando..."onTokenUsageContador de tokensonStatusUpdated"Enviando para o Claude..."Modelos Compatíveis
Compatibilidade detalhada por provedor.
OpenAI
Recomendados: gpt-4o, gpt-4o-mini, gpt-4-turbo
Incompatíveis: o1, o3-mini (usam API de Responses, não Chat Completions)
Claude (Anthropic)
Recomendados: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Todos os modelos Claude são compatíveis
Gemini (Google)
Recomendados: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
Filtro automático exclui modelos que não são de chat (embedding, apenas visão)
Groq
Recomendados: llama-3.3-70b-versatile, mixtral-8x7b
Nota: o nível gratuito pode ser insuficiente para 128 ferramentas
Personalizado (Ollama, vLLM)
Qualquer modelo que suporte function calling no formato OpenAI
Detecção automática de "falsas chamadas de ferramentas" (modelos retornando JSON como texto)
Roteamento de Modelo Duplo
Para provedores Personalizados, o T-IA Connect suporta dois modelos: um modelo de raciocínio para análise/planejamento e um modelo de código para geração de SCL/LAD. A alternância é automática baseada no tipo de ferramenta executada.
Números Principais
Perguntas Frequentes
O T-IA Connect envia meu código de PLC para a nuvem?
Apenas quando você usa um provedor de LLM na nuvem (OpenAI, Claude, Gemini). Suas mensagens e o contexto do projeto são enviados para o provedor que você escolheu. Para máxima privacidade, use Ollama com um modelo local e nada sairá da sua máquina.
Quanto custa a IA por mensagem?
Com o GPT-4o, uma mensagem típica custa cerca de $0.04 e uma troca completa com chamadas de ferramentas custa entre $0.10 e $0.15. Você paga o provedor de LLM diretamente usando sua própria chave de API.
O Copilot pode danificar meu projeto do TIA Portal?
No modo interativo, o Copilot solicita confirmação antes de ações destrutivas. Proteções anti-loop evitam execuções descontroladas de ferramentas. Você também pode interromper a execução a qualquer momento.
Qual modelo de LLM devo escolher?
Para melhores resultados, use o GPT-4o ou Claude Sonnet. Para um uso econômico, o GPT-4o-mini ou Gemini Flash funcionam bem para tarefas simples. Para privacidade total, use o Ollama com um modelo local como o Llama 3.
Páginas Relacionadas
Assistente de IA para TIA Portal
Descubra todas as capacidades do assistente de IA integrado.
Read moreGeração de Código de PLC com IA
Saiba como a IA gera código SCL, LAD e STL para PLCs Siemens.
Read moreServidor MCP para TIA Portal
Use o T-IA Connect como um servidor MCP com Claude Desktop ou Cursor.
Read morevs Siemens Industrial Copilot
Compare o T-IA Connect com a solução oficial de IA da Siemens.
Read more