Cómo funciona el
AI Copilot de TIA Portal
Una mirada transparente a la arquitectura detrás del asistente de IA de T-IA Connect. Comprenda cómo sus mensajes se convierten en acciones de TIA Portal a través de la selección inteligente de herramientas y la orquestación de LLM.
Resumen general
El Copilot de T-IA Connect es un asistente de IA integrado que controla TIA Portal a través de herramientas (function calling). Usted envía un mensaje en lenguaje natural, el LLM decide qué herramientas llamar y T-IA Connect ejecuta las acciones correspondientes en TIA Portal.
Todo el proceso se ejecuta localmente en su máquina. Sus claves de API están cifradas mediante Windows DPAPI, nunca se registran y nunca se transmiten a terceros. T-IA Connect contacta directamente con los proveedores de LLM sin servidor proxy o de retransmisión.
Flujo de datos
Usuario
Envía un mensaje en lenguaje natural
T-IA Connect
Construye el contexto, selecciona herramientas, llama al LLM
Proveedor de LLM
Analiza y devuelve las llamadas a herramientas
TIA Portal
Ejecuta acciones a través de la Openness API
Proveedores de LLM compatibles
T-IA Connect es independiente del proveedor. Traiga su propia clave de API y elija su proveedor preferido.
| Proveedor | Modelo predeterminado | Autenticación |
|---|---|---|
| OpenAI | gpt-4o | Bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | encabezado x-api-key |
| Gemini (Google) | gemini-1.5-flash | Clave de API en la consulta |
| Groq | llama-3.3-70b-versatile | Bearer token |
| Custom | Ollama, vLLM, etc. | Bearer token opcional |
Seguridad de las claves de API
- ✓Claves almacenadas localmente, cifradas mediante Windows DPAPI
- ✓Conexión directa a los proveedores, sin proxy ni retransmisión
- ✓Las claves nunca se registran ni se transmiten a terceros
- ✓Endpoints personalizados compatibles (Azure OpenAI, proxies corporativos)
Selección inteligente de herramientas
Con ~400 herramientas disponibles, enviarlas todas en cada solicitud sería costoso y contraproducente. T-IA Connect resuelve esto con la selección de categorías contextuales.
El desafío
- ⚠Cada definición de herramienta consume ~50 tokens de entrada
- ⚠Algunos proveedores limitan las herramientas a un máximo de 128 (OpenAI)
- ⚠Demasiadas herramientas pueden confundir al LLM
La solución: Categorías contextuales
T-IA Connect analiza su mensaje y activa solo las categorías de herramientas relevantes.
Siempre incluidas
Core (~34 herramientas): gestión de proyectos, dispositivos, exportación/importación
Knowledge (~21 herramientas): documentación, consejos, análisis, memoria
| Categoría | Herramientas | Palabras clave activadoras |
|---|---|---|
| Bloques | ~31 | bloque, fb, fc, ob, db, scl, lad, compilar, programa, código... |
| Variables (Tags) | ~16 | tag, observación, forzado, variable, dirección, diagnóstico... |
| HMI | ~51 | hmi, pantalla, panel, wincc, visualización... |
| Hardware | ~24 | hardware, módulo, rack, cpu, slot, profinet, gsd... |
| Simulación | ~23 | plcsim, simul, runtime, encendido, instancia... |
| Seguridad | ~21 | seguridad, contraseña, protección, opcua, webserver... |
| UDT | ~23 | udt, tipo, estructura, tipo_de_dato... |
| Online | ~10 | online, offline, carga, descarga, conectar... |
| Avanzado | ~66 | fds, graph, sfc, safety, blueprint, motion, alarma... |
| Infraestructura | ~54 | informe, vcs, git, prueba, librería, codesys... |
Ejemplos concretos
"Crear un FB Motor"
core + knowledge + bloques
~86 herramientas
"Configurar PLCSim"
core + knowledge + simulación
~78 herramientas
"Añadir una pantalla HMI"
core + knowledge + hmi
~106 herramientas
Contexto persistente (Sticky Context)
Si su mensaje no contiene palabras clave (p. ej., "sí", "continuar", "hazlo"), T-IA Connect reutiliza las categorías del mensaje anterior. Esto permite conversaciones naturales sin perder el contexto.
Bucle de ejecución
El Copilot funciona en un bucle: el LLM puede llamar a múltiples herramientas sucesivamente antes de responder al usuario.
Protecciones contra bucles infinitos
| Protección | Umbral | Comportamiento |
|---|---|---|
| Llamadas consecutivas idénticas | 2 | Detiene el bucle |
| Fallos consecutivos (misma herramienta) | 3 | Detiene el bucle |
| Máximo de iteraciones absolutas | 200 | Red de seguridad |
| Reintentos por error del LLM | 2 | Luego fallo |
| Reintentos por respuesta vacía | 3 | Luego fallo |
Consumo de tokens
Entienda qué consume tokens y cómo T-IA Connect optimiza los costes.
| Componente | Tokens estimados | Frecuencia |
|---|---|---|
| System prompt (instrucciones) | ~2,000-3,000 | Cada mensaje |
| Contexto del proyecto (dispositivos, bloques) | ~500-2,000 | Cada mensaje |
| Definiciones de herramientas (máx. 128) | ~5,000-8,000 | Cada mensaje |
| Historial de conversación | ~1,000-10,000 | Creciente |
| Mensaje del usuario | ~50-500 | Cada mensaje |
| Entrada total típica | ~10,000-20,000 | Por mensaje |
| Respuesta del LLM | ~200-2,000 | Por mensaje |
Estimación de costes
Para un mensaje típico con GPT-4o (precios de OpenAI, abril 2026):
Un intercambio completo con tool calling (2-3 iteraciones del LLM) cuesta aproximadamente $0.10-0.15.
Optimizaciones automáticas
- Selección contextual: solo se envían las herramientas relevantes (no las 400)
- Auto-compactación: cuando el historial supera los ~200,000 caracteres, los mensajes antiguos se resumen automáticamente
- Historial limitado: máximo 20 mensajes y 32,000 caracteres mantenidos en contexto
- Límite de 128 herramientas: limita el coste fijo de las definiciones de herramientas
Soporte multimodal
El Copilot puede procesar imágenes y documentos PDF junto con texto.
Imágenes
Las imágenes enviadas al Copilot se transmiten al LLM en base64 (formato de visión). Útil para analizar capturas de pantalla del programa, identificar errores visuales o describir esquemas.
PDFs (Especificación de diseño)
Los PDF se procesan a través del sistema CDC (Custom Design Companion): extracción de texto, fragmentación (1,500 caracteres con 200 de solapamiento), tabla de contenidos inyectada en el prompt y acceso a fragmentos bajo demanda a través de herramientas dedicadas. Esto evita enviar el PDF completo al contexto.
Modo autónomo
El modo autónomo permite al Copilot ejecutar secuencias de acciones sin confirmación del usuario.
| Aspecto | Interactivo | Autónomo |
|---|---|---|
| Confirmaciones | Requeridas antes de acciones destructivas | Omitidas |
| System prompt | Completo (reglas, formato, interactivo) | Compacto (reglas, alcance) |
| Detección de parada temprana | No | Sí (máx. 3 reintentos) |
Limitación de tasa (Rate Limiting)
T-IA Connect aplica cuotas separadas para cada canal de acceso.
Herramientas gratuitas (no contabilizadas)
Las herramientas de solo lectura no consumen cuota: list_*, get_documentation, get_llm_tips, herramientas de descubrimiento y de estado.
Comunicación en tiempo real
El Copilot utiliza SignalR para actualizaciones en vivo durante la ejecución.
onAssistantResponseVisualización del chatonToolExecutionIndicador "Pensando..."onTokenUsageContador de tokensonStatusUpdated"Enviando a Claude..."Modelos compatibles
Compatibilidad detallada por proveedor.
OpenAI
Recomendados: gpt-4o, gpt-4o-mini, gpt-4-turbo
No compatibles: o1, o3-mini (use la Responses API, no Chat Completions)
Claude (Anthropic)
Recomendados: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Todos los modelos de Claude son compatibles
Gemini (Google)
Recomendados: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
El autofiltro excluye modelos que no son de chat (embedding, solo visión)
Groq
Recomendados: llama-3.3-70b-versatile, mixtral-8x7b
Nota: el nivel gratuito puede ser insuficiente para 128 herramientas
Personalizados (Ollama, vLLM)
Cualquier modelo que soporte function calling en formato OpenAI
Detección automática de "llamadas a herramientas falsas" (modelos que devuelven JSON como texto)
Enrutamiento de modelo dual (Dual Model Routing)
Para proveedores personalizados, T-IA Connect admite dos modelos: un modelo de razonamiento para análisis/planificación y un modelo de código para la generación de SCL/LAD. El cambio es automático según el tipo de herramienta que se esté ejecutando.
Cifras clave
Preguntas frecuentes
¿T-IA Connect envía mi código PLC a la nube?
Solo cuando utiliza un proveedor de LLM en la nube (OpenAI, Claude, Gemini). Sus mensajes y el contexto del proyecto se envían al proveedor que elija. Para una máxima privacidad, utilice Ollama con un modelo local y nada saldrá de su máquina.
¿Cuánto cuesta la IA por mensaje?
Con GPT-4o, un mensaje típico cuesta unos $0.04 y un intercambio completo con tool calling cuesta $0.10-0.15. Usted paga directamente al proveedor de LLM utilizando su propia clave de API.
¿Puede el Copilot dañar mi proyecto de TIA Portal?
En modo interactivo, el Copilot solicita confirmación antes de acciones destructivas. Las protecciones contra bucles evitan la ejecución descontrolada de herramientas. También puede detener la ejecución en cualquier momento.
¿Qué modelo de LLM debo elegir?
Para obtener los mejores resultados, utilice GPT-4o o Claude Sonnet. Para un uso consciente del presupuesto, GPT-4o-mini o Gemini Flash funcionan bien para tareas más sencillas. Para una privacidad total, utilice Ollama con un modelo local como Llama 3.
Páginas relacionadas
Asistente de IA para TIA Portal
Descubra todas las capacidades del asistente de IA integrado.
Read moreGeneración de código PLC con IA
Aprenda cómo la IA genera código SCL, LAD y STL para PLC de Siemens.
Read moreServidor MCP para TIA Portal
Utilice T-IA Connect como servidor MCP con Claude Desktop o Cursor.
Read morefrente a Siemens Industrial Copilot
Compare T-IA Connect con la solución de IA oficial de Siemens.
Read more