Documentación Técnica

Cómo funciona el
AI Copilot de TIA Portal

Una mirada transparente a la arquitectura detrás del asistente de IA de T-IA Connect. Comprenda cómo sus mensajes se convierten en acciones de TIA Portal a través de la selección inteligente de herramientas y la orquestación de LLM.

Resumen general

El Copilot de T-IA Connect es un asistente de IA integrado que controla TIA Portal a través de herramientas (function calling). Usted envía un mensaje en lenguaje natural, el LLM decide qué herramientas llamar y T-IA Connect ejecuta las acciones correspondientes en TIA Portal.

Todo el proceso se ejecuta localmente en su máquina. Sus claves de API están cifradas mediante Windows DPAPI, nunca se registran y nunca se transmiten a terceros. T-IA Connect contacta directamente con los proveedores de LLM sin servidor proxy o de retransmisión.

Flujo de datos

Usuario

Envía un mensaje en lenguaje natural

T-IA Connect

Construye el contexto, selecciona herramientas, llama al LLM

Proveedor de LLM

Analiza y devuelve las llamadas a herramientas

TIA Portal

Ejecuta acciones a través de la Openness API

User >Crear un FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB creado con éxito

Proveedores de LLM compatibles

T-IA Connect es independiente del proveedor. Traiga su propia clave de API y elija su proveedor preferido.

ProveedorModelo predeterminadoAutenticación
OpenAIgpt-4oBearer token
Claude (Anthropic)claude-sonnet-4-20250514encabezado x-api-key
Gemini (Google)gemini-1.5-flashClave de API en la consulta
Groqllama-3.3-70b-versatileBearer token
CustomOllama, vLLM, etc.Bearer token opcional

Seguridad de las claves de API

  • Claves almacenadas localmente, cifradas mediante Windows DPAPI
  • Conexión directa a los proveedores, sin proxy ni retransmisión
  • Las claves nunca se registran ni se transmiten a terceros
  • Endpoints personalizados compatibles (Azure OpenAI, proxies corporativos)

Selección inteligente de herramientas

Con ~400 herramientas disponibles, enviarlas todas en cada solicitud sería costoso y contraproducente. T-IA Connect resuelve esto con la selección de categorías contextuales.

El desafío

  • Cada definición de herramienta consume ~50 tokens de entrada
  • Algunos proveedores limitan las herramientas a un máximo de 128 (OpenAI)
  • Demasiadas herramientas pueden confundir al LLM

La solución: Categorías contextuales

T-IA Connect analiza su mensaje y activa solo las categorías de herramientas relevantes.

Siempre incluidas

Core (~34 herramientas): gestión de proyectos, dispositivos, exportación/importación

Knowledge (~21 herramientas): documentación, consejos, análisis, memoria

CategoríaHerramientasPalabras clave activadoras
Bloques~31bloque, fb, fc, ob, db, scl, lad, compilar, programa, código...
Variables (Tags)~16tag, observación, forzado, variable, dirección, diagnóstico...
HMI~51hmi, pantalla, panel, wincc, visualización...
Hardware~24hardware, módulo, rack, cpu, slot, profinet, gsd...
Simulación~23plcsim, simul, runtime, encendido, instancia...
Seguridad~21seguridad, contraseña, protección, opcua, webserver...
UDT~23udt, tipo, estructura, tipo_de_dato...
Online~10online, offline, carga, descarga, conectar...
Avanzado~66fds, graph, sfc, safety, blueprint, motion, alarma...
Infraestructura~54informe, vcs, git, prueba, librería, codesys...

Ejemplos concretos

"Crear un FB Motor"

core + knowledge + bloques

~86 herramientas

"Configurar PLCSim"

core + knowledge + simulación

~78 herramientas

"Añadir una pantalla HMI"

core + knowledge + hmi

~106 herramientas

Contexto persistente (Sticky Context)

Si su mensaje no contiene palabras clave (p. ej., "sí", "continuar", "hazlo"), T-IA Connect reutiliza las categorías del mensaje anterior. Esto permite conversaciones naturales sin perder el contexto.

Bucle de ejecución

El Copilot funciona en un bucle: el LLM puede llamar a múltiples herramientas sucesivamente antes de responder al usuario.

Enviar mensaje + contexto al LLM
El LLM devuelve la respuesta
¿Se detectan llamadas a herramientas?
Ejecutar herramientas en TIA Portal
Enviar resultados de vuelta al LLM
No
Respuesta final al usuario

Protecciones contra bucles infinitos

ProtecciónUmbralComportamiento
Llamadas consecutivas idénticas2Detiene el bucle
Fallos consecutivos (misma herramienta)3Detiene el bucle
Máximo de iteraciones absolutas200Red de seguridad
Reintentos por error del LLM2Luego fallo
Reintentos por respuesta vacía3Luego fallo

Consumo de tokens

Entienda qué consume tokens y cómo T-IA Connect optimiza los costes.

ComponenteTokens estimadosFrecuencia
System prompt (instrucciones)~2,000-3,000Cada mensaje
Contexto del proyecto (dispositivos, bloques)~500-2,000Cada mensaje
Definiciones de herramientas (máx. 128)~5,000-8,000Cada mensaje
Historial de conversación~1,000-10,000Creciente
Mensaje del usuario~50-500Cada mensaje
Entrada total típica~10,000-20,000Por mensaje
Respuesta del LLM~200-2,000Por mensaje

Estimación de costes

Para un mensaje típico con GPT-4o (precios de OpenAI, abril 2026):

Entrada: ~15,000 tokens x $2.50/1M =~$0.037
Salida: ~500 tokens x $10/1M =~$0.005
Total por mensaje:~$0.04

Un intercambio completo con tool calling (2-3 iteraciones del LLM) cuesta aproximadamente $0.10-0.15.

Optimizaciones automáticas

  • Selección contextual: solo se envían las herramientas relevantes (no las 400)
  • Auto-compactación: cuando el historial supera los ~200,000 caracteres, los mensajes antiguos se resumen automáticamente
  • Historial limitado: máximo 20 mensajes y 32,000 caracteres mantenidos en contexto
  • Límite de 128 herramientas: limita el coste fijo de las definiciones de herramientas

Soporte multimodal

El Copilot puede procesar imágenes y documentos PDF junto con texto.

Imágenes

Las imágenes enviadas al Copilot se transmiten al LLM en base64 (formato de visión). Útil para analizar capturas de pantalla del programa, identificar errores visuales o describir esquemas.

PDFs (Especificación de diseño)

Los PDF se procesan a través del sistema CDC (Custom Design Companion): extracción de texto, fragmentación (1,500 caracteres con 200 de solapamiento), tabla de contenidos inyectada en el prompt y acceso a fragmentos bajo demanda a través de herramientas dedicadas. Esto evita enviar el PDF completo al contexto.

Modo autónomo

El modo autónomo permite al Copilot ejecutar secuencias de acciones sin confirmación del usuario.

AspectoInteractivoAutónomo
ConfirmacionesRequeridas antes de acciones destructivasOmitidas
System promptCompleto (reglas, formato, interactivo)Compacto (reglas, alcance)
Detección de parada tempranaNoSí (máx. 3 reintentos)

Limitación de tasa (Rate Limiting)

T-IA Connect aplica cuotas separadas para cada canal de acceso.

apiLlamadas directas a la REST API
mcpHerramientas MCP (Claude Desktop, etc.)
copilotAsistente integrado

Herramientas gratuitas (no contabilizadas)

Las herramientas de solo lectura no consumen cuota: list_*, get_documentation, get_llm_tips, herramientas de descubrimiento y de estado.

Comunicación en tiempo real

El Copilot utiliza SignalR para actualizaciones en vivo durante la ejecución.

onAssistantResponseVisualización del chat
onToolExecutionIndicador "Pensando..."
onTokenUsageContador de tokens
onStatusUpdated"Enviando a Claude..."

Modelos compatibles

Compatibilidad detallada por proveedor.

OpenAI

Recomendados: gpt-4o, gpt-4o-mini, gpt-4-turbo

No compatibles: o1, o3-mini (use la Responses API, no Chat Completions)

Claude (Anthropic)

Recomendados: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Todos los modelos de Claude son compatibles

Gemini (Google)

Recomendados: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

El autofiltro excluye modelos que no son de chat (embedding, solo visión)

Groq

Recomendados: llama-3.3-70b-versatile, mixtral-8x7b

Nota: el nivel gratuito puede ser insuficiente para 128 herramientas

Personalizados (Ollama, vLLM)

Cualquier modelo que soporte function calling en formato OpenAI

Detección automática de "llamadas a herramientas falsas" (modelos que devuelven JSON como texto)

Enrutamiento de modelo dual (Dual Model Routing)

Para proveedores personalizados, T-IA Connect admite dos modelos: un modelo de razonamiento para análisis/planificación y un modelo de código para la generación de SCL/LAD. El cambio es automático según el tipo de herramienta que se esté ejecutando.

Cifras clave

~400
Total de herramientas
128
Herramientas por solicitud (máx.)
5 (+ personalizados)
Proveedores compatibles
13
Categorías de herramientas
90 segundos
HTTP timeout
20 mensajes / 32,000 caracteres
Historial en contexto
~$0.04
Coste est. por mensaje (GPT-4o)
~$0.10-0.15
Coste est. por intercambio completo

Preguntas frecuentes

¿T-IA Connect envía mi código PLC a la nube?

Solo cuando utiliza un proveedor de LLM en la nube (OpenAI, Claude, Gemini). Sus mensajes y el contexto del proyecto se envían al proveedor que elija. Para una máxima privacidad, utilice Ollama con un modelo local y nada saldrá de su máquina.

¿Cuánto cuesta la IA por mensaje?

Con GPT-4o, un mensaje típico cuesta unos $0.04 y un intercambio completo con tool calling cuesta $0.10-0.15. Usted paga directamente al proveedor de LLM utilizando su propia clave de API.

¿Puede el Copilot dañar mi proyecto de TIA Portal?

En modo interactivo, el Copilot solicita confirmación antes de acciones destructivas. Las protecciones contra bucles evitan la ejecución descontrolada de herramientas. También puede detener la ejecución en cualquier momento.

¿Qué modelo de LLM debo elegir?

Para obtener los mejores resultados, utilice GPT-4o o Claude Sonnet. Para un uso consciente del presupuesto, GPT-4o-mini o Gemini Flash funcionan bien para tareas más sencillas. Para una privacidad total, utilice Ollama con un modelo local como Llama 3.

Páginas relacionadas

¿Listo para probar el Copilot?

Descargue T-IA Connect y comience a generar código PLC con IA hoy mismo.