Documentation technique

Comment fonctionne le
Copilot IA TIA Portal

Un regard transparent sur l'architecture de l'assistant IA de T-IA Connect. Comprenez comment vos messages deviennent des actions TIA Portal grâce à la sélection intelligente d'outils et l'orchestration LLM.

Vue d'ensemble

Le Copilot T-IA Connect est un assistant IA intégré qui contrôle TIA Portal via des outils (function calling). Vous envoyez un message en langage naturel, le LLM décide quels outils appeler, et T-IA Connect exécute les actions correspondantes dans TIA Portal.

L'ensemble du processus s'exécute localement sur votre machine. Vos clés API sont chiffrées via Windows DPAPI, jamais journalisées et jamais transmises à des tiers. T-IA Connect contacte les fournisseurs LLM directement, sans proxy ni serveur relais.

Flux de données

Utilisateur

Envoie un message en langage naturel

T-IA Connect

Construit le contexte, sélectionne les outils, appelle le LLM

Fournisseur LLM

Analyse et retourne les appels d'outils

TIA Portal

Exécute les actions via l'API Openness

User >Créer un FB Moteur
LLM >tool_call: create_block(FB)
Result >FB Motor_FB créé avec succès

Fournisseurs LLM supportés

T-IA Connect est agnostique au fournisseur. Apportez votre propre clé API et choisissez votre fournisseur préféré.

FournisseurModèle par défautAuthentification
OpenAIgpt-4oBearer token
Claude (Anthropic)claude-sonnet-4-20250514En-tête x-api-key
Gemini (Google)gemini-1.5-flashClé API en paramètre
Groqllama-3.3-70b-versatileBearer token
CustomOllama, vLLM, etc.Bearer token optionnel

Sécurité des clés API

  • Clés stockées localement, chiffrées via Windows DPAPI
  • Connexion directe aux fournisseurs, sans proxy ni relais
  • Les clés ne sont jamais journalisées ni transmises à des tiers
  • Points d'accès personnalisés supportés (Azure OpenAI, proxys d'entreprise)

Sélection intelligente des outils

Avec environ 400 outils disponibles, les envoyer tous à chaque requête serait coûteux et contre-productif. T-IA Connect résout ce problème avec une sélection contextuelle par catégorie.

Le défi

  • Chaque définition d'outil consomme environ 50 tokens en entrée
  • Certains fournisseurs limitent les outils à 128 maximum (OpenAI)
  • Trop d'outils peuvent perturber le LLM

La solution : catégories contextuelles

T-IA Connect analyse votre message et active uniquement les catégories d'outils pertinentes.

Toujours inclus

Core (environ 34 outils) : gestion de projet, appareils, export/import

Knowledge (environ 21 outils) : documentation, astuces, analyse, mémoire

CatégorieOutilsMots-clés déclencheurs
Blocs~31block, fb, fc, ob, db, scl, lad, compile, programme, code...
Variables~16tag, watch, force, variable, adresse, diagnostic...
IHM~51hmi, écran, pupitre, wincc, affichage, visualisation...
Matériel~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulation~23plcsim, simul, runtime, power_on, instance...
Sécurité~21security, mot de passe, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
En ligne~10online, offline, download, upload, go_online...
Avancé~66fds, graph, sfc, safety, blueprint, motion, alarme...
Infrastructure~54report, vcs, git, test, bibliothèque, codesys...

Exemples concrets

"Créer un FB Moteur"

core + knowledge + blocks

environ 86 outils

"Configurer PLCSim"

core + knowledge + simulation

environ 78 outils

"Ajouter un écran IHM"

core + knowledge + hmi

environ 106 outils

Contexte persistant

Si votre message ne contient aucun mot-clé (ex. : "oui", "continue", "fais-le"), T-IA Connect réutilise les catégories du message précédent. Cela permet des conversations naturelles sans perdre le contexte.

Boucle d'exécution

Le Copilot fonctionne en boucle : le LLM peut appeler plusieurs outils successivement avant de répondre à l'utilisateur.

Envoi du message + contexte au LLM
Le LLM retourne sa réponse
Appels d'outils détectés ?
Oui
Exécution des outils dans TIA Portal
Envoi des résultats au LLM
Non
Réponse finale à l'utilisateur

Protections anti-boucle infinie

ProtectionSeuilComportement
Appels consécutifs identiques2Arrêt de la boucle
Échecs consécutifs (même outil)3Arrêt de la boucle
Itérations max absolues200Filet de sécurité
Tentatives après erreur LLM2Puis échec
Tentatives sur réponse vide3Puis échec

Consommation de tokens

Comprenez ce qui consomme des tokens et comment T-IA Connect optimise les coûts.

ComposantTokens estimésFréquence
Prompt système (instructions)~2 000-3 000Chaque message
Contexte projet (appareils, blocs)~500-2 000Chaque message
Définitions d'outils (128 max)~5 000-8 000Chaque message
Historique de conversation~1 000-10 000Croissant
Message utilisateur~50-500Chaque message
Total typique en entrée~10 000-20 000Par message
Réponse du LLM~200-2 000Par message

Estimation des coûts

Pour un message typique avec GPT-4o (tarifs OpenAI, avril 2026) :

Entrée : environ 15 000 tokens x 2,50 $/1M =~0,037 $
Sortie : environ 500 tokens x 10 $/1M =~0,005 $
Total par message :~0,04 $

Un échange complet avec appels d'outils (2-3 itérations LLM) coûte environ 0,10-0,15 $.

Optimisations automatiques

  • Sélection contextuelle : seuls les outils pertinents sont envoyés (pas les 400)
  • Compactage automatique : quand l'historique dépasse environ 200 000 caractères, les anciens messages sont automatiquement résumés
  • Historique limité : max 20 messages et 32 000 caractères conservés en contexte
  • Plafond de 128 outils : limite le coût fixe des définitions d'outils

Support multimodal

Le Copilot peut traiter des images et des documents PDF en plus du texte.

Images

Les images envoyées au Copilot sont transmises au LLM en base64 (format vision). Utile pour analyser des captures d'écran de programmes, identifier des erreurs visuelles ou décrire des schémas.

PDF (cahier des charges)

Les PDF sont traités via le système CDC (Custom Design Companion) : extraction de texte, découpage en segments (1 500 caractères avec 200 de chevauchement), table des matières injectée dans le prompt, et accès aux segments à la demande via des outils dédiés. Cela évite d'envoyer l'intégralité du PDF dans le contexte.

Mode autonome

Le mode autonome permet au Copilot d'exécuter des séquences d'actions sans confirmation de l'utilisateur.

AspectInteractifAutonome
ConfirmationsRequises avant les actions destructivesIgnorées
Prompt systèmeComplet (règles, formatage, interactif)Compact (règles, périmètre)
Détection d'arrêt précoceNonOui (max 3 tentatives)

Limitation de débit

T-IA Connect applique des quotas distincts pour chaque canal d'accès.

apiAppels API REST directs
mcpOutils MCP (Claude Desktop, etc.)
copilotAssistant intégré

Outils gratuits (non comptabilisés)

Les outils en lecture seule ne consomment pas de quota : list_*, get_documentation, get_llm_tips, outils de découverte et de statut.

Communication temps réel

Le Copilot utilise SignalR pour les mises à jour en direct pendant l'exécution.

onAssistantResponseAffichage du chat
onToolExecutionIndicateur "Réflexion..."
onTokenUsageCompteur de tokens
onStatusUpdated"Envoi à Claude..."

Modèles compatibles

Compatibilité détaillée par fournisseur.

OpenAI

Recommandés : gpt-4o, gpt-4o-mini, gpt-4-turbo

Non compatibles : o1, o3-mini (utilisent Responses API, pas Chat Completions)

Claude (Anthropic)

Recommandés : claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Tous les modèles Claude sont compatibles

Gemini (Google)

Recommandés : gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Filtre automatique excluant les modèles non-chat (embedding, vision uniquement)

Groq

Recommandés : llama-3.3-70b-versatile, mixtral-8x7b

Remarque : le tier gratuit peut être insuffisant pour 128 outils

Personnalisé (Ollama, vLLM)

Tout modèle supportant le function calling au format OpenAI

Détection automatique des "faux appels d'outils" (modèles retournant du JSON en texte)

Routage double modèle

Pour les fournisseurs personnalisés, T-IA Connect supporte deux modèles : un modèle de raisonnement pour l'analyse/planification et un modèle de code pour la génération SCL/LAD. Le basculement est automatique selon le type d'outil exécuté.

Chiffres clés

environ 400
Outils totaux
128
Outils par requête (max)
5 (+ personnalisé)
Fournisseurs supportés
13
Catégories d'outils
90 secondes
Timeout HTTP
20 messages / 32 000 car.
Historique en contexte
~0,04 $
Coût estimé par message (GPT-4o)
~0,10-0,15 $
Coût estimé par échange complet

Questions fréquentes

T-IA Connect envoie-t-il mon code automate dans le cloud ?

Uniquement si vous utilisez un fournisseur LLM cloud (OpenAI, Claude, Gemini). Vos messages et le contexte projet sont envoyés au fournisseur que vous avez choisi. Pour une confidentialité maximale, utilisez Ollama avec un modèle local et rien ne quitte votre machine.

Combien coûte l'IA par message ?

Avec GPT-4o, un message typique coûte environ 0,04 $ et un échange complet avec appels d'outils coûte 0,10-0,15 $. Vous payez le fournisseur LLM directement avec votre propre clé API.

Le Copilot peut-il endommager mon projet TIA Portal ?

En mode interactif, le Copilot demande confirmation avant les actions destructives. Les protections anti-boucle empêchent l'exécution incontrôlée des outils. Vous pouvez aussi arrêter l'exécution à tout moment.

Quel modèle LLM choisir ?

Pour les meilleurs résultats, utilisez GPT-4o ou Claude Sonnet. Pour un usage économique, GPT-4o-mini ou Gemini Flash conviennent bien aux tâches plus simples. Pour une confidentialité totale, utilisez Ollama avec un modèle local comme Llama 3.

Pages associées

Prêt à essayer le Copilot ?

Téléchargez T-IA Connect et commencez à générer du code automate avec l'IA dès aujourd'hui.