Comment fonctionne le
Copilot IA TIA Portal
Un regard transparent sur l'architecture de l'assistant IA de T-IA Connect. Comprenez comment vos messages deviennent des actions TIA Portal grâce à la sélection intelligente d'outils et l'orchestration LLM.
Vue d'ensemble
Le Copilot T-IA Connect est un assistant IA intégré qui contrôle TIA Portal via des outils (function calling). Vous envoyez un message en langage naturel, le LLM décide quels outils appeler, et T-IA Connect exécute les actions correspondantes dans TIA Portal.
L'ensemble du processus s'exécute localement sur votre machine. Vos clés API sont chiffrées via Windows DPAPI, jamais journalisées et jamais transmises à des tiers. T-IA Connect contacte les fournisseurs LLM directement, sans proxy ni serveur relais.
Flux de données
Utilisateur
Envoie un message en langage naturel
T-IA Connect
Construit le contexte, sélectionne les outils, appelle le LLM
Fournisseur LLM
Analyse et retourne les appels d'outils
TIA Portal
Exécute les actions via l'API Openness
Fournisseurs LLM supportés
T-IA Connect est agnostique au fournisseur. Apportez votre propre clé API et choisissez votre fournisseur préféré.
| Fournisseur | Modèle par défaut | Authentification |
|---|---|---|
| OpenAI | gpt-4o | Bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | En-tête x-api-key |
| Gemini (Google) | gemini-1.5-flash | Clé API en paramètre |
| Groq | llama-3.3-70b-versatile | Bearer token |
| Custom | Ollama, vLLM, etc. | Bearer token optionnel |
Sécurité des clés API
- ✓Clés stockées localement, chiffrées via Windows DPAPI
- ✓Connexion directe aux fournisseurs, sans proxy ni relais
- ✓Les clés ne sont jamais journalisées ni transmises à des tiers
- ✓Points d'accès personnalisés supportés (Azure OpenAI, proxys d'entreprise)
Sélection intelligente des outils
Avec environ 400 outils disponibles, les envoyer tous à chaque requête serait coûteux et contre-productif. T-IA Connect résout ce problème avec une sélection contextuelle par catégorie.
Le défi
- ⚠Chaque définition d'outil consomme environ 50 tokens en entrée
- ⚠Certains fournisseurs limitent les outils à 128 maximum (OpenAI)
- ⚠Trop d'outils peuvent perturber le LLM
La solution : catégories contextuelles
T-IA Connect analyse votre message et active uniquement les catégories d'outils pertinentes.
Toujours inclus
Core (environ 34 outils) : gestion de projet, appareils, export/import
Knowledge (environ 21 outils) : documentation, astuces, analyse, mémoire
| Catégorie | Outils | Mots-clés déclencheurs |
|---|---|---|
| Blocs | ~31 | block, fb, fc, ob, db, scl, lad, compile, programme, code... |
| Variables | ~16 | tag, watch, force, variable, adresse, diagnostic... |
| IHM | ~51 | hmi, écran, pupitre, wincc, affichage, visualisation... |
| Matériel | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulation | ~23 | plcsim, simul, runtime, power_on, instance... |
| Sécurité | ~21 | security, mot de passe, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| En ligne | ~10 | online, offline, download, upload, go_online... |
| Avancé | ~66 | fds, graph, sfc, safety, blueprint, motion, alarme... |
| Infrastructure | ~54 | report, vcs, git, test, bibliothèque, codesys... |
Exemples concrets
"Créer un FB Moteur"
core + knowledge + blocks
environ 86 outils
"Configurer PLCSim"
core + knowledge + simulation
environ 78 outils
"Ajouter un écran IHM"
core + knowledge + hmi
environ 106 outils
Contexte persistant
Si votre message ne contient aucun mot-clé (ex. : "oui", "continue", "fais-le"), T-IA Connect réutilise les catégories du message précédent. Cela permet des conversations naturelles sans perdre le contexte.
Boucle d'exécution
Le Copilot fonctionne en boucle : le LLM peut appeler plusieurs outils successivement avant de répondre à l'utilisateur.
Protections anti-boucle infinie
| Protection | Seuil | Comportement |
|---|---|---|
| Appels consécutifs identiques | 2 | Arrêt de la boucle |
| Échecs consécutifs (même outil) | 3 | Arrêt de la boucle |
| Itérations max absolues | 200 | Filet de sécurité |
| Tentatives après erreur LLM | 2 | Puis échec |
| Tentatives sur réponse vide | 3 | Puis échec |
Consommation de tokens
Comprenez ce qui consomme des tokens et comment T-IA Connect optimise les coûts.
| Composant | Tokens estimés | Fréquence |
|---|---|---|
| Prompt système (instructions) | ~2 000-3 000 | Chaque message |
| Contexte projet (appareils, blocs) | ~500-2 000 | Chaque message |
| Définitions d'outils (128 max) | ~5 000-8 000 | Chaque message |
| Historique de conversation | ~1 000-10 000 | Croissant |
| Message utilisateur | ~50-500 | Chaque message |
| Total typique en entrée | ~10 000-20 000 | Par message |
| Réponse du LLM | ~200-2 000 | Par message |
Estimation des coûts
Pour un message typique avec GPT-4o (tarifs OpenAI, avril 2026) :
Un échange complet avec appels d'outils (2-3 itérations LLM) coûte environ 0,10-0,15 $.
Optimisations automatiques
- Sélection contextuelle : seuls les outils pertinents sont envoyés (pas les 400)
- Compactage automatique : quand l'historique dépasse environ 200 000 caractères, les anciens messages sont automatiquement résumés
- Historique limité : max 20 messages et 32 000 caractères conservés en contexte
- Plafond de 128 outils : limite le coût fixe des définitions d'outils
Support multimodal
Le Copilot peut traiter des images et des documents PDF en plus du texte.
Images
Les images envoyées au Copilot sont transmises au LLM en base64 (format vision). Utile pour analyser des captures d'écran de programmes, identifier des erreurs visuelles ou décrire des schémas.
PDF (cahier des charges)
Les PDF sont traités via le système CDC (Custom Design Companion) : extraction de texte, découpage en segments (1 500 caractères avec 200 de chevauchement), table des matières injectée dans le prompt, et accès aux segments à la demande via des outils dédiés. Cela évite d'envoyer l'intégralité du PDF dans le contexte.
Mode autonome
Le mode autonome permet au Copilot d'exécuter des séquences d'actions sans confirmation de l'utilisateur.
| Aspect | Interactif | Autonome |
|---|---|---|
| Confirmations | Requises avant les actions destructives | Ignorées |
| Prompt système | Complet (règles, formatage, interactif) | Compact (règles, périmètre) |
| Détection d'arrêt précoce | Non | Oui (max 3 tentatives) |
Limitation de débit
T-IA Connect applique des quotas distincts pour chaque canal d'accès.
Outils gratuits (non comptabilisés)
Les outils en lecture seule ne consomment pas de quota : list_*, get_documentation, get_llm_tips, outils de découverte et de statut.
Communication temps réel
Le Copilot utilise SignalR pour les mises à jour en direct pendant l'exécution.
onAssistantResponseAffichage du chatonToolExecutionIndicateur "Réflexion..."onTokenUsageCompteur de tokensonStatusUpdated"Envoi à Claude..."Modèles compatibles
Compatibilité détaillée par fournisseur.
OpenAI
Recommandés : gpt-4o, gpt-4o-mini, gpt-4-turbo
Non compatibles : o1, o3-mini (utilisent Responses API, pas Chat Completions)
Claude (Anthropic)
Recommandés : claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Tous les modèles Claude sont compatibles
Gemini (Google)
Recommandés : gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
Filtre automatique excluant les modèles non-chat (embedding, vision uniquement)
Groq
Recommandés : llama-3.3-70b-versatile, mixtral-8x7b
Remarque : le tier gratuit peut être insuffisant pour 128 outils
Personnalisé (Ollama, vLLM)
Tout modèle supportant le function calling au format OpenAI
Détection automatique des "faux appels d'outils" (modèles retournant du JSON en texte)
Routage double modèle
Pour les fournisseurs personnalisés, T-IA Connect supporte deux modèles : un modèle de raisonnement pour l'analyse/planification et un modèle de code pour la génération SCL/LAD. Le basculement est automatique selon le type d'outil exécuté.
Chiffres clés
Questions fréquentes
T-IA Connect envoie-t-il mon code automate dans le cloud ?
Uniquement si vous utilisez un fournisseur LLM cloud (OpenAI, Claude, Gemini). Vos messages et le contexte projet sont envoyés au fournisseur que vous avez choisi. Pour une confidentialité maximale, utilisez Ollama avec un modèle local et rien ne quitte votre machine.
Combien coûte l'IA par message ?
Avec GPT-4o, un message typique coûte environ 0,04 $ et un échange complet avec appels d'outils coûte 0,10-0,15 $. Vous payez le fournisseur LLM directement avec votre propre clé API.
Le Copilot peut-il endommager mon projet TIA Portal ?
En mode interactif, le Copilot demande confirmation avant les actions destructives. Les protections anti-boucle empêchent l'exécution incontrôlée des outils. Vous pouvez aussi arrêter l'exécution à tout moment.
Quel modèle LLM choisir ?
Pour les meilleurs résultats, utilisez GPT-4o ou Claude Sonnet. Pour un usage économique, GPT-4o-mini ou Gemini Flash conviennent bien aux tâches plus simples. Pour une confidentialité totale, utilisez Ollama avec un modèle local comme Llama 3.
Pages associées
Assistant IA TIA Portal
Découvrez toutes les capacités de l'assistant IA intégré.
Read moreGénération de code automate par IA
Découvrez comment l'IA génère du code SCL, LAD et STL pour les automates Siemens.
Read moreServeur MCP pour TIA Portal
Utilisez T-IA Connect comme serveur MCP avec Claude Desktop ou Cursor.
Read morevs Siemens Industrial Copilot
Comparez T-IA Connect avec la solution IA officielle de Siemens.
Read more