Wie der TIA Portal
KI-Copilot funktioniert
Ein transparenter Einblick in die Architektur hinter dem KI-Assistenten von T-IA Connect. Verstehen Sie, wie Ihre Nachrichten durch intelligente Tool-Auswahl und LLM Orchestrierung zu TIA Portal Aktionen werden.
Übersicht
Der T-IA Connect Copilot ist ein integrierter KI-Assistent, der TIA Portal über Tools (function calling) steuert. Sie senden eine Nachricht in natürlicher Sprache, das LLM entscheidet, welche Tools aufgerufen werden, und T-IA Connect führt die entsprechenden Aktionen in TIA Portal aus.
Der gesamte Prozess läuft lokal auf Ihrem Rechner. Ihre API-Keys werden über Windows DPAPI verschlüsselt, niemals protokolliert und niemals an Dritte übermittelt. T-IA Connect kontaktiert LLM Anbieter direkt ohne Proxy oder Relay-Server.
Datenfluss
Benutzer
Sendet eine Nachricht in natürlicher Sprache
T-IA Connect
Baut Kontext auf, wählt Tools aus, ruft LLM auf
LLM Provider
Analysiert und gibt Tool-Aufrufe zurück
TIA Portal
Führt Aktionen über die Openness API aus
Unterstützte LLM Anbieter
T-IA Connect ist anbieterunabhängig. Nutzen Sie Ihren eigenen API-Key und wählen Sie Ihren bevorzugten Anbieter.
| Anbieter | Standardmodell | Authentifizierung |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key Header |
| Gemini (Google) | gemini-1.5-flash | API key in der Query |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM, etc. | Optionaler bearer token |
Sicherheit der API-Keys
- ✓Keys werden lokal gespeichert, verschlüsselt über Windows DPAPI
- ✓Direkte Verbindung zu den Anbietern, kein Proxy oder Relay
- ✓Keys werden niemals protokolliert oder an Dritte übermittelt
- ✓Eigene Endpunkte werden unterstützt (Azure OpenAI, Unternehmens-Proxys)
Intelligente Tool-Auswahl
Bei ca. 400 verfügbaren Tools wäre es kostspielig und kontraproduktiv, alle bei jeder Anfrage zu senden. T-IA Connect löst dies durch eine kontextbezogene Kategorieauswahl.
Die Herausforderung
- ⚠Jede Tool-Definition verbraucht ca. 50 Input-Token
- ⚠Einige Anbieter begrenzen Tools auf maximal 128 (OpenAI)
- ⚠Zu viele Tools können das LLM verwirren
Die Lösung: Kontextbezogene Kategorien
T-IA Connect analysiert Ihre Nachricht und aktiviert nur die relevanten Tool-Kategorien.
Immer enthalten
Core (~34 Tools): Projektmanagement, Geräte, Export/Import
Knowledge (~21 Tools): Dokumentation, Tipps, Analyse, Memory
| Kategorie | Tools | Trigger-Schlüsselwörter |
|---|---|---|
| Blöcke | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Variablen | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Hardware | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulation | ~23 | plcsim, simul, runtime, power_on, instance... |
| Sicherheit | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| Erweitert | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Infrastruktur | ~54 | report, vcs, git, test, library, codesys... |
Konkrete Beispiele
"Erstelle einen FB Motor"
core + knowledge + blocks
~86 Tools
"Konfiguriere PLCSim"
core + knowledge + simulation
~78 Tools
"Füge ein HMI-Bild hinzu"
core + knowledge + hmi
~106 Tools
Sticky Context
Wenn Ihre Nachricht keine Schlüsselwörter enthält (z. B. "ja", "weiter", "mach es"), verwendet T-IA Connect die Kategorien der vorherigen Nachricht wieder. Dies ermöglicht natürliche Konversationen ohne Kontextverlust.
Ausführungsschleife
Der Copilot arbeitet in einer Schleife: Das LLM kann nacheinander mehrere Tools aufrufen, bevor es dem Benutzer antwortet.
Schutzmechanismen gegen Endlosschleifen
| Schutz | Schwellenwert | Verhalten |
|---|---|---|
| Identische aufeinanderfolgende Aufrufe | 2 | Stoppt die Schleife |
| Aufeinanderfolgende Fehler (gleiches Tool) | 3 | Stoppt die Schleife |
| Maximale absolute Iterationen | 200 | Sicherheitsnetz |
| LLM Fehler-Wiederholungen | 2 | Dann Abbruch |
| Wiederholungen bei leerer Antwort | 3 | Dann Abbruch |
Token-Verbrauch
Verstehen Sie, was Token verbraucht und wie T-IA Connect die Kosten optimiert.
| Komponente | Geschätzte Token | Häufigkeit |
|---|---|---|
| System Prompt (Anweisungen) | ~2,000-3,000 | Jede Nachricht |
| Projektkontext (Geräte, Blöcke) | ~500-2,000 | Jede Nachricht |
| Tool-Definitionen (max. 128) | ~5,000-8,000 | Jede Nachricht |
| Konversationsverlauf | ~1,000-10,000 | Wachsend |
| Benutzernachricht | ~50-500 | Jede Nachricht |
| Typischer Gesamt-Input | ~10,000-20,000 | Pro Nachricht |
| LLM Antwort | ~200-2,000 | Pro Nachricht |
Kostenschätzung
Für eine typische Nachricht mit GPT-4o (OpenAI Preise, April 2026):
Ein vollständiger Austausch mit Tool-Aufrufen (2-3 LLM Iterationen) kostet etwa $0.10-0.15.
Automatische Optimierungen
- Kontextbezogene Auswahl: Nur relevante Tools werden gesendet (nicht alle 400)
- Auto-Kompaktierung: Wenn der Verlauf ~200.000 Zeichen überschreitet, werden alte Nachrichten automatisch zusammengefasst
- Begrenzter Verlauf: Max. 20 Nachrichten und 32.000 Zeichen bleiben im Kontext
- 128-Tool-Limit: Begrenzt die Fixkosten der Tool-Definitionen
Multimodale Unterstützung
Der Copilot kann Bilder und PDF-Dokumente neben Text verarbeiten.
Bilder
An den Copiloten gesendete Bilder werden im base64 Format (Vision-Format) an das LLM übertragen. Nützlich zur Analyse von Programm-Screenshots, Identifizierung von visuellen Fehlern oder zur Beschreibung von Schaltplänen.
PDFs (Design-Spezifikation)
PDFs werden über das CDC (Custom Design Companion) System verarbeitet: Textextraktion, Chunking (1.500 Zeichen mit 200 Überlappung), Inhaltsverzeichnis im Prompt und On-Demand Zugriff auf Chunks über dedizierte Tools. Dies vermeidet das Senden des gesamten PDFs in den Kontext.
Autonomer Modus
Der autonome Modus erlaubt dem Copiloten, Aktionssequenzen ohne Bestätigung durch den Benutzer auszuführen.
| Aspekt | Interaktiv | Autonom |
|---|---|---|
| Bestätigungen | Erforderlich vor destruktiven Aktionen | Übersprungen |
| System Prompt | Vollständig (Regeln, Formatierung, interaktiv) | Kompakt (Regeln, Umfang) |
| Erkennung vorzeitiger Stopps | Nein | Ja (max. 3 Versuche) |
Rate Limiting
T-IA Connect wendet separate Quoten für jeden Zugriffskanal an.
Kostenlose Tools (Nicht gezählt)
Read-only Tools verbrauchen keine Quote: list_*, get_documentation, get_llm_tips, Discovery- und Status-Tools.
Echtzeit-Kommunikation
Der Copilot nutzt SignalR für Live-Updates während der Ausführung.
onAssistantResponseChat-AnzeigeonToolExecution"Überlegt..." IndikatoronTokenUsageToken-ZähleronStatusUpdated"Sende an Claude..."Kompatible Modelle
Detaillierte Kompatibilität pro Anbieter.
OpenAI
Empfohlen: gpt-4o, gpt-4o-mini, gpt-4-turbo
Nicht kompatibel: o1, o3-mini (nutzen Responses API statt Chat Completions)
Claude (Anthropic)
Empfohlen: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Alle Claude Modelle sind kompatibel
Gemini (Google)
Empfohlen: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
Auto-Filter schließt Nicht-Chat-Modelle aus (Embedding, Vision-only)
Groq
Empfohlen: llama-3.3-70b-versatile, mixtral-8x7b
Hinweis: Free-Tier reicht eventuell nicht für 128 Tools aus
Benutzerdefiniert (Ollama, vLLM)
Jedes Modell, das function calling im OpenAI-Format unterstützt
Automatische Erkennung von "Fake Tool Calls" (Modelle, die JSON als Text zurückgeben)
Dual Model Routing
Für Custom-Anbieter unterstützt T-IA Connect zwei Modelle: Ein Reasoning-Modell für Analyse/Planung und ein Code-Modell für die SCL/LAD Generierung. Der Wechsel erfolgt automatisch basierend auf dem auszuführenden Tool-Typ.
Kennzahlen
Häufig gestellte Fragen
Sendet T-IA Connect meinen SPS-Code in die Cloud?
Nur wenn Sie einen Cloud-LLM-Anbieter nutzen (OpenAI, Claude, Gemini). Ihre Nachrichten und der Projektkontext werden an den von Ihnen gewählten Anbieter gesendet. Für maximale Privatsphäre nutzen Sie Ollama mit einem lokalen Modell, dann verlässt nichts Ihren Rechner.
Wie viel kostet die KI pro Nachricht?
Mit GPT-4o kostet eine typische Nachricht etwa $0.04 und ein vollständiger Austausch mit Tool-Aufrufen $0.10-0.15. Sie bezahlen den LLM Anbieter direkt über Ihren eigenen API-Key.
Kann der Copilot mein TIA Portal Projekt beschädigen?
Im interaktiven Modus bittet der Copilot vor destruktiven Aktionen um Bestätigung. Anti-Loop-Schutzmechanismen verhindern eine unkontrollierte Tool-Ausführung. Sie können die Ausführung zudem jederzeit stoppen.
Welches LLM Modell sollte ich wählen?
Für die besten Ergebnisse nutzen Sie GPT-4o oder Claude Sonnet. Für eine budgetschonende Nutzung funktionieren GPT-4o-mini oder Gemini Flash gut bei einfacheren Aufgaben. Für volle Privatsphäre nutzen Sie Ollama mit einem lokalen Modell wie Llama 3.
Verwandte Seiten
TIA Portal KI Assistent
Entdecken Sie alle Möglichkeiten des integrierten KI-Assistenten.
Read moreKI SPS-Code Generierung
Erfahren Sie, wie KI SCL, LAD und STL Code für Siemens SPSen generiert.
Read moreMCP Server für TIA Portal
Nutzen Sie T-IA Connect als MCP Server mit Claude Desktop oder Cursor.
Read morevs Siemens Industrial Copilot
Vergleichen Sie T-IA Connect mit der offiziellen KI-Lösung von Siemens.
Read more