Technische Dokumentation

Wie der TIA Portal
KI-Copilot funktioniert

Ein transparenter Einblick in die Architektur hinter dem KI-Assistenten von T-IA Connect. Verstehen Sie, wie Ihre Nachrichten durch intelligente Tool-Auswahl und LLM Orchestrierung zu TIA Portal Aktionen werden.

Übersicht

Der T-IA Connect Copilot ist ein integrierter KI-Assistent, der TIA Portal über Tools (function calling) steuert. Sie senden eine Nachricht in natürlicher Sprache, das LLM entscheidet, welche Tools aufgerufen werden, und T-IA Connect führt die entsprechenden Aktionen in TIA Portal aus.

Der gesamte Prozess läuft lokal auf Ihrem Rechner. Ihre API-Keys werden über Windows DPAPI verschlüsselt, niemals protokolliert und niemals an Dritte übermittelt. T-IA Connect kontaktiert LLM Anbieter direkt ohne Proxy oder Relay-Server.

Datenfluss

Benutzer

Sendet eine Nachricht in natürlicher Sprache

T-IA Connect

Baut Kontext auf, wählt Tools aus, ruft LLM auf

LLM Provider

Analysiert und gibt Tool-Aufrufe zurück

TIA Portal

Führt Aktionen über die Openness API aus

User >Erstelle einen FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB erfolgreich erstellt

Unterstützte LLM Anbieter

T-IA Connect ist anbieterunabhängig. Nutzen Sie Ihren eigenen API-Key und wählen Sie Ihren bevorzugten Anbieter.

AnbieterStandardmodellAuthentifizierung
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key Header
Gemini (Google)gemini-1.5-flashAPI key in der Query
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM, etc.Optionaler bearer token

Sicherheit der API-Keys

  • Keys werden lokal gespeichert, verschlüsselt über Windows DPAPI
  • Direkte Verbindung zu den Anbietern, kein Proxy oder Relay
  • Keys werden niemals protokolliert oder an Dritte übermittelt
  • Eigene Endpunkte werden unterstützt (Azure OpenAI, Unternehmens-Proxys)

Intelligente Tool-Auswahl

Bei ca. 400 verfügbaren Tools wäre es kostspielig und kontraproduktiv, alle bei jeder Anfrage zu senden. T-IA Connect löst dies durch eine kontextbezogene Kategorieauswahl.

Die Herausforderung

  • Jede Tool-Definition verbraucht ca. 50 Input-Token
  • Einige Anbieter begrenzen Tools auf maximal 128 (OpenAI)
  • Zu viele Tools können das LLM verwirren

Die Lösung: Kontextbezogene Kategorien

T-IA Connect analysiert Ihre Nachricht und aktiviert nur die relevanten Tool-Kategorien.

Immer enthalten

Core (~34 Tools): Projektmanagement, Geräte, Export/Import

Knowledge (~21 Tools): Dokumentation, Tipps, Analyse, Memory

KategorieToolsTrigger-Schlüsselwörter
Blöcke~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Variablen~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Hardware~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulation~23plcsim, simul, runtime, power_on, instance...
Sicherheit~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Erweitert~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infrastruktur~54report, vcs, git, test, library, codesys...

Konkrete Beispiele

"Erstelle einen FB Motor"

core + knowledge + blocks

~86 Tools

"Konfiguriere PLCSim"

core + knowledge + simulation

~78 Tools

"Füge ein HMI-Bild hinzu"

core + knowledge + hmi

~106 Tools

Sticky Context

Wenn Ihre Nachricht keine Schlüsselwörter enthält (z. B. "ja", "weiter", "mach es"), verwendet T-IA Connect die Kategorien der vorherigen Nachricht wieder. Dies ermöglicht natürliche Konversationen ohne Kontextverlust.

Ausführungsschleife

Der Copilot arbeitet in einer Schleife: Das LLM kann nacheinander mehrere Tools aufrufen, bevor es dem Benutzer antwortet.

Nachricht + Kontext an LLM senden
LLM gibt Antwort zurück
Tool-Aufrufe erkannt?
Ja
Tools in TIA Portal ausführen
Ergebnisse zurück an das LLM senden
Nein
Finale Antwort an den Benutzer

Schutzmechanismen gegen Endlosschleifen

SchutzSchwellenwertVerhalten
Identische aufeinanderfolgende Aufrufe2Stoppt die Schleife
Aufeinanderfolgende Fehler (gleiches Tool)3Stoppt die Schleife
Maximale absolute Iterationen200Sicherheitsnetz
LLM Fehler-Wiederholungen2Dann Abbruch
Wiederholungen bei leerer Antwort3Dann Abbruch

Token-Verbrauch

Verstehen Sie, was Token verbraucht und wie T-IA Connect die Kosten optimiert.

KomponenteGeschätzte TokenHäufigkeit
System Prompt (Anweisungen)~2,000-3,000Jede Nachricht
Projektkontext (Geräte, Blöcke)~500-2,000Jede Nachricht
Tool-Definitionen (max. 128)~5,000-8,000Jede Nachricht
Konversationsverlauf~1,000-10,000Wachsend
Benutzernachricht~50-500Jede Nachricht
Typischer Gesamt-Input~10,000-20,000Pro Nachricht
LLM Antwort~200-2,000Pro Nachricht

Kostenschätzung

Für eine typische Nachricht mit GPT-4o (OpenAI Preise, April 2026):

Input: ~15,000 Token x $2.50/1M =~$0.037
Output: ~500 Token x $10/1M =~$0.005
Gesamt pro Nachricht:~$0.04

Ein vollständiger Austausch mit Tool-Aufrufen (2-3 LLM Iterationen) kostet etwa $0.10-0.15.

Automatische Optimierungen

  • Kontextbezogene Auswahl: Nur relevante Tools werden gesendet (nicht alle 400)
  • Auto-Kompaktierung: Wenn der Verlauf ~200.000 Zeichen überschreitet, werden alte Nachrichten automatisch zusammengefasst
  • Begrenzter Verlauf: Max. 20 Nachrichten und 32.000 Zeichen bleiben im Kontext
  • 128-Tool-Limit: Begrenzt die Fixkosten der Tool-Definitionen

Multimodale Unterstützung

Der Copilot kann Bilder und PDF-Dokumente neben Text verarbeiten.

Bilder

An den Copiloten gesendete Bilder werden im base64 Format (Vision-Format) an das LLM übertragen. Nützlich zur Analyse von Programm-Screenshots, Identifizierung von visuellen Fehlern oder zur Beschreibung von Schaltplänen.

PDFs (Design-Spezifikation)

PDFs werden über das CDC (Custom Design Companion) System verarbeitet: Textextraktion, Chunking (1.500 Zeichen mit 200 Überlappung), Inhaltsverzeichnis im Prompt und On-Demand Zugriff auf Chunks über dedizierte Tools. Dies vermeidet das Senden des gesamten PDFs in den Kontext.

Autonomer Modus

Der autonome Modus erlaubt dem Copiloten, Aktionssequenzen ohne Bestätigung durch den Benutzer auszuführen.

AspektInteraktivAutonom
BestätigungenErforderlich vor destruktiven AktionenÜbersprungen
System PromptVollständig (Regeln, Formatierung, interaktiv)Kompakt (Regeln, Umfang)
Erkennung vorzeitiger StoppsNeinJa (max. 3 Versuche)

Rate Limiting

T-IA Connect wendet separate Quoten für jeden Zugriffskanal an.

apiDirekte REST API Aufrufe
mcpMCP Tools (Claude Desktop, etc.)
copilotIntegrierter Assistent

Kostenlose Tools (Nicht gezählt)

Read-only Tools verbrauchen keine Quote: list_*, get_documentation, get_llm_tips, Discovery- und Status-Tools.

Echtzeit-Kommunikation

Der Copilot nutzt SignalR für Live-Updates während der Ausführung.

onAssistantResponseChat-Anzeige
onToolExecution"Überlegt..." Indikator
onTokenUsageToken-Zähler
onStatusUpdated"Sende an Claude..."

Kompatible Modelle

Detaillierte Kompatibilität pro Anbieter.

OpenAI

Empfohlen: gpt-4o, gpt-4o-mini, gpt-4-turbo

Nicht kompatibel: o1, o3-mini (nutzen Responses API statt Chat Completions)

Claude (Anthropic)

Empfohlen: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Alle Claude Modelle sind kompatibel

Gemini (Google)

Empfohlen: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Auto-Filter schließt Nicht-Chat-Modelle aus (Embedding, Vision-only)

Groq

Empfohlen: llama-3.3-70b-versatile, mixtral-8x7b

Hinweis: Free-Tier reicht eventuell nicht für 128 Tools aus

Benutzerdefiniert (Ollama, vLLM)

Jedes Modell, das function calling im OpenAI-Format unterstützt

Automatische Erkennung von "Fake Tool Calls" (Modelle, die JSON als Text zurückgeben)

Dual Model Routing

Für Custom-Anbieter unterstützt T-IA Connect zwei Modelle: Ein Reasoning-Modell für Analyse/Planung und ein Code-Modell für die SCL/LAD Generierung. Der Wechsel erfolgt automatisch basierend auf dem auszuführenden Tool-Typ.

Kennzahlen

~400
Tools insgesamt
128
Tools pro Anfrage (max)
5 (+ benutzerdefiniert)
Unterstützte Anbieter
13
Tool-Kategorien
90 Sekunden
HTTP Timeout
20 Nachrichten / 32,000 Zeichen
Verlauf im Kontext
~$0.04
Geschätzte Kosten pro Nachricht (GPT-4o)
~$0.10-0.15
Geschätzte Kosten pro vollem Austausch

Häufig gestellte Fragen

Sendet T-IA Connect meinen SPS-Code in die Cloud?

Nur wenn Sie einen Cloud-LLM-Anbieter nutzen (OpenAI, Claude, Gemini). Ihre Nachrichten und der Projektkontext werden an den von Ihnen gewählten Anbieter gesendet. Für maximale Privatsphäre nutzen Sie Ollama mit einem lokalen Modell, dann verlässt nichts Ihren Rechner.

Wie viel kostet die KI pro Nachricht?

Mit GPT-4o kostet eine typische Nachricht etwa $0.04 und ein vollständiger Austausch mit Tool-Aufrufen $0.10-0.15. Sie bezahlen den LLM Anbieter direkt über Ihren eigenen API-Key.

Kann der Copilot mein TIA Portal Projekt beschädigen?

Im interaktiven Modus bittet der Copilot vor destruktiven Aktionen um Bestätigung. Anti-Loop-Schutzmechanismen verhindern eine unkontrollierte Tool-Ausführung. Sie können die Ausführung zudem jederzeit stoppen.

Welches LLM Modell sollte ich wählen?

Für die besten Ergebnisse nutzen Sie GPT-4o oder Claude Sonnet. Für eine budgetschonende Nutzung funktionieren GPT-4o-mini oder Gemini Flash gut bei einfacheren Aufgaben. Für volle Privatsphäre nutzen Sie Ollama mit einem lokalen Modell wie Llama 3.

Verwandte Seiten

Bereit, den Copiloten zu testen?

Laden Sie T-IA Connect herunter und beginnen Sie noch heute mit der KI-basierten Generierung von SPS-Code.