Technische Documentatie

Hoe de TIA Portal
AI Copilot werkt

Een transparante blik op de architectuur achter de AI-assistent van T-IA Connect. Begrijp hoe uw berichten TIA Portal-acties worden via intelligente toolselectie en LLM-orkestratie.

Overzicht

De T-IA Connect Copilot is een geïntegreerde AI-assistent die TIA Portal bestuurt via tools (function calling). U stuurt een bericht in natuurlijke taal, de LLM beslist welke tools moeten worden aangeroepen, en T-IA Connect voert de bijbehorende acties uit in TIA Portal.

Het gehele proces draait lokaal op uw machine. Uw API-sleutels zijn versleuteld via Windows DPAPI, worden nooit gelogd en nooit aan derden verzonden. T-IA Connect neemt rechtstreeks contact op met LLM-providers zonder proxy of relay-server.

Gegevensstroom

Gebruiker

Verstuurt een bericht in natuurlijke taal

T-IA Connect

Bouwt context op, selecteert tools, roept LLM aan

LLM Provider

Analyseert en retourneert tool-aanroepen

TIA Portal

Voert acties uit via Openness API

User >Maak een FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB succesvol aangemaakt

Ondersteunde LLM Providers

T-IA Connect is provider-onafhankelijk. Gebruik uw eigen API-sleutel en kies uw voorkeursprovider.

ProviderStandaardmodelAuthenticatie
OpenAIgpt-4oBearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key header
Gemini (Google)gemini-1.5-flashAPI-sleutel in query
Groqllama-3.3-70b-versatileBearer token
CustomOllama, vLLM, etc.Optioneel Bearer token

Beveiliging van API-sleutels

  • Sleutels lokaal opgeslagen, versleuteld via Windows DPAPI
  • Directe verbinding met providers, geen proxy of relay
  • Sleutels worden nooit gelogd of verzonden naar derden
  • Aangepaste endpoints ondersteund (Azure OpenAI, enterprise proxies)

Slimme Toolselectie

Met ongeveer 400 beschikbare tools zou het verzenden van alle tools bij elk verzoek kostbaar en contraproductief zijn. T-IA Connect lost dit op met contextuele categorieselectie.

De Uitdaging

  • Elke tool-definitie verbruikt ongeveer 50 input tokens
  • Sommige providers beperken tools tot maximaal 128 (OpenAI)
  • Te veel tools kunnen de LLM in de war brengen

De Oplossing: Contextuele Categorieën

T-IA Connect analyseert uw bericht en activeert alleen de relevante tool-categorieën.

Altijd Inbegrepen

Core (~34 tools): projectbeheer, apparaten, export/import

Knowledge (~21 tools): documentatie, tips, analyse, geheugen

CategorieToolsTrigger Trefwoorden
Blocks~31block, fb, fc, ob, db, scl, lad, compileren, programmeren, code...
Tags~16tag, watch, force, variabele, adres, diagnostiek...
HMI~51hmi, scherm, paneel, wincc, display, visualisatie...
Hardware~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulatie~23plcsim, simul, runtime, power_on, instantie...
Beveiliging~21security, wachtwoord, beveiliging, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Geavanceerd~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infrastructuur~54rapport, vcs, git, test, bibliotheek, codesys...

Concrete Voorbeelden

"Maak een FB Motor"

core + knowledge + blocks

~86 tools

"Configureer PLCSim"

core + knowledge + simulation

~78 tools

"Voeg een HMI scherm toe"

core + knowledge + hmi

~106 tools

Sticky Context

Als uw bericht geen trefwoorden bevat (bijv. "ja", "ga door", "doe het"), hergebruikt T-IA Connect de categorieën van het vorige bericht. Dit maakt natuurlijke gesprekken mogelijk zonder contextverlies.

Executielus

De Copilot werkt in een lus: de LLM kan achtereenvolgens meerdere tools aanroepen voordat hij de gebruiker antwoordt.

Verstuur bericht + context naar LLM
LLM retourneert antwoord
Tool-aanroepen gedetecteerd?
Ja
Voer tools uit in TIA Portal
Stuur resultaten terug naar LLM
Nee
Eindantwoord aan gebruiker

Anti-Oneindige-Lus Bescherming

BeschermingDrempelwaardeGedrag
Identieke opeenvolgende aanroepen2Stopt de lus
Opeenvolgende fouten (dezelfde tool)3Stopt de lus
Max absolute iteraties200Veiligheidsnet
LLM foutpogingen2Dan mislukking
Lege antwoordpogingen3Dan mislukking

Tokenverbruik

Begrijp wat tokens verbruikt en hoe T-IA Connect de kosten optimaliseert.

ComponentGeschatte TokensFrequentie
System prompt (instructies)~2,000-3,000Elk bericht
Projectcontext (apparaten, blocks)~500-2,000Elk bericht
Tool-definities (max 128)~5,000-8,000Elk bericht
Gespreksgeschiedenis~1,000-10,000Groeiend
Gebruikersbericht~50-500Elk bericht
Typische totale input~10,000-20,000Per bericht
LLM antwoord~200-2,000Per bericht

Kostenraming

Voor een typisch bericht met GPT-4o (OpenAI prijzen, april 2026):

Input: ~15,000 tokens x $2.50/1M =~$0.037
Output: ~500 tokens x $10/1M =~$0.005
Totaal per bericht:~$0.04

Een volledige uitwisseling met function calling (2-3 LLM-iteraties) kost ongeveer $0.10-0.15.

Automatische Optimalisaties

  • Contextuele selectie: alleen relevante tools worden verzonden (niet alle 400)
  • Auto-compaction: wanneer geschiedenis de 200,000 tekens overschrijdt, worden oude berichten automatisch samengevat
  • Beperkte geschiedenis: maximaal 20 berichten en 32,000 tekens in context gehouden
  • 128 tool limiet: beperkt de vaste kosten van tool-definities

Multimodale Ondersteuning

De Copilot kan naast tekst ook afbeeldingen en PDF-documenten verwerken.

Afbeeldingen

Afbeeldingen verzonden naar de Copilot worden naar de LLM gestuurd in base64 (visieformaat). Handig voor het analyseren van programmashots, het identificeren van visuele fouten of het beschrijven van schema's.

PDF's (Ontwerpspecificatie)

PDF's worden verwerkt via het CDC-systeem (Custom Design Companion): tekstextractie, chunking (1,500 tekens met 200 overlap), inhoudsopgave geïnjecteerd in de prompt en on-demand toegang tot chunks via speciale tools. Dit voorkomt dat de volledige PDF in de context wordt verzonden.

Autonome Modus

De autonome modus stelt de Copilot in staat om actiereeksen uit te voeren zonder bevestiging van de gebruiker.

AspectInteractiefAutonoom
BevestigingenVereist voor destructieve actiesOvergeslagen
System promptVolledig (regels, formattering, interactief)Compact (regels, scope)
Detectie van vroege stopNeeJa (max 3 pogingen)

Rate Limiting

T-IA Connect hanteert afzonderlijke quota voor elk toegangskanaal.

apiDirecte REST API aanroepen
mcpMCP tools (Claude Desktop, etc.)
copilotGeïntegreerde assistent

Gratis Tools (Niet geteld)

Read-only tools verbruiken geen quotum: list_*, get_documentation, get_llm_tips, discovery en status tools.

Real-Time Communicatie

De Copilot gebruikt SignalR voor live updates tijdens de uitvoering.

onAssistantResponseChatweergave
onToolExecution"Denken..." indicator
onTokenUsageToken teller
onStatusUpdated"Verzenden naar Claude..."

Compatibele Modellen

Gedetailleerde compatibiliteit per provider.

OpenAI

Aanbevolen: gpt-4o, gpt-4o-mini, gpt-4-turbo

Niet compatibel: o1, o3-mini (gebruik Responses API, niet Chat Completions)

Claude (Anthropic)

Aanbevolen: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Alle Claude-modellen zijn compatibel

Gemini (Google)

Aanbevolen: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Auto-filter sluit niet-chatmodellen uit (embedding, vision-only)

Groq

Aanbevolen: llama-3.3-70b-versatile, mixtral-8x7b

Opmerking: gratis tier kan onvoldoende zijn voor 128 tools

Custom (Ollama, vLLM)

Elk model dat function calling in OpenAI-formaat ondersteunt

Automatische detectie van "fake tool calls" (modellen die JSON als tekst retourneren)

Dual Model Routing

Voor Custom providers ondersteunt T-IA Connect twee modellen: een redeneermodel voor analyse/planning en een codemodel voor SCL/LAD generatie. De omschakeling is automatisch op basis van het type tool dat wordt uitgevoerd.

Kerncijfers

~400
Totaal aantal tools
128
Tools per verzoek (max)
5 (+ custom)
Ondersteunde providers
13
Tool-categorieën
90 seconden
HTTP timeout
20 berichten / 32,000 tekens
Geschiedenis in context
~$0.04
Geschatte kosten per bericht (GPT-4o)
~$0.10-0.15
Geschatte kosten per volledige uitwisseling

Veelgestelde Vragen

Verstuurt T-IA Connect mijn PLC-code naar de cloud?

Alleen wanneer u een cloud LLM-provider gebruikt (OpenAI, Claude, Gemini). Uw berichten en projectcontext worden naar de door u gekozen provider gestuurd. Voor maximale privacy gebruikt u Ollama met een lokaal model, dan verlaat niets uw machine.

Hoeveel kost de AI per bericht?

Met GPT-4o kost een typisch bericht ongeveer $0.04 en een volledige uitwisseling met function calling $0.10-0.15. U betaalt de LLM-provider rechtstreeks met uw eigen API-sleutel.

Kan de Copilot mijn TIA Portal project beschadigen?

In interactieve modus vraagt de Copilot om bevestiging voor destructieve acties. Anti-lus bescherming voorkomt op hol geslagen tool-uitvoering. U kunt de uitvoering ook op elk moment stoppen.

Welk LLM-model moet ik kiezen?

Voor de beste resultaten gebruikt u GPT-4o of Claude Sonnet. Voor budgetbewust gebruik werken GPT-4o-mini of Gemini Flash goed voor eenvoudigere taken. Voor volledige privacy gebruikt u Ollama met een lokaal model zoals Llama 3.

Gerelateerde Pagina's

Klaar om de Copilot te proberen?

Download T-IA Connect en begin vandaag nog met het genereren van PLC-code met AI.