Teknisk dokumentation

Hur TIA Portal
AI Copilot fungerar

En transparent titt på arkitekturen bakom T-IA Connects AI-assistent. Förstå hur dina meddelanden blir TIA Portal-åtgärder genom intelligent verktygsval och LLM-orkestrering.

Översikt

T-IA Connect Copilot är en integrerad AI-assistent som styr TIA Portal via verktyg (function calling). Du skickar ett meddelande på naturligt språk, LLM beslutar vilka verktyg som ska anropas och T-IA Connect exekverar motsvarande åtgärder i TIA Portal.

Hela processen körs lokalt på din maskin. Dina API-nycklar krypteras via Windows DPAPI, loggas aldrig och skickas aldrig till tredje part. T-IA Connect kontaktar LLM-leverantörer direkt utan proxy- eller reläserver.

Dataflöde

Användare

Skickar ett meddelande på naturligt språk

T-IA Connect

Bygger kontext, väljer verktyg, anropar LLM

LLM-leverantör

Analyserar och returnerar verktygsanrop

TIA Portal

Exekverar åtgärder via Openness API

User >Skapa en FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB skapades framgångsrikt

LLM-leverantörer som stöds

T-IA Connect är oberoende av leverantör. Använd din egen API-nyckel och välj din föredragna leverantör.

LeverantörStandardmodellAutentisering
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key header
Gemini (Google)gemini-1.5-flashAPI-nyckel i query
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM, etc.Valfri bearer token

Säkerhet för API-nycklar

  • Nycklar lagras lokalt, krypterade via Windows DPAPI
  • Direktanslutning till leverantörer, ingen proxy eller relä
  • Nycklar loggas aldrig eller skickas till tredje part
  • Anpassade endpoints stöds (Azure OpenAI, företagsproxies)

Smart verktygsval

Med ~400 tillgängliga verktyg skulle det vara kostsamt och kontraproduktivt att skicka alla vid varje begäran. T-IA Connect löser detta med kontextuellt kategorival.

Utmaningen

  • Varje verktygsdefinition förbrukar ~50 input-tokens
  • Vissa leverantörer begränsar verktyg till max 128 (OpenAI)
  • För många verktyg kan förvirra LLM

Lösningen: Kontextuella kategorier

T-IA Connect analyserar ditt meddelande och aktiverar endast relevanta verktygskategorier.

Alltid inkluderat

Core (~34 verktyg): projekthantering, enheter, export/import

Knowledge (~21 verktyg): dokumentation, tips, analys, minne

KategoriVerktygTrigger-nyckelord
Block~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Taggar~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Hårdvara~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulering~23plcsim, simul, runtime, power_on, instance...
Säkerhet~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Avancerat~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infrastruktur~54report, vcs, git, test, library, codesys...

Konkreta exempel

"Skapa en FB Motor"

core + knowledge + blocks

~86 verktyg

"Konfigurera PLCSim"

core + knowledge + simulation

~78 verktyg

"Lägg till en HMI-skärm"

core + knowledge + hmi

~106 verktyg

Sticky Context

Om ditt meddelande inte innehåller några nyckelord (t.ex. "ja", "fortsätt", "gör det"), återanvänder T-IA Connect kategorierna från föregående meddelande. Detta möjliggör naturliga konversationer utan att förlora kontext.

Exekveringsloop

Copilot arbetar i en loop: LLM kan anropa flera verktyg efter varandra innan den svarar användaren.

Skicka meddelande + kontext till LLM
LLM returnerar svar
Verktygsanrop upptäckta?
Ja
Exekvera verktyg i TIA Portal
Skicka tillbaka resultat till LLM
Nej
Slutgiltigt svar till användaren

Skydd mot oändliga loopar

SkyddTröskelvärdeBeteende
Identiska efterföljande anrop2Stoppar loopen
Efterföljande fel (samma verktyg)3Stoppar loopen
Max absoluta iterationer200Säkerhetsnät
LLM-felomtagningar2Sedan fel
Omtagningar vid tomt svar3Sedan fel

Tokenförbrukning

Förstå vad som förbrukar tokens och hur T-IA Connect optimerar kostnader.

KomponentUppskattade tokensFrekvens
System prompt (instruktioner)~2,000-3,000Varje meddelande
Projektkontext (enheter, block)~500-2,000Varje meddelande
Verktygsdefinitioner (max 128)~5,000-8,000Varje meddelande
Konversationshistorik~1,000-10,000Växande
Användarmeddelande~50-500Varje meddelande
Typisk total input~10,000-20,000Per meddelande
LLM-svar~200-2,000Per meddelande

Kostnadsuppskattning

För ett typiskt meddelande med GPT-4o (OpenAI-prissättning, april 2026):

Input: ~15,000 tokens x $2.50/1M =~$0.037
Output: ~500 tokens x $10/1M =~$0.005
Totalt per meddelande:~$0.04

Ett fullständigt utbyte med verktygsanrop (2-3 LLM-iterationer) kostar ungefär $0.10-0.15.

Automatiska optimeringar

  • Kontextuellt val: endast relevanta verktyg skickas (inte alla 400)
  • Automatisk komprimering: när historiken överstiger ~200,000 tecken sammanfattas gamla meddelanden automatiskt
  • Begränsad historik: max 20 meddelanden och 32,000 tecken behålls i kontexten
  • Tak på 128 verktyg: begränsar den fasta kostnaden för verktygsdefinitioner

Multimodalt stöd

Copilot kan bearbeta bilder och PDF-dokument tillsammans med text.

Bilder

Bilder som skickas till Copilot överförs till LLM i base64 (visionsformat). Användbart för att analysera programskärmdumpar, identifiera visuella fel eller beskriva scheman.

PDF:er (Designspecifikation)

PDF:er bearbetas via CDC (Custom Design Companion)-systemet: textextraktion, uppdelning (chunking, 1,500 tecken med 200 överlapp), innehållsförteckning injicerad i prompten och tillgång till segment på begäran via dedikerade verktyg. Detta undviker att skicka hela PDF:en i kontexten.

Autonomt läge

Det autonoma läget tillåter Copilot att exekvera åtgärdssekvenser utan användarbekräftelse.

AspektInteraktivtAutonomt
BekräftelserKrävs före destruktiva åtgärderSkippas
System promptFullständig (regler, formatering, interaktiv)Kompakt (regler, omfattning)
Upptäckt av tidigt stoppNejJa (max 3 försök)

Hastighetsbegränsning

T-IA Connect tillämpar separata kvoter för varje åtkomstkanal.

apiDirekta REST API-anrop
mcpMCP-verktyg (Claude Desktop, etc.)
copilotIntegrerad assistent

Fria verktyg (räknas ej)

Skrivskyddade verktyg förbrukar inte kvot: list_*, get_documentation, get_llm_tips, discovery- och statusverktyg.

Kommunikation i realtid

Copilot använder SignalR för liveuppdateringar under exekvering.

onAssistantResponseChattvisning
onToolExecution"Tänker..."-indikator
onTokenUsageToken-räknare
onStatusUpdated"Skickar till Claude..."

Kompatibla modeller

Detaljerad kompatibilitet per leverantör.

OpenAI

Rekommenderas: gpt-4o, gpt-4o-mini, gpt-4-turbo

Ej kompatibel: o1, o3-mini (använd Responses API, inte Chat Completions)

Claude (Anthropic)

Rekommenderas: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Alla Claude-modeller är kompatibla

Gemini (Google)

Rekommenderas: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Automatiskt filter exkluderar icke-chatt-modeller (embedding, endast vision)

Groq

Rekommenderas: llama-3.3-70b-versatile, mixtral-8x7b

Obs: gratisnivån kan vara otillräcklig för 128 verktyg

Anpassat (Ollama, vLLM)

Alla modeller som stöder function calling i OpenAI-format

Automatisk detektering av "falska verktygsanrop" (modeller som returnerar JSON som text)

Dual Model Routing

För anpassade leverantörer stöder T-IA Connect två modeller: en resonerande modell för analys/planering och en kodmodell för SCL/LAD-generering. Växlingen sker automatiskt baserat på den verktygstyp som exekveras.

Nyckeltal

~400
Totalt antal verktyg
128
Verktyg per begäran (max)
5 (+ anpassade)
Leverantörer som stöds
13
Verktygskategorier
90 sekunder
HTTP-timeout
20 meddelanden / 32,000 chars
Historik i kontext
~$0.04
Uppskattad kostnad per meddelande (GPT-4o)
~$0.10-0.15
Uppskattad kostnad per fullständigt utbyte

Vanliga frågor

Skickar T-IA Connect min PLC-kod till molnet?

Endast när du använder en molnbaserad LLM-leverantör (OpenAI, Claude, Gemini). Dina meddelanden och din projektkontext skickas till den leverantör du valt. För maximal integritet, använd Ollama med en lokal modell så lämnar ingenting din maskin.

Hur mycket kostar AI:n per meddelande?

Med GPT-4o kostar ett typiskt meddelande cirka $0.04 och ett fullständigt utbyte med verktygsanrop kostar $0.10-0.15. Du betalar LLM-leverantören direkt med din egen API-nyckel.

Kan Copilot skada mitt TIA Portal-projekt?

I interaktivt läge ber Copilot om bekräftelse före destruktiva åtgärder. Skydd mot loopar förhindrar okontrollerad verktygsexekvering. Du kan också avbryta exekveringen när som helst.

Vilken LLM-modell ska jag välja?

För bästa resultat, använd GPT-4o eller Claude Sonnet. För budgetmedveten användning fungerar GPT-4o-mini eller Gemini Flash bra för enklare uppgifter. För fullständig integritet, använd Ollama med en lokal modell som Llama 3.

Relaterade sidor

Redo att prova Copilot?

Ladda ner T-IA Connect och börja generera PLC-kod med AI idag.