Hur TIA Portal
AI Copilot fungerar
En transparent titt på arkitekturen bakom T-IA Connects AI-assistent. Förstå hur dina meddelanden blir TIA Portal-åtgärder genom intelligent verktygsval och LLM-orkestrering.
Översikt
T-IA Connect Copilot är en integrerad AI-assistent som styr TIA Portal via verktyg (function calling). Du skickar ett meddelande på naturligt språk, LLM beslutar vilka verktyg som ska anropas och T-IA Connect exekverar motsvarande åtgärder i TIA Portal.
Hela processen körs lokalt på din maskin. Dina API-nycklar krypteras via Windows DPAPI, loggas aldrig och skickas aldrig till tredje part. T-IA Connect kontaktar LLM-leverantörer direkt utan proxy- eller reläserver.
Dataflöde
Användare
Skickar ett meddelande på naturligt språk
T-IA Connect
Bygger kontext, väljer verktyg, anropar LLM
LLM-leverantör
Analyserar och returnerar verktygsanrop
TIA Portal
Exekverar åtgärder via Openness API
LLM-leverantörer som stöds
T-IA Connect är oberoende av leverantör. Använd din egen API-nyckel och välj din föredragna leverantör.
| Leverantör | Standardmodell | Autentisering |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key header |
| Gemini (Google) | gemini-1.5-flash | API-nyckel i query |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM, etc. | Valfri bearer token |
Säkerhet för API-nycklar
- ✓Nycklar lagras lokalt, krypterade via Windows DPAPI
- ✓Direktanslutning till leverantörer, ingen proxy eller relä
- ✓Nycklar loggas aldrig eller skickas till tredje part
- ✓Anpassade endpoints stöds (Azure OpenAI, företagsproxies)
Smart verktygsval
Med ~400 tillgängliga verktyg skulle det vara kostsamt och kontraproduktivt att skicka alla vid varje begäran. T-IA Connect löser detta med kontextuellt kategorival.
Utmaningen
- ⚠Varje verktygsdefinition förbrukar ~50 input-tokens
- ⚠Vissa leverantörer begränsar verktyg till max 128 (OpenAI)
- ⚠För många verktyg kan förvirra LLM
Lösningen: Kontextuella kategorier
T-IA Connect analyserar ditt meddelande och aktiverar endast relevanta verktygskategorier.
Alltid inkluderat
Core (~34 verktyg): projekthantering, enheter, export/import
Knowledge (~21 verktyg): dokumentation, tips, analys, minne
| Kategori | Verktyg | Trigger-nyckelord |
|---|---|---|
| Block | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Taggar | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Hårdvara | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulering | ~23 | plcsim, simul, runtime, power_on, instance... |
| Säkerhet | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| Avancerat | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Infrastruktur | ~54 | report, vcs, git, test, library, codesys... |
Konkreta exempel
"Skapa en FB Motor"
core + knowledge + blocks
~86 verktyg
"Konfigurera PLCSim"
core + knowledge + simulation
~78 verktyg
"Lägg till en HMI-skärm"
core + knowledge + hmi
~106 verktyg
Sticky Context
Om ditt meddelande inte innehåller några nyckelord (t.ex. "ja", "fortsätt", "gör det"), återanvänder T-IA Connect kategorierna från föregående meddelande. Detta möjliggör naturliga konversationer utan att förlora kontext.
Exekveringsloop
Copilot arbetar i en loop: LLM kan anropa flera verktyg efter varandra innan den svarar användaren.
Skydd mot oändliga loopar
| Skydd | Tröskelvärde | Beteende |
|---|---|---|
| Identiska efterföljande anrop | 2 | Stoppar loopen |
| Efterföljande fel (samma verktyg) | 3 | Stoppar loopen |
| Max absoluta iterationer | 200 | Säkerhetsnät |
| LLM-felomtagningar | 2 | Sedan fel |
| Omtagningar vid tomt svar | 3 | Sedan fel |
Tokenförbrukning
Förstå vad som förbrukar tokens och hur T-IA Connect optimerar kostnader.
| Komponent | Uppskattade tokens | Frekvens |
|---|---|---|
| System prompt (instruktioner) | ~2,000-3,000 | Varje meddelande |
| Projektkontext (enheter, block) | ~500-2,000 | Varje meddelande |
| Verktygsdefinitioner (max 128) | ~5,000-8,000 | Varje meddelande |
| Konversationshistorik | ~1,000-10,000 | Växande |
| Användarmeddelande | ~50-500 | Varje meddelande |
| Typisk total input | ~10,000-20,000 | Per meddelande |
| LLM-svar | ~200-2,000 | Per meddelande |
Kostnadsuppskattning
För ett typiskt meddelande med GPT-4o (OpenAI-prissättning, april 2026):
Ett fullständigt utbyte med verktygsanrop (2-3 LLM-iterationer) kostar ungefär $0.10-0.15.
Automatiska optimeringar
- Kontextuellt val: endast relevanta verktyg skickas (inte alla 400)
- Automatisk komprimering: när historiken överstiger ~200,000 tecken sammanfattas gamla meddelanden automatiskt
- Begränsad historik: max 20 meddelanden och 32,000 tecken behålls i kontexten
- Tak på 128 verktyg: begränsar den fasta kostnaden för verktygsdefinitioner
Multimodalt stöd
Copilot kan bearbeta bilder och PDF-dokument tillsammans med text.
Bilder
Bilder som skickas till Copilot överförs till LLM i base64 (visionsformat). Användbart för att analysera programskärmdumpar, identifiera visuella fel eller beskriva scheman.
PDF:er (Designspecifikation)
PDF:er bearbetas via CDC (Custom Design Companion)-systemet: textextraktion, uppdelning (chunking, 1,500 tecken med 200 överlapp), innehållsförteckning injicerad i prompten och tillgång till segment på begäran via dedikerade verktyg. Detta undviker att skicka hela PDF:en i kontexten.
Autonomt läge
Det autonoma läget tillåter Copilot att exekvera åtgärdssekvenser utan användarbekräftelse.
| Aspekt | Interaktivt | Autonomt |
|---|---|---|
| Bekräftelser | Krävs före destruktiva åtgärder | Skippas |
| System prompt | Fullständig (regler, formatering, interaktiv) | Kompakt (regler, omfattning) |
| Upptäckt av tidigt stopp | Nej | Ja (max 3 försök) |
Hastighetsbegränsning
T-IA Connect tillämpar separata kvoter för varje åtkomstkanal.
Fria verktyg (räknas ej)
Skrivskyddade verktyg förbrukar inte kvot: list_*, get_documentation, get_llm_tips, discovery- och statusverktyg.
Kommunikation i realtid
Copilot använder SignalR för liveuppdateringar under exekvering.
onAssistantResponseChattvisningonToolExecution"Tänker..."-indikatoronTokenUsageToken-räknareonStatusUpdated"Skickar till Claude..."Kompatibla modeller
Detaljerad kompatibilitet per leverantör.
OpenAI
Rekommenderas: gpt-4o, gpt-4o-mini, gpt-4-turbo
Ej kompatibel: o1, o3-mini (använd Responses API, inte Chat Completions)
Claude (Anthropic)
Rekommenderas: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Alla Claude-modeller är kompatibla
Gemini (Google)
Rekommenderas: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
Automatiskt filter exkluderar icke-chatt-modeller (embedding, endast vision)
Groq
Rekommenderas: llama-3.3-70b-versatile, mixtral-8x7b
Obs: gratisnivån kan vara otillräcklig för 128 verktyg
Anpassat (Ollama, vLLM)
Alla modeller som stöder function calling i OpenAI-format
Automatisk detektering av "falska verktygsanrop" (modeller som returnerar JSON som text)
Dual Model Routing
För anpassade leverantörer stöder T-IA Connect två modeller: en resonerande modell för analys/planering och en kodmodell för SCL/LAD-generering. Växlingen sker automatiskt baserat på den verktygstyp som exekveras.
Nyckeltal
Vanliga frågor
Skickar T-IA Connect min PLC-kod till molnet?
Endast när du använder en molnbaserad LLM-leverantör (OpenAI, Claude, Gemini). Dina meddelanden och din projektkontext skickas till den leverantör du valt. För maximal integritet, använd Ollama med en lokal modell så lämnar ingenting din maskin.
Hur mycket kostar AI:n per meddelande?
Med GPT-4o kostar ett typiskt meddelande cirka $0.04 och ett fullständigt utbyte med verktygsanrop kostar $0.10-0.15. Du betalar LLM-leverantören direkt med din egen API-nyckel.
Kan Copilot skada mitt TIA Portal-projekt?
I interaktivt läge ber Copilot om bekräftelse före destruktiva åtgärder. Skydd mot loopar förhindrar okontrollerad verktygsexekvering. Du kan också avbryta exekveringen när som helst.
Vilken LLM-modell ska jag välja?
För bästa resultat, använd GPT-4o eller Claude Sonnet. För budgetmedveten användning fungerar GPT-4o-mini eller Gemini Flash bra för enklare uppgifter. För fullständig integritet, använd Ollama med en lokal modell som Llama 3.
Relaterade sidor
TIA Portal AI-assistent
Uptäck alla förmågor hos den integrerade AI-assistenten.
Read moreAI PLC-kodgenerering
Lär dig hur AI genererar SCL-, LAD- och STL-kod för Siemens PLC:er.
Read moreMCP-server för TIA Portal
Använd T-IA Connect som en MCP-server med Claude Desktop eller Cursor.
Read morevs Siemens Industrial Copilot
Jämför T-IA Connect med Siemens officiella AI-lösning.
Read more