Come funziona il
Copilot AI di TIA Portal
Uno sguardo trasparente all'architettura dietro l'assistente AI di T-IA Connect. Scopri come i tuoi messaggi diventano azioni in TIA Portal attraverso la selezione intelligente degli strumenti e l'orchestrazione LLM.
Panoramica
Il Copilot di T-IA Connect è un assistente AI integrato che controlla TIA Portal tramite strumenti (function calling). Inviando un messaggio in linguaggio naturale, l'LLM decide quali strumenti chiamare e T-IA Connect esegue le azioni corrispondenti in TIA Portal.
L'intero processo viene eseguito localmente sulla tua macchina. Le tue chiavi API sono crittografate tramite Windows DPAPI, mai registrate e mai trasmesse a terzi. T-IA Connect contatta direttamente i provider LLM senza server proxy o relay.
Flusso dei dati
Utente
Invia un messaggio in linguaggio naturale
T-IA Connect
Costruisce il contesto, seleziona gli strumenti, chiama l'LLM
Provider LLM
Analizza e restituisce le chiamate agli strumenti
TIA Portal
Esegue le azioni tramite Openness API
Provider LLM supportati
T-IA Connect è indipendente dal provider. Utilizza la tua chiave API e scegli il tuo provider preferito.
| Provider | Modello predefinito | Autenticazione |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key header |
| Gemini (Google) | gemini-1.5-flash | API key in query |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM, ecc. | Optional bearer token |
Sicurezza delle chiavi API
- ✓Chiavi memorizzate localmente, crittografate tramite Windows DPAPI
- ✓Connessione diretta ai provider, senza proxy o relay
- ✓Le chiavi non vengono mai registrate o trasmesse a terzi
- ✓Endpoint personalizzati supportati (Azure OpenAI, proxy aziendali)
Selezione intelligente degli strumenti
Con circa 400 strumenti disponibili, inviarli tutti a ogni richiesta sarebbe costoso e controproducente. T-IA Connect risolve questo problema con la selezione contestuale delle categorie.
La sfida
- ⚠Ogni definizione di strumento consuma circa 50 token di input
- ⚠Alcuni provider limitano gli strumenti a un massimo di 128 (OpenAI)
- ⚠Troppi strumenti possono confondere l'LLM
La soluzione: Categorie contestuali
T-IA Connect analizza il tuo messaggio e attiva solo le categorie di strumenti pertinenti.
Sempre incluse
Core (~34 strumenti): gestione progetto, dispositivi, export/import
Conoscenza (~21 strumenti): documentazione, suggerimenti, analisi, memoria
| Categoria | Strumenti | Parole chiave di attivazione |
|---|---|---|
| Blocchi | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Tag | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Hardware | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulazione | ~23 | plcsim, simul, runtime, power_on, instance... |
| Sicurezza | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| Avanzate | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Infrastruttura | ~54 | report, vcs, git, test, library, codesys... |
Esempi concreti
"Crea un FB Motor"
core + knowledge + blocks
~86 strumenti
"Configura PLCSim"
core + knowledge + simulation
~78 strumenti
"Aggiungi una schermata HMI"
core + knowledge + hmi
~106 strumenti
Contesto persistente
Se il tuo messaggio non contiene parole chiave (es. "sì", "continua", "fallo"), T-IA Connect riutilizza le categorie del messaggio precedente. Ciò consente conversazioni naturali senza perdere il contesto.
Ciclo di esecuzione
Il Copilot lavora in un ciclo: l'LLM può chiamare più strumenti in successione prima di rispondere all'utente.
Protezioni anti-ciclo infinito
| Protezione | Soglia | Comportamento |
|---|---|---|
| Chiamate consecutive identiche | 2 | Interrompe il ciclo |
| Fallimenti consecutivi (stesso strumento) | 3 | Interrompe il ciclo |
| Massimo numero di iterazioni assolute | 200 | Rete di sicurezza |
| Tentativi in caso di errore LLM | 2 | Quindi fallimento |
| Tentativi in caso di risposta vuota | 3 | Quindi fallimento |
Consumo di token
Scopri cosa consuma token e come T-IA Connect ottimizza i costi.
| Componente | Token stimati | Frequenza |
|---|---|---|
| System prompt (istruzioni) | ~2,000-3,000 | Ogni messaggio |
| Contesto del progetto (dispositivi, blocchi) | ~500-2,000 | Ogni messaggio |
| Definizioni degli strumenti (max 128) | ~5,000-8,000 | Ogni messaggio |
| Cronologia della conversazione | ~1,000-10,000 | In crescita |
| Messaggio dell'utente | ~50-500 | Ogni messaggio |
| Input totale tipico | ~10,000-20,000 | Per messaggio |
| Risposta dell'LLM | ~200-2,000 | Per messaggio |
Stima dei costi
Per un messaggio tipico con GPT-4o (prezzi OpenAI, aprile 2026):
Uno scambio completo con chiamata agli strumenti (2-3 iterazioni LLM) costa circa $0.10-0.15.
Ottimizzazioni automatiche
- Selezione contestuale: vengono inviati solo gli strumenti pertinenti (non tutti i 400)
- Compattazione automatica: quando la cronologia supera i circa 200.000 caratteri, i vecchi messaggi vengono riassunti automaticamente
- Cronologia limitata: max 20 messaggi e 32.000 caratteri mantenuti nel contesto
- Limite di 128 strumenti: limita il costo fisso delle definizioni degli strumenti
Supporto multimodale
Il Copilot può elaborare immagini e documenti PDF insieme al testo.
Immagini
Le immagini inviate al Copilot vengono trasmesse all'LLM in base64 (formato visione). Utile per analizzare screenshot del programma, identificare errori visivi o descrivere schemi.
PDF (Specifiche di progettazione)
I PDF vengono elaborati tramite il sistema CDC (Custom Design Companion): estrazione del testo, suddivisione in blocchi (1.500 caratteri con 200 di sovrapposizione), indice inserito nel prompt e accesso ai blocchi su richiesta tramite strumenti dedicati. Ciò evita di inviare l'intero PDF nel contesto.
Modalità autonoma
La modalità autonoma consente al Copilot di eseguire sequenze di azioni senza la conferma dell'utente.
| Aspetto | Interattiva | Autonoma |
|---|---|---|
| Conferme | Richieste prima di azioni distruttive | Ignorate |
| System prompt | Completo (regole, formattazione, interattivo) | Compatto (regole, perimetro) |
| Rilevamento dell'arresto anticipato | No | Sì (max 3 tentativi) |
Limitazione della frequenza
T-IA Connect applica quote separate per ogni canale di accesso.
Strumenti gratuiti (non conteggiati)
Gli strumenti in sola lettura non consumano quota: list_*, get_documentation, get_llm_tips, strumenti di scoperta e di stato.
Comunicazione in tempo reale
Il Copilot utilizza SignalR per aggiornamenti in tempo reale durante l'esecuzione.
onAssistantResponseVisualizzazione della chatonToolExecutionIndicatore "Pensando..."onTokenUsageContatore di tokenonStatusUpdated"Sending to Claude..."Modelli compatibili
Compatibilità dettagliata per provider.
OpenAI
Consigliati: gpt-4o, gpt-4o-mini, gpt-4-turbo
Non compatibili: o1, o3-mini (utilizzano Responses API, non Chat Completions)
Claude (Anthropic)
Consigliati: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Tutti i modelli Claude sono compatibili
Gemini (Google)
Consigliati: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
L'autofiltro esclude i modelli non-chat (embedding, sola visione)
Groq
Consigliati: llama-3.3-70b-versatile, mixtral-8x7b
Nota: il piano gratuito potrebbe essere insufficiente per 128 strumenti
Custom (Ollama, vLLM)
Qualsiasi modello che supporti il function calling in formato OpenAI
Rilevamento automatico di "chiamate a strumenti false" (modelli che restituiscono JSON come testo)
Routing a doppio modello
Per i provider personalizzati (Custom), T-IA Connect supporta due modelli: un modello di ragionamento per analisi/pianificazione e un modello di codice per la generazione SCL/LAD. Il passaggio è automatico in base al tipo di strumento eseguito.
Dati chiave
Domande frequenti
T-IA Connect invia il mio codice PLC al cloud?
Solo quando utilizzi un provider LLM cloud (OpenAI, Claude, Gemini). I tuoi messaggi e il contesto del progetto vengono inviati al provider che hai scelto. Per la massima privacy, usa Ollama con un modello locale e nulla lascerà la tua macchina.
Quanto costa l'AI per messaggio?
Con GPT-4o, un messaggio tipico costa circa $0.04 e uno scambio completo con chiamata agli strumenti costa $0.10-0.15. Paghi direttamente il provider LLM utilizzando la tua chiave API.
Il Copilot può danneggiare il mio progetto TIA Portal?
In modalità interattiva, il Copilot chiede conferma prima di azioni distruttive. Le protezioni anti-ciclo impediscono l'esecuzione incontrollata degli strumenti. È inoltre possibile interrompere l'esecuzione in qualsiasi momento.
Quale modello LLM dovrei scegliere?
Per i migliori risultati, usa GPT-4o o Claude Sonnet. Per un utilizzo attento al budget, GPT-4o-mini o Gemini Flash funzionano bene per compiti più semplici. Per la massima privacy, usa Ollama con un modello locale come Llama 3.
Pagine correlate
Assistente AI per TIA Portal
Scopri tutte le capacità dell'assistente AI integrato.
Read moreGenerazione di codice PLC tramite AI
Scopri come l'AI genera codice SCL, LAD e STL per i PLC Siemens.
Read moreServer MCP per TIA Portal
Usa T-IA Connect come server MCP con Claude Desktop o Cursor.
Read morevs Siemens Industrial Copilot
Confronta T-IA Connect con la soluzione AI ufficiale di Siemens.
Read more