Documentazione Tecnica

Come funziona il
Copilot AI di TIA Portal

Uno sguardo trasparente all'architettura dietro l'assistente AI di T-IA Connect. Scopri come i tuoi messaggi diventano azioni in TIA Portal attraverso la selezione intelligente degli strumenti e l'orchestrazione LLM.

Panoramica

Il Copilot di T-IA Connect è un assistente AI integrato che controlla TIA Portal tramite strumenti (function calling). Inviando un messaggio in linguaggio naturale, l'LLM decide quali strumenti chiamare e T-IA Connect esegue le azioni corrispondenti in TIA Portal.

L'intero processo viene eseguito localmente sulla tua macchina. Le tue chiavi API sono crittografate tramite Windows DPAPI, mai registrate e mai trasmesse a terzi. T-IA Connect contatta direttamente i provider LLM senza server proxy o relay.

Flusso dei dati

Utente

Invia un messaggio in linguaggio naturale

T-IA Connect

Costruisce il contesto, seleziona gli strumenti, chiama l'LLM

Provider LLM

Analizza e restituisce le chiamate agli strumenti

TIA Portal

Esegue le azioni tramite Openness API

User >Crea un FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB creato con successo

Provider LLM supportati

T-IA Connect è indipendente dal provider. Utilizza la tua chiave API e scegli il tuo provider preferito.

ProviderModello predefinitoAutenticazione
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key header
Gemini (Google)gemini-1.5-flashAPI key in query
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM, ecc.Optional bearer token

Sicurezza delle chiavi API

  • Chiavi memorizzate localmente, crittografate tramite Windows DPAPI
  • Connessione diretta ai provider, senza proxy o relay
  • Le chiavi non vengono mai registrate o trasmesse a terzi
  • Endpoint personalizzati supportati (Azure OpenAI, proxy aziendali)

Selezione intelligente degli strumenti

Con circa 400 strumenti disponibili, inviarli tutti a ogni richiesta sarebbe costoso e controproducente. T-IA Connect risolve questo problema con la selezione contestuale delle categorie.

La sfida

  • Ogni definizione di strumento consuma circa 50 token di input
  • Alcuni provider limitano gli strumenti a un massimo di 128 (OpenAI)
  • Troppi strumenti possono confondere l'LLM

La soluzione: Categorie contestuali

T-IA Connect analizza il tuo messaggio e attiva solo le categorie di strumenti pertinenti.

Sempre incluse

Core (~34 strumenti): gestione progetto, dispositivi, export/import

Conoscenza (~21 strumenti): documentazione, suggerimenti, analisi, memoria

CategoriaStrumentiParole chiave di attivazione
Blocchi~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Tag~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Hardware~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulazione~23plcsim, simul, runtime, power_on, instance...
Sicurezza~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Avanzate~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infrastruttura~54report, vcs, git, test, library, codesys...

Esempi concreti

"Crea un FB Motor"

core + knowledge + blocks

~86 strumenti

"Configura PLCSim"

core + knowledge + simulation

~78 strumenti

"Aggiungi una schermata HMI"

core + knowledge + hmi

~106 strumenti

Contesto persistente

Se il tuo messaggio non contiene parole chiave (es. "sì", "continua", "fallo"), T-IA Connect riutilizza le categorie del messaggio precedente. Ciò consente conversazioni naturali senza perdere il contesto.

Ciclo di esecuzione

Il Copilot lavora in un ciclo: l'LLM può chiamare più strumenti in successione prima di rispondere all'utente.

Invia messaggio + contesto all'LLM
L'LLM restituisce la risposta
Chiamate agli strumenti rilevate?
Esegue gli strumenti in TIA Portal
Invia i risultati all'LLM
No
Risposta finale all'utente

Protezioni anti-ciclo infinito

ProtezioneSogliaComportamento
Chiamate consecutive identiche2Interrompe il ciclo
Fallimenti consecutivi (stesso strumento)3Interrompe il ciclo
Massimo numero di iterazioni assolute200Rete di sicurezza
Tentativi in caso di errore LLM2Quindi fallimento
Tentativi in caso di risposta vuota3Quindi fallimento

Consumo di token

Scopri cosa consuma token e come T-IA Connect ottimizza i costi.

ComponenteToken stimatiFrequenza
System prompt (istruzioni)~2,000-3,000Ogni messaggio
Contesto del progetto (dispositivi, blocchi)~500-2,000Ogni messaggio
Definizioni degli strumenti (max 128)~5,000-8,000Ogni messaggio
Cronologia della conversazione~1,000-10,000In crescita
Messaggio dell'utente~50-500Ogni messaggio
Input totale tipico~10,000-20,000Per messaggio
Risposta dell'LLM~200-2,000Per messaggio

Stima dei costi

Per un messaggio tipico con GPT-4o (prezzi OpenAI, aprile 2026):

Input: ~15,000 tokens x $2.50/1M =~$0.037
Output: ~500 tokens x $10/1M =~$0.005
Totale per messaggio:~$0.04

Uno scambio completo con chiamata agli strumenti (2-3 iterazioni LLM) costa circa $0.10-0.15.

Ottimizzazioni automatiche

  • Selezione contestuale: vengono inviati solo gli strumenti pertinenti (non tutti i 400)
  • Compattazione automatica: quando la cronologia supera i circa 200.000 caratteri, i vecchi messaggi vengono riassunti automaticamente
  • Cronologia limitata: max 20 messaggi e 32.000 caratteri mantenuti nel contesto
  • Limite di 128 strumenti: limita il costo fisso delle definizioni degli strumenti

Supporto multimodale

Il Copilot può elaborare immagini e documenti PDF insieme al testo.

Immagini

Le immagini inviate al Copilot vengono trasmesse all'LLM in base64 (formato visione). Utile per analizzare screenshot del programma, identificare errori visivi o descrivere schemi.

PDF (Specifiche di progettazione)

I PDF vengono elaborati tramite il sistema CDC (Custom Design Companion): estrazione del testo, suddivisione in blocchi (1.500 caratteri con 200 di sovrapposizione), indice inserito nel prompt e accesso ai blocchi su richiesta tramite strumenti dedicati. Ciò evita di inviare l'intero PDF nel contesto.

Modalità autonoma

La modalità autonoma consente al Copilot di eseguire sequenze di azioni senza la conferma dell'utente.

AspettoInterattivaAutonoma
ConfermeRichieste prima di azioni distruttiveIgnorate
System promptCompleto (regole, formattazione, interattivo)Compatto (regole, perimetro)
Rilevamento dell'arresto anticipatoNoSì (max 3 tentativi)

Limitazione della frequenza

T-IA Connect applica quote separate per ogni canale di accesso.

apiChiamate REST API dirette
mcpStrumenti MCP (Claude Desktop, ecc.)
copilotAssistente integrato

Strumenti gratuiti (non conteggiati)

Gli strumenti in sola lettura non consumano quota: list_*, get_documentation, get_llm_tips, strumenti di scoperta e di stato.

Comunicazione in tempo reale

Il Copilot utilizza SignalR per aggiornamenti in tempo reale durante l'esecuzione.

onAssistantResponseVisualizzazione della chat
onToolExecutionIndicatore "Pensando..."
onTokenUsageContatore di token
onStatusUpdated"Sending to Claude..."

Modelli compatibili

Compatibilità dettagliata per provider.

OpenAI

Consigliati: gpt-4o, gpt-4o-mini, gpt-4-turbo

Non compatibili: o1, o3-mini (utilizzano Responses API, non Chat Completions)

Claude (Anthropic)

Consigliati: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Tutti i modelli Claude sono compatibili

Gemini (Google)

Consigliati: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

L'autofiltro esclude i modelli non-chat (embedding, sola visione)

Groq

Consigliati: llama-3.3-70b-versatile, mixtral-8x7b

Nota: il piano gratuito potrebbe essere insufficiente per 128 strumenti

Custom (Ollama, vLLM)

Qualsiasi modello che supporti il function calling in formato OpenAI

Rilevamento automatico di "chiamate a strumenti false" (modelli che restituiscono JSON come testo)

Routing a doppio modello

Per i provider personalizzati (Custom), T-IA Connect supporta due modelli: un modello di ragionamento per analisi/pianificazione e un modello di codice per la generazione SCL/LAD. Il passaggio è automatico in base al tipo di strumento eseguito.

Dati chiave

~400
Strumenti totali
128
Strumenti per richiesta (max)
5 (+ custom)
Provider supportati
13
Categorie di strumenti
90 secondi
Timeout HTTP
20 messaggi / 32.000 caratteri
Cronologia nel contesto
~$0.04
Costo stimato per messaggio (GPT-4o)
~$0.10-0.15
Costo stimato per scambio completo

Domande frequenti

T-IA Connect invia il mio codice PLC al cloud?

Solo quando utilizzi un provider LLM cloud (OpenAI, Claude, Gemini). I tuoi messaggi e il contesto del progetto vengono inviati al provider che hai scelto. Per la massima privacy, usa Ollama con un modello locale e nulla lascerà la tua macchina.

Quanto costa l'AI per messaggio?

Con GPT-4o, un messaggio tipico costa circa $0.04 e uno scambio completo con chiamata agli strumenti costa $0.10-0.15. Paghi direttamente il provider LLM utilizzando la tua chiave API.

Il Copilot può danneggiare il mio progetto TIA Portal?

In modalità interattiva, il Copilot chiede conferma prima di azioni distruttive. Le protezioni anti-ciclo impediscono l'esecuzione incontrollata degli strumenti. È inoltre possibile interrompere l'esecuzione in qualsiasi momento.

Quale modello LLM dovrei scegliere?

Per i migliori risultati, usa GPT-4o o Claude Sonnet. Per un utilizzo attento al budget, GPT-4o-mini o Gemini Flash funzionano bene per compiti più semplici. Per la massima privacy, usa Ollama con un modello locale come Llama 3.

Pagine correlate

Pronto a provare il Copilot?

Scarica T-IA Connect e inizia a generare codice PLC con l'AI oggi stesso.