Dokumentacja Techniczna

Jak działa TIA Portal
AI Copilot

Przejrzyste spojrzenie na architekturę asystenta AI w T-IA Connect. Zrozum, jak Twoje wiadomości stają się akcjami w TIA Portal dzięki inteligentnemu wyborowi narzędzi i orkiestracji LLM.

Przegląd

T-IA Connect Copilot to zintegrowany asystent AI, który kontroluje TIA Portal za pomocą narzędzi (function calling). Wysyłasz wiadomość w języku naturalnym, LLM decyduje, które narzędzia wywołać, a T-IA Connect wykonuje odpowiednie akcje w TIA Portal.

Cały proces przebiega lokalnie na Twoim komputerze. Twoje klucze API są szyfrowane przez Windows DPAPI, nigdy nie są logowane ani przekazywane podmiotom trzecim. T-IA Connect łączy się bezpośrednio z dostawcami LLM bez serwerów proxy czy przekaźnikowych.

Przepływ danych

Użytkownik

Wysyła wiadomość w języku naturalnym

T-IA Connect

Buduje kontekst, wybiera narzędzia, wywołuje LLM

Dostawca LLM

Analizuje i zwraca wywołania narzędzi

TIA Portal

Wykonuje akcje poprzez Openness API

User >Utwórz FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB utworzony pomyślnie

Obsługiwani dostawcy LLM

T-IA Connect jest niezależny od dostawcy. Użyj własnego klucza API i wybierz preferowanego dostawcę.

DostawcaDomyślny modelUwierzytelnianie
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514nagłówek x-api-key
Gemini (Google)gemini-1.5-flashKlucz API w zapytaniu
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM, itp.Opcjonalny bearer token

Bezpieczeństwo kluczy API

  • Klucze przechowywane lokalnie, szyfrowane przez Windows DPAPI
  • Bezpośrednie połączenie z dostawcami, brak proxy lub przekaźników
  • Klucze nigdy nie są logowane ani przesyłane do stron trzecich
  • Obsługa niestandardowych punktów końcowych (Azure OpenAI, firmowe proxy)

Inteligentny wybór narzędzi

Przy ok. 400 dostępnych narzędziach, wysyłanie wszystkich przy każdym zapytaniu byłoby kosztowne i nieefektywne. T-IA Connect rozwiązuje to poprzez kontekstowy wybór kategorii.

Wyzwanie

  • Każda definicja narzędzia zużywa ok. 50 tokenów wejściowych
  • Niektórzy dostawcy ograniczają liczbę narzędzi do maks. 128 (OpenAI)
  • Zbyt wiele narzędzi może dezorientować LLM

Rozwiązanie: Kategorie kontekstowe

T-IA Connect analizuje Twoją wiadomość i aktywuje tylko odpowiednie kategorie narzędzi.

Zawsze dołączone

Core (ok. 34 narzędzia): zarządzanie projektami, urządzenia, eksport/import

Knowledge (ok. 21 narzędzi): dokumentacja, wskazówki, analiza, pamięć

KategoriaNarzędziaSłowa kluczowe wyzwalające
Bloki~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Tagi~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Sprzęt~24hardware, module, rack, cpu, slot, profinet, gsd...
Symulacja~23plcsim, simul, runtime, power_on, instance...
Bezpieczeństwo~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Zaawansowane~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infrastruktura~54report, vcs, git, test, library, codesys...

Konkretne przykłady

"Utwórz FB Motor"

core + knowledge + blocks

ok. 86 narzędzi

"Skonfiguruj PLCSim"

core + knowledge + simulation

ok. 78 narzędzi

"Dodaj ekran HMI"

core + knowledge + hmi

ok. 106 narzędzi

Sticky Context

Jeśli Twoja wiadomość nie zawiera słów kluczowych (np. „tak”, „kontynuuj”, „zrób to”), T-IA Connect ponownie wykorzystuje kategorie z poprzedniej wiadomości. Umożliwia to naturalną konwersację bez utraty kontekstu.

Pętla wykonawcza

Copilot pracuje w pętli: LLM może wywoływać wiele narzędzi po kolei przed odpowiedzią użytkownikowi.

Wyślij wiadomość + kontekst do LLM
LLM zwraca odpowiedź
Wykryto wywołania narzędzi?
Tak
Wykonaj narzędzia w TIA Portal
Wyślij wyniki z powrotem do LLM
Nie
Ostateczna odpowiedź do użytkownika

Zabezpieczenia przed nieskończoną pętlą

ZabezpieczeniePrógZachowanie
Identyczne kolejne wywołania2Zatrzymuje pętlę
Kolejne niepowodzenia (to samo narzędzie)3Zatrzymuje pętlę
Maksymalna liczba iteracji200Sieć bezpieczeństwa
Ponowne próby błędu LLM2Następnie niepowodzenie
Ponowne próby pustej odpowiedzi3Następnie niepowodzenie

Zużycie tokenów

Dowiedz się, co zużywa tokeny i jak T-IA Connect optymalizuje koszty.

KomponentSzacowane tokenyCzęstotliwość
System prompt (instrukcje)ok. 2,000-3,000Każda wiadomość
Kontekst projektu (urządzenia, bloki)ok. 500-2,000Każda wiadomość
Definicje narzędzi (maks. 128)ok. 5,000-8,000Każda wiadomość
Historia konwersacjiok. 1,000-10,000Rosnąca
Wiadomość użytkownikaok. 50-500Każda wiadomość
Typowy całkowity inputok. 10,000-20,000Na wiadomość
Odpowiedź LLMok. 200-2,000Na wiadomość

Szacunek kosztów

Dla typowej wiadomości z GPT-4o (ceny OpenAI, kwiecień 2026):

Input: ok. 15,000 tokenów x $2.50/1M =ok. $0.037
Output: ok. 500 tokenów x $10/1M =ok. $0.005
Razem na wiadomość:ok. $0.04

Pełna wymiana z function calling (2-3 iteracje LLM) kosztuje około $0.10-0.15.

Automatyczne optymalizacje

  • Wybór kontekstowy: wysyłane są tylko odpowiednie narzędzia (nie wszystkie 400)
  • Automatyczna kompakcja: gdy historia przekroczy ok. 200,000 znaków, stare wiadomości są automatycznie podsumowywane
  • Ograniczona historia: w kontekście zachowywanych jest maks. 20 wiadomości i 32,000 znaków
  • Limit 128 narzędzi: ogranicza stały koszt definicji narzędzi

Obsługa multimodalna

Copilot może przetwarzać obrazy i dokumenty PDF wraz z tekstem.

Obrazy

Obrazy wysyłane do Copilot są przekazywane do LLM w formacie base64 (format vision). Przydatne do analizy zrzutów ekranu programu, identyfikacji błędów wizualnych lub opisywania schematów.

Pliki PDF (Specyfikacja projektowa)

Pliki PDF są przetwarzane przez system CDC (Custom Design Companion): ekstrakcja tekstu, dzielenie na fragmenty (1,500 znaków z 200 zakładką), spis treści wstrzykiwany do promptu oraz dostęp do fragmentów na żądanie za pomocą dedykowanych narzędzi. Pozwala to uniknąć wysyłania całego pliku PDF do kontekstu.

Tryb autonomiczny

Tryb autonomiczny pozwala Copilot wykonywać sekwencje działań bez potwierdzenia użytkownika.

AspektInteraktywnyAutonomiczny
PotwierdzeniaWymagane przed działaniami destrukcyjnymiPomijane
System promptPełny (zasady, formatowanie, interaktywność)Kompaktowy (zasady, zakres)
Wykrywanie wczesnego zatrzymaniaNieTak (maks. 3 próby)

Rate Limiting

T-IA Connect stosuje oddzielne limity dla każdego kanału dostępu.

apiBezpośrednie wywołania REST API
mcpNarzędzia MCP (Claude Desktop, itp.)
copilotZintegrowany asystent

Darmowe narzędzia (nie wliczane)

Narzędzia tylko do odczytu nie zużywają limitu: list_*, get_documentation, get_llm_tips, narzędzia do odkrywania i statusu.

Komunikacja w czasie rzeczywistym

Copilot używa SignalR do aktualizacji na żywo podczas wykonywania.

onAssistantResponseWyświetlanie czatu
onToolExecutionWskaźnik „Myślenie...”
onTokenUsageLicznik tokenów
onStatusUpdated„Wysyłanie do Claude...”

Kompatybilne modele

Szczegółowa kompatybilność według dostawcy.

OpenAI

Polecane: gpt-4o, gpt-4o-mini, gpt-4-turbo

Niekompatybilne: o1, o3-mini (używają Responses API, a nie Chat Completions)

Claude (Anthropic)

Polecane: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

Wszystkie modele Claude są kompatybilne

Gemini (Google)

Polecane: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

Automatyczny filtr wyklucza modele nieobsługujące czatu (embedding, vision-only)

Groq

Polecane: llama-3.3-70b-versatile, mixtral-8x7b

Uwaga: darmowy poziom może być niewystarczający dla 128 narzędzi

Custom (Ollama, vLLM)

Dowolny model obsługujący function calling w formacie OpenAI

Automatyczne wykrywanie „fałszywych wywołań narzędzi” (modele zwracające JSON jako tekst)

Dual Model Routing

Dla dostawców Custom, T-IA Connect obsługuje dwa modele: model rozumowania do analizy/planowania oraz model kodu do generowania SCL/LAD. Przełączanie jest automatyczne w zależności od typu wykonywanego narzędzia.

Kluczowe liczby

ok. 400
Wszystkie narzędzia
128
Narzędzia na żądanie (maks.)
5 (+ custom)
Obsługiwani dostawcy
13
Kategorie narzędzi
90 sekund
HTTP timeout
20 wiadomości / 32,000 znaków
Historia w kontekście
ok. $0.04
Szac. koszt na wiadomość (GPT-4o)
ok. $0.10-0.15
Szac. koszt na pełną wymianę

Najczęściej zadawane pytania

Czy T-IA Connect wysyła mój kod PLC do chmury?

Tylko wtedy, gdy korzystasz z chmurowego dostawcy LLM (OpenAI, Claude, Gemini). Twoje wiadomości i kontekst projektu są wysyłane do wybranego dostawcy. Aby zapewnić maksymalną prywatność, użyj Ollama z lokalnym modelem – wtedy nic nie opuszcza Twojego komputera.

Ile kosztuje AI za jedną wiadomość?

Przy GPT-4o typowa wiadomość kosztuje około $0.04, a pełna wymiana z function calling kosztuje $0.10-0.15. Płacisz dostawcy LLM bezpośrednio, korzystając z własnego klucza API.

Czy Copilot może uszkodzić mój projekt TIA Portal?

W trybie interaktywnym Copilot prosi o potwierdzenie przed działaniami destrukcyjnymi. Zabezpieczenia anty-pętlowe zapobiegają niekontrolowanemu wykonywaniu narzędzi. Możesz również przerwać wykonywanie w dowolnym momencie.

Który model LLM wybrać?

Dla najlepszych wyników używaj GPT-4o lub Claude Sonnet. Dla oszczędnego użytkowania dobrze sprawdzą się GPT-4o-mini lub Gemini Flash przy prostszych zadaniach. Dla pełnej prywatności użyj Ollama z lokalnym modelem, takim jak Llama 3.

Powiązane strony

Gotowy wypróbować Copilot?

Pobierz T-IA Connect i zacznij generować kod PLC za pomocą AI już dziś.