Jak działa TIA Portal
AI Copilot
Przejrzyste spojrzenie na architekturę asystenta AI w T-IA Connect. Zrozum, jak Twoje wiadomości stają się akcjami w TIA Portal dzięki inteligentnemu wyborowi narzędzi i orkiestracji LLM.
Przegląd
T-IA Connect Copilot to zintegrowany asystent AI, który kontroluje TIA Portal za pomocą narzędzi (function calling). Wysyłasz wiadomość w języku naturalnym, LLM decyduje, które narzędzia wywołać, a T-IA Connect wykonuje odpowiednie akcje w TIA Portal.
Cały proces przebiega lokalnie na Twoim komputerze. Twoje klucze API są szyfrowane przez Windows DPAPI, nigdy nie są logowane ani przekazywane podmiotom trzecim. T-IA Connect łączy się bezpośrednio z dostawcami LLM bez serwerów proxy czy przekaźnikowych.
Przepływ danych
Użytkownik
Wysyła wiadomość w języku naturalnym
T-IA Connect
Buduje kontekst, wybiera narzędzia, wywołuje LLM
Dostawca LLM
Analizuje i zwraca wywołania narzędzi
TIA Portal
Wykonuje akcje poprzez Openness API
Obsługiwani dostawcy LLM
T-IA Connect jest niezależny od dostawcy. Użyj własnego klucza API i wybierz preferowanego dostawcę.
| Dostawca | Domyślny model | Uwierzytelnianie |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | nagłówek x-api-key |
| Gemini (Google) | gemini-1.5-flash | Klucz API w zapytaniu |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM, itp. | Opcjonalny bearer token |
Bezpieczeństwo kluczy API
- ✓Klucze przechowywane lokalnie, szyfrowane przez Windows DPAPI
- ✓Bezpośrednie połączenie z dostawcami, brak proxy lub przekaźników
- ✓Klucze nigdy nie są logowane ani przesyłane do stron trzecich
- ✓Obsługa niestandardowych punktów końcowych (Azure OpenAI, firmowe proxy)
Inteligentny wybór narzędzi
Przy ok. 400 dostępnych narzędziach, wysyłanie wszystkich przy każdym zapytaniu byłoby kosztowne i nieefektywne. T-IA Connect rozwiązuje to poprzez kontekstowy wybór kategorii.
Wyzwanie
- ⚠Każda definicja narzędzia zużywa ok. 50 tokenów wejściowych
- ⚠Niektórzy dostawcy ograniczają liczbę narzędzi do maks. 128 (OpenAI)
- ⚠Zbyt wiele narzędzi może dezorientować LLM
Rozwiązanie: Kategorie kontekstowe
T-IA Connect analizuje Twoją wiadomość i aktywuje tylko odpowiednie kategorie narzędzi.
Zawsze dołączone
Core (ok. 34 narzędzia): zarządzanie projektami, urządzenia, eksport/import
Knowledge (ok. 21 narzędzi): dokumentacja, wskazówki, analiza, pamięć
| Kategoria | Narzędzia | Słowa kluczowe wyzwalające |
|---|---|---|
| Bloki | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Tagi | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Sprzęt | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Symulacja | ~23 | plcsim, simul, runtime, power_on, instance... |
| Bezpieczeństwo | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| Zaawansowane | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Infrastruktura | ~54 | report, vcs, git, test, library, codesys... |
Konkretne przykłady
"Utwórz FB Motor"
core + knowledge + blocks
ok. 86 narzędzi
"Skonfiguruj PLCSim"
core + knowledge + simulation
ok. 78 narzędzi
"Dodaj ekran HMI"
core + knowledge + hmi
ok. 106 narzędzi
Sticky Context
Jeśli Twoja wiadomość nie zawiera słów kluczowych (np. „tak”, „kontynuuj”, „zrób to”), T-IA Connect ponownie wykorzystuje kategorie z poprzedniej wiadomości. Umożliwia to naturalną konwersację bez utraty kontekstu.
Pętla wykonawcza
Copilot pracuje w pętli: LLM może wywoływać wiele narzędzi po kolei przed odpowiedzią użytkownikowi.
Zabezpieczenia przed nieskończoną pętlą
| Zabezpieczenie | Próg | Zachowanie |
|---|---|---|
| Identyczne kolejne wywołania | 2 | Zatrzymuje pętlę |
| Kolejne niepowodzenia (to samo narzędzie) | 3 | Zatrzymuje pętlę |
| Maksymalna liczba iteracji | 200 | Sieć bezpieczeństwa |
| Ponowne próby błędu LLM | 2 | Następnie niepowodzenie |
| Ponowne próby pustej odpowiedzi | 3 | Następnie niepowodzenie |
Zużycie tokenów
Dowiedz się, co zużywa tokeny i jak T-IA Connect optymalizuje koszty.
| Komponent | Szacowane tokeny | Częstotliwość |
|---|---|---|
| System prompt (instrukcje) | ok. 2,000-3,000 | Każda wiadomość |
| Kontekst projektu (urządzenia, bloki) | ok. 500-2,000 | Każda wiadomość |
| Definicje narzędzi (maks. 128) | ok. 5,000-8,000 | Każda wiadomość |
| Historia konwersacji | ok. 1,000-10,000 | Rosnąca |
| Wiadomość użytkownika | ok. 50-500 | Każda wiadomość |
| Typowy całkowity input | ok. 10,000-20,000 | Na wiadomość |
| Odpowiedź LLM | ok. 200-2,000 | Na wiadomość |
Szacunek kosztów
Dla typowej wiadomości z GPT-4o (ceny OpenAI, kwiecień 2026):
Pełna wymiana z function calling (2-3 iteracje LLM) kosztuje około $0.10-0.15.
Automatyczne optymalizacje
- Wybór kontekstowy: wysyłane są tylko odpowiednie narzędzia (nie wszystkie 400)
- Automatyczna kompakcja: gdy historia przekroczy ok. 200,000 znaków, stare wiadomości są automatycznie podsumowywane
- Ograniczona historia: w kontekście zachowywanych jest maks. 20 wiadomości i 32,000 znaków
- Limit 128 narzędzi: ogranicza stały koszt definicji narzędzi
Obsługa multimodalna
Copilot może przetwarzać obrazy i dokumenty PDF wraz z tekstem.
Obrazy
Obrazy wysyłane do Copilot są przekazywane do LLM w formacie base64 (format vision). Przydatne do analizy zrzutów ekranu programu, identyfikacji błędów wizualnych lub opisywania schematów.
Pliki PDF (Specyfikacja projektowa)
Pliki PDF są przetwarzane przez system CDC (Custom Design Companion): ekstrakcja tekstu, dzielenie na fragmenty (1,500 znaków z 200 zakładką), spis treści wstrzykiwany do promptu oraz dostęp do fragmentów na żądanie za pomocą dedykowanych narzędzi. Pozwala to uniknąć wysyłania całego pliku PDF do kontekstu.
Tryb autonomiczny
Tryb autonomiczny pozwala Copilot wykonywać sekwencje działań bez potwierdzenia użytkownika.
| Aspekt | Interaktywny | Autonomiczny |
|---|---|---|
| Potwierdzenia | Wymagane przed działaniami destrukcyjnymi | Pomijane |
| System prompt | Pełny (zasady, formatowanie, interaktywność) | Kompaktowy (zasady, zakres) |
| Wykrywanie wczesnego zatrzymania | Nie | Tak (maks. 3 próby) |
Rate Limiting
T-IA Connect stosuje oddzielne limity dla każdego kanału dostępu.
Darmowe narzędzia (nie wliczane)
Narzędzia tylko do odczytu nie zużywają limitu: list_*, get_documentation, get_llm_tips, narzędzia do odkrywania i statusu.
Komunikacja w czasie rzeczywistym
Copilot używa SignalR do aktualizacji na żywo podczas wykonywania.
onAssistantResponseWyświetlanie czatuonToolExecutionWskaźnik „Myślenie...”onTokenUsageLicznik tokenówonStatusUpdated„Wysyłanie do Claude...”Kompatybilne modele
Szczegółowa kompatybilność według dostawcy.
OpenAI
Polecane: gpt-4o, gpt-4o-mini, gpt-4-turbo
Niekompatybilne: o1, o3-mini (używają Responses API, a nie Chat Completions)
Claude (Anthropic)
Polecane: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
Wszystkie modele Claude są kompatybilne
Gemini (Google)
Polecane: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
Automatyczny filtr wyklucza modele nieobsługujące czatu (embedding, vision-only)
Groq
Polecane: llama-3.3-70b-versatile, mixtral-8x7b
Uwaga: darmowy poziom może być niewystarczający dla 128 narzędzi
Custom (Ollama, vLLM)
Dowolny model obsługujący function calling w formacie OpenAI
Automatyczne wykrywanie „fałszywych wywołań narzędzi” (modele zwracające JSON jako tekst)
Dual Model Routing
Dla dostawców Custom, T-IA Connect obsługuje dwa modele: model rozumowania do analizy/planowania oraz model kodu do generowania SCL/LAD. Przełączanie jest automatyczne w zależności od typu wykonywanego narzędzia.
Kluczowe liczby
Najczęściej zadawane pytania
Czy T-IA Connect wysyła mój kod PLC do chmury?
Tylko wtedy, gdy korzystasz z chmurowego dostawcy LLM (OpenAI, Claude, Gemini). Twoje wiadomości i kontekst projektu są wysyłane do wybranego dostawcy. Aby zapewnić maksymalną prywatność, użyj Ollama z lokalnym modelem – wtedy nic nie opuszcza Twojego komputera.
Ile kosztuje AI za jedną wiadomość?
Przy GPT-4o typowa wiadomość kosztuje około $0.04, a pełna wymiana z function calling kosztuje $0.10-0.15. Płacisz dostawcy LLM bezpośrednio, korzystając z własnego klucza API.
Czy Copilot może uszkodzić mój projekt TIA Portal?
W trybie interaktywnym Copilot prosi o potwierdzenie przed działaniami destrukcyjnymi. Zabezpieczenia anty-pętlowe zapobiegają niekontrolowanemu wykonywaniu narzędzi. Możesz również przerwać wykonywanie w dowolnym momencie.
Który model LLM wybrać?
Dla najlepszych wyników używaj GPT-4o lub Claude Sonnet. Dla oszczędnego użytkowania dobrze sprawdzą się GPT-4o-mini lub Gemini Flash przy prostszych zadaniach. Dla pełnej prywatności użyj Ollama z lokalnym modelem, takim jak Llama 3.
Powiązane strony
TIA Portal AI Assistant
Odkryj wszystkie możliwości zintegrowanego asystenta AI.
Read moreAI PLC Code Generation
Dowiedz się, jak AI generuje kod SCL, LAD i STL dla sterowników PLC Siemens.
Read moreMCP Server dla TIA Portal
Używaj T-IA Connect jako serwera MCP z Claude Desktop lub Cursor.
Read morevs Siemens Industrial Copilot
Porównaj T-IA Connect z oficjalnym rozwiązaniem AI firmy Siemens.
Read more