TIA Portal
AI Copilot कैसे काम करता है
T-IA Connect के AI assistant के पीछे की आर्किटेक्चर पर एक पारदर्शी नज़र। समझें कि कैसे आपके संदेश बुद्धिमान टूल चयन और LLM orchestration के माध्यम से TIA Portal कार्यों में बदल जाते हैं।
अवलोकन
T-IA Connect Copilot एक एकीकृत AI assistant है जो टूल्स (function calling) के माध्यम से TIA Portal को नियंत्रित करता है। आप प्राकृतिक भाषा में संदेश भेजते हैं, LLM तय करता है कि किन टूल्स को कॉल करना है, और T-IA Connect TIA Portal में संबंधित कार्यों को निष्पादित करता है।
पूरी प्रक्रिया आपके मशीन पर स्थानीय रूप से चलती है। आपकी API keys Windows DPAPI के माध्यम से एन्क्रिप्ट की गई हैं, कभी लॉग नहीं की जाती हैं, और कभी भी तीसरे पक्ष को प्रेषित नहीं की जाती हैं। T-IA Connect बिना किसी proxy या relay server के सीधे LLM providers से संपर्क करता है।
डेटा फ्लो
उपयोगकर्ता
एक प्राकृतिक भाषा संदेश भेजता है
T-IA Connect
Context बनाता है, टूल्स चुनता है, LLM कॉल करता है
LLM Provider
विश्लेषण करता है और टूल कॉल्स वापस करता है
TIA Portal
Openness API के माध्यम से कार्यों को निष्पादित करता है
समर्थित LLM Providers
T-IA Connect प्रदाता-स्वतंत्र (provider-agnostic) है। अपनी खुद की API key लाएं और अपना पसंदीदा प्रदाता चुनें।
| प्रदाता | डिफ़ॉल्ट मॉडल | प्रमाणीकरण |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key header |
| Gemini (Google) | gemini-1.5-flash | API key in query |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama, vLLM, आदि। | वैकल्पिक bearer token |
API Key सुरक्षा
- ✓Keys स्थानीय रूप से संग्रहीत, Windows DPAPI के माध्यम से एन्क्रिप्टेड
- ✓प्रदाताओं से सीधा कनेक्शन, कोई proxy या relay नहीं
- ✓Keys कभी लॉग नहीं की जातीं या तीसरे पक्ष को प्रेषित नहीं की जातीं
- ✓कस्टम एंडपॉइंट समर्थित (Azure OpenAI, एंटरप्राइज़ प्रॉक्सी)
स्मार्ट टूल चयन
~400 टूल्स उपलब्ध होने के साथ, हर अनुरोध के लिए उन सभी को भेजना महंगा और प्रतिकूल होगा। T-IA Connect इसे प्रासंगिक श्रेणी चयन के साथ हल करता है।
चुनौती
- ⚠प्रत्येक टूल परिभाषा ~50 input tokens की खपत करती है
- ⚠कुछ प्रदाता टूल्स को अधिकतम 128 तक सीमित करते हैं (OpenAI)
- ⚠बहुत अधिक टूल्स LLM को भ्रमित कर सकते हैं
समाधान: प्रासंगिक श्रेणियां
T-IA Connect आपके संदेश का विश्लेषण करता है और केवल संबंधित टूल श्रेणियों को सक्रिय करता है।
हमेशा शामिल
Core (~34 टूल्स): प्रोजेक्ट प्रबंधन, डिवाइस, निर्यात/आयात
Knowledge (~21 टूल्स): दस्तावेज़ीकरण, सुझाव, विश्लेषण, मेमोरी
| श्रेणी | टूल्स | ट्रिगर कीवर्ड |
|---|---|---|
| Blocks | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Tags | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Hardware | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulation | ~23 | plcsim, simul, runtime, power_on, instance... |
| Security | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| Advanced | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| Infrastructure | ~54 | report, vcs, git, test, library, codesys... |
ठोस उदाहरण
"Create a FB Motor"
core + knowledge + blocks
~86 टूल्स
"Configure PLCSim"
core + knowledge + simulation
~78 टूल्स
"Add an HMI screen"
core + knowledge + hmi
~106 टूल्स
Sticky Context
यदि आपके संदेश में कोई कीवर्ड नहीं है (जैसे "yes", "continue", "do it"), तो T-IA Connect पिछले संदेश की श्रेणियों का पुन: उपयोग करता है। यह संदर्भ खोए बिना स्वाभाविक बातचीत सक्षम बनाता है।
Execution Loop
Copilot एक लूप में काम करता है: LLM उपयोगकर्ता को जवाब देने से पहले क्रमिक रूप से कई टूल्स को कॉल कर सकता है।
Anti-Infinite Loop सुरक्षा
| सुरक्षा | सीमा (Threshold) | व्यवहार |
|---|---|---|
| समान लगातार कॉल्स | 2 | लूप को रोकता है |
| लगातार विफलताएं (समान टूल) | 3 | लूप को रोकता है |
| अधिकतम पूर्ण iterations | 200 | सुरक्षा घेरा |
| LLM त्रुटि पुन: प्रयास | 2 | फिर विफलता |
| खाली प्रतिक्रिया पुन: प्रयास | 3 | फिर विफलता |
Token Consumption
समझें कि क्या tokens की खपत करता है और T-IA Connect लागत को कैसे अनुकूलित करता है।
| घटक | अनुमानित Tokens | आवृत्ति |
|---|---|---|
| System prompt (निर्देश) | ~2,000-3,000 | प्रत्येक संदेश |
| प्रोजेक्ट context (डिवाइस, ब्लॉक्स) | ~500-2,000 | प्रत्येक संदेश |
| टूल परिभाषाएँ (अधिकतम 128) | ~5,000-8,000 | प्रत्येक संदेश |
| बातचीत का इतिहास | ~1,000-10,000 | बढ़ता हुआ |
| उपयोगकर्ता संदेश | ~50-500 | प्रत्येक संदेश |
| सामान्य कुल इनपुट | ~10,000-20,000 | प्रति संदेश |
| LLM प्रतिक्रिया | ~200-2,000 | प्रति संदेश |
लागत अनुमान
GPT-4o के साथ एक सामान्य संदेश के लिए (OpenAI मूल्य निर्धारण, अप्रैल 2026):
टूल कॉलिंग के साथ एक पूर्ण विनिमय (2-3 LLM iterations) की लागत लगभग $0.10-0.15 होती है।
स्वचालित अनुकूलन
- प्रासंगिक चयन: केवल संबंधित टूल्स भेजे जाते हैं (सभी 400 नहीं)
- ऑटो-कॉम्पैक्शन: जब इतिहास ~200,000 वर्णों से अधिक हो जाता है, तो पुराने संदेशों को स्वचालित रूप से संक्षेपित किया जाता है
- सीमित इतिहास: context में अधिकतम 20 संदेश और 32,000 वर्ण रखे जाते हैं
- 128 टूल कैप: टूल परिभाषाओं की निश्चित लागत को सीमित करता है
Multimodal समर्थन
Copilot टेक्स्ट के साथ-साथ छवियों और PDF दस्तावेज़ों को प्रोसेस कर सकता है।
छवियाँ
Copilot को भेजी गई छवियाँ LLM को base64 (विजन प्रारूप) में प्रेषित की जाती हैं। प्रोग्राम स्क्रीनशॉट का विश्लेषण करने, दृश्य त्रुटियों की पहचान करने या योजनाबद्ध विवरण देने के लिए उपयोगी।
PDFs (डिज़ाइन विनिर्देश)
PDFs को CDC (Custom Design Companion) सिस्टम के माध्यम से प्रोसेस किया जाता है: टेक्स्ट निष्कर्षण, चंकिंग (200 ओवरलैप के साथ 1,500 वर्ण), प्रॉम्प्ट में इंजेक्ट की गई सामग्री की तालिका, और समर्पित टूल्स के माध्यम से ऑन-डिमांड चंक एक्सेस। यह पूरे PDF को context में भेजने से बचाता है।
Autonomous Mode
Autonomous mode Copilot को उपयोगकर्ता की पुष्टि के बिना क्रिया अनुक्रमों को निष्पादित करने की अनुमति देता है।
| पहलू | Interactive | Autonomous |
|---|---|---|
| पुष्टियाँ | विनाशकारी कार्यों से पहले आवश्यक | छोड़ दिया गया |
| System prompt | पूर्ण (नियम, स्वरूपण, इंटरैक्टिव) | संक्षिप्त (नियम, दायरा) |
| जल्दी रुकने का पता लगाना | नहीं | हाँ (अधिकतम 3 पुन: प्रयास) |
Rate Limiting
T-IA Connect प्रत्येक एक्सेस चैनल के लिए अलग कोटा लागू करता है।
मुफ़्त टूल्स (गिने नहीं जाते)
केवल-पठन (Read-only) टूल्स कोटा की खपत नहीं करते: list_*, get_documentation, get_llm_tips, खोज और स्थिति टूल्स।
Real-Time Communication
Copilot निष्पादन के दौरान लाइव अपडेट के लिए SignalR का उपयोग करता है।
onAssistantResponseचैट प्रदर्शनonToolExecution"सोच रहा हूँ..." संकेतकonTokenUsageToken काउंटरonStatusUpdated"Claude को भेज रहा हूँ..."संगत मॉडल
प्रति प्रदाता विस्तृत संगतता।
OpenAI
अनुशंसित: gpt-4o, gpt-4o-mini, gpt-4-turbo
संगत नहीं: o1, o3-mini (Responses API का उपयोग करें, Chat Completions का नहीं)
Claude (Anthropic)
अनुशंसित: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
सभी Claude मॉडल संगत हैं
Gemini (Google)
अनुशंसित: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
ऑटो-फ़िल्टर गैर-चैट मॉडल (embedding, vision-only) को बाहर करता है
Groq
अनुशंसित: llama-3.3-70b-versatile, mixtral-8x7b
नोट: मुफ़्त टियर 128 टूल्स के लिए अपर्याप्त हो सकता है
Custom (Ollama, vLLM)
OpenAI-प्रारूप function calling का समर्थन करने वाला कोई भी मॉडल
"नकली टूल कॉल्स" (टेक्स्ट के रूप में JSON लौटाने वाले मॉडल) का स्वचालित पता लगाना
Dual Model Routing
कस्टम प्रदाताओं के लिए, T-IA Connect दो मॉडल का समर्थन करता है: विश्लेषण/योजना के लिए एक reasoning मॉडल और SCL/LAD जनरेशन के लिए एक कोड मॉडल। निष्पादित किए जा रहे टूल प्रकार के आधार पर स्विच स्वचालित होता है।
प्रमुख आँकड़े
अक्सर पूछे जाने वाले प्रश्न
क्या T-IA Connect मेरा PLC कोड क्लाउड पर भेजता है?
केवल तब जब आप क्लाउड LLM provider (OpenAI, Claude, Gemini) का उपयोग करते हैं। आपके संदेश और प्रोजेक्ट context आपके द्वारा चुने गए प्रदाता को भेजे जाते हैं। अधिकतम गोपनीयता के लिए, स्थानीय मॉडल के साथ Ollama का उपयोग करें और कुछ भी आपकी मशीन से बाहर नहीं जाएगा।
AI की प्रति संदेश लागत कितनी है?
GPT-4o के साथ, एक विशिष्ट संदेश की लागत लगभग $0.04 होती है और टूल कॉलिंग के साथ एक पूर्ण विनिमय की लागत $0.10-0.15 होती है। आप अपनी स्वयं की API key का उपयोग करके सीधे LLM provider को भुगतान करते हैं।
क्या Copilot मेरे TIA Portal प्रोजेक्ट को नुकसान पहुँचा सकता?
इंटरैक्टिव मोड में, Copilot विनाशकारी कार्यों से पहले पुष्टि मांगता है। Anti-loop सुरक्षा अनियंत्रित टूल निष्पादन को रोकती है। आप किसी भी समय निष्पादन रोक सकते हैं।
मुझे कौन सा LLM मॉडल चुनना चाहिए?
सर्वोत्तम परिणामों के लिए, GPT-4o या Claude Sonnet का उपयोग करें। बजट के अनुकूल उपयोग के लिए, सरल कार्यों के लिए GPT-4o-mini या Gemini Flash अच्छी तरह काम करते हैं। पूर्ण गोपनीयता के लिए, Llama 3 जैसे स्थानीय मॉडल के साथ Ollama का उपयोग करें।
संबंधित पृष्ठ
TIA Portal AI Assistant
एकीकृत AI सहायक की सभी क्षमताओं की खोज करें।
Read moreAI PLC Code Generation
जानें कि कैसे AI Siemens PLCs के लिए SCL, LAD और STL कोड उत्पन्न करता है।
Read moreMCP Server for TIA Portal
Claude Desktop या Cursor के साथ T-IA Connect को MCP server के रूप में उपयोग करें।
Read moreबनाम Siemens Industrial Copilot
Siemens के आधिकारिक AI समाधान के साथ T-IA Connect की तुलना करें।
Read more