तकनीकी दस्तावेज़

TIA Portal
AI Copilot कैसे काम करता है

T-IA Connect के AI assistant के पीछे की आर्किटेक्चर पर एक पारदर्शी नज़र। समझें कि कैसे आपके संदेश बुद्धिमान टूल चयन और LLM orchestration के माध्यम से TIA Portal कार्यों में बदल जाते हैं।

अवलोकन

T-IA Connect Copilot एक एकीकृत AI assistant है जो टूल्स (function calling) के माध्यम से TIA Portal को नियंत्रित करता है। आप प्राकृतिक भाषा में संदेश भेजते हैं, LLM तय करता है कि किन टूल्स को कॉल करना है, और T-IA Connect TIA Portal में संबंधित कार्यों को निष्पादित करता है।

पूरी प्रक्रिया आपके मशीन पर स्थानीय रूप से चलती है। आपकी API keys Windows DPAPI के माध्यम से एन्क्रिप्ट की गई हैं, कभी लॉग नहीं की जाती हैं, और कभी भी तीसरे पक्ष को प्रेषित नहीं की जाती हैं। T-IA Connect बिना किसी proxy या relay server के सीधे LLM providers से संपर्क करता है।

डेटा फ्लो

उपयोगकर्ता

एक प्राकृतिक भाषा संदेश भेजता है

T-IA Connect

Context बनाता है, टूल्स चुनता है, LLM कॉल करता है

LLM Provider

विश्लेषण करता है और टूल कॉल्स वापस करता है

TIA Portal

Openness API के माध्यम से कार्यों को निष्पादित करता है

User >Create a FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB सफलतापूर्वक बनाया गया

समर्थित LLM Providers

T-IA Connect प्रदाता-स्वतंत्र (provider-agnostic) है। अपनी खुद की API key लाएं और अपना पसंदीदा प्रदाता चुनें।

प्रदाताडिफ़ॉल्ट मॉडलप्रमाणीकरण
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key header
Gemini (Google)gemini-1.5-flashAPI key in query
Groqllama-3.3-70b-versatilebearer token
CustomOllama, vLLM, आदि।वैकल्पिक bearer token

API Key सुरक्षा

  • Keys स्थानीय रूप से संग्रहीत, Windows DPAPI के माध्यम से एन्क्रिप्टेड
  • प्रदाताओं से सीधा कनेक्शन, कोई proxy या relay नहीं
  • Keys कभी लॉग नहीं की जातीं या तीसरे पक्ष को प्रेषित नहीं की जातीं
  • कस्टम एंडपॉइंट समर्थित (Azure OpenAI, एंटरप्राइज़ प्रॉक्सी)

स्मार्ट टूल चयन

~400 टूल्स उपलब्ध होने के साथ, हर अनुरोध के लिए उन सभी को भेजना महंगा और प्रतिकूल होगा। T-IA Connect इसे प्रासंगिक श्रेणी चयन के साथ हल करता है।

चुनौती

  • प्रत्येक टूल परिभाषा ~50 input tokens की खपत करती है
  • कुछ प्रदाता टूल्स को अधिकतम 128 तक सीमित करते हैं (OpenAI)
  • बहुत अधिक टूल्स LLM को भ्रमित कर सकते हैं

समाधान: प्रासंगिक श्रेणियां

T-IA Connect आपके संदेश का विश्लेषण करता है और केवल संबंधित टूल श्रेणियों को सक्रिय करता है।

हमेशा शामिल

Core (~34 टूल्स): प्रोजेक्ट प्रबंधन, डिवाइस, निर्यात/आयात

Knowledge (~21 टूल्स): दस्तावेज़ीकरण, सुझाव, विश्लेषण, मेमोरी

श्रेणीटूल्सट्रिगर कीवर्ड
Blocks~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Tags~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Hardware~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulation~23plcsim, simul, runtime, power_on, instance...
Security~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
Advanced~66fds, graph, sfc, safety, blueprint, motion, alarm...
Infrastructure~54report, vcs, git, test, library, codesys...

ठोस उदाहरण

"Create a FB Motor"

core + knowledge + blocks

~86 टूल्स

"Configure PLCSim"

core + knowledge + simulation

~78 टूल्स

"Add an HMI screen"

core + knowledge + hmi

~106 टूल्स

Sticky Context

यदि आपके संदेश में कोई कीवर्ड नहीं है (जैसे "yes", "continue", "do it"), तो T-IA Connect पिछले संदेश की श्रेणियों का पुन: उपयोग करता है। यह संदर्भ खोए बिना स्वाभाविक बातचीत सक्षम बनाता है।

Execution Loop

Copilot एक लूप में काम करता है: LLM उपयोगकर्ता को जवाब देने से पहले क्रमिक रूप से कई टूल्स को कॉल कर सकता है।

संदेश + context LLM को भेजें
LLM उत्तर देता है
टूल कॉल्स का पता चला?
हाँ
TIA Portal में टूल्स निष्पादित करें
परिणाम वापस LLM को भेजें
नहीं
उपयोगकर्ता को अंतिम उत्तर

Anti-Infinite Loop सुरक्षा

सुरक्षासीमा (Threshold)व्यवहार
समान लगातार कॉल्स2लूप को रोकता है
लगातार विफलताएं (समान टूल)3लूप को रोकता है
अधिकतम पूर्ण iterations200सुरक्षा घेरा
LLM त्रुटि पुन: प्रयास2फिर विफलता
खाली प्रतिक्रिया पुन: प्रयास3फिर विफलता

Token Consumption

समझें कि क्या tokens की खपत करता है और T-IA Connect लागत को कैसे अनुकूलित करता है।

घटकअनुमानित Tokensआवृत्ति
System prompt (निर्देश)~2,000-3,000प्रत्येक संदेश
प्रोजेक्ट context (डिवाइस, ब्लॉक्स)~500-2,000प्रत्येक संदेश
टूल परिभाषाएँ (अधिकतम 128)~5,000-8,000प्रत्येक संदेश
बातचीत का इतिहास~1,000-10,000बढ़ता हुआ
उपयोगकर्ता संदेश~50-500प्रत्येक संदेश
सामान्य कुल इनपुट~10,000-20,000प्रति संदेश
LLM प्रतिक्रिया~200-2,000प्रति संदेश

लागत अनुमान

GPT-4o के साथ एक सामान्य संदेश के लिए (OpenAI मूल्य निर्धारण, अप्रैल 2026):

इनपुट: ~15,000 tokens x $2.50/1M =~$0.037
आउटपुट: ~500 tokens x $10/1M =~$0.005
प्रति संदेश कुल:~$0.04

टूल कॉलिंग के साथ एक पूर्ण विनिमय (2-3 LLM iterations) की लागत लगभग $0.10-0.15 होती है।

स्वचालित अनुकूलन

  • प्रासंगिक चयन: केवल संबंधित टूल्स भेजे जाते हैं (सभी 400 नहीं)
  • ऑटो-कॉम्पैक्शन: जब इतिहास ~200,000 वर्णों से अधिक हो जाता है, तो पुराने संदेशों को स्वचालित रूप से संक्षेपित किया जाता है
  • सीमित इतिहास: context में अधिकतम 20 संदेश और 32,000 वर्ण रखे जाते हैं
  • 128 टूल कैप: टूल परिभाषाओं की निश्चित लागत को सीमित करता है

Multimodal समर्थन

Copilot टेक्स्ट के साथ-साथ छवियों और PDF दस्तावेज़ों को प्रोसेस कर सकता है।

छवियाँ

Copilot को भेजी गई छवियाँ LLM को base64 (विजन प्रारूप) में प्रेषित की जाती हैं। प्रोग्राम स्क्रीनशॉट का विश्लेषण करने, दृश्य त्रुटियों की पहचान करने या योजनाबद्ध विवरण देने के लिए उपयोगी।

PDFs (डिज़ाइन विनिर्देश)

PDFs को CDC (Custom Design Companion) सिस्टम के माध्यम से प्रोसेस किया जाता है: टेक्स्ट निष्कर्षण, चंकिंग (200 ओवरलैप के साथ 1,500 वर्ण), प्रॉम्प्ट में इंजेक्ट की गई सामग्री की तालिका, और समर्पित टूल्स के माध्यम से ऑन-डिमांड चंक एक्सेस। यह पूरे PDF को context में भेजने से बचाता है।

Autonomous Mode

Autonomous mode Copilot को उपयोगकर्ता की पुष्टि के बिना क्रिया अनुक्रमों को निष्पादित करने की अनुमति देता है।

पहलूInteractiveAutonomous
पुष्टियाँविनाशकारी कार्यों से पहले आवश्यकछोड़ दिया गया
System promptपूर्ण (नियम, स्वरूपण, इंटरैक्टिव)संक्षिप्त (नियम, दायरा)
जल्दी रुकने का पता लगानानहींहाँ (अधिकतम 3 पुन: प्रयास)

Rate Limiting

T-IA Connect प्रत्येक एक्सेस चैनल के लिए अलग कोटा लागू करता है।

apiसीधे REST API कॉल्स
mcpMCP टूल्स (Claude Desktop, आदि)
copilotएकीकृत सहायक

मुफ़्त टूल्स (गिने नहीं जाते)

केवल-पठन (Read-only) टूल्स कोटा की खपत नहीं करते: list_*, get_documentation, get_llm_tips, खोज और स्थिति टूल्स।

Real-Time Communication

Copilot निष्पादन के दौरान लाइव अपडेट के लिए SignalR का उपयोग करता है।

onAssistantResponseचैट प्रदर्शन
onToolExecution"सोच रहा हूँ..." संकेतक
onTokenUsageToken काउंटर
onStatusUpdated"Claude को भेज रहा हूँ..."

संगत मॉडल

प्रति प्रदाता विस्तृत संगतता।

OpenAI

अनुशंसित: gpt-4o, gpt-4o-mini, gpt-4-turbo

संगत नहीं: o1, o3-mini (Responses API का उपयोग करें, Chat Completions का नहीं)

Claude (Anthropic)

अनुशंसित: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

सभी Claude मॉडल संगत हैं

Gemini (Google)

अनुशंसित: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

ऑटो-फ़िल्टर गैर-चैट मॉडल (embedding, vision-only) को बाहर करता है

Groq

अनुशंसित: llama-3.3-70b-versatile, mixtral-8x7b

नोट: मुफ़्त टियर 128 टूल्स के लिए अपर्याप्त हो सकता है

Custom (Ollama, vLLM)

OpenAI-प्रारूप function calling का समर्थन करने वाला कोई भी मॉडल

"नकली टूल कॉल्स" (टेक्स्ट के रूप में JSON लौटाने वाले मॉडल) का स्वचालित पता लगाना

Dual Model Routing

कस्टम प्रदाताओं के लिए, T-IA Connect दो मॉडल का समर्थन करता है: विश्लेषण/योजना के लिए एक reasoning मॉडल और SCL/LAD जनरेशन के लिए एक कोड मॉडल। निष्पादित किए जा रहे टूल प्रकार के आधार पर स्विच स्वचालित होता है।

प्रमुख आँकड़े

~400
कुल टूल्स
128
प्रति अनुरोध टूल्स (अधिकतम)
5 (+ custom)
समर्थित प्रदाता
13
टूल श्रेणियां
90 सेकंड
HTTP timeout
20 संदेश / 32,000 वर्ण
इतिहास (context में)
~$0.04
अनुमानित प्रति संदेश लागत (GPT-4o)
~$0.10-0.15
अनुमानित पूर्ण विनिमय लागत

अक्सर पूछे जाने वाले प्रश्न

क्या T-IA Connect मेरा PLC कोड क्लाउड पर भेजता है?

केवल तब जब आप क्लाउड LLM provider (OpenAI, Claude, Gemini) का उपयोग करते हैं। आपके संदेश और प्रोजेक्ट context आपके द्वारा चुने गए प्रदाता को भेजे जाते हैं। अधिकतम गोपनीयता के लिए, स्थानीय मॉडल के साथ Ollama का उपयोग करें और कुछ भी आपकी मशीन से बाहर नहीं जाएगा।

AI की प्रति संदेश लागत कितनी है?

GPT-4o के साथ, एक विशिष्ट संदेश की लागत लगभग $0.04 होती है और टूल कॉलिंग के साथ एक पूर्ण विनिमय की लागत $0.10-0.15 होती है। आप अपनी स्वयं की API key का उपयोग करके सीधे LLM provider को भुगतान करते हैं।

क्या Copilot मेरे TIA Portal प्रोजेक्ट को नुकसान पहुँचा सकता?

इंटरैक्टिव मोड में, Copilot विनाशकारी कार्यों से पहले पुष्टि मांगता है। Anti-loop सुरक्षा अनियंत्रित टूल निष्पादन को रोकती है। आप किसी भी समय निष्पादन रोक सकते हैं।

मुझे कौन सा LLM मॉडल चुनना चाहिए?

सर्वोत्तम परिणामों के लिए, GPT-4o या Claude Sonnet का उपयोग करें। बजट के अनुकूल उपयोग के लिए, सरल कार्यों के लिए GPT-4o-mini या Gemini Flash अच्छी तरह काम करते हैं। पूर्ण गोपनीयता के लिए, Llama 3 जैसे स्थानीय मॉडल के साथ Ollama का उपयोग करें।

संबंधित पृष्ठ

Copilot आज़माने के लिए तैयार हैं?

T-IA Connect डाउनलोड करें और आज ही AI के साथ PLC कोड बनाना शुरू करें।