كيف يعمل
AI Copilot الخاص بـ TIA Portal
نظرة شفافة على الهندسة المعمارية خلف AI assistant الخاص بـ T-IA Connect. افهم كيف تتحول رسائلك إلى إجراءات في TIA Portal من خلال اختيار الأدوات الذكي وتنسيق LLM.
نظرة عامة
إن T-IA Connect Copilot هو AI assistant متكامل يتحكم في TIA Portal عبر الأدوات (function calling). ترسل رسالة بلغة طبيعية، ويقرر LLM أي الأدوات سيستدعيها، ويقوم T-IA Connect بتنفيذ الإجراءات المقابلة في TIA Portal.
تتم العملية بالكامل محلياً على جهازك. يتم تشفير مفاتيح API الخاصة بك عبر Windows DPAPI، ولا يتم تسجيلها أبداً، ولا يتم نقلها أبداً إلى أطراف ثالثة. يتصل T-IA Connect بمزودي LLM مباشرة دون وكيل أو خادم ترحيل.
تدفق البيانات
المستخدم
يرسل رسالة بلغة طبيعية
T-IA Connect
يبني السياق، يختار الأدوات، يستدعي LLM
مزود LLM
يحلل ويعيد استدعاءات الأدوات
TIA Portal
ينفذ الإجراءات عبر Openness API
مزودو LLM المدعومون
T-IA Connect مستقل عن المزودين. أحضر مفتاح API الخاص بك واختر مزودك المفضل.
| المزود | النموذج الافتراضي | المصادقة |
|---|---|---|
| OpenAI | gpt-4o | bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key header |
| Gemini (Google) | gemini-1.5-flash | API key في الاستعلام |
| Groq | llama-3.3-70b-versatile | bearer token |
| Custom | Ollama، vLLM، إلخ. | bearer token اختياري |
أمان مفاتيح API
- ✓المفاتيح مخزنة محلياً، مشفرة عبر Windows DPAPI
- ✓اتصال مباشر بالمزودين، لا يوجد وكيل أو ترحيل
- ✓لا يتم تسجيل المفاتيح أبداً أو نقلها إلى أطراف ثالثة
- ✓دعم نقاط النهاية المخصصة (Azure OpenAI، وكلاء الشركات)
اختيار الأدوات الذكي
مع توفر حوالي 400 أداة، فإن إرسالها جميعاً مع كل طلب سيكون مكلفاً وغير منتج. يحل T-IA Connect هذه المشكلة من خلال اختيار الفئات حسب السياق.
التحدي
- ⚠يستهلك كل تعريف أداة حوالي 50 توكن إدخال
- ⚠يحدد بعض المزودين الأدوات بحد أقصى 128 (OpenAI)
- ⚠كثرة الأدوات قد تربك LLM
الحل: الفئات السياقية
يحلل T-IA Connect رسالتك وينشط فئات الأدوات ذات الصلة فقط.
مضمنة دائماً
الأساسية (حوالي 34 أداة): إدارة المشاريع، الأجهزة، التصدير/الاستيراد
المعرفة (حوالي 21 أداة): الوثائق، النصائح، التحليل، الذاكرة
| الفئة | الأدوات | الكلمات المفتاحية المحفزة |
|---|---|---|
| Blocks | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| Tags | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| Hardware | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| Simulation | ~23 | plcsim, simul, runtime, power_on, instance... |
| Security | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| Online | ~10 | online, offline, download, upload, go_online... |
| متقدم | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| البنية التحتية | ~54 | report, vcs, git, test, library, codesys... |
أمثلة ملموسة
"أنشئ FB Motor"
core + knowledge + blocks
~86 أداة
"قم بتهيئة PLCSim"
core + knowledge + simulation
~78 أداة
"أضف شاشة HMI"
core + knowledge + hmi
~106 أدوات
السياق اللزج
إذا لم تحتوي رسالتك على كلمات مفتاحية (مثل "نعم"، "استمر"، "افعل ذلك")، يعيد T-IA Connect استخدام الفئات من الرسالة السابقة. يتيح ذلك محادثات طبيعية دون فقدان السياق.
حلقة التنفيذ
يعمل Copilot في حلقة: يمكن لـ LLM استدعاء أدوات متعددة بالتتابع قبل الرد على المستخدم.
حماية ضد الحلقات اللانهائية
| الحماية | العتبة | السلوك |
|---|---|---|
| استدعاءات متتالية متطابقة | 2 | يوقف الحلقة |
| إخفاقات متتالية (نفس الأداة) | 3 | يوقف الحلقة |
| أقصى عدد من التكرارات المطلقة | 200 | شبكة أمان |
| إعادة محاولة خطأ LLM | 2 | ثم الفشل |
| إعادة محاولة استجابة فارغة | 3 | ثم الفشل |
استهلاك التوكن
افهم ما يستهلك التوكن وكيف يحسن T-IA Connect التكاليف.
| المكون | التوكنز المقدرة | التكرار |
|---|---|---|
| System prompt (التعليمات) | ~2,000-3,000 | كل رسالة |
| سياق المشروع (الأجهزة، البلوكات) | ~500-2,000 | كل رسالة |
| تعريفات الأدوات (128 كحد أقصى) | ~5,000-8,000 | كل رسالة |
| سجل المحادثة | ~1,000-10,000 | متزايد |
| رسالة المستخدم | ~50-500 | كل رسالة |
| إجمالي الإدخال النموذجي | ~10,000-20,000 | لكل رسالة |
| استجابة LLM | ~200-2,000 | لكل رسالة |
تقدير التكلفة
لرسالة نموذجية مع GPT-4o (تسعير OpenAI، أبريل 2026):
يكلف التبادل الكامل مع tool calling (2-3 تكرارات LLM) حوالي $0.10-0.15.
التحسينات التلقائية
- الاختيار السياقي: يتم إرسال الأدوات ذات الصلة فقط (وليس كل الـ 400)
- الضغط التلقائي: عندما يتجاوز السجل حوالي 200,000 حرف، يتم تلخيص الرسائل القديمة تلقائياً
- سجل محدود: يتم الاحتفاظ بـ 20 رسالة و32,000 حرف كحد أقصى في السياق
- حد 128 أداة: يحد من التكلفة الثابتة لتعريفات الأدوات
الدعم متعدد الوسائط
يمكن لـ Copilot معالجة الصور ومستندات PDF جنباً إلى جنب مع النص.
الصور
يتم إرسال الصور المرسلة إلى Copilot إلى LLM بتنسيق base64 (تنسيق الرؤية). مفيد لتحليل لقطات شاشة البرامج، أو تحديد الأخطاء المرئية، أو وصف المخططات.
ملفات PDF (مواصفات التصميم)
تتم معالجة ملفات PDF عبر نظام CDC (Custom Design Companion): استخراج النص، التقسيم (1,500 حرف مع تداخل 200)، حقن جدول المحتويات في الـ prompt، والوصول إلى الأقسام عند الطلب عبر أدوات مخصصة. يتجنب ذلك إرسال ملف PDF بالكامل في السياق.
الوضع المستقل
يسمح الوضع المستقل لـ Copilot بتنفيذ تسلسلات الإجراءات دون تأكيد المستخدم.
| الجانب | تفاعلي | مستقل |
|---|---|---|
| التأكيدات | مطلوب قبل الإجراءات التدميرية | يتم تخطيها |
| System prompt | كامل (القواعد، التنسيق، التفاعل) | مضغوط (القواعد، النطاق) |
| اكتشاف التوقف المبكر | لا | نعم (أقصى 3 محاولات) |
تحديد المعدل
يطبق T-IA Connect حصصاً منفصلة لكل قناة وصول.
الأدوات المجانية (لا تحتسب)
أدوات القراءة فقط لا تستهلك الحصة: list_*, get_documentation, get_llm_tips، وأدوات الاكتشاف والحالة.
الاتصال في الوقت الحقيقي
يستخدم Copilot تقنية SignalR للتحديثات الحية أثناء التنفيذ.
onAssistantResponseعرض الدردشةonToolExecutionمؤشر "Thinking..."onTokenUsageعداد التوكنonStatusUpdated"Sending to Claude..."النماذج المتوافقة
توافق مفصل لكل مزود.
OpenAI
موصى به: gpt-4o, gpt-4o-mini, gpt-4-turbo
غير متوافق: o1, o3-mini (استخدم Responses API، وليس Chat Completions)
Claude (Anthropic)
موصى به: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
جميع نماذج Claude متوافقة
Gemini (Google)
موصى به: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
التصفية التلقائية تستبعد النماذج غير المخصصة للدردشة (embedding, vision-only)
Groq
موصى به: llama-3.3-70b-versatile, mixtral-8x7b
ملاحظة: الفئة المجانية قد لا تكون كافية لـ 128 أداة
مخصص (Ollama, vLLM)
أي نموذج يدعم OpenAI-format function calling
الاكتشاف التلقائي لـ "fake tool calls" (النماذج التي تعيد JSON كنص)
توجيه النموذج المزدوج
لمزودي الخدمة المخصصين، يدعم T-IA Connect نموذجين: نموذج تفكير للتحليل/التخطيط ونموذج كود لتوليد SCL/LAD. التبديل تلقائي بناءً على نوع الأداة التي يتم تنفيذها.
أرقام رئيسية
الأسئلة الشائعة
هل يرسل T-IA Connect كود PLC الخاص بي إلى السحابة؟
فقط عند استخدام مزود LLM سحابي (OpenAI، Claude، Gemini). يتم إرسال رسائلك وسياق المشروع إلى المزود الذي اخترته. لأقصى قدر من الخصوصية، استخدم Ollama مع نموذج محلي ولا يغادر أي شيء جهازك.
كم تكلفة AI لكل رسالة؟
مع GPT-4o، تكلف الرسالة النموذجية حوالي $0.04 ويكلف التبادل الكامل مع tool calling $0.10-0.15. تدفع لمزود LLM مباشرة باستخدام مفتاح API الخاص بك.
هل يمكن لـ Copilot إتلاف مشروعي في TIA Portal؟
في الوضع التفاعلي، يطلب Copilot التأكيد قبل الإجراءات التدميرية. تمنع الحماية ضد الحلقات التنفيذ العشوائي للأدوات. يمكنك أيضاً إيقاف التنفيذ في أي وقت.
أي نموذج LLM يجب أن أختار؟
للحصول على أفضل النتائج، استخدم GPT-4o أو Claude Sonnet. للاستخدام المراعي للميزانية، يعمل GPT-4o-mini أو Gemini Flash بشكل جيد للمهام الأبسط. للخصوصية الكاملة، استخدم Ollama مع نموذج محلي مثل Llama 3.
صفحات ذات صلة
TIA Portal AI Assistant
اكتشف جميع قدرات مساعد AI المتكامل.
Read moreAI PLC Code Generation
تعرف على كيفية إنشاء AI لكود SCL و LAD و STL لـ Siemens PLCs.
Read moreخادم MCP لـ TIA Portal
استخدم T-IA Connect كخادم MCP مع Claude Desktop أو Cursor.
Read moreمقابل Siemens Industrial Copilot
قارن T-IA Connect مع حل AI الرسمي من Siemens.
Read more