وثائق تقنية

كيف يعمل
AI Copilot الخاص بـ TIA Portal

نظرة شفافة على الهندسة المعمارية خلف AI assistant الخاص بـ T-IA Connect. افهم كيف تتحول رسائلك إلى إجراءات في TIA Portal من خلال اختيار الأدوات الذكي وتنسيق LLM.

نظرة عامة

إن T-IA Connect Copilot هو AI assistant متكامل يتحكم في TIA Portal عبر الأدوات (function calling). ترسل رسالة بلغة طبيعية، ويقرر LLM أي الأدوات سيستدعيها، ويقوم T-IA Connect بتنفيذ الإجراءات المقابلة في TIA Portal.

تتم العملية بالكامل محلياً على جهازك. يتم تشفير مفاتيح API الخاصة بك عبر Windows DPAPI، ولا يتم تسجيلها أبداً، ولا يتم نقلها أبداً إلى أطراف ثالثة. يتصل T-IA Connect بمزودي LLM مباشرة دون وكيل أو خادم ترحيل.

تدفق البيانات

المستخدم

يرسل رسالة بلغة طبيعية

T-IA Connect

يبني السياق، يختار الأدوات، يستدعي LLM

مزود LLM

يحلل ويعيد استدعاءات الأدوات

TIA Portal

ينفذ الإجراءات عبر Openness API

User >أنشئ FB Motor
LLM >tool_call: create_block(FB)
Result >تم إنشاء FB Motor_FB بنجاح

مزودو LLM المدعومون

T-IA Connect مستقل عن المزودين. أحضر مفتاح API الخاص بك واختر مزودك المفضل.

المزودالنموذج الافتراضيالمصادقة
OpenAIgpt-4obearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key header
Gemini (Google)gemini-1.5-flashAPI key في الاستعلام
Groqllama-3.3-70b-versatilebearer token
CustomOllama، vLLM، إلخ.bearer token اختياري

أمان مفاتيح API

  • المفاتيح مخزنة محلياً، مشفرة عبر Windows DPAPI
  • اتصال مباشر بالمزودين، لا يوجد وكيل أو ترحيل
  • لا يتم تسجيل المفاتيح أبداً أو نقلها إلى أطراف ثالثة
  • دعم نقاط النهاية المخصصة (Azure OpenAI، وكلاء الشركات)

اختيار الأدوات الذكي

مع توفر حوالي 400 أداة، فإن إرسالها جميعاً مع كل طلب سيكون مكلفاً وغير منتج. يحل T-IA Connect هذه المشكلة من خلال اختيار الفئات حسب السياق.

التحدي

  • يستهلك كل تعريف أداة حوالي 50 توكن إدخال
  • يحدد بعض المزودين الأدوات بحد أقصى 128 (OpenAI)
  • كثرة الأدوات قد تربك LLM

الحل: الفئات السياقية

يحلل T-IA Connect رسالتك وينشط فئات الأدوات ذات الصلة فقط.

مضمنة دائماً

الأساسية (حوالي 34 أداة): إدارة المشاريع، الأجهزة، التصدير/الاستيراد

المعرفة (حوالي 21 أداة): الوثائق، النصائح، التحليل، الذاكرة

الفئةالأدواتالكلمات المفتاحية المحفزة
Blocks~31block, fb, fc, ob, db, scl, lad, compile, program, code...
Tags~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
Hardware~24hardware, module, rack, cpu, slot, profinet, gsd...
Simulation~23plcsim, simul, runtime, power_on, instance...
Security~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
Online~10online, offline, download, upload, go_online...
متقدم~66fds, graph, sfc, safety, blueprint, motion, alarm...
البنية التحتية~54report, vcs, git, test, library, codesys...

أمثلة ملموسة

"أنشئ FB Motor"

core + knowledge + blocks

~86 أداة

"قم بتهيئة PLCSim"

core + knowledge + simulation

~78 أداة

"أضف شاشة HMI"

core + knowledge + hmi

~106 أدوات

السياق اللزج

إذا لم تحتوي رسالتك على كلمات مفتاحية (مثل "نعم"، "استمر"، "افعل ذلك")، يعيد T-IA Connect استخدام الفئات من الرسالة السابقة. يتيح ذلك محادثات طبيعية دون فقدان السياق.

حلقة التنفيذ

يعمل Copilot في حلقة: يمكن لـ LLM استدعاء أدوات متعددة بالتتابع قبل الرد على المستخدم.

إرسال الرسالة + السياق إلى LLM
يعيد LLM الرد
تم اكتشاف استدعاءات أدوات؟
نعم
تنفيذ الأدوات في TIA Portal
إرسال النتائج مرة أخرى إلى LLM
لا
الرد النهائي للمستخدم

حماية ضد الحلقات اللانهائية

الحمايةالعتبةالسلوك
استدعاءات متتالية متطابقة2يوقف الحلقة
إخفاقات متتالية (نفس الأداة)3يوقف الحلقة
أقصى عدد من التكرارات المطلقة200شبكة أمان
إعادة محاولة خطأ LLM2ثم الفشل
إعادة محاولة استجابة فارغة3ثم الفشل

استهلاك التوكن

افهم ما يستهلك التوكن وكيف يحسن T-IA Connect التكاليف.

المكونالتوكنز المقدرةالتكرار
System prompt (التعليمات)~2,000-3,000كل رسالة
سياق المشروع (الأجهزة، البلوكات)~500-2,000كل رسالة
تعريفات الأدوات (128 كحد أقصى)~5,000-8,000كل رسالة
سجل المحادثة~1,000-10,000متزايد
رسالة المستخدم~50-500كل رسالة
إجمالي الإدخال النموذجي~10,000-20,000لكل رسالة
استجابة LLM~200-2,000لكل رسالة

تقدير التكلفة

لرسالة نموذجية مع GPT-4o (تسعير OpenAI، أبريل 2026):

الإدخال: ~15,000 توكن x $2.50/1M =~$0.037
الإخراج: ~500 توكن x $10/1M =~$0.005
الإجمالي لكل رسالة:~$0.04

يكلف التبادل الكامل مع tool calling (2-3 تكرارات LLM) حوالي $0.10-0.15.

التحسينات التلقائية

  • الاختيار السياقي: يتم إرسال الأدوات ذات الصلة فقط (وليس كل الـ 400)
  • الضغط التلقائي: عندما يتجاوز السجل حوالي 200,000 حرف، يتم تلخيص الرسائل القديمة تلقائياً
  • سجل محدود: يتم الاحتفاظ بـ 20 رسالة و32,000 حرف كحد أقصى في السياق
  • حد 128 أداة: يحد من التكلفة الثابتة لتعريفات الأدوات

الدعم متعدد الوسائط

يمكن لـ Copilot معالجة الصور ومستندات PDF جنباً إلى جنب مع النص.

الصور

يتم إرسال الصور المرسلة إلى Copilot إلى LLM بتنسيق base64 (تنسيق الرؤية). مفيد لتحليل لقطات شاشة البرامج، أو تحديد الأخطاء المرئية، أو وصف المخططات.

ملفات PDF (مواصفات التصميم)

تتم معالجة ملفات PDF عبر نظام CDC (Custom Design Companion): استخراج النص، التقسيم (1,500 حرف مع تداخل 200)، حقن جدول المحتويات في الـ prompt، والوصول إلى الأقسام عند الطلب عبر أدوات مخصصة. يتجنب ذلك إرسال ملف PDF بالكامل في السياق.

الوضع المستقل

يسمح الوضع المستقل لـ Copilot بتنفيذ تسلسلات الإجراءات دون تأكيد المستخدم.

الجانبتفاعليمستقل
التأكيداتمطلوب قبل الإجراءات التدميريةيتم تخطيها
System promptكامل (القواعد، التنسيق، التفاعل)مضغوط (القواعد، النطاق)
اكتشاف التوقف المبكرلانعم (أقصى 3 محاولات)

تحديد المعدل

يطبق T-IA Connect حصصاً منفصلة لكل قناة وصول.

apiاستدعاءات REST API مباشرة
mcpأدوات MCP (Claude Desktop، إلخ.)
copilotالمساعد المتكامل

الأدوات المجانية (لا تحتسب)

أدوات القراءة فقط لا تستهلك الحصة: list_*, get_documentation, get_llm_tips، وأدوات الاكتشاف والحالة.

الاتصال في الوقت الحقيقي

يستخدم Copilot تقنية SignalR للتحديثات الحية أثناء التنفيذ.

onAssistantResponseعرض الدردشة
onToolExecutionمؤشر "Thinking..."
onTokenUsageعداد التوكن
onStatusUpdated"Sending to Claude..."

النماذج المتوافقة

توافق مفصل لكل مزود.

OpenAI

موصى به: gpt-4o, gpt-4o-mini, gpt-4-turbo

غير متوافق: o1, o3-mini (استخدم Responses API، وليس Chat Completions)

Claude (Anthropic)

موصى به: claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

جميع نماذج Claude متوافقة

Gemini (Google)

موصى به: gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

التصفية التلقائية تستبعد النماذج غير المخصصة للدردشة (embedding, vision-only)

Groq

موصى به: llama-3.3-70b-versatile, mixtral-8x7b

ملاحظة: الفئة المجانية قد لا تكون كافية لـ 128 أداة

مخصص (Ollama, vLLM)

أي نموذج يدعم OpenAI-format function calling

الاكتشاف التلقائي لـ "fake tool calls" (النماذج التي تعيد JSON كنص)

توجيه النموذج المزدوج

لمزودي الخدمة المخصصين، يدعم T-IA Connect نموذجين: نموذج تفكير للتحليل/التخطيط ونموذج كود لتوليد SCL/LAD. التبديل تلقائي بناءً على نوع الأداة التي يتم تنفيذها.

أرقام رئيسية

~400
إجمالي الأدوات
128
الأدوات لكل طلب (كحد أقصى)
5 (+ مخصص)
المزودون المدعومون
13
فئات الأدوات
90 ثانية
مهلة HTTP
20 رسالة / 32,000 حرف
السجل في السياق
~$0.04
التكلفة المقدرة لكل رسالة (GPT-4o)
~$0.10-0.15
التكلفة المقدرة لكل تبادل كامل

الأسئلة الشائعة

هل يرسل T-IA Connect كود PLC الخاص بي إلى السحابة؟

فقط عند استخدام مزود LLM سحابي (OpenAI، Claude، Gemini). يتم إرسال رسائلك وسياق المشروع إلى المزود الذي اخترته. لأقصى قدر من الخصوصية، استخدم Ollama مع نموذج محلي ولا يغادر أي شيء جهازك.

كم تكلفة AI لكل رسالة؟

مع GPT-4o، تكلف الرسالة النموذجية حوالي $0.04 ويكلف التبادل الكامل مع tool calling $0.10-0.15. تدفع لمزود LLM مباشرة باستخدام مفتاح API الخاص بك.

هل يمكن لـ Copilot إتلاف مشروعي في TIA Portal؟

في الوضع التفاعلي، يطلب Copilot التأكيد قبل الإجراءات التدميرية. تمنع الحماية ضد الحلقات التنفيذ العشوائي للأدوات. يمكنك أيضاً إيقاف التنفيذ في أي وقت.

أي نموذج LLM يجب أن أختار؟

للحصول على أفضل النتائج، استخدم GPT-4o أو Claude Sonnet. للاستخدام المراعي للميزانية، يعمل GPT-4o-mini أو Gemini Flash بشكل جيد للمهام الأبسط. للخصوصية الكاملة، استخدم Ollama مع نموذج محلي مثل Llama 3.

صفحات ذات صلة

هل أنت جاهز لتجربة Copilot؟

قم بتنزيل T-IA Connect وابدأ في إنشاء كود PLC باستخدام AI اليوم.