技术文档

TIA Portal
AI Copilot 工作原理

透明展示 T-IA Connect AI 助手的背后架构。了解如何通过智能工具选择和 LLM 编排将您的消息转化为 TIA Portal 操作。

概述

T-IA Connect Copilot 是一个集成 AI 助手,通过工具(function calling)控制 TIA Portal。您发送自然语言消息,LLM 决定调用哪些工具,T-IA Connect 在 TIA Portal 中执行相应操作。

整个过程在您的机器上本地运行。您的 API 密钥通过 Windows DPAPI 加密,从未记录,也从未传输给第三方。T-IA Connect 直接联系 LLM 提供商,无需代理或中转服务器。

数据流

用户

发送自然语言消息

T-IA Connect

构建上下文,选择工具,调用 LLM

LLM 提供商

分析并返回工具调用

TIA Portal

通过 Openness API 执行操作

User >创建 FB Motor
LLM >tool_call: create_block(FB)
Result >FB Motor_FB 创建成功

支持的 LLM 提供商

T-IA Connect 兼容各种提供商。自带 API 密钥并选择您喜欢的提供商。

提供商默认模型身份验证
OpenAIgpt-4oBearer token
Claude (Anthropic)claude-sonnet-4-20250514x-api-key 标头
Gemini (Google)gemini-1.5-flash查询中的 API 密钥
Groqllama-3.3-70b-versatileBearer token
CustomOllama, vLLM 等可选 Bearer token

API 密钥安全

  • 密钥存储在本地,通过 Windows DPAPI 加密
  • 直接连接到提供商,无代理或中转
  • 密钥从未被记录或传输给第三方
  • 支持自定义端点(Azure OpenAI、企业代理)

智能工具选择

拥有约 400 个可用工具,在每个请求中发送所有工具将既昂贵又适得其反。T-IA Connect 通过上下文类别选择解决了这一问题。

挑战

  • 每个工具定义消耗约 50 个输入 token
  • 某些提供商将工具限制为最多 128 个(OpenAI)
  • 工具过多可能会使 LLM 感到困惑

解决方案:上下文类别

T-IA Connect 分析您的消息并仅激活相关的工具类别。

始终包含

核心(约 34 个工具):项目管理、设备、导出/导入

知识(约 21 个工具):文档、提示、分析、记忆

类别工具触发关键词
~31block, fb, fc, ob, db, scl, lad, compile, program, code...
变量 (Tags)~16tag, watch, force, variable, address, diagnostic...
HMI~51hmi, screen, panel, wincc, display, visualization...
硬件~24hardware, module, rack, cpu, slot, profinet, gsd...
仿真~23plcsim, simul, runtime, power_on, instance...
安全~21security, password, protection, opcua, webserver...
UDT~23udt, type, struct, data_type...
在线~10online, offline, download, upload, go_online...
高级~66fds, graph, sfc, safety, blueprint, motion, alarm...
基础设施~54report, vcs, git, test, library, codesys...

具体示例

"创建 FB Motor"

核心 + 知识 + 块

约 86 个工具

"配置 PLCSim"

核心 + 知识 + 仿真

约 78 个工具

"添加 HMI 屏幕"

核心 + 知识 + HMI

约 106 个工具

粘性上下文

如果您的消息不包含关键词(例如“是”、“继续”、“执行”),T-IA Connect 将重用上一条消息中的类别。这使得自然对话能够进行而不会丢失上下文。

执行循环

Copilot 在循环中工作:LLM 可以在响应用户之前连续调用多个工具。

发送消息 + 上下文给 LLM
LLM 返回响应
检测到工具调用?
在 TIA Portal 中执行工具
将结果发回 LLM
向用户发送最终响应

防无限循环保护

保护措施阈值行为
相同连续调用2停止循环
连续失败(相同工具)3停止循环
最大绝对迭代次数200安全网
LLM 错误重试2然后报错
空响应重试3然后报错

Token 消耗

了解消耗 token 的内容以及 T-IA Connect 如何优化成本。

组件预估 Token频率
系统提示词(指令)~2,000-3,000每条消息
项目上下文(设备、块)~500-2,000每条消息
工具定义(最多 128 个)~5,000-8,000每条消息
对话历史~1,000-10,000增长
用户消息~50-500每条消息
典型总输入~10,000-20,000每条消息
LLM 响应~200-2,000每条消息

成本预估

对于 GPT-4o 的典型消息(OpenAI 定价,2026 年 4 月):

输入:约 15,000 tokens x $2.50/1M =~$0.037
输出:约 500 tokens x $10/1M =~$0.005
每条消息总计:~$0.04

一次完整的工具调用交互(2-3 次 LLM 迭代)成本约为 0.10-0.15 美元。

自动优化

  • 上下文选择:仅发送相关工具(而非全部 400 个)
  • 自动压缩:当历史记录超过约 200,000 个字符时,旧消息会自动进行总结
  • 限制历史:上下文中保留最多 20 条消息和 32,000 个字符
  • 128 工具限制:限制工具定义的固定成本

多模态支持

Copilot 可以处理文本旁边的图像和 PDF 文档。

图像

发送给 Copilot 的图像以 base64(视觉格式)传输给 LLM。适用于分析程序截图、识别视觉错误或描述示意图。

PDF(设计规范)

PDF 通过 CDC (Custom Design Companion) 系统进行处理:文本提取、分块(1,500 字符,200 重叠)、在提示词中注入目录,并根据需求通过专用工具访问块。这避免了将整个 PDF 发送到上下文中。

自主模式

自主模式允许 Copilot 在无需用户确认的情况下执行操作序列。

方面交互式自主
确认在破坏性操作前需要跳过
系统提示词完整(规则、格式、交互)精简(规则、范围)
及早停止检测是(最多 3 次重试)

速率限制

T-IA Connect 为每个访问渠道应用单独的配额。

api直接 REST API 调用
mcpMCP 工具(Claude Desktop 等)
copilot集成助手

免费工具(不计入)

只读工具不消耗配额:list_*、get_documentation、get_llm_tips、探索和状态工具。

实时通信

Copilot 使用 SignalR 在执行期间进行实时更新。

onAssistantResponse聊天显示
onToolExecution“思考中...”指示器
onTokenUsageToken 计数器
onStatusUpdated“发送给 Claude...”

兼容模型

各提供商的详细兼容性。

OpenAI

推荐:gpt-4o, gpt-4o-mini, gpt-4-turbo

不兼容:o1, o3-mini(使用 Responses API,而非 Chat Completions)

Claude (Anthropic)

推荐:claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6

所有 Claude 模型均兼容

Gemini (Google)

推荐:gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash

自动过滤排除非聊天模型(嵌入、仅视觉)

Groq

推荐:llama-3.3-70b-versatile, mixtral-8x7b

注意:免费层可能不足以支持 128 个工具

自定义 (Ollama, vLLM)

任何支持 OpenAI 格式 function calling 的模型

自动检测“伪工具调用”(以文本形式返回 JSON 的模型)

双模型路由

对于自定义提供商,T-IA Connect 支持两种模型:用于分析/规划的推理模型和用于 SCL/LAD 生成的代码模型。切换根据正在执行的工具类型自动进行。

关键数据

~400
总工具数
128
每个请求的工具数(最大)
5 (+ 自定义)
支持的提供商
13
工具类别
90 秒
HTTP 超时
20 条消息 / 32,000 字符
上下文中的历史记录
~$0.04
每条消息预估成本 (GPT-4o)
~$0.10-0.15
单次完整交互预估成本

常见问题

T-IA Connect 会将我的 PLC 代码发送到云端吗?

仅当您使用云端 LLM 提供商(OpenAI, Claude, Gemini)时。您的消息和项目上下文会发送给您选择的提供商。为了获得最大隐私,请使用 Ollama 配合本地模型,这样任何内容都不会离开您的机器。

AI 每条消息花费多少?

使用 GPT-4o,典型消息成本约为 0.04 美元,带有工具调用的完整交互成本为 0.10-0.15 美元。您直接使用自己的 API 密钥向 LLM 提供商支付费用。

Copilot 会损坏我的 TIA Portal 项目吗?

在交互模式下,Copilot 在执行破坏性操作前会请求确认。防循环保护可防止失控的工具执行。您也可以随时停止执行。

我该选择哪个 LLM 模型?

为了获得最佳效果,请使用 GPT-4o 或 Claude Sonnet。对于预算敏感的使用,GPT-4o-mini 或 Gemini Flash 在处理较简单的任务时表现良好。如需完全隐私,请使用 Ollama 配合本地模型(如 Llama 3)。

相关页面

准备好尝试 Copilot 了吗?

下载 T-IA Connect,立即开始使用 AI 生成 PLC 代码。