TIA Portal
AI Copilot 工作原理
透明展示 T-IA Connect AI 助手的背后架构。了解如何通过智能工具选择和 LLM 编排将您的消息转化为 TIA Portal 操作。
概述
T-IA Connect Copilot 是一个集成 AI 助手,通过工具(function calling)控制 TIA Portal。您发送自然语言消息,LLM 决定调用哪些工具,T-IA Connect 在 TIA Portal 中执行相应操作。
整个过程在您的机器上本地运行。您的 API 密钥通过 Windows DPAPI 加密,从未记录,也从未传输给第三方。T-IA Connect 直接联系 LLM 提供商,无需代理或中转服务器。
数据流
用户
发送自然语言消息
T-IA Connect
构建上下文,选择工具,调用 LLM
LLM 提供商
分析并返回工具调用
TIA Portal
通过 Openness API 执行操作
支持的 LLM 提供商
T-IA Connect 兼容各种提供商。自带 API 密钥并选择您喜欢的提供商。
| 提供商 | 默认模型 | 身份验证 |
|---|---|---|
| OpenAI | gpt-4o | Bearer token |
| Claude (Anthropic) | claude-sonnet-4-20250514 | x-api-key 标头 |
| Gemini (Google) | gemini-1.5-flash | 查询中的 API 密钥 |
| Groq | llama-3.3-70b-versatile | Bearer token |
| Custom | Ollama, vLLM 等 | 可选 Bearer token |
API 密钥安全
- ✓密钥存储在本地,通过 Windows DPAPI 加密
- ✓直接连接到提供商,无代理或中转
- ✓密钥从未被记录或传输给第三方
- ✓支持自定义端点(Azure OpenAI、企业代理)
智能工具选择
拥有约 400 个可用工具,在每个请求中发送所有工具将既昂贵又适得其反。T-IA Connect 通过上下文类别选择解决了这一问题。
挑战
- ⚠每个工具定义消耗约 50 个输入 token
- ⚠某些提供商将工具限制为最多 128 个(OpenAI)
- ⚠工具过多可能会使 LLM 感到困惑
解决方案:上下文类别
T-IA Connect 分析您的消息并仅激活相关的工具类别。
始终包含
核心(约 34 个工具):项目管理、设备、导出/导入
知识(约 21 个工具):文档、提示、分析、记忆
| 类别 | 工具 | 触发关键词 |
|---|---|---|
| 块 | ~31 | block, fb, fc, ob, db, scl, lad, compile, program, code... |
| 变量 (Tags) | ~16 | tag, watch, force, variable, address, diagnostic... |
| HMI | ~51 | hmi, screen, panel, wincc, display, visualization... |
| 硬件 | ~24 | hardware, module, rack, cpu, slot, profinet, gsd... |
| 仿真 | ~23 | plcsim, simul, runtime, power_on, instance... |
| 安全 | ~21 | security, password, protection, opcua, webserver... |
| UDT | ~23 | udt, type, struct, data_type... |
| 在线 | ~10 | online, offline, download, upload, go_online... |
| 高级 | ~66 | fds, graph, sfc, safety, blueprint, motion, alarm... |
| 基础设施 | ~54 | report, vcs, git, test, library, codesys... |
具体示例
"创建 FB Motor"
核心 + 知识 + 块
约 86 个工具
"配置 PLCSim"
核心 + 知识 + 仿真
约 78 个工具
"添加 HMI 屏幕"
核心 + 知识 + HMI
约 106 个工具
粘性上下文
如果您的消息不包含关键词(例如“是”、“继续”、“执行”),T-IA Connect 将重用上一条消息中的类别。这使得自然对话能够进行而不会丢失上下文。
执行循环
Copilot 在循环中工作:LLM 可以在响应用户之前连续调用多个工具。
防无限循环保护
| 保护措施 | 阈值 | 行为 |
|---|---|---|
| 相同连续调用 | 2 | 停止循环 |
| 连续失败(相同工具) | 3 | 停止循环 |
| 最大绝对迭代次数 | 200 | 安全网 |
| LLM 错误重试 | 2 | 然后报错 |
| 空响应重试 | 3 | 然后报错 |
Token 消耗
了解消耗 token 的内容以及 T-IA Connect 如何优化成本。
| 组件 | 预估 Token | 频率 |
|---|---|---|
| 系统提示词(指令) | ~2,000-3,000 | 每条消息 |
| 项目上下文(设备、块) | ~500-2,000 | 每条消息 |
| 工具定义(最多 128 个) | ~5,000-8,000 | 每条消息 |
| 对话历史 | ~1,000-10,000 | 增长 |
| 用户消息 | ~50-500 | 每条消息 |
| 典型总输入 | ~10,000-20,000 | 每条消息 |
| LLM 响应 | ~200-2,000 | 每条消息 |
成本预估
对于 GPT-4o 的典型消息(OpenAI 定价,2026 年 4 月):
一次完整的工具调用交互(2-3 次 LLM 迭代)成本约为 0.10-0.15 美元。
自动优化
- 上下文选择:仅发送相关工具(而非全部 400 个)
- 自动压缩:当历史记录超过约 200,000 个字符时,旧消息会自动进行总结
- 限制历史:上下文中保留最多 20 条消息和 32,000 个字符
- 128 工具限制:限制工具定义的固定成本
多模态支持
Copilot 可以处理文本旁边的图像和 PDF 文档。
图像
发送给 Copilot 的图像以 base64(视觉格式)传输给 LLM。适用于分析程序截图、识别视觉错误或描述示意图。
PDF(设计规范)
PDF 通过 CDC (Custom Design Companion) 系统进行处理:文本提取、分块(1,500 字符,200 重叠)、在提示词中注入目录,并根据需求通过专用工具访问块。这避免了将整个 PDF 发送到上下文中。
自主模式
自主模式允许 Copilot 在无需用户确认的情况下执行操作序列。
| 方面 | 交互式 | 自主 |
|---|---|---|
| 确认 | 在破坏性操作前需要 | 跳过 |
| 系统提示词 | 完整(规则、格式、交互) | 精简(规则、范围) |
| 及早停止检测 | 否 | 是(最多 3 次重试) |
速率限制
T-IA Connect 为每个访问渠道应用单独的配额。
免费工具(不计入)
只读工具不消耗配额:list_*、get_documentation、get_llm_tips、探索和状态工具。
实时通信
Copilot 使用 SignalR 在执行期间进行实时更新。
onAssistantResponse聊天显示onToolExecution“思考中...”指示器onTokenUsageToken 计数器onStatusUpdated“发送给 Claude...”兼容模型
各提供商的详细兼容性。
OpenAI
推荐:gpt-4o, gpt-4o-mini, gpt-4-turbo
不兼容:o1, o3-mini(使用 Responses API,而非 Chat Completions)
Claude (Anthropic)
推荐:claude-sonnet-4-20250514, claude-haiku-4-5-20251001, claude-opus-4-6
所有 Claude 模型均兼容
Gemini (Google)
推荐:gemini-1.5-pro, gemini-1.5-flash, gemini-2.0-flash
自动过滤排除非聊天模型(嵌入、仅视觉)
Groq
推荐:llama-3.3-70b-versatile, mixtral-8x7b
注意:免费层可能不足以支持 128 个工具
自定义 (Ollama, vLLM)
任何支持 OpenAI 格式 function calling 的模型
自动检测“伪工具调用”(以文本形式返回 JSON 的模型)
双模型路由
对于自定义提供商,T-IA Connect 支持两种模型:用于分析/规划的推理模型和用于 SCL/LAD 生成的代码模型。切换根据正在执行的工具类型自动进行。
关键数据
常见问题
T-IA Connect 会将我的 PLC 代码发送到云端吗?
仅当您使用云端 LLM 提供商(OpenAI, Claude, Gemini)时。您的消息和项目上下文会发送给您选择的提供商。为了获得最大隐私,请使用 Ollama 配合本地模型,这样任何内容都不会离开您的机器。
AI 每条消息花费多少?
使用 GPT-4o,典型消息成本约为 0.04 美元,带有工具调用的完整交互成本为 0.10-0.15 美元。您直接使用自己的 API 密钥向 LLM 提供商支付费用。
Copilot 会损坏我的 TIA Portal 项目吗?
在交互模式下,Copilot 在执行破坏性操作前会请求确认。防循环保护可防止失控的工具执行。您也可以随时停止执行。
我该选择哪个 LLM 模型?
为了获得最佳效果,请使用 GPT-4o 或 Claude Sonnet。对于预算敏感的使用,GPT-4o-mini 或 Gemini Flash 在处理较简单的任务时表现良好。如需完全隐私,请使用 Ollama 配合本地模型(如 Llama 3)。