On-Premise KI vs Cloud Copilot
für Siemens TIA Portal
Der Siemens TIA Portal Copilot sendet Ihren SPS-Code in die Cloud. TIA Connect behält alles lokal. Vergleichen Sie SaaS-KI mit On-Premise-KI für die industrielle Automatisierung — und warum MCP die Zukunft ist.
Die KI-Revolution in der SPS-Programmierung
Künstliche Intelligenz verändert grundlegend, wie Ingenieure industrielle SPS programmieren. Siemens bietet nun seinen TIA Portal Copilot an — einen cloudbasierten SaaS-Assistenten, integriert in TIA Portal V20+. Doch für viele industrielle Umgebungen ist es schlicht keine Option, proprietären SPS-Code und Produktionsdaten an externe Cloud-Server zu senden.
TIA Connect verfolgt einen grundlegend anderen Ansatz: ein lokaler MCP Server (Model Context Protocol), der TIA Portal mit jedem KI-Modell verbindet — Cloud oder On-Premise — und dabei Ihre Daten unter Ihrer Kontrolle behält. Kein Vendor Lock-in, kein obligatorisches Cloud-Abonnement, keine Daten verlassen Ihr Netzwerk.
Siemens Copilot vs TIA Connect: Der direkte Vergleich
Zwei Ansätze für KI-gestützte SPS-Programmierung — einer sendet Ihre Daten in die Cloud, der andere behält sie lokal
| Merkmal | Siemens TIA Portal Copilot | TIA Connect (MCP) |
|---|---|---|
| Architektur | Cloud SaaS — Code wird an Siemens-Server gesendet | Lokaler MCP Server — Daten bleiben auf Ihrem Rechner |
| KI-Modell | Siemens-proprietär (keine Wahlmöglichkeit) | Jedes LLM: Claude, GPT-4, Llama 3, Mistral, Qwen... |
| Offline-Fähigkeit | Internetverbindung erforderlich | Vollständig offline mit lokalen Modellen (Ollama, vLLM) |
| Datensouveränität | Code wird auf externen Servern verarbeitet | 100% On-Premise — nichts verlässt Ihr Netzwerk |
| Kostenmodell | SaaS-Abonnement pro Arbeitsplatz | Einmalige Lizenz + BYOK (Bring Your Own Key) |
| TIA Portal Versionen | Nur V20+ | V17, V18, V19, V20, V21 |
| IDE-Integration | Nur in TIA Portal integriert | VS Code, Cursor, Windsurf, jeder MCP Client |
| Protokoll | Proprietäre geschlossene API | Offener MCP Standard (Anthropic) |
Warum Datensouveränität in der Industrie entscheidend ist
In der Automobil-, Pharma-, Verteidigungs- und kritischen Infrastrukturbranche ist SPS-Code klassifiziertes geistiges Eigentum. Die Steuerungslogik einer Produktionslinie repräsentiert jahrelange Ingenieursexpertise und Wettbewerbsvorteile.
Wenn Sie einen cloudbasierten KI-Copilot nutzen, wird Ihr Code — einschließlich Variablennamen, Prozesslogik, Sicherheitsroutinen und Produktionsparameter — zur Verarbeitung an externe Server übertragen. Selbst mit Verschlüsselung und Datenschutzgarantien entstehen Compliance-Risiken gemäß NIS2, IEC 62443 und unternehmensinternen Sicherheitsrichtlinien.
Mit dem On-Premise-Ansatz von TIA Connect läuft der MCP Server lokal auf Ihrem Engineering-Arbeitsplatz. Ihre SPS-Projektdaten verlassen niemals Ihr Netzwerk. Sie entscheiden, ob KI-Anfragen an eine Cloud-API (mit Ihrem eigenen Schlüssel) oder an ein vollständig lokales Modell auf Ihrer Hardware geleitet werden.
Was ist MCP für TIA Portal?
Das Model Context Protocol (MCP) ist ein offener Standard von Anthropic, der es KI-Modellen ermöglicht, mit externen Werkzeugen und Datenquellen zu interagieren. TIA Connect implementiert einen MCP Server, der die Openness API von TIA Portal jedem kompatiblen KI-Client zugänglich macht.
Das bedeutet, Ihr KI-Assistent — ob Claude in Cursor, GPT in VS Code oder ein lokales Llama-Modell — kann direkt Ihre SPS-Projektstruktur lesen, Bausteine erstellen und ändern, Tags verwalten, Code kompilieren und sogar auf die SPS laden. Alles über ein standardisiertes, offenes Protokoll.
Was der MCP Server kann
KI 100% offline mit lokalen Modellen betreiben
Für die sensibelsten Umgebungen — Air-Gapped-Netzwerke, Rüstungsunternehmen, klassifizierte Produktionslinien — unterstützt TIA Connect vollständig offline KI durch lokale Modellinferenz.
Mit Werkzeugen wie Ollama oder vLLM können Sie Open-Source-Modelle (Llama 3.1, Mistral, Qwen 2.5, DeepSeek) direkt auf Ihrem Engineering-Arbeitsplatz oder einem lokalen GPU-Server ausführen. In Kombination mit dem MCP Server von TIA Connect erhalten Sie einen vollständigen KI-gestützten SPS-Programmier-Workflow ohne jegliche Internetabhängigkeit.
Empfohlene Hardware
NVIDIA RTX 4090 oder A6000 für 70B-Modelle. RTX 3090/4070 Ti Super ausreichend für 8-14B-Modelle, die die meisten SPS-Aufgaben bewältigen.
Unterstützte Frameworks
Ollama (einfachste Einrichtung), vLLM (bester Durchsatz), llama.cpp (minimaler Ressourcenbedarf). Alle stellen OpenAI-kompatible APIs bereit, die TIA Connect nutzen kann.
Leistung
Ein 14B-Modell auf der RTX 4090 generiert SCL-Code mit über 40 Token/Sekunde — schneller als Tippen. Die Antwortqualität ist vergleichbar mit Cloud-Modellen bei strukturiertem SPS-Code.
Kostenvergleich: SaaS vs BYOK
Der Siemens Copilot erfordert ein laufendes SaaS-Abonnement pro Arbeitsplatz — zusätzlich zu einem ohnehin schon teuren TIA Portal Lizenzpaket. Für ein Team von 5 Ingenieuren bedeutet das jährlich wiederkehrende Kosten auf Ihre bestehenden Lizenzen.
TIA Connect nutzt ein Einmallizenz-Modell mit BYOK (Bring Your Own Key). Sie zahlen einmal für die Software und verwenden Ihre eigenen KI-API-Schlüssel — oder betreiben lokale Modelle ohne zusätzliche Kosten. Für Teams, die Claude oder GPT nutzen, sind die typischen API-Kosten 5- bis 15-mal günstiger als SaaS-Abonnements pro Arbeitsplatz.
Mit lokalen Modellen über Ollama sinken Ihre KI-Kosten nach der anfänglichen Hardware-Investition auf null.
Häufig gestellte Fragen
Kann ich TIA Connect vollständig offline nutzen?
Ja. TIA Connect läuft als lokaler Server auf Ihrem Rechner. In Kombination mit einem lokalen LLM über Ollama oder vLLM erhalten Sie einen vollständig Air-Gapped KI-Assistenten für die SPS-Programmierung. Zu keinem Zeitpunkt ist eine Internetverbindung erforderlich.
Ist der MCP Server von TIA Connect mit dem Siemens TIA Portal Copilot kompatibel?
Es sind unabhängige Lösungen. TIA Connect nutzt den offenen MCP Standard und funktioniert mit jedem KI-Modell, während der Siemens Copilot ein proprietäres SaaS-Feature ist. Sie können beide verwenden, aber TIA Connect bietet Ihnen mehr Flexibilität und Datenkontrolle.
Welche KI-Modelle eignen sich am besten für die SPS-Codegenerierung?
Claude Sonnet/Opus und GPT-4o erzeugen den besten SCL-Code. Bei lokalen Modellen sind Qwen 2.5 Coder 32B und Llama 3.1 70B hervorragend geeignet. Selbst kleinere 8B-Modelle bewältigen Routineaufgaben wie Tag-Erstellung und Baustein-Dokumentation.
Wie unterscheidet sich MCP vom klassischen TIA Openness Scripting?
MCP baut auf TIA Openness auf, fügt aber eine KI-native Schnittstelle hinzu. Anstatt C#-Skripte zu schreiben, beschreiben Sie in natürlicher Sprache, was Sie möchten. Die KI nutzt MCP-Werkzeuge zur Ausführung der Operationen — Projektkontext lesen, Code generieren und deployen, alles in einer einzigen Konversation.