Die meisten Diskussionen über KI beginnen am selben Punkt: bei der Bewertung von Tools, Modellen und Analysefunktionen. Das ist verständlich – schließlich sind dies die sichtbaren Aspekte von KI-Investitionen. In der Fertigungsindustrie entscheidet sich der Erfolg einer KI-Initiative jedoch in der Regel schon lange bevor diese Tools überhaupt zum Einsatz kommen.
KI hängt von etwas weitaus Grundlegenderem ab: der Fähigkeit, Daten zuverlässig, konsistent und sicher unternehmensweit zu übertragen. Bevor auch nur ein einziges Modell trainiert oder Erkenntnisse geliefert werden, entscheidet die zugrunde liegende Architektur darüber, ob Daten tatsächlich in großem Maßstab abgerufen, in einen Kontext gesetzt und als vertrauenswürdig eingestuft werden können. Wenn diese Architektur nicht für unternehmensweite Intelligenz ausgelegt ist, haben selbst die ehrgeizigsten KI-Strategien Schwierigkeiten, nachhaltigen Wert zu schaffen.
Heute ist die wichtigste KI-Frage oft die, die Unternehmen übersehen: Kann unsere bestehende Architektur die Daten, von denen die KI ausgeht, dass sie verfügbar sind, zuverlässig bereitstellen?
In vielen industriellen Umgebungen lautet die Antwort „nein“. Nicht, weil die Daten nicht existieren – sondern weil die Architektur nie dafür ausgelegt war, über isolierte Systeme hinaus zu funktionieren.
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
Vorbereitung auf den KI-Erfolg auf der Hannover Messe
“Seien Sie vorbereitet … erstellen [und] verwalten Sie die Daten so, dass sie nutzbar sind … dann besteht der nächste Schritt darin, Modelle und Algorithmen auszuprobieren.”
Die Wissenslücke in Bezug auf KI
KI basiert auf einer Reihe von Annahmen über Daten, darunter, dass diese:
- zugänglich
- konsistent
- kontextbezogen
- in großem Maßstab bereitstellbar
sind.
Diese Annahmen treffen in bestehenden industriellen Umgebungen jedoch selten zu. OT-Daten werden zwar kontinuierlich generiert, der Zugriff darauf variiert jedoch je nach Standort. Der Kontext ist oft in einzelnen Tools wie SCADA, MES oder Historian-Systemen gespeichert und nicht in der Architektur selbst. Infolgedessen erweisen sich Daten, die auf dem Papier reichlich vorhanden erscheinen, in der Praxis als schwer umsetzbar.
Das Problem ist nicht ein Mangel an Daten. Viele Initiativen verlieren an Schwung, allein weil die Architekturen selbst nie darauf ausgelegt waren, KI über isolierte Anwendungsfälle hinaus zu unterstützen – was bedeutet, dass Hersteller von Anfang an nicht für den Erfolg gerüstet sind.
Wenn sich Architekturen nicht weiterentwickeln, häufen sich die Risiken
Alte Architekturen versagen selten auf einen Schlag. Meistens bleiben sie bestehen, weil sie für die aktuellen Anforderungen „gut genug“ sind und es ermöglichen, Produkte auf den Markt zu bringen. Doch mit der Zunahme von KI-Initiativen wächst auch die verborgene Komplexität.
Jedes neue Projekt bringt in der Regel weitere Integrationen, Ausnahmen oder Abhängigkeiten mit sich, die auf ein bestimmtes System oder einen bestimmten Standort zugeschnitten sind. Mit der Zeit vermehren sich Punkt-zu-Punkt-Verbindungen, Governance und Strategie werden weiterhin vernachlässigt, und die Sicherung und Verwaltung der Umgebung wird mit jeder Iteration schwieriger.
Konnektivität: Die Voraussetzung für den Erfolg der KI
Konnektivität wird oft als Nebensache betrachtet – als etwas, worüber man sich erst in der Endphase des Projekts Gedanken macht, wenn die vorgelagerten Systeme bereits festgelegt sind und Pilotprojekte und Projekte bereits in vollem Gange sind. In der Praxis ist das Gegenteil der Fall: Die Konnektivität entscheidet darüber, ob KI überhaupt skalierbar ist.
Moderne industrielle Konnektivität schafft die Grundlage, auf die KI angewiesen ist, indem sie:
- Geräte von Anwendungen abstrahiert
- OT-Daten normalisiert und in einem einzigen Zugangspunkt aggregiert
- Informationen sicher über Umgebungen hinweg bereitstellt
- Moderne, ereignisgesteuerte Architekturen unterstützt
Anstatt als einfache Transportschicht zu fungieren, wird die Konnektivität zum strukturellen Rückgrat, das fragmentierte Signale in nutzbare Unternehmensdaten umwandelt. Ohne dieses Rückgrat bleiben KI-Initiativen lokal begrenzt – sie können zwar punktuell Erkenntnisse generieren, sind aber nicht in der Lage, zuverlässig über Abteilungen, Systeme oder Standorte hinweg Wirkung zu erzielen.
KI bei PTC: Produktdaten in datenbasierte Informationen umwandeln
Die KI von PTC basiert auf zuverlässigen Produktdaten und ist in die Tools und Workflows eingebettet.
Mehr erfahren
Warum Standardisierung den Kurs verändert
Der Übergang zu standardisierter Konnektivität verändert grundlegend, wie Unternehmen KI- und Dateninitiativen angehen. Anstatt für jede neue Initiative Datenpipelines neu aufzubauen, können Hersteller damit beginnen, bewährte Datenflüsse wiederzuverwenden und Architekturen werksübergreifend zu replizieren.
Diese Wiederholbarkeit schafft Vertrauen. Wenn der Datenzugriff konsistent ist und von Grund auf geregelt wird, verbringen Teams weniger Zeit mit der Verwaltung von Integrationen und der Auswertung von Daten und haben mehr Zeit, um Ergebnisse voranzutreiben. KI entwickelt sich vom Experimentieren hin zum operativen Erfolg – nicht weil sich die Modelle verbessert haben, sondern weil die Grundlage endlich die Skalierung unterstützt.
Das eigentliche Alleinstellungsmerkmal der KI
Da die Erwartungen an KI in der Fertigungsindustrie weiter steigen, wird der entscheidende Wettbewerbsvorteil nicht darin bestehen, wer die neuesten Tools als Erster einsetzt. Vielmehr wird es darauf ankommen, welche Unternehmen frühzeitig die Datengrundlagen geschaffen haben, die skalierbare Intelligenz ermöglichen.
Wenn die Vernetzung standardisiert, sicher und skalierbar ist, werden Daten nicht mehr in Silos gespeichert, sondern verhalten sich wie eine Unternehmensinfrastruktur. Dieser Wandel ermöglicht es, dass KI-Initiativen aufeinander aufbauen können, anstatt bei jedem neuen Projekt von vorne beginnen zu müssen. Auf der Hannover Messe bekräftigte Max Ramírez, Direktor bei Infoportal, dass „die Datenaufbereitung entscheidend ist und den ersten Schritt darstellt, bevor KI angewendet werden kann.“ Sobald dies erledigt sei, so sagte er, seien die „Möglichkeiten endlos.“
Für Hersteller, die über KI-Experimente hinausgehen, geht es nun weniger um die Frage, warum Architektur wichtig ist, sondern vielmehr darum, wie sie ihre eigenen Grundlagen ehrlich bewerten können. Wo sind die Daten noch fragmentiert? Wo befindet sich der Kontext? Und inwiefern schränken die heutigen Entscheidungen zur Konnektivität ein, was KI morgen realistisch leisten kann?