Blogs Die Voraussetzungen für KI: Warum Datengrundlagen wichtig sind

Die Voraussetzungen für KI: Warum Datengrundlagen wichtig sind

27. April 2026
Emily ist Content Marketing Specialist im Commercial Marketing Team von PTC mit Sitz in Boston, MA. Mit ihren Texten unterstützt sie eine Reihe von Produkt- und Dienstleistungsangeboten von PTC.
Alle Beiträge Dieses Autors Anzeigen

Die meisten Diskussionen über KI beginnen am selben Punkt: bei der Bewertung von Tools, Modellen und Analysefunktionen. Das ist verständlich – schließlich sind dies die sichtbaren Aspekte von KI-Investitionen. In der Fertigungsindustrie entscheidet sich der Erfolg einer KI-Initiative jedoch in der Regel schon lange bevor diese Tools überhaupt zum Einsatz kommen.

KI hängt von etwas weitaus Grundlegenderem ab: der Fähigkeit, Daten zuverlässig, konsistent und sicher unternehmensweit zu übertragen. Bevor auch nur ein einziges Modell trainiert oder Erkenntnisse geliefert werden, entscheidet die zugrunde liegende Architektur darüber, ob Daten tatsächlich in großem Maßstab abgerufen, in einen Kontext gesetzt und als vertrauenswürdig eingestuft werden können. Wenn diese Architektur nicht für unternehmensweite Intelligenz ausgelegt ist, haben selbst die ehrgeizigsten KI-Strategien Schwierigkeiten, nachhaltigen Wert zu schaffen.

Heute ist die wichtigste KI-Frage oft die, die Unternehmen übersehen: Kann unsere bestehende Architektur die Daten, von denen die KI ausgeht, dass sie verfügbar sind, zuverlässig bereitstellen?

In vielen industriellen Umgebungen lautet die Antwort „nein“. Nicht, weil die Daten nicht existieren – sondern weil die Architektur nie dafür ausgelegt war, über isolierte Systeme hinaus zu funktionieren.

Die Wissenslücke in Bezug auf KI

KI basiert auf einer Reihe von Annahmen über Daten, darunter, dass diese:

  • zugänglich
  • konsistent
  • kontextbezogen
  • in großem Maßstab bereitstellbar

sind.

Diese Annahmen treffen in bestehenden industriellen Umgebungen jedoch selten zu. OT-Daten werden zwar kontinuierlich generiert, der Zugriff darauf variiert jedoch je nach Standort. Der Kontext ist oft in einzelnen Tools wie SCADA, MES oder Historian-Systemen gespeichert und nicht in der Architektur selbst. Infolgedessen erweisen sich Daten, die auf dem Papier reichlich vorhanden erscheinen, in der Praxis als schwer umsetzbar.

Das Problem ist nicht ein Mangel an Daten. Viele Initiativen verlieren an Schwung, allein weil die Architekturen selbst nie darauf ausgelegt waren, KI über isolierte Anwendungsfälle hinaus zu unterstützen – was bedeutet, dass Hersteller von Anfang an nicht für den Erfolg gerüstet sind.

Wenn sich Architekturen nicht weiterentwickeln, häufen sich die Risiken

Alte Architekturen versagen selten auf einen Schlag. Meistens bleiben sie bestehen, weil sie für die aktuellen Anforderungen „gut genug“ sind und es ermöglichen, Produkte auf den Markt zu bringen. Doch mit der Zunahme von KI-Initiativen wächst auch die verborgene Komplexität.

Jedes neue Projekt bringt in der Regel weitere Integrationen, Ausnahmen oder Abhängigkeiten mit sich, die auf ein bestimmtes System oder einen bestimmten Standort zugeschnitten sind. Mit der Zeit vermehren sich Punkt-zu-Punkt-Verbindungen, Governance und Strategie werden weiterhin vernachlässigt, und die Sicherung und Verwaltung der Umgebung wird mit jeder Iteration schwieriger.

Konnektivität: Die Voraussetzung für den Erfolg der KI

Konnektivität wird oft als Nebensache betrachtet – als etwas, worüber man sich erst in der Endphase des Projekts Gedanken macht, wenn die vorgelagerten Systeme bereits festgelegt sind und Pilotprojekte und Projekte bereits in vollem Gange sind. In der Praxis ist das Gegenteil der Fall: Die Konnektivität entscheidet darüber, ob KI überhaupt skalierbar ist.

Moderne industrielle Konnektivität schafft die Grundlage, auf die KI angewiesen ist, indem sie:

  • Geräte von Anwendungen abstrahiert
  • OT-Daten normalisiert und in einem einzigen Zugangspunkt aggregiert
  • Informationen sicher über Umgebungen hinweg bereitstellt
  • Moderne, ereignisgesteuerte Architekturen unterstützt

Anstatt als einfache Transportschicht zu fungieren, wird die Konnektivität zum strukturellen Rückgrat, das fragmentierte Signale in nutzbare Unternehmensdaten umwandelt. Ohne dieses Rückgrat bleiben KI-Initiativen lokal begrenzt – sie können zwar punktuell Erkenntnisse generieren, sind aber nicht in der Lage, zuverlässig über Abteilungen, Systeme oder Standorte hinweg Wirkung zu erzielen.

Brief description about the image

KI bei PTC: Produktdaten in datenbasierte Informationen umwandeln

Die KI von PTC basiert auf zuverlässigen Produktdaten und ist in die Tools und Workflows eingebettet.

Mehr erfahren

 

Warum Standardisierung den Kurs verändert

Der Übergang zu standardisierter Konnektivität verändert grundlegend, wie Unternehmen KI- und Dateninitiativen angehen. Anstatt für jede neue Initiative Datenpipelines neu aufzubauen, können Hersteller damit beginnen, bewährte Datenflüsse wiederzuverwenden und Architekturen werksübergreifend zu replizieren.

Diese Wiederholbarkeit schafft Vertrauen. Wenn der Datenzugriff konsistent ist und von Grund auf geregelt wird, verbringen Teams weniger Zeit mit der Verwaltung von Integrationen und der Auswertung von Daten und haben mehr Zeit, um Ergebnisse voranzutreiben. KI entwickelt sich vom Experimentieren hin zum operativen Erfolg – nicht weil sich die Modelle verbessert haben, sondern weil die Grundlage endlich die Skalierung unterstützt.

Das eigentliche Alleinstellungsmerkmal der KI

Da die Erwartungen an KI in der Fertigungsindustrie weiter steigen, wird der entscheidende Wettbewerbsvorteil nicht darin bestehen, wer die neuesten Tools als Erster einsetzt. Vielmehr wird es darauf ankommen, welche Unternehmen frühzeitig die Datengrundlagen geschaffen haben, die skalierbare Intelligenz ermöglichen.

Wenn die Vernetzung standardisiert, sicher und skalierbar ist, werden Daten nicht mehr in Silos gespeichert, sondern verhalten sich wie eine Unternehmensinfrastruktur. Dieser Wandel ermöglicht es, dass KI-Initiativen aufeinander aufbauen können, anstatt bei jedem neuen Projekt von vorne beginnen zu müssen. Auf der Hannover Messe bekräftigte Max Ramírez, Direktor bei Infoportal, dass „die Datenaufbereitung entscheidend ist und den ersten Schritt darstellt, bevor KI angewendet werden kann.“ Sobald dies erledigt sei, so sagte er, seien die „Möglichkeiten endlos.“

Für Hersteller, die über KI-Experimente hinausgehen, geht es nun weniger um die Frage, warum Architektur wichtig ist, sondern vielmehr darum, wie sie ihre eigenen Grundlagen ehrlich bewerten können. Wo sind die Daten noch fragmentiert? Wo befindet sich der Kontext? Und inwiefern schränken die heutigen Entscheidungen zur Konnektivität ein, was KI morgen realistisch leisten kann?

Themen Künstliche Intelligenz Vernetzte Geräte Digitale Transformation IT/OT-Konvergenz
Als nächstes

Bewerten Sie Ihre Konnektivitätsinfrastruktur

Sehen Sie sich unsere neueste Infografik an, um zu beurteilen, ob Ihre Konnektivitätsinfrastruktur für den Einsatz von KI im Unternehmensmaßstab ausgelegt ist – und was sich ändern muss, bevor die Erwartungen an KI weiter steigen. Mehr erfahren
Emily Himes Emily ist Content Marketing Specialist im Commercial Marketing Team von PTC mit Sitz in Boston, MA. Mit ihren Texten unterstützt sie eine Reihe von Produkt- und Dienstleistungsangeboten von PTC.

Weiterlesen