Das könnte Sie auch interessieren

Mehr erfahren
PotenzialanalysenPraxisbeispieleProjekte
In einer analogen Druckbranche zum digitalen Geschäftsmodell

Die Mertinger SIGEL GmbH mit ca. 210 Mitarbeitenden aus der Druckbranche bietet eine breite Produktpalette, darunter ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Interview über Digitalisierung im Kleinstunternehmen – Offenheit und Neugier machen es möglich

Eine Dreherei mit fünf Mitarbeitenden hat ihren Produktionsprozess nahezu vollständig digitalisiert, aber ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Energiemanagement bei großer Anlagenvielfalt im Prototypenbau

Die ModellTechnik Rapid Prototyping GmbH mit ca. 190 Mitarbeitenden in Thüringen fertigt Prototypen für ...

Mehr erfahren

Mehr erfahren
Information
Maschinelles Lernen in der Produktionsplanung

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, ...

Mehr erfahren

Mehr erfahren
Information
Bedeutung des Datenbestands für erfolgreiche KI-Projekte in KMU

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick ...

Mehr erfahren

Mehr erfahren
Lab TourVeranstaltung
Automatisierung bei der Lab-Tour am TZ PULS

Unter dem Themenschwerpunkt „Intralogistik der Zukunft – Lösungsansätze für den Fachkräftemangel“ fand am 12. ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Schluss mit Ausschuss – wie aus Lederresten ein nachhaltiges Produkt entstehen kann

Die Colonia Leather GmbH & Co. KG mit fünf Mitarbeitenden aus Kassel fertigt eine breite Palette an ...

Mehr erfahren

Mehr erfahren
EILENeuigkeiten
Projektabschluss EILE

Mit dem Abschluss des Zukunftsprojekts EILE (Energiewissen und InteLligente AnwEndung) Ende 2024 wurde ein wichtiger ...

Mehr erfahren

Mehr erfahren
LeitfadenNeuigkeiten
Klimabilanz erfassen und Treibhausgase reduzieren – Leitfaden zum Download

In den kommenden Jahren werden die Anforderungen an die Berichterstattung von Nachhaltigkeitskennzahlen für ...

Mehr erfahren

Die Nutzung von Künstlicher Intelligenz (KI) und Maschinellem Lernen (ML) birgt enorme Potenziale für kleine und mittlere Unternehmen (KMU), indem die Effizienz der Geschäftsprozesse erheblich verbessert werden kann. Die größte Herausforderung ist dabei oftmals, dass nur eine unzureichende Menge an Trainingsdaten vorliegt. Insbesondere KMU sind dafür häufig mit begrenzten Ressourcen konfrontiert. Für viele Anwendungen kann der benötigte Datenumfang jedoch durch die Einbringung von Vorwissen kompensiert werden.

Bedeutung der Wissensintegration

Die Nutzung von KI im Allgemeinen und ML im Besonderen ermöglicht nicht nur die Automatisierung von Geschäftsprozessen, sondern auch die Erschließung neuer Geschäftsfelder und die Verbesserung der Kundenbindung. Eine der größten Herausforderungen, der KMU bei der Implementierung von KI- und ML-Anwendungen gegenüberstehen, ist jedoch die Verfügbarkeit und Qualität von Trainingsdaten.

KMU haben oft nicht die gleichen Ressourcen wie große Unternehmen, um umfangreiche und qualitativ hochwertige Datensätze zu sammeln. Dies kann die Entwicklung präziser ML-Modelle erheblich erschweren, da ohne eine ausreichende Menge an Daten die Modelle anfällig für Überanpassung sind und in der Praxis ungenaue Ergebnisse liefern können. Die Integration von Wissen in den ML-Trainingsprozess kann diese Herausforderung adressieren. Durch die Nutzung vorhandenen Wissens können Datenlücken geschlossen und die Effizienz des Trainingsprozesses verbessert werden. Dies ermöglicht es KMU, auch mit begrenzten Datenquellen robuste und genaue Modelle zu entwickeln.

Was meint Wissen in diesem Kontext?

Maschinelles Lernen hat das Potenzial, Muster und Zusammenhänge in Daten zu erkennen, die für den Menschen schwer nachvollziehbar sind. Doch kein Vorhersagemodell kann ohne grundlegende Annahmen entwickelt werden. Ohne diese Annahmen ist es schlichtweg unmöglich, dass ein Modell auf neue, unbekannte Daten verallgemeinern kann. Je besser diese Annahmen mit der Realität übereinstimmen und je genauer sie das zu lösende Problem abdecken, desto aussagekräftiger wird das Modell und desto weniger muss letztlich aus den Daten gelernt werden. Die Einbindung von Domänenwissen in maschinelle Lernmethoden kann nicht nur die Leistung des Modells verbessern und die benötigte Datenmenge reduzieren, sondern auch die Interpretierbarkeit des Modells erhöhen.

Stellen wir uns beispielsweise ein Modell vor, das darauf trainiert ist, Verkehrsschilder zu erkennen. Wir wissen, dass Verkehrsschilder jeweils bestimmten geometrischen Formen und Farben entsprechen und dieses Wissen können wir in das Modell einfließen lassen. Das geschieht, indem wir beispielsweise aus den Kategorien und Attributen einen Wissensgraph erstellen und das Modell mit dessen Einbettungen trainieren oder zusätzliche Bilddaten simulieren.

Dadurch wird das Modell nicht nur präziser, sondern auch verständlicher und leichter übertragbar auf andere Länder. Die Relevanz solch einer Kombination von Wissen wird durchaus im Alltag deutlich. Wenn im Winter ein schneebedecktes Stoppschild zusätzlich durch die Form erkennbar ist, dann besitzt eine Methode, welches dieses Wissen ausnutzen kann, einen Vorteil gegenüber Ansätzen, welche sich allein auf eine (unleserliche) Schrift verlassen.

Wissen kann in vielen verschiedenen Formen formalisiert und repräsentiert werden, sei es als logische Formeln, Invarianzen, Simulationsergebnisse, statistische Relationen oder Wissensgraphen. Daher muss immer eine gemeinsame Sprache gefunden werden, um dieses Domänenwissen in ein KI-System zu integrieren. Doch selbst wenn das Wissen in einer geeigneten Form vorliegt, bedeutet das nicht zwangsläufig, dass der Weg der Integration immer gleich ist. Betrachten wir zur Verdeutlichung die folgenden drei Beispiele:

  1. Die Software “AlphaGo”, die das Brettspiel „Go“ optimal spielt: Hier wird Vorwissen in Form der möglichen Spielzüge und direkt verwerfbare Handlungen eingebracht, um den Raum für mögliche Strategien einzugrenzen. Das Wissen über die Spielzüge wird dabei als Graph dargestellt, wobei jeder Knoten einen möglichen Spielzustand repräsentiert und die Kanten die möglichen Züge darstellen. Dieses Vorwissen hilft, den Suchraum effizient zu durchsuchen und optimale Strategien zu entwickeln.
  2. Erkennung von Straßenschildern: Stoppschilder haben die gleiche Bedeutung in verschiedenen Ländern, können aber unterschiedlich ausgeführt sein. Für die Erkennung in einem Computer kann das Wissen über die Schilder hierarchisch organisiert werden. Grundlegende und gemeinsame Attribute (beispielsweise die rote Farbe und die achteckige Form) werden höher in der Hierarchie eingehängt. Regionale und spezifische Eigenschaften landen tiefer in der Struktur. Diese Hierarchie kann als Graph dargestellt werden, wobei die Knoten die verschiedenen Attribute und die Kanten deren Beziehungen repräsentieren.
  3. Empfehlungssystem bei Online-Versandhändler (“Kunden kauften auch … “): Hier sind die zu verarbeitenden Daten die Relationen (“Wer hat x gekauft?”) zwischen Entitäten (die Nutzerinnen und Nutzer des Dienstes sowie die Produkte). Diese Relationen können als Graph modelliert werden, wobei die Knoten die Nutzerinnen und Nutzer sowie die Produkte repräsentieren. Die Kanten zeigen deren Beziehungen an. Die Aufgabe besteht darin, einer Kundin oder einem Kunden nach einem getätigten Kauf über das Verhalten anderer neue Produkte vorzuschlagen. Für die Lösung kann bekanntes Wissen aus der Graphentheorie verwendet werden.

In allen drei Beispielen liegt das Vorwissen selbst als Graph vor, sei es in der Form von aufeinander aufbauenden Spielzügen, geordneten Hierarchien oder zu findenden Strukturen innerhalb eines gegebenen Graphen. Unabhängig davon benötigen diese Beispiele jeweils eine maßgeschneiderte Umsetzung und passgenaue Integration des Vorwissens.

Wo findet die Wissensintegration statt?

Es gibt vier konkrete Bereiche im Maschinellen Lernprozess, in denen Wissen eingebracht werden kann: die Konzeptualisierung des Problems, die Datenerhebung, das Design der Modellarchitektur und der Lösungsalgorithmus. Die richtige Kombination dieser Faktoren kann den Unterschied zwischen einem erfolgreichen und einem weniger erfolgreichen ML-Projekt ausmachen.

Konzeptualisierung des Problems

Bevor Maschinelles Lernen zum Einsatz kommt, muss zunächst geklärt werden, warum es überhaupt notwendig ist. ML wird hauptsächlich dann eingesetzt, wenn das zu lösende Problem entweder zu komplex ist, um vom Menschen verstanden zu werden, oder wenn klassische Ansätze zu ungenau oder zu langsam sind. Ein anschauliches Beispiel ist die Entwicklung von sogenannten Surrogate-Modellen zur Simulation von Strömungen. Anstelle der eigentlichen Hydrodynamik und physikalischen Prozesse wird ein vereinfachtes Modell als Ersatz verwendet, welches immer noch gut genug ist, um brauchbare Ergebnisse zu erzielen, aber deutlich schneller berechnet werden kann, indem Verluste bei der Genauigkeit gezielt in Kauf genommen werden. Solche Surrogate-Modelle ermöglichen dann beispielsweise die Entwicklung von künstlichen Organen oder effizienteren Triebwerken.

Falls ein ähnliches Problem bereits gelöst wurde, bietet Transfer-Lernen eine wertvolle Lösung. Diese Technik ermöglicht es, bereits trainierte Modelle auf verwandte Probleme anzuwenden. Das spart sowohl Zeit als auch Ressourcen und steigert gleichzeitig die Effizienz und Genauigkeit des neuen Modells. Eine Vielzahl vortrainierter Modelle steht mit passenden Lizenzen zum Download bereit und kann für spezifische Anwendungen angepasst werden, was den Einstieg erheblich erleichtert.

Datenakquise, -aufbereitung und -augmentation

Bei der Datenerhebung spielt neben der Datenmenge auch die Diversität der Daten eine entscheidende Rolle. Während maschinelles Lernen hervorragend darin ist, zwischen bekannten Datenpunkten zu interpolieren, gestaltet sich die Extrapolation außerhalb des gelernten Bereichs deutlich schwieriger. Ein passendes Beispiel hierfür sind Wettervorhersagen: Während ML-Modelle präzise Prognosen innerhalb des bekannten Klimamusters erstellen können, stoßen sie bei unvorhergesehenen Klimaveränderungen an ihre Grenzen.

Die Darstellung der Daten beeinflusst maßgeblich die Komplexität der zu erlernenden Beziehungen. Ein gutes Beispiel dafür ist der Unterschied zwischen heliozentrischen und geozentrischen Darstellungen in der Astronomie. Die Wahl des richtigen Koordinatensystems kann das Problem erheblich vereinfachen und somit die Effizienz des Modells steigern.

In vielen physikalischen Anwendungen können Daten durch Simulationen erweitert werden. Simulationen bieten oft eine höhere Auflösung als reale Experimente, sind jedoch durch die unvollständige Kenntnis der zugrunde liegenden Gesetze des betrachteten Systems eingeschränkt. Datenaugmentation ist eine weitere Technik, bei der neue Daten aus bestehenden Daten durch Transformationen künstlich erzeugt werden und der Datensatz so vergrößert wird. Invarianzen und Equivarianzen können genutzt werden, um die Menge der verfügbaren Daten zum Beispiel durch Rotationen, Spiegelungen oder Skalierungen zu erhöhen.

Falls der direkte Austausch von Daten problematisch ist, beispielsweise in sensiblen Bereichen wie dem Gesundheitswesen oder Finanzsektor, kann Föderales Lernen eine Lösung bieten. Diese Methode ermöglicht es mehreren Institutionen, gemeinsam Modelle zu trainieren, ohne dass Daten tatsächlich ausgetauscht werden müssen. Dies gewährleistet den Schutz sensibler Informationen und ermöglicht dennoch effektives Lernen.

Design der Modellarchitektur

Albert Einstein sagte einmal: “Man sollte alles so einfach wie möglich machen, aber nicht einfacher.” Diese Weisheit gilt auch für die Gestaltung der Modellarchitektur im maschinellen Lernen. Die Architektur legt den Suchraum für mögliche Zusammenhänge fest. Ist dieser Suchraum zu groß oder zu klein, führt dies aufgrund von Über- bzw. Unteranpassung in der Regel zu einer schlechteren Performanz.

Ein gut gestaltetes Modell sollte daher eine Balance zwischen Einfachheit und Komplexität finden. Beispielsweise können anwendungsspezifische Symmetrien, Invarianzen und physikalische Erhaltungssätze direkt in die Modellstruktur integriert werden. Diese Integration verringert die Komplexität des Problems, da das Modell bekannte Zusammenhänge nicht erst mühsam aus den Daten lernen muss.

Ein anschauliches Beispiel ist das Erkennen von Objekten in Bildern. Man trainiert typischerweise kein KI-Modell für jede mögliche Position eines Objekts im Bild, sondern konstruiert ein einzelnes Modell, das das gesamte Bild verarbeiten kann. Hier kommen faltende neuronale Netze (Convolutional Neural Networks, CNNs) zum Einsatz. Diese Netze können dank der Faltungen per Design unabhängig von der Position eines Objekts dessen Art bestimmen. Ein vollverbundenes Netz würde bei gleichem Datenumfang schlechter abschneiden, obwohl es das CNN als Spezialfall enthält.

Implementierung in den Lösungsalgorithmus

Das Wissen, das in die Modellarchitektur eingebracht wird, kann oft auch direkt in den Trainingsprozess als zusätzliche Regularisierungsterme einfließen. Diese zusätzlichen Terme für die Verlustfunktion wirken wie weiche Beschränkungen, die dem Modell helfen, die bekannten Gesetzmäßigkeiten und Zusammenhänge zu berücksichtigen.

Ein anschauliches Beispiel hierfür ist das Training eines Modells zur physikalischen Simulation. Hier können physikalische Erhaltungssätze, wie die Energie- oder Impulserhaltung, direkt als Regularisierung in die Verlustfunktion integriert werden. Diese Terme sorgen dafür, dass das Modell physikalisch sinnvolle Ergebnisse liefert, selbst wenn die Daten gelegentlich abweichen.

Allerdings können die zusätzlichen Regularisierungsterme auch in Konflikt mit dem eigentlichen Trainingsziel, nämlich der Minimierung der Verlustfunktion, stehen. Das bedeutet, dass das Modell einerseits die Trainingsdaten bestmöglich nachbilden soll, andererseits aber auch den Regularisierungstermen gerecht werden muss. Daher ist ein anwendungsspezifisches Feintuning der Gewichtung dieser Verlustterme entscheidend. Eine zu starke Gewichtung der Regularisierungsterme könnte das Modell daran hindern, die Daten korrekt zu lernen, während eine zu schwache Gewichtung ihre nützliche Wirkung minimiert.

Maßgeschneiderte Lösungen bleiben erforderlich

Die Kombination von Wissen ist ein entscheidender Faktor für den Erfolg von KI- und ML-Anwendungen, insbesondere für KMU mit begrenzten Ressourcen. Durch die Integration von Wissen in ihre KI-Strategien können KMU die Herausforderungen der Datenknappheit überwinden und das volle Potenzial von KI und ML ausschöpfen. Dies ermöglicht nicht nur effizientere Geschäftsprozesse, sondern auch die Erschließung neuer Geschäftsmöglichkeiten und die Steigerung der Wettbewerbsfähigkeit. Dabei ist das exakte Vorgehen aber immer anwendungsabhängig und wird durch das vorliegende Problem eingegrenzt. Es gibt deswegen leider nicht einen pauschalen Ansatz, welcher überall greift, sondern man muss sich maßgeschneiderte Lösungen für das eigene Unternehmen zusammenbauen.

Das könnte Sie auch interessieren

Mehr erfahren
PotenzialanalysenPraxisbeispieleProjekte
In einer analogen Druckbranche zum digitalen Geschäftsmodell

Die Mertinger SIGEL GmbH mit ca. 210 Mitarbeitenden aus der Druckbranche bietet eine breite Produktpalette, darunter ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Interview über Digitalisierung im Kleinstunternehmen – Offenheit und Neugier machen es möglich

Eine Dreherei mit fünf Mitarbeitenden hat ihren Produktionsprozess nahezu vollständig digitalisiert, aber ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Energiemanagement bei großer Anlagenvielfalt im Prototypenbau

Die ModellTechnik Rapid Prototyping GmbH mit ca. 190 Mitarbeitenden in Thüringen fertigt Prototypen für ...

Mehr erfahren

Mehr erfahren
Information
Maschinelles Lernen in der Produktionsplanung

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, ...

Mehr erfahren

Mehr erfahren
Information
Bedeutung des Datenbestands für erfolgreiche KI-Projekte in KMU

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick ...

Mehr erfahren

Mehr erfahren
Lab TourVeranstaltung
Automatisierung bei der Lab-Tour am TZ PULS

Unter dem Themenschwerpunkt „Intralogistik der Zukunft – Lösungsansätze für den Fachkräftemangel“ fand am 12. ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Schluss mit Ausschuss – wie aus Lederresten ein nachhaltiges Produkt entstehen kann

Die Colonia Leather GmbH & Co. KG mit fünf Mitarbeitenden aus Kassel fertigt eine breite Palette an ...

Mehr erfahren

Mehr erfahren
EILENeuigkeiten
Projektabschluss EILE

Mit dem Abschluss des Zukunftsprojekts EILE (Energiewissen und InteLligente AnwEndung) Ende 2024 wurde ein wichtiger ...

Mehr erfahren

Mehr erfahren
LeitfadenNeuigkeiten
Klimabilanz erfassen und Treibhausgase reduzieren – Leitfaden zum Download

In den kommenden Jahren werden die Anforderungen an die Berichterstattung von Nachhaltigkeitskennzahlen für ...

Mehr erfahren

Das könnte Sie auch interessieren

Mehr erfahren
PotenzialanalysenPraxisbeispieleProjekte
In einer analogen Druckbranche zum digitalen Geschäftsmodell

Die Mertinger SIGEL GmbH mit ca. 210 Mitarbeitenden aus der Druckbranche bietet eine breite Produktpalette, darunter ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Interview über Digitalisierung im Kleinstunternehmen – Offenheit und Neugier machen es möglich

Eine Dreherei mit fünf Mitarbeitenden hat ihren Produktionsprozess nahezu vollständig digitalisiert, aber ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Energiemanagement bei großer Anlagenvielfalt im Prototypenbau

Die ModellTechnik Rapid Prototyping GmbH mit ca. 190 Mitarbeitenden in Thüringen fertigt Prototypen für ...

Mehr erfahren

Mehr erfahren
Information
Maschinelles Lernen in der Produktionsplanung

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, ...

Mehr erfahren

Mehr erfahren
Information
Bedeutung des Datenbestands für erfolgreiche KI-Projekte in KMU

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick ...

Mehr erfahren

Mehr erfahren
Lab TourVeranstaltung
Automatisierung bei der Lab-Tour am TZ PULS

Unter dem Themenschwerpunkt „Intralogistik der Zukunft – Lösungsansätze für den Fachkräftemangel“ fand am 12. ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Schluss mit Ausschuss – wie aus Lederresten ein nachhaltiges Produkt entstehen kann

Die Colonia Leather GmbH & Co. KG mit fünf Mitarbeitenden aus Kassel fertigt eine breite Palette an ...

Mehr erfahren

Mehr erfahren
EILENeuigkeiten
Projektabschluss EILE

Mit dem Abschluss des Zukunftsprojekts EILE (Energiewissen und InteLligente AnwEndung) Ende 2024 wurde ein wichtiger ...

Mehr erfahren

Mehr erfahren
LeitfadenNeuigkeiten
Klimabilanz erfassen und Treibhausgase reduzieren – Leitfaden zum Download

In den kommenden Jahren werden die Anforderungen an die Berichterstattung von Nachhaltigkeitskennzahlen für ...

Mehr erfahren

Die Vorverarbeitung von Maschinendaten ist ein wesentlicher Schritt, um die Basis für eine effektive Nutzung von Künstlicher Intelligenz (KI) und fortschrittlicher Datenanalyse in der Produktion zu schaffen. Maschinendaten stammen aus verschiedenen Quellen und ihre Qualität bestimmt maßgeblich den Erfolg nachfolgender Analyse- und Optimierungsprozesse.

Die Vorverarbeitung von Maschinendaten umfasst alle Schritte, die notwendig sind, um Rohdaten in eine Form zu bringen, die für die Analyse, insbesondere durch KI-Modelle, geeignet sind. Diese Schritte beinhalten die Datenbereinigung, -normalisierung,
-aggregation sowie die Transformation in ein konsistentes Format. Die Qualität der Vorverarbeitung beeinflusst die Leistungsfähigkeit von KI-Modellen erheblich, da diese Modelle auf präzise und relevante Daten angewiesen sind, um genaue Vorhersagen und Entscheidungen treffen zu können.

Ein zentraler Aspekt der Vorverarbeitung ist die Handhabung fehlender oder fehlerhafter Daten, die in Produktionsumgebungen häufig vorkommen. Unvollständige oder inkonsistente Datensätze können zu falschen Schlussfolgerungen führen und die Wirksamkeit von Datenanalyseverfahren beeinträchtigen. Durch Techniken wie Interpolation, Ausreißererkennung und Datenimputation können solche Probleme bereits in der Vorverarbeitungsphase adressiert werden.

Quellen von Maschinendaten: Energiefluss, Materialfluss und Datenfluss

Maschinendaten werden aus verschiedenen Quellen generiert, die in der Produktion eine zentrale Rolle spielen. Diese Datenquellen lassen sich im Wesentlichen in drei Kategorien unterteilen: Energiefluss, Materialfluss und Datenfluss.

  1. Energieflussdaten: Diese Daten umfassen Informationen über den Energieverbrauch von Maschinen und Anlagen. Sie können sowohl den allgemeinen Energieverbrauch als auch spezifische Parameter wie Spannung, Stromstärke und Leistung umfassen. Energieflussdaten sind entscheidend für die Optimierung des Energieeinsatzes und die Senkung der Betriebskosten. Durch die Analyse von Energieflussdaten lassen sich beispielsweise ineffiziente Maschinen identifizieren oder Vorhersagen über den Energiebedarf treffen.
  2. Materialflussdaten: Diese Daten beziehen sich auf die Bewegung und Transformation von Materialien innerhalb der Produktionsprozesse. Dazu gehören Informationen über Materialein- und -ausgänge, Lagerbestände, Produktionsgeschwindigkeiten und die Produktqualität. Materialflussdaten sind essenziell für die Planung und Optimierung von Produktionsabläufen sowie für das Management von Lieferketten. Ihre Analyse kann helfen, Engpässe zu identifizieren und den Materialeinsatz zu optimieren.
  3. Datenflussdaten: Diese Kategorie umfasst alle digitalen Signale und Kommunikationsströme, die zwischen Maschinen, Steuerungssystemen und übergeordneten IT-Systemen ausgetauscht werden. Datenflussdaten beinhalten Maschinensensoren, Steuerungsbefehle und Informationen über Prozesszustände. Diese Daten sind entscheidend für die Überwachung und Steuerung von Produktionsprozessen in Echtzeit und bilden die Grundlage für die Implementierung von Predictive Maintenance (vorausschauende Wartung) und anderen fortschrittlichen Anwendungen.

Praktische Ansätze zur Datenerfassung

In der Praxis ist die Erfassung von Maschinendaten oft eine komplexe Aufgabe, die sorgfältige Planung und die richtige technische Ausstattung erfordert. Hier sind einige gängige Methoden, wie Produktionsunternehmen an die notwendigen Daten herankommen:

  1. Sensoren und IoT-Geräte: Eine der häufigsten Methoden zur Erfassung von Maschinendaten ist der Einsatz von Sensoren und IoT-Geräten (Internet of Things, dt. Internet der Dinge), die direkt an Maschinen und Anlagen angebracht werden. Diese Geräte messen kontinuierlich physikalische Größen wie Temperatur, Druck, Vibrationen oder Energieverbrauch und senden diese Daten in Echtzeit an zentrale Datenbanken. Moderne IoT-Plattformen bieten zudem die Möglichkeit, diese Daten sofort zu verarbeiten und zu analysieren.
  2. Steuerungssysteme und SCADA: Viele Produktionsanlagen sind bereits mit Steuerungssystemen wie PLCs (Programmable Logic Controllers) oder SCADA (Supervisory Control and Data Acquisition) ausgestattet. Diese Systeme sammeln Daten über Maschinenzustände und Prozessparameter und können diese Daten zentral speichern oder direkt an Analysesysteme weiterleiten.
  3. Manuelle Datenerfassung: In Fällen, in denen eine automatische Datenerfassung nicht möglich oder zu kostspielig ist, kann eine manuelle Erfassung der Daten erforderlich sein. Dies erfolgt in der Regel durch regelmäßige Inspektionen oder durch das Auslesen von Maschinendisplays und Steuerungsgeräten. Eine manuelle Datenerfassung ist zwar weniger effizient und fehleranfälliger, kann aber in bestimmten Situationen eine praktikable Lösung sein.
  4. Integration externer Datenquellen: Neben den direkt in der Produktion erfassten Daten können auch externe Datenquellen von Bedeutung sein, wie z. B. Wetterdaten, Marktpreise oder Lieferantendaten. Diese externen Informationen können in Kombination mit internen Maschinendaten wertvolle Einblicke in die Produktionsplanung und -steuerung bieten.

Herausforderungen und Best Practices

Die Erfassung und Vorverarbeitung von Maschinendaten sind nicht ohne Herausforderungen. Unternehmen müssen sicherstellen, dass die gesammelten Daten von hoher Qualität sind und konsistent verarbeitet werden können. Eine der größten Herausforderungen besteht darin, verschiedene Datenquellen miteinander zu integrieren und sicherzustellen, dass alle relevanten Daten verfügbar und korrekt sind.

Best Practices in diesem Bereich umfassen die Etablierung eines robusten Datenmanagement-Frameworks, das sowohl die Erfassung als auch die Vorverarbeitung und Speicherung von Daten abdeckt. Dazu gehört auch die Implementierung von Standards und Protokollen zur Sicherstellung der Datenqualität sowie die kontinuierliche Schulung von Mitarbeitenden im Umgang mit Daten und Analysewerkzeugen.

Potenziale nutzen durch richtige Anwendung

Die Vorverarbeitung von Maschinendaten ist eine entscheidende Grundlage für die erfolgreiche Implementierung von KI und fortschrittlichen Datenanalyseverfahren in der Produktion. Durch die systematische Erfassung und Aufbereitung von Daten aus Energiefluss, Materialfluss und Datenfluss können Unternehmen ihre Produktionsprozesse optimieren, Kosten senken und die Wettbewerbsfähigkeit steigern. Die Herausforderung besteht darin, die richtigen Datenquellen zu identifizieren, qualitativ hochwertige Daten zu sammeln und diese effizient zu verarbeiten, um das volle Potenzial moderner Technologien auszuschöpfen.

 

Das könnte Sie auch interessieren

Mehr erfahren
PotenzialanalysenPraxisbeispieleProjekte
In einer analogen Druckbranche zum digitalen Geschäftsmodell

Die Mertinger SIGEL GmbH mit ca. 210 Mitarbeitenden aus der Druckbranche bietet eine breite Produktpalette, darunter ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Interview über Digitalisierung im Kleinstunternehmen – Offenheit und Neugier machen es möglich

Eine Dreherei mit fünf Mitarbeitenden hat ihren Produktionsprozess nahezu vollständig digitalisiert, aber ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Energiemanagement bei großer Anlagenvielfalt im Prototypenbau

Die ModellTechnik Rapid Prototyping GmbH mit ca. 190 Mitarbeitenden in Thüringen fertigt Prototypen für ...

Mehr erfahren

Mehr erfahren
Information
Maschinelles Lernen in der Produktionsplanung

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, ...

Mehr erfahren

Mehr erfahren
Information
Bedeutung des Datenbestands für erfolgreiche KI-Projekte in KMU

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick ...

Mehr erfahren

Mehr erfahren
Lab TourVeranstaltung
Automatisierung bei der Lab-Tour am TZ PULS

Unter dem Themenschwerpunkt „Intralogistik der Zukunft – Lösungsansätze für den Fachkräftemangel“ fand am 12. ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Schluss mit Ausschuss – wie aus Lederresten ein nachhaltiges Produkt entstehen kann

Die Colonia Leather GmbH & Co. KG mit fünf Mitarbeitenden aus Kassel fertigt eine breite Palette an ...

Mehr erfahren

Mehr erfahren
EILENeuigkeiten
Projektabschluss EILE

Mit dem Abschluss des Zukunftsprojekts EILE (Energiewissen und InteLligente AnwEndung) Ende 2024 wurde ein wichtiger ...

Mehr erfahren

Mehr erfahren
LeitfadenNeuigkeiten
Klimabilanz erfassen und Treibhausgase reduzieren – Leitfaden zum Download

In den kommenden Jahren werden die Anforderungen an die Berichterstattung von Nachhaltigkeitskennzahlen für ...

Mehr erfahren

Das könnte Sie auch interessieren

Mehr erfahren
PotenzialanalysenPraxisbeispieleProjekte
In einer analogen Druckbranche zum digitalen Geschäftsmodell

Die Mertinger SIGEL GmbH mit ca. 210 Mitarbeitenden aus der Druckbranche bietet eine breite Produktpalette, darunter ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Interview über Digitalisierung im Kleinstunternehmen – Offenheit und Neugier machen es möglich

Eine Dreherei mit fünf Mitarbeitenden hat ihren Produktionsprozess nahezu vollständig digitalisiert, aber ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Energiemanagement bei großer Anlagenvielfalt im Prototypenbau

Die ModellTechnik Rapid Prototyping GmbH mit ca. 190 Mitarbeitenden in Thüringen fertigt Prototypen für ...

Mehr erfahren

Mehr erfahren
Information
Maschinelles Lernen in der Produktionsplanung

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, ...

Mehr erfahren

Mehr erfahren
Information
Bedeutung des Datenbestands für erfolgreiche KI-Projekte in KMU

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick ...

Mehr erfahren

Mehr erfahren
Lab TourVeranstaltung
Automatisierung bei der Lab-Tour am TZ PULS

Unter dem Themenschwerpunkt „Intralogistik der Zukunft – Lösungsansätze für den Fachkräftemangel“ fand am 12. ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Schluss mit Ausschuss – wie aus Lederresten ein nachhaltiges Produkt entstehen kann

Die Colonia Leather GmbH & Co. KG mit fünf Mitarbeitenden aus Kassel fertigt eine breite Palette an ...

Mehr erfahren

Mehr erfahren
EILENeuigkeiten
Projektabschluss EILE

Mit dem Abschluss des Zukunftsprojekts EILE (Energiewissen und InteLligente AnwEndung) Ende 2024 wurde ein wichtiger ...

Mehr erfahren

Mehr erfahren
LeitfadenNeuigkeiten
Klimabilanz erfassen und Treibhausgase reduzieren – Leitfaden zum Download

In den kommenden Jahren werden die Anforderungen an die Berichterstattung von Nachhaltigkeitskennzahlen für ...

Mehr erfahren

Das Unternehmen pro-beam mit Hauptstandort Gilching produziert mit mehr als 400 Mitarbeitenden kundenspezifische Maschinen und anspruchsvolle Bauteile in Auftragsfertigung. Für eine automatisierte Qualitätsprüfung, bei der mit dem Elektronenstrahl erzeugte Schweißnähte überprüft werden sollen, plant das Unternehmen, eine auf Elektronenstrahloptik basierte KI-Lösung direkt während des Schweißprozesses einzusetzen. Ein schneller Proof of Concept zeigt, ob sich die vorhandenen Daten eignen und wie verlässlich die KI-Lösung Anomalien erkennen kann.

Das Unternehmen pro-beam fertigt Bauteile vor allem für die Luft- und Raumfahrt oder Medizintechnik. Die Anforderungen an die Qualität sind entsprechend hoch. Bislang erfolgt die Qualitätssicherung manuell, unter anderem durch eine Sichtprüfung durch Mitarbeitende. Eine automatisierte Prüfung könnte die Mitarbeitenden entlasten. Die dafür benötigte elektronenoptische Aufnahmemöglichkeit (ähnlich eines Mikroskops, nur dass die Bildaufnahme hier mithilfe eines Elektronenstrahls erfolgt) ist bereits vorhanden und wird bei der Justage des Elektronenstrahls genutzt. In einer Potenzialanalyse mit dem Mittelstand-Digital Zentrum Augsburg wurde dieser Use Case als vielversprechend für die Anwendung eines KI-Modells identifiziert. Im anschließenden Projekt mit dem Zentrum ging es an die Umsetzung eines Proof of Concept und die damit verbundenen zentralen Fragestellungen: Sind die Bilddaten für den Einsatz eines KI-Tools geeignet? Wie gut kann das Modell Fehler erkennen? Und lässt sich der Use Case auf andere Bauteilgruppen übertragen?

Firmenstandort in Gilching

Welcher Use Case eignet sich für einen schnellen Proof of Concept?

Für einen ersten Workshop besuchten die Mittelstand-Digital Experten Mario Luber vom Fraunhofer IGCV und Christopher Sobel vom Fraunhofer IIS das Team von Sachin Patel, Head of R&D Beam bei pro-beam. Zunächst ging es darum, einen passenden Use Case auszuwählen und zu konkretisieren. Bilder sind nicht die einzigen Daten, mit denen das Unternehmen bereits arbeitet oder die in Frage kommen. Auch Sensordaten könnten beispielsweise für eine automatisierte Qualitätsprüfung oder eine automatisierte Zustandsüberwachung der Maschine und deren Komponenten wie Verschleißteile, z. B. die Kathode, genutzt werden. Die Daten sind dafür zwar größtenteils bereits vorhanden, müssten allerdings erst noch umfassend gelabelt, d. h. um Zustandsinformationen erweitert werden. Die Auswahl fiel auf die bildbasierte Qualitätsprüfung, da hier der größte Nutzen (Sicherstellung einer hohen Qualität bei gleichzeitiger Zeitersparnis durch weniger manuelle Tätigkeiten sowie die Möglichkeit einer Prüfung im Vakuum-Bauraum) und eine schnelle Umsetzung eines Proof of Concept (Vorhandensein der Ausstattung für die Bilderzeugung und eine schnelle Test-Datenerfassung) in Aussicht standen.

Obwohl die elektronenoptische Bildaufnahme bereits für die Positionierung und Erkennung der zu schweißenden Fuge im Einsatz ist, wird diese bisher nicht genutzt, um Bilder der Schweißnaht aufzunehmen und zu speichern. Daher musste im ersten Schritt in die Maschinensteuerung integriert werden, dass Bilder nach dem Schweißvorgang aufgenommen und in einer Datenbank mit Zeitstempel und Auftragsnummer abgespeichert werden. Danach startete die Phase der Trainings- und Testdatensammlung. Innerhalb von zwei Monaten konnten 135 Bilder baugleicher Bauteile für das Training des KI-Modells gesammelt werden. Da allerdings kein Fehler dabei war, mussten für den anschließenden Test der KI-Modelle noch zusätzlich synthetische Fehlerbilder, die möglichst realistisch sind, erzeugt werden. Diese künstliche Erweiterung des Trainingsdatensatzes wird auch Data Augmentation (Datenerweiterung) genannt.

Test unterschiedlicher KI-Verfahren

Im Anschluss ging es an die Datenauswertung der Trainingsdaten mithilfe von drei verschiedenen KI-Verfahren: Autoencoder, PADIM und EfficientAD. Der Fokus lag auf der Anomalie-Erkennung, nicht auf der Klassifikation des Fehlerbilds. Bei der Anomalie-Erkennung wird das Modell mit Bildern von Bauteilen trainiert, die keine Fehler aufweisen (i.O.). Bei einer Klassifikation werden hingegen auch Fehlerbilder im Training verwendet.

Mithilfe der Trainingsdaten wurde das KI-Modell trainiert und im Anschluss auf den Testdatensatz angewendet. Durch Bewertung der KI-ermittelten Prüf-Ergebnisse anhand von Testdaten ließen sich die Modelle hinsichtlich ihrer Genauigkeit (Accuracy) im Detektieren von Anomalien bewerten. Das Ziel neben einem hohen Accuracy-Wert war außerdem, die Rate von falsch positiven – sprich fehlerhaften Bauteilen, die fälschlich als i.O. erkannt werden – möglichst gering zu halten. Es zeigte sich: Während der Autoencoder in diesem Fall kein geeignetes Verfahren darstellte, da er die Anomalien nicht ausreichend erkennen konnte, erwiesen sich die anderen beiden, vor allem EfficientAD, im Rahmen des Proof of Concept als zuverlässig, um Bilder mit Fehlern zu identifizieren. Die Werte zeigten außerdem, dass die 135 Bildaufnahmen ausreichend für ein valides Training mit anschließendem Test der KI-Verfahren waren.

Schließlich lässt sich festhalten: KI eignet sich für die automatisierte bildbasierte Qualitätsprüfung und kann den Aufwand einer manuellen Sichtprüfung reduzieren. Nach Überführung in den produktiven Einsatz müssen Mitarbeitende künftig nur noch Bauteile mit unsicherem Anomaliewert manuell prüfen.

Übertragbarkeit auf andere Anwendungsfälle

Das KI-Tool ließe sich damit erfolgreich auf eine Großserie anwenden. Im nächsten Schritt musste das Modell mit echten Fehlerbildern getestet werden, um valide Ergebnisse sicherzustellen. Hierzu arbeitet pro-beam aktuell in einem Projekt mit Christopher Sobel aus dem Mittelstand-Digital Zentrum Augsburg zusammen. Danach stellt sich die Frage der Übertragbarkeit auf andere Bauteile, insbesondere auf Kleinserien und „Exoten“, für die kein spezifisches vorheriges Training möglich ist. Hier muss also getestet werden, wie zuverlässig durch das bereits trainierte KI-Modell auch dort Anomalien erkannt werden können. Außerdem steht auf dem Plan, die Mitarbeitenden von pro-beam darin zu schulen, die KI-Verfahren selbst anzuwenden und beispielsweise Bilddaten entsprechend vorzubereiten, um künftig in möglichst vielen Bereichen selbstständig ähnliche KI-Tools einsetzen zu können.

Sie wollen künstliche Intelligenz auch in Ihrem Unternehmen einsetzen? Bewerben Sie sich jetzt für eine kostenfreie Potenzialanalyse mit uns!

Weitere Infos finden Sie hier

 

Das könnte Sie auch interessieren

Mehr erfahren
PotenzialanalysenPraxisbeispieleProjekte
In einer analogen Druckbranche zum digitalen Geschäftsmodell

Die Mertinger SIGEL GmbH mit ca. 210 Mitarbeitenden aus der Druckbranche bietet eine breite Produktpalette, darunter ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Interview über Digitalisierung im Kleinstunternehmen – Offenheit und Neugier machen es möglich

Eine Dreherei mit fünf Mitarbeitenden hat ihren Produktionsprozess nahezu vollständig digitalisiert, aber ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Energiemanagement bei großer Anlagenvielfalt im Prototypenbau

Die ModellTechnik Rapid Prototyping GmbH mit ca. 190 Mitarbeitenden in Thüringen fertigt Prototypen für ...

Mehr erfahren

Mehr erfahren
Information
Maschinelles Lernen in der Produktionsplanung

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, ...

Mehr erfahren

Mehr erfahren
Information
Bedeutung des Datenbestands für erfolgreiche KI-Projekte in KMU

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick ...

Mehr erfahren

Mehr erfahren
Lab TourVeranstaltung
Automatisierung bei der Lab-Tour am TZ PULS

Unter dem Themenschwerpunkt „Intralogistik der Zukunft – Lösungsansätze für den Fachkräftemangel“ fand am 12. ...

Mehr erfahren

Mehr erfahren
PotenzialanalysenPraxisbeispiele
Schluss mit Ausschuss – wie aus Lederresten ein nachhaltiges Produkt entstehen kann

Die Colonia Leather GmbH & Co. KG mit fünf Mitarbeitenden aus Kassel fertigt eine breite Palette an ...

Mehr erfahren

Mehr erfahren
EILENeuigkeiten
Projektabschluss EILE

Mit dem Abschluss des Zukunftsprojekts EILE (Energiewissen und InteLligente AnwEndung) Ende 2024 wurde ein wichtiger ...

Mehr erfahren

Mehr erfahren
LeitfadenNeuigkeiten
Klimabilanz erfassen und Treibhausgase reduzieren – Leitfaden zum Download

In den kommenden Jahren werden die Anforderungen an die Berichterstattung von Nachhaltigkeitskennzahlen für ...

Mehr erfahren