- Aktuelles
- Schwerpunkte
- Projekte
- Demonstratoren
- Veranstaltungen
- E-Learning
- Downloads
In dem Unternehmen aus dem Bereich Elektronikentwicklung und -fertigung sind mehr als 120 Mitarbeitende beschäftigt, die unter anderem daran arbeiten, ihre Kunden mit Kamerasystemen auszustatten. Diese werden für die Erkennung von Objekten, auch Objektdetektion genannt, verwendet. Im industriellen Umfeld können diese zum Beispiel an Gabelstaplern angebracht und dafür genutzt werden, um Personen zu erkennen und so Arbeitsunfälle zu verhindern. Hierfür wird Künstliche Intelligenz eingesetzt, wobei viele Daten benötigt werden, um das KI-Modell auf deren Grundlage zu trainieren.
Diese Daten sind bei Solectrix zwar vorhanden, zum Beispiel von Baustellen, allerdings müssen diese aufwändig annotiert werden – ein wichtiger Schritt im Prozess für die Objektdetektion. Bei der Annotation werden den Daten Kontext-Informationen hinzugefügt, die für das Training des KI-Modells entscheidend sind. Im konkreten Fall der Bildannotation bedeutet dies das Markieren und Beschriften von Objekten innerhalb eines Bildes.
Manuelles Annotieren, also die händische Bearbeitung durch eine Person, ist sehr kostspielig und zeitaufwändig. Daher hatte das Unternehmen eine klare Fragestellung, die es im Rahmen des Projekts mit dem Mittelstand-Digital Zentrum Augsburg angehen wollte: Wie können wir die manuelle Annotation von Bilddaten effizienter gestalten?
Die Idee bestand darin, zu recherchieren, welche Tools zur automatischen Annotation existieren. Vier verschiedene Tools hat Mittelstand-Digital Experte Christopher Sobel vom Fraunhofer IIS im Team getestet und evaluiert, um herauszufinden, wie gut sie im Vergleich zur menschlichen Annotation abschneiden. Das konkrete Problem, das gelöst werden sollte, war die Verbesserung der Effizienz und der Genauigkeit der Bilddatenannotation. Da die Qualität der Annotation einen großen Einfluss auf die Zuverlässigkeit der späteren KI-Modelle hat, ist es umso wichtiger bei der Auswahl des geeigneten Tools sorgfältig vorzugehen.
Für die Datensammlung wurden zu Beginn mehrere Videos in der L.I.N.K. Testhalle am Fraunhofer IIS Standort Nürnberg aufgenommen. Um eine möglichst realistische Datengrundlage zu erfassen, waren dabei die Kameras an einem Gabelstapler angebracht und es wurden verschiedene Szenarien dargestellt: Die Beleuchtung in der Halle wurde an- und ausgeschaltet, der Gabelstapler bzw. die Personen haben sich bewegt oder sind gestanden oder Personen wurden durch andere Objekte verdeckt.
Nach der Datenaufnahmen folgte im nächsten Schritt die manuelle Annotation. Dazu wurden einige tausend Frames (Bilder) händisch gelabelt. Dies wird gemacht, um sogenannte Ground Truth Daten zu erzeugen. Diese Daten sind die tatsächlichen, beobachteten Daten, die als verlässliche Referenz für die Vorhersagen des Modells dienen. Die Annotation erfolgte mithilfe eines Tools, bei dem manuell sogenannte Bounding Boxes um die Personen gezogen und die entsprechenden Klassen zugewiesen wurden.
Im Vergleich dazu wurde mit sogenannten Zero-Shot-Modellen gearbeitet. Diese Modelle erfordern kein Training und können sofort verwendet werden. Sie verstehen natürliche Sprache und identifizieren Objekte auf einem ungelabelten Bild anhand deren textueller Beschreibung (z. B. Mensch, Hund, …). Das Ergebnis ist eine Bounding Box um das erkannte Objekt. Während die manuelle Annotation 40 Stunden in Anspruch genommen hat, konnten die getesteten Zero-Shot-Modelle dies in 2 bis 20 Minuten erledigen.
Um die Modelle bewerten zu können, kamen Metriken zum Einsatz, unter anderem die „Intersection over Union“ (IoU). Diese bestimmt die Genauigkeit der Modelle, indem die Ground Truth Daten mit der Vorhersage des Modells verglichen werden. Ein höherer IoU-Wert deutet demnach auf eine bessere Übereinstimmung hin. Die Ergebnisse der Tests zeigen, dass die automatische Annotation eine vielversprechende Lösung für die Herausforderungen der manuellen Bilddatenannotation darstellt.
Im nächsten Schritt wurden YOLO-Modelle, die der Echtzeit-Objekterkennung dienen, sowohl mit den auto-annotierten Daten als auch mit dem Ground Truth-Datensatz trainiert. Diese Modelle wurden dann auf einem vorab definierten Testdatensatz verglichen, um zu bewerten, wie sich die Qualität der automatischen Annotation auf die Leistung der trainierten YOLO-Modelle auswirkt.
Die Ergebnisse zeigen: Die automatische Annotation von Bilddaten ist effektiv. Die sogenannte „mean average Precision“ (mAP) der mit automatisch annotierten Bilddaten trainierten YOLO-Modelle war im besten Fall nur um 7 % geringer als die des mit Ground Truth Daten trainierten Modells. Es gibt also geringfügige Einbußen bei der Performance, jedoch eine signifikante Zeitersparnis beim Annotieren der Daten um den Faktor 120. Dies macht den Ansatz besonders wertvoll für Unternehmen, die große Mengen an Bilddaten verarbeiten müssen, jedoch nicht über die Ressourcen verfügen, die überwältigenden Mengen an Daten manuell zu annotieren.
Der Handwerksbetrieb aus Gersthofen, der seit 1984 auf Kälte- und Klimatechnik spezialisiert ist, hat sich im Laufe der Jahre stark weiterentwickelt. Mit einem Team von 26 Mitarbeitenden hat sich nicht nur die Anzahl der Beschäftigten erhöht, sondern auch das erforderliche Fachwissen vervielfacht. Abhängig vom Hersteller, dem Einsatzumfeld oder auch der Größe des Kühlsystems variieren die Anforderungen an Montage und Wartung. Vor allem jüngere Mitarbeitende setzen dabei auf das wertvolle Wissen und die Erfahrung der älteren Kolleg:innen und greifen schnell zum Telefon. Insbesondere da sich die ältere Generation allmählich in den Ruhestand begibt, stellen diese Entwicklungen das Unternehmen vor neue Herausforderungen. So ist der Wunsch nach der Implementierung eines Chatbots entstanden. Er soll eine zukunftsfähige Lösung sein, welche den Wissensaustausch fördert und den Mitarbeitenden jederzeit zur Verfügung steht.
Welche Vorteile die Digitalisierung der Unternehmensprozesse mit sich bringt, haben die beiden Geschäftsführer, Dominik Wildner und Dominik Stark, bereits erkannt. In den letzten Jahren haben sie eine breite Systemlandschaft aufgebaut, die die Abläufe in verschiedenen Abteilungen unterstützt. So nutzen sie nicht nur handelsübliche Cloud-Lösungen für die Ablage von Bedienungs- und Montageanleitungen, sondern beispielsweise auch ein Ticket-System für die Personaleinsatzplanung, ein CRM-System für das Kundendatenmanagement oder ein ERP-System. Doch die Geschäftsführer möchten mehr – sie wollen „den KI-Zug nicht verpassen“ und haben sich Unterstützung aus dem Mittelstand-Digital Zentrum Augsburg geholt.
Die Mittelstand-Digital Expertin Saskia Hutschenreiter und der Mittestand-Digital KI-Trainer Sebastian Maier haben im Unternehmen eine Potenzialanalyse durchgeführt und dabei einen tiefen Blick in die Systemlandschaft des Betriebs geworfen. Sie fokussierten sich dabei vor allem auf die wichtigste Anforderung eines Chatbots: eine passende Datengrundlage. Hier mussten die Expert:innen die beiden Geschäftsführer auf den Boden der Tatsachen zurückbringen. Aktuell liegen die Daten über verschiedene Systeme verteilt und es besteht für die Monteur:innen keine einheitliche Dokumentationspflicht, wie sie beispielsweise beim Beheben von Fehlern in der Montage sinnvoll wäre, um bei einem erneuten Auftreten des Problems direkt eine Lösung parat zu haben. So haben die Expert:innen basierend auf ihren Erkenntnissen in mehreren Gesprächen im Betrieb vor Ort und online aufgezeigt, wie eine geeignete Roadmap auf dem Weg in ein smarteres Wissensmanagement aussehen kann. Ziel ist es, zunächst eine geeignete Datenschnittstelle zu schaffen, anschließend eine zentrale Datenbank aufzubauen und so schlussendlich ein KI-System aufzusetzen, auf welchem der Chatbot aufbauen kann.
Der erste Schritt (Schaffen der Datenschnittstelle) bildet die Grundlage für die Integration der verschiedenen Systeme und Dateiablagen. Hierbei werden die bestehenden Datenquellen analysiert, um herauszufinden, welche Daten für den Anwendungsfall überhaupt von Bedeutung sind. Außerdem muss geprüft werden, welche Schnittstellen schon zur Verfügung stehen, um hier Mehraufwand zu vermeiden. Auch Implementierungsdauer und -kosten gilt es abzuwägen.
Im zweiten Schritt (Aufbau der zentralen Datenbank) wird die zentrale Datenbank eingerichtet. Hier boten die Expert:innen zwei Ansätze zur Auswahl an: relationale oder graphbasierte Datenbanken. Während relationale Systeme gut für komplexe Filterungen oder Datenaggregationen geeignet sind (z. B. „Liste mir alle Hersteller und deren Preislisten für Kühlanhänger auf.“), bieten graphbasierte Lösungen intuitivere Möglichkeiten, um zusammenhängende Informationen zu suchen (z. B. „Wie haben wir den Fehler mit dem Code A237 im letzten halben Jahr an diesem Kühlanhänger gelöst?“).
Der letzte Schritt (Aufsetzen des KI-Systems) umfasst die Implementierung eines Retrieval Augmented Generation (RAG)-Systems. Dieses innovative, aktuell stark beforschte, KI-System nutzt die zentrale Datenbank, um schnell und präzise Antworten auf technische Fragen der Monteur:innen zu liefern. Durch die Kombination der Datenbankabfragen mit einem großen Sprachmodell (Large Language Model) können die Monteur:innen innerhalb weniger Sekunden die benötigten Informationen abrufen.
Die Umsetzung der Roadmap hält zukünftig also nicht nur das Wissen im Unternehmen, sondern steigert auch die Effizienz der Arbeit. Die Monteur:innen können schneller auf technische Herausforderungen reagieren und wertvolle Zeit sparen. Außerdem sammelt GBS Kühlanlagen so erste Erfahrungen im Aufsetzen von KI-Projekten und baut sich eine gute Basis für zukünftige Vorhaben auf. Erweitert man die Datengrundlage beispielsweise um die durchschnittlichen Lieferzeiten des eingesetzten Materials, kann die Lösung auch in der Arbeitsvorbereitung unterstützen.
Direkt im Anschluss an die Ergebnispräsentation der Potenzialanalyse sind die beiden Geschäftsführer in den Austausch mit einem möglichen Lösungsanbieter gegangen. Gemeinsam planen sie die Umsetzung der ersten Schritte der Roadmap. Auch über das Wissensmanagement im Montage- und Wartungsalltag hinaus, sieht GBS Kühlanlagen für sich einen großen Mehrwert durch die Einführung von Künstlicher Intelligenz. Weitere Ideen beziehen sich beispielsweise auf den Erstkontakt mit Kunden. Hier könnte, wenn mal wieder Not am Mann oder der Frau ist, ein sprechender Chatbot gezielt die erforderlichen Eckdaten abfragen und eine Zusammenfassung an das Service-Team senden.
Das Unternehmen attempto aus Oberhaching im Landkreis München ist seit 2006 als Unternehmensberatung für IT-Projekte tätig und bietet dabei unter anderem die Entwicklung kundenindividueller Software sowie Beratung bei der Einführung, Konzeption, Entwicklung und Wartung von IT-Systemen. Zu den Kunden zählen Banken und Versicherungen sowie Unternehmen aus Industrie, Handel und dem öffentlichen Sektor. Eines ihrer Produkte ist eine Softwarelösung, die die Arbeit mit Personalprofilen digitalisiert. Die Anwendung richtet sich an Unternehmen wie beispielsweise Personaldienstleister oder Beratungsfirmen, die regelmäßig Mitarbeiterprofile erstellen und aktualisieren müssen, um diese für Kundenprojekte anzubieten.
Die Kernfunktionen dieser SaaS-Lösung (Software-as-a-Service) sind die Erfassung, Pflege und Verwaltung von Kompetenz- und Erfahrungsprofilen der Mitarbeitenden, sodass auf einer einheitlichen, digitalen Plattform sämtliche Prozesse im Profil- und Angebotsmanagement zentralisiert werden. Die Mitarbeitenden können ihre Qualifikationen und Erfahrungen selbst direkt in der Plattform hinterlegen und aktualisieren. Damit soll gewährleistet werden, dass Vertriebsmitarbeitende auf eine aktuelle und verlässliche Datenbasis zugreifen können, um das passende Personal für Projekte auszuwählen und an Kunden weiterzuvermitteln.
KI wird hier bereits eingesetzt, um die Dateneingabe zu vereinfachen und die Datenqualität so weiter zu steigern. Zudem sind Filter- und Suchfunktionen integriert, um eine gezielte Suche nach bestimmten Qualifikationen und Erfahrungen zu ermöglichen. Allerdings möchte attempto den Einsatz von KI weiter ausweiten, weshalb die Firma den Dialog mit dem Mittelstand-Digital Zentrum Augsburg suchte, um gemeinsam neue Ansätze zu entwickeln. Die KI-Experten Dr. Martin Gottwald und Alexandros Tsakpinis von fortiss haben die Plattform unter die Lupe genommen und sich die vorhandenen Ideen näher angeschaut. Gemeinsam mit den Mitarbeitenden von attempto wurden diese diskutiert und neue Ansätze vorgestellt.
Da die händische Pflege des eigenen Kompetenzprofils auf der Plattform im Alltag oft zu kurz kommt, wäre eine Möglichkeit den Nutzenden eine KI-gestützte Assistenz zur Seite zu stellen. Ähnlich wie ein Wizard, der bei der Installation von Computerprogrammen hilft, könnte eine solche Assistenz die Nutzenden durch die Maske für die Erstellung der Kompetenzprofile führen.
Dieser Wizard kann so auch beim Erkunden von Kompetenzen helfen: Tippt man beispielsweise eine Fähigkeit ein, wird analysiert, ob ähnliche Kompetenzen bereits im System vorhanden sind. Zudem sind Vorschläge zur Schreibweise oder Hinweise auf typische Stolperfallen möglich. Solch ein Wizard könnte als Recommender-System (dt. Empfehlungsdienst) aufgezogen werden. Nach einer initialen Lernphase, in der die Qualifikationen und deren Zusammenhänge erfasst werden, kann das System anschließend selbstständig Vorschläge machen.
Ein wichtiger Baustein stellt hierbei das Clustern von Kompetenzen dar. Da ein KI-System nicht rein auf die Schreibweise der Fähigkeiten anspringt, sondern auch semantische Ähnlichkeiten erkennen sollte, ist es sinnvoll, die Kompetenzen semantisch zu clustern. Beispielsweise sollten “MS-Word” und “Microsoft Office” nicht als zwei getrennte Fähigkeiten betrachtet werden.
Trotz aller Sorgfalt schleichen sich mit der Zeit verschiedene Schreibweisen und Variationen desselben Begriffs ein. Um zu vermeiden, dass Nutzer:innen von Hand den gesamten Datenbestand durchsuchen müssen, um die richtige Schreibweise zu finden, könnte ein Ansatz mittels eines Large Language Model (LLM) Abhilfe schaffen. Ein LLM kann einen Begriff nicht nur als Zeichenkette verarbeiten, sondern dessen Bedeutung und semantische Einbettung erfassen. Dadurch können Begriffe vereint werden, ohne dass fälschlicherweise unterschiedliche Kompetenzen zusammengefasst werden.
Ziel ist es, eine Ausgewogenheit zwischen einer gewissen Freiheit bei der Dateneingabe für die Nutzenden des Systems und der Einheitlichkeit der Datenbank zu schaffen. Würde man im Alltag über die internen Cluster-Namen der Kompetenzen arbeiten, dann wäre eine perfekte Schreibweise garantiert. Allerdings wäre dies eine starke Einschränkung bei der Ausdruckskraft für die Nutzer:innen. Das entgegengesetzte Szenario wäre, dass alle zunächst einfach drauflosschreiben können. Man hätte den optimalen Freiraum bei der Angabe von Kompetenzen, aber die Datenbank würde unter dem Wildwuchs leiden.
Das frühzeitige und regelmäßige Aussprechen von Empfehlungen ohne strikte Limitierungen zu erzwingen, kombiniert mit einem LLM, um die Labels zu aktualisieren und gleichzeitig die Einheitlichkeit zu wahren, könnte ein möglicher Ansatz sein, um die Qualität der Datenbank zu erhalten und die Nutzenden bei der Eingabe von Kompetenzen zu unterstützen.
Da attempto bereits über umfassendes KI-Wissen verfügt, konnte das Augsburger Zentrum als Sparringspartner fungieren. Die vorhandenen Ideen und technischen Ansätze wurden vom Unternehmen vorgestellt und im Detail gemeinsam mit den KI-Experten diskutiert. So konnten diese auf Optimierungspotenziale hinweisen sowie bei der Auswahl geeigneter Tools bzw. Methoden zur Hand gehen, indem sie die Anforderungen an die KI-Systeme präzisieren und passende Lösungsansätze in die Diskussion einbringen konnten.
Wichtige Fragen, über die man sich vor und während des Prozesses Gedanken machen sollte, sind:
Durch die Diskussion dieser Fragen mit den Zentrumsexperten konnte attempto die KI-Ansätze weiter schärfen und sicherstellen, dass diese nicht nur technisch funktionieren, sondern auch den Anforderungen des Unternehmens im Alltag gerecht werden.
Das Grundprinzip der KI besteht darin, Daten – wie zum Beispiel Bilder, Texte, aber auch Sensormesswerte – zu analysieren und darin selbstständig Muster und Strukturen zu erkennen. Um dies zu erreichen, muss ein KI-Modell zunächst trainiert werden. Dazu werden diesem während des Trainings Daten zugeführt und vom KI-Modell verarbeitet. Die Daten unterteilen sich in Eingabe- und Ausgabedaten. Ziel der KI ist es, anhand der Eingabedaten die entsprechenden Ausgabedaten vorherzusagen. Die Grundlage jeder KI bilden mathematische Modelle, deren interne Parameter während des Trainings so optimiert werden, dass es Zusammenhänge in den Daten möglichst genau erfasst und verallgemeinern kann.
Inwieweit sich KI von klassischen regelbasierten Verfahren unterscheidet, soll anhand des folgenden Beispiels verdeutlicht werden. Betrachtet wird ein Karton, in den verschiedene Produkte eingelegt werden sollen. Die Frage ist, zu wie viel Prozent der Karton gefüllt ist, wenn eine beliebige Anzahl von Produkten in den Karton gelegt wird (vgl. Abbildung 1).
In Beispiel 1 (vgl. Abbildung 1) soll ermittelt werden, zu wie viel Prozent die Schachtel 1 gefüllt ist, wenn sie mit zwei Quadraten und einem Dreieck gefüllt wird. Im zweiten Fall ist die kleinere Schachtel 2 mit einem Kreis und zwei Dreiecken gefüllt. Für eine klassische regelbasierte Füllstandsvorhersage könnte wie folgt vorgegangen werden: Zunächst wird die Größe und damit das Füllvolumen der Kartons bestimmt. Anschließend werden die einzelnen Produkte vermessen, um deren Volumen zu bestimmen. Aus der Summe der Volumina der einzelnen Produkte kann dann der Füllstand eines Kartons ermittelt werden. Die Berechnung des Füllstandes erfolgt nach vorher festgelegten Regeln. Somit steht hier die Modellierung der Regeln, nach denen der Füllstand bestimmt wird, im Fokus.
Im Gegensatz dazu würde die Bestimmung des Füllstandes mit einem KI-Modell mit folgender Vorgehensweise erreicht werden: Für eine Vielzahl von Szenarien werden die Eingabeparameter und die zugehörigen Ausgaben bestimmt. In diesem Fall wären die Eingabeparameter der jeweils verwendete Karton und die darin enthaltenen Produkte. Die zugehörige Ausgabe wäre die Füllmenge. Anhand der Eingaben und der zugehörigen Ausgaben wird ein KI-Modell trainiert. Dabei erlernt das Modell selbstständig die Regeln, anhand derer der Füllstand eines Kartons mit verschiedenen Produkten ermittelt werden kann.
Der entscheidende Vorteil gegenüber klassischen regelbasierten Prognosemodellen besteht darin, dass einer KI keine expliziten Regeln vorgegeben werden müssen. Stattdessen erkennt die KI selbstständig Zusammenhänge in den Daten. Dies ist besonders vorteilhaft, wenn Zusammenhänge zu komplex sind, um sie in festen Regeln abzubilden, oder wenn sich die Bedingungen häufig ändern. Allerdings geht dieses Vorgehen auch mit einer gewissen Intransparenz einher, da die Grundlage, warum eine Entscheidung von einer KI getroffen wird, für den Menschen oft nicht ersichtlich ist.
KI umfasst ein sehr breites Spektrum an Methoden und lässt sich je nach Aufgabenstellung in verschiedene Kategorien unterscheiden. So werden beim Überwachten Lernen (Supervised Learning) Modelle mit gelabelten Daten trainiert. Das bedeutet, dass jeder Eingabe eine feste Ausgabe zugeordnet ist. Die Aufgabe des KI-Modells besteht nun darin, die Zusammenhänge zwischen dem übergebenen Input und dem zugehörigen Output selbstständig zu erlernen. Handelt es sich bei der ermittelten Ausgabe um eine oder mehrere kontinuierliche Variablen, spricht man von Regressionsaufgaben. Das obige Beispiel der Füllstandsbestimmung ist also ein klassisches Regressionsproblem. Ist es dagegen das Ziel der KI, eine bestimmte Eingabe einer definierten Klasse zuzuordnen, spricht man von Klassifikation.
Im Gegensatz dazu arbeitet das Unüberwachte Lernen (Unsupervised Learning) ohne vordefinierte Ausgaben. Der KI werden also nur die Eingabedaten übergeben und das Modell muss selbstständig Zusammenhänge in den Datenpunkten erkennen. Klassische Methoden sind das Clustering oder die Dimensionsreduktion. Beim Clustering werden Datenpunkte, die einander ähnlich sind, zu Gruppen zusammengefasst. Bei der Dimensionsreduktion versucht die KI, bestimmte Charakteristiken in den Daten zu ermitteln. Clustering wird somit häufig zur Vereinfachung von großen und komplexen Datenmengen verwendet.
Das Deep Reinforcement Learning (DRL, Bestärkendes Lernen) stellt einen KI-Ansatz dar, der sich mit der Optimierung von Strategien beschäftigt. Dabei interagiert ein KI-Agent mit einer Umgebung. Dabei führt der Agent Aktionen aus, die auf dem Zustand der Umgebung basieren. Diese Aktionen werden mit einer Belohnungsfunktion bewertet. Ziel des DRL ist es, dass der Agent Aktionen auswählt, die die erhaltene Belohnung maximieren. Durch die Interaktion mit der Umgebung und den dafür erhaltenen Belohnungen kann der Agent eine optimierte Strategie erlernen.
Die Einsatzmöglichkeiten von KI sind sehr vielseitig. Insbesondere die Logistik kann auf unterschiedliche Art und Weise davon profitieren. KI kann zum Beispiel für die Prognose von Prozess- und Auftragsdaten, der Erkennung von spezifischen Logistikkomponenten oder für die Steuerung von Prozessen oder dem Materiafluss verwendet werden.
Die Fähigkeit, aus Bildern relevante Daten zu extrahieren, kann in der Logistik für viele Anwendungsfälle von großem Nutzen sein. Durch Bilderkennung können Prozesse verbessert oder Fehler minimiert werden. Der LOCO-Datensatz (Logistics Objects in Context) [1] ist hierfür ein praktisches Beispiel, durch den es ermöglicht wird, bestimmte Logistikobjekte mithilfe von Kameras zu erkennen. Dieser Datensatz umfasst insgesamt ca. 38.000 Bilder, die in verschiedenen logistischen Umgebungen aufgenommen wurden. In Teilen des Gesamtdatensatzes sind logistikspezifische Objekte wie Paletten, Kisten, Gitterboxen, Gabelstapler und Hubwagen gekennzeichnet (vgl. Abbildung 2). Durch diese Annotation wird gekennzeichnet, wo sich ein spezifisches Objekt auf dem Bild befindet. Mithilfe dieser Datengrundlage lässt sich dann wiederum ein KI-Modell trainieren, welches die verschiedenen Objekte selbstständig erkennt.
Durch die Entwicklung solcher Bilderkennungswerkzeuge kann die Logistik davon profitieren, dass Objekte automatisch erkannt und richtig klassifiziert werden. So können unter anderem fahrerlose Transportsysteme selbstständig Objekte erkennen
und deren Position und Orientierung bestimmen. Dies erleichtert die Navigation sowie die Aufnahmen und den Transport von Waren und kann somit zu einer Verbesserung der Transportaufträge führen.
Darüber hinaus bietet der Einsatz von DRL in der Logistik neue Möglichkeiten, Prozesse wie den Materialfluss zu optimieren. Diese KI-Methode lernt optimierte Strategien durch die Interaktion mit ihrer Umgebung (vgl. Abbildung 3). Dabei führt ein Agent eine Aktion aus, die zu einer Veränderung der Umgebung führt. Die Aktionen des Agenten werden durch eine Belohnungsfunktion bewertet. Dabei werden sinnvolle Aktionen mit einer hohen Belohnung bewertet, während schlechte Aktionen nur mit einer geringen oder negativen Belohnung gewichtet werden. Welche Aktionen als gut oder schlecht bewertet werden, hängt vom Gesamtziel ab, das für die Optimierung des Systems erreicht werden soll. Der Agent versucht seine Strategie so anzupassen, dass er eine möglichst hohe kumulierte Belohnung erhält. Im Falle der Optimierung der Materialflusssteuerung innerhalb eines Warenlagers könnte das globale Ziel z. B. die Minimierung der Gesamttransportzeit der Fahrzeuge sein.
Ein Beispiel für einen praktischen Anwendungsfall könnte die Steuerung eines Gabelstaplers innerhalb eines Logistiklagers sein. Die Umgebung des DRL-Systems umfasst die Lagerhalle, den Gabelstapler und die Waren. Der Agent hat die Aufgabe, optimierte Transportaufträge zu generieren, so dass die Zeit, die der Gabelstapler zur Abarbeitung der Aufträge benötigt, minimiert wird. Um einen solchen Agenten zu trainieren, wird eine Simulation als weitere Komponente benötigt. Diese Simulation bildet alle Abläufe, Materialtransport sowie Randbedingungen ab, wodurch der Agent durch Interaktionen mit dem System in der Lage ist, eine optimierte Strategie zu erlernen. Während des Trainings versucht der Agent seine Strategie für die Transportplanung zu optimieren. Zu Beginn werden die Auftragsdaten für den Gabelstapler überwiegend zufallsbasiert generiert. Erst mit fortlaufendem Training erlernt der Agent anhand der erhaltenen Belohnungen, welche Aktionen langfristig zu einer hohen Belohnung führen und passt dementsprechend seine Strategie an. Durch dieses Vorgehen kann der Agent eine Strategie entwickeln, mit der die Materialflüsse verbessert und somit die Effizienz erhöht wird.
Dass DRL in realen Umgebungen erfolgreich eingesetzt werden kann, zeigen unter anderem verschiedene Roboterhersteller. Durch die Anwendung von DRL können sie die Bewegungsplanung von Robotern so optimieren, dass diese in dynamischen Umgebungen stabile und präzise Bewegungsabläufe durchführen, wodurch diese auf unerwartete Änderungen in ihrer Umgebung effizient reagieren können. Diese Fähigkeit, sich an sich schnell ändernde Bedingungen anzupassen, ist nicht nur in der Robotik von Bedeutung, sondern bietet insbesondere in der Logistik ein großes Potenzial, um Prozesse und Systeme zu optimieren.
Auch wenn KI gerade für die Logistik ein sehr großes Potenzial bietet, ist die Umsetzung dieser Technologie häufig von großen Herausforderungen geprägt. So ist die Implementierung von KI-Lösungen in der Regel sehr komplex und ressourcenintensiv. Das Training leistungsfähiger KI-Modelle erfordert häufig eine Vielzahl von Rechenschritten. Leistungsfähige Hardwarekomponenten sind daher für viele KI-Projekte unerlässlich, um das Training der KI in praktikablen Zeiträumen zu ermöglichen. Generell sind Daten die wichtigste Komponente für die Realisierung von KI. Sie stellen aber auch häufig das größte Hindernis bei der Durchführung von KI-Projekten dar. Stehen zu wenige Daten zur Verfügung oder sind diese von zu schlechter Qualität, ist die Prognosefähigkeit einer KI stark eingeschränkt. Damit eine KI in der Lage ist, aus Daten sinnvolle Zusammenhänge zu lernen und damit eine Optimierung zu ermöglichen, müssen genügend Daten in ausreichender Qualität vorhanden sein. Die Erfassung und Vorverarbeitung von Daten stellt daher einen der wichtigsten Entwicklungsschritte bei der Umsetzung von KI dar.
Auch wenn die Implementierung von KI derzeit noch mit Herausforderungen verbunden ist, bietet der Einsatz dieser Technologie einen entscheidenden Mehrwert, um die Logistik effizienter und sicherer zu gestalten. Darüber hinaus kann KI in dynamischen Situationen dazu beitragen, sinnvolle Lösungen zu generieren. Viele KI-Modelle sind zudem als Open-Source-Lösungen frei verfügbar und können individuell an die eigenen Prozesse angepasst werden. Dies verbessert nicht nur die Integrationsfähigkeit von KI für Unternehmen, sondern stärkt auch die Innovationskraft, da bestehende Modelle weiterentwickelt und optimiert werden können. Mit der fortschreitenden Entwicklung von KI-Technologien und der zunehmenden Verfügbarkeit leistungsfähiger Hardware ist die Logistik ein Bereich, der von den KI-Entwicklungen profitieren wird und dadurch auch effizienter und vielseitiger werden kann.
[1] C. Mayershofer, D. -M. Holm, B. Molter and J. Fottner, „LOCO: Logistics Objects in Context,“ 2020 19th IEEE International Conference on Machine Learning and Applications (ICMLA), Miami, FL, USA, 2020, pp. 612-617, doi: 10.1109/ICMLA51294.2020.00102
Die anfallenden Lederreste liegen in unterschiedlichen Größen, Sorten, Qualitätsstufen oder Verarbeitungsarten (z. B. gegerbt oder gefärbt) vor. Aktuell werden diese, wenn möglich, weiterverwendet, aber zum großen Teil verschenkt – selten auch weiterverkauft –, entsorgt oder geschreddert und zu Kunststoffplatten gepresst. Letzteres ist allerdings recht aufwandsintensiv und dadurch wenig lukrativ. Leder kann außerdem in mehrere Schichten gespalten und dann unterschiedlich weiterverwendet werden, z. B. als Verloursleder, umgangssprachlich auch als Wildleder bezeichnet. Zum Großteil werden aber auch hier einige der Schichten schließlich entsorgt. Geschäftsführer Jean-Thomas Keil sieht Potenzial in den Lederresten und möchte diese zu neuen Produkten verarbeiten, nicht nur aus wirtschaftlichen Gründen, sondern vor allem im Sinne der Nachhaltigkeit. Dafür hat er sich für eine Potenzialanalyse an das Mittelstand-Digital Zentrum Augsburg gewandt.
In Online-Workshops und einem Vor-Ort-Besuch in Kassel diskutierte das Projektteam, bestehend aus Herrn Keil und den Mittelstand-Digital Expert:innen Christian Looschen und Maria Maier von der Technischen Universität München, folgende Fragen: Wie kann so ein nachhaltiges Remanufacturing-Produkt aussehen? Wie wird das Produkt konkret hergestellt? Wie nachhaltig ist diese Form der Aufbereitung wirklich? Dazu musste sich das externe Team zunächst ein Produktverständnis schaffen, also welche Sorten und Formen von aufbereitetem Leder (geschnitten, gespalten, geprägt etc.) es gibt und welche Produktionsschritte für das Vorhaben interessant sein könnten. Zum Beispiel lassen sich Stücke zu einem Patchwork-Material zusammenkleben, ohne dass Nähte oder Fügestellen sichtbar sind.
Als Ergebnis der Potenzialanalyse wurde ein Prozessentwurf entwickelt, wie Lederreste künftig analysiert und automatisiert platziert sowie schließlich aneinandergefügt werden können, um so neue Lederstücke für die Weiterverarbeitung zu schaffen. Ein solches Produkt könnte unter Umständen als „nachhaltig aus Restmaterial produziert“ gekennzeichnet werden und damit auch ein für Endkund:innen attraktives Kaufargument liefern. Letztendlich könnten so nicht nur eigene Schnittreste weiterverarbeitet werden, sondern beispielsweise auch von lederverarbeitenden Kunden günstig abgekauft und wiederaufbereitet werden und damit ein weiteres Geschäftsmodell etabliert werden.
Was sich so einfach zusammenfassen lässt, ist allerdings derzeit ein technisch und organisatorisch hochkomplexes Verfahren. Insbesondere die Analyse sowie das Platzieren sind zum aktuellen technischen Stand größere Herausforderungen. Mittels Leichtbauroboter, Kamera und einer KI-Lösung (z. B. einem Bilderkennungsalgorithmus) müssten zunächst die Zuschnitte flach platziert und dann klassifiziert werden – nicht nur hinsichtlich ihrer Maße, sondern auch nach Sorte, Qualität, Dicke und Festigkeit, Aufbereitungsart, Farbe oder Schicht. Zusätzlich müsste ein digitaler Abgleich mit einer vorgegebenen und im System eingelernten Produktpalette (spezielle Form und Größe für spezielle Kundenprodukte) erfolgen, um herauszufinden, welche Teile überhaupt zu welchem Produkt gefügt werden können. Auch das automatisierte Platzieren der Teile ist bei unterschiedlichen Festigkeiten und Formen nicht ganz einfach. Und schließlich müssten die zueinanderpassenden Teile exakt nebeneinander platziert und bzw. mittels Klebevorrichtung aneinandergefügt sowie ggf. noch zugeschnitten werden.
Es besteht auch die Möglichkeit beispielsweise nur das Analysieren und Vorgeben von Mustern von einer digitalen Lösung erledigen zu lassen und die restlichen Arbeitsschritte wie Platzieren und Fügen weiter analog durchzuführen. Hier stellt sich dann langfristig allerdings die Frage der Wirtschaftlichkeit.
Weil die Entwicklung einer solchen automatisierten Lösung für ein Kleinunternehmen nur schwer zu stemmen ist, empfehlen die Mittelstand-Digital Expert:innen, sich hier um ein öffentlich gefördertes Projekt zu bewerben und gemeinsam mit anderen Lederverarbeitern voranzutreiben. Herr Keil verfügt aufgrund seiner langjährigen Branchenkenntnis über ein großes Netzwerk und hat bereits ein Partner-Unternehmen mit an Board. Aktuell ist er auf der Suche nach weiteren interessierten Projektpartnern. Geplant ist, dass das Projekt künftig von der Technischen Universität München weiterbegleitet wird – auch was die Nachhaltigkeitsbewertung angeht. Bislang drehen sich Lebenszyklusanalysen von Produkten (Life Cycle Assessment) eher um die Vermeidung von Ausschuss, als um dessen Weiterverarbeitung. Weitere offene Fragen sind die konkrete Gestaltung einer Rückführungslogistik, eine Analyse von Marktgröße und erzielbaren Preisen sowie der Amortisation der nötigen Investition.
Im Zuge einer wachsenden Bedeutung von Nachhaltigkeitskennzahlen liegt in diesem Anwendungsfall jedoch auf jeden Fall großes Potenzial. Zudem könnte auch die Anwendung selbst ein Produkt von hoher Nachfrage sein, wenn es um die Wiederverwertung von Restmaterialien geht, die bisher auf dem Müll landen. Wichtig ist dabei unbedingt, „Greenwashing“ zu vermeiden, sondern vielmehr echten Nutzen zu schaffen.