Die Bedeutung der Nachhaltigkeit für kleine und mittlere Unternehmen (KMU) nimmt aufgrund globaler Herausforderungen wie dem Klimawandel zu. Nachhaltige Geschäftspraktiken können nicht nur ökologische Vorteile bringen, sondern auch Kosten senken. KMU müssen sich angesichts rechtlicher Neuerungen wie dem European Green Deal mit nachhaltigen Finanzpraktiken auseinandersetzen und Umwelt-, Sozial- und Governance-Faktoren (ESG-Faktoren) in ihre Prozesse integrieren. In diesem Kontext wird beleuchtet, was kleine und mittlere Unternehmen beachten müssen.

Nachhaltige Finanzierung – Herausforderung für KMU

Der Green Deal, Europas ehrgeiziges Nachhaltigkeitsprojekt, nimmt immer konkretere Formen an.[1] Besonders wichtig ist dabei das Konzept des Sustainable Finance, das darauf abzielt, Finanzströme und Investitionen nachhaltiger zu gestalten. Durch den Green Deal strebt die Europäische Union (EU) eine umfassende Transformation der europäischen Wirtschaft an, um Umweltschutz, den Stopp des Klimawandels, faire Arbeitsbedingungen und die Durchsetzung der Menschenrechte zu fördern. Sogenannte Umwelt-, Sozial- und Governance-Faktoren (ESG-Faktoren) dienen als Leitprinzipien und Bewertungskriterien, die in verschiedenen rechtlichen Instrumenten zur Umsetzung des Green Deals integriert sind. Dabei setzt die EU vor allem auf drei regulatorische Maßnahmen, um Kapital in nachhaltige Projekte zu lenken: die EU-Taxonomie, die Corporate Sustainability Reporting Directive (CSRD) und die Sustainable Finance Disclosure Regulation (SFDR). Während einige dieser Vorschriften bereits für Banken, Finanzvermittler und Großunternehmen gelten, sollen bald auch größere Mittelständler und schließlich kleine und mittlere Unternehmen die neuen Vorschriften umsetzen müssen. Was bedeutet das insbesondere für KMU?

Rolle der EU-Taxonomie auf dem Weg zur grünen Wirtschaft

Kurz gesagt: Die EU plant, finanzielle Mittel künftig unter Berücksichtigung ihrer Nachhaltigkeitsziele zu vergeben. Das bedeutet, dass Projekte, die diesen Zielen nicht entsprechen, entweder gar nicht oder zu weniger vorteilhaften Konditionen finanziert werden. Dies soll zu einem grüneren Kredit- und Kapitalmarkt führen. Unternehmen stehen vor der Herausforderung festzustellen, wann ihre Geschäfts- oder Investitionsvorhaben als nachhaltig gemäß den Vorgaben der EU und der Bundesregierung gelten und wie dies dokumentiert werden kann. Hierbei spielt die EU-Taxonomie eine zentrale Rolle, indem sie wirtschaftliche Aktivitäten identifiziert, die als nachhaltig betrachtet werden können, und sich an sechs definierten Nachhaltigkeitszielen orientiert:

  • Klimaschutz,
  • Anpassung an den Klimawandel,
  • nachhaltige Nutzung und Schutz von Wasser- und Meeresressourcen,
  • Übergang zur Kreislaufwirtschaft,
  • Vermeidung von Umweltverschmutzung sowie
  • Schutz und Wiederherstellung von Biodiversität und Ökosystemen.[2]

Bislang sind vor allem die Ziele Klimaschutz und Anpassung an den Klimawandel ausgearbeitet, während die anderen sukzessive folgen sollen. Eine wirtschaftliche Tätigkeit wird als nachhaltig gemäß der Taxonomie betrachtet, wenn sie wesentlich zu mindestens einem der sechs Ziele beiträgt, keine erheblichen Schäden an anderen Zielen verursacht und soziale Mindeststandards einhält.

Wenn ein KMU beispielsweise seine Verpackungen auf umweltfreundliche Materialien umstellt, seine Lieferkette auf faire Arbeitsbedingungen prüft oder erneuerbare Energien in seinen Betrieb integriert, könnte dies als nachhaltige Maßnahme gemäß der Taxonomie betrachtet werden. Um jedoch einen Mehrwert daraus zu ziehen, ist es wichtig, Kund:innen und Investor:innen über diese Maßnahmen zu informieren. Die Corporate Sustainability Reporting Directive (CSRD) für Unternehmen und die Sustainable Finance Disclosure Regulation (SFDR) für Finanzdienstleister und Investmentgesellschaften legen fest, wie über solche Initiativen berichtet werden soll. Im Wesentlichen erfordern sie einen nichtfinanziellen Bericht, der neben dem Geschäftsbericht Details wie Klimaschutzaktivitäten und ihre quantitativen Auswirkungen enthält.

EFRAG-Initiative – freiwilliger KMU-Standard für nachhaltige Berichterstattung

Die SFDR ist bereits in Kraft und zielt darauf ab, die Nachhaltigkeit von Finanzprodukten wie Investmentfonds transparent zu machen. Dies hat dazu geführt, dass sowohl Investmentgesellschaften als auch Verbraucher:innen vermehrt auf nachhaltige Investitionen setzen. KMU stehen jedoch noch vor Herausforderungen. Die CSRD-Vorschriften der EU müssen bis Juli 2024 in nationales Recht umgesetzt werden.[3] Dann wird voraussichtlich die Anzahl der Unternehmen, die einen Nachhaltigkeitsbericht vorlegen müssen, von derzeit 500 kapitalmarktorientierten Unternehmen auf 15.000 steigen, schätzt die Deutsche Industrie- und Handelskammer – und wird damit auch den deutschen Mittelstand betreffen.[4] Zunächst sind kleine und mittlere kapitalmarktorientierte Betriebe von der Berichtspflicht betroffen, später dann auch kleinere, nicht-kapitalmarktorientierte Unternehmen.

Um diesem Problem entgegenzuwirken, hat die European Financial Reporting Advisory Group (EFRAG), die die Europäische Kommission bei der Entwicklung von Nachhaltigkeitsstandards unterstützt, nun einen Entwurf für einen freiwilligen KMU-Standard (Voluntary SME Standard) vorgestellt.[5] Dieser Standard soll es KMU ermöglichen, Anfragen nach ESG-Informationen von größeren Unternehmen oder Finanzinstitutionen einheitlich zu beantworten. Der Erfolg dieses Standards hängt von der Selbstverpflichtung der größeren Marktteilnehmer ab. Eine Konsultation zum Voluntary SME Standard wird im Januar stattfinden, wobei die endgültigen Standards voraussichtlich bis Ende 2024 fertiggestellt sein werden und als Empfehlung veröffentlicht werden, um sich im Markt zu etablieren.

 

[1] https://www.bafin.de/DE/Aufsicht/Fokusrisiken/Fokusrisiken_2024/RIF_Trend_2_Nachhaltigkeit/RIF_Trend_2_Nachhaltigkeit_node.html
[2] https://www.bmuv.de/faqs/taxonomie-und-die-rechtliche-grundlage
[3] https://www.csr-in-deutschland.de/DE/CSR-Allgemein/CSR-Politik/CSR-in-der-EU/Corporate-Sustainability-Reporting-Directive/corporate-sustainability-reporting-directive-art.html
[4] https://www.dihk.de/de/ueber-uns/die-ihk-organisation/neue-nachhaltigkeitsberichterstattung-93090
[5] https://www.haufe.de/sustainability/strategie/konsultationsentwuerfe-esrs-kmu-veroeffentlicht_575772_614368.html

Die Produktionsplanung und -steuerung (PPS) hat das Ziel für eine hohe Auslastung und geringe Bestände zu sorgen, indem sie alle Vorgänge der Herstellung operativ, zeitlich und mengenmäßig plant, steuert und kontrolliert. Eine genaue Informationsgrundlage ist dafür essenziell. Maschinell lernende Systeme können einen wertvollen Beitrag liefern, um den Aufwand zur Informationsbereitstellung in PPS-Systemen zu reduzieren.

Wirkungsvolles Planen auf Basis einer genauen Informationsgrundlage

Die Produktionsplanung sorgt durch die zielgerichtete Terminierung von Produktionsaufträgen und Abstimmung der Kapazitäten der Produktionsressourcen dafür, dass eine hohe Termintreue sowie Produktivität des Produktionssystems erzielt wird und dabei die Bestände niedrig gehalten werden. Sie kann jedoch nur dann wirkungsvoll durchgeführt werden, wenn die in den Informationssystemen der PPS bereitgestellten Informationen, die die Eigenschaften der Produktionsressourcen beschreiben, möglichst genau sind. Weichen die tatsächlichen Ist-Daten von den Plan-Daten ab, führt das zu negativen Auswirkungen wie nicht eingehaltene Termine, eine geringere Auslastung der Produktionsressourcen oder wie die nötige Einplanung von Pufferzeiten, die wiederum einen höheren Bestand mit sich bringen.

Gerade die Bestände werden als Reaktion auf ein regelmäßig ungenaues Planungsergebnis schrittweise erhöht. Das führt dann zu stärkeren Planabweichungen, die sich immer weiter negativ auswirken – eine Abwärtsspirale, die der „Fehlerkreis der PPS“ genannt wird. Transparenz über die Prozesse in der Produktion und realistischere Plan-Daten sind entscheidend, um gar nicht erst in solche Situationen zu gelangen.

Aufwendige Abbildung von Produktionsressourcen

Zur informationstechnischen Unterstützung werden in der Produktionsplanung Informationssysteme wie ERP-, ME- und APS-Systeme sowie Materialflusssimulationsmodelle eingesetzt. In diesen PPS-Systemen werden die Produktionsressourcen, auf denen die Vorgänge der Produktionsaufträge eingeplant werden (z. B. Maschinen und Anlagen), mit ihren Eigenschaften wie Rüst- und Bearbeitungszeiten, Fehlerraten sowie Verfügbarkeiten, abgebildet. Die Eigenschaften müssen für ein gutes Planungsergebnis möglichst genau durch die hinterlegten Informationen beschrieben werden. Vorgabewerte, die auf Grundlage von technologischen Vorgaben oder durch Schätzungen von Expert:innen ermittelt werden, weichen häufig von den tatsächlichen Ist-Daten ab. Sinnvoll ist deshalb, die nötigen Informationen durch eine Datenanalyse anhand von erfassten Betriebsdaten zu beschaffen. So lassen sich die Produktionsaufträge realistischer planen.

Ressourcenparameter wie Rüst- und Bearbeitungszeiten, Fehlerraten sowie Verfügbarkeiten können stark streuen, da unterschiedliche Vorgangsvorgaben wie bestimmte Produktmerkmale oder variierende Prozessbedingungen wie die Beschaffenheit der Produktionsressourcen (z. B. Abnutzungserscheinungen) auftreten. Einfach einen Durchschnittswert zu ermitteln würde die Realität also nicht genau abbilden. Einflussgrößen, die für die Planung ermittelt werden können, sollten somit berücksichtigt werden. Die fortschreitende Digitalisierung und das Industrielle Internet der Dinge (IIot) verschaffen hier Möglichkeiten für eine detailliertere Datengrundlage. Wird beispielsweise an der jeweiligen Produktionsressource ein Vorgang rückgemeldet, können unter anderem spezifische Rüstzeiten den Vorgänger- und Nachfolgerprodukten oder Bearbeitungszeiten den Produktmerkmalen zugeordnet werden. Weitere Parameter wie Maschinenzustände und -beschaffenheiten lassen sich mittels Sensoren erfassen und mithilfe von Vernetzungslösungen direkt in der PPS-Software nutzen.

Weil sich Prozessbedingungen im Laufe der Zeit außerdem wandeln können, ist eine kontinuierliche Datenerfassung und -auswertung nötig. Der Aufwand dafür ist entsprechend hoch. Eine automatisierte Informationsermittlung kann helfen, die Aufwände zu verringern.

Automatisierte Informationsermittlung durch maschinelles Lernen

Ein Lösungsansatz, eine solche kontinuierliche Datenanalyse zu automatisieren, ist das maschinelle Lernen. Algorithmen ermitteln dabei aus den erfassten Betriebsdaten die benötigten Informationen und deren Zusammenhänge zu den genannten Einflussgrößen. Überwachte Lernverfahren, die für diesen Zweck angewendet werden, haben sich als verlässliche Methoden erwiesen.

Zunächst wählen Expert:innen auf Basis ihres Wissens aus, welche Zusammenhänge und Daten relevant erscheinen. Der Aufwand nicht benötigte Daten zu erfassen wird so möglichst gering gehalten und die Abbildung von nicht-kausalen Korrelationen kann vermieden werden.
Außerdem ist eine definierte Datenstruktur, die vorgibt, wie die unterschiedlichen Betriebsdaten einheitlich erfasst werden können, Voraussetzung für die Verarbeitung dieser Daten durch einen Lernalgorithmus. Für die Bestimmung der Parameter der Produktionsressourcen bieten sich beispielsweise Entscheidungsbäume als maschinelles Lernverfahren an. Der Entscheidungsbaum bildet für alle auftretenden Kombinationen die aus den Ist-Daten ermittelten Plan-Daten ab (z. B. Produktmerkmal x mit Maschinenzustand y führt zu Plan-Wert z).
Die nötige laufende Anpassung an die sich ändernden Bedingungen kann in einem festen Zyklus durchgeführt werden. Das passiert dann ohne Aufwand automatisch im System.

Informationsbereitstellung durch die Verwaltungsschale

Doch wie können die ermittelten Plan-Daten schließlich im PPS-System genutzt werden? Die sogenannte Verwaltungsschale ermöglicht dem PPS-System, die Plan-Daten über eine vereinheitlichte Schnittstelle abzurufen – so wird Interoperabilität möglich. Die Verwaltungsschale kann als eine schlanke Datenbank verstanden werden, die eine einzelne Produktionsressource beschreibt und von verschiedenen Software-Systemen genutzt werden kann.

Davor sind die Daten durch das maschinelle Lernverfahren schon zu Informationen verarbeitet worden. Ein Beispiel: Ein Sensor an einer Produktionsmaschine misst die Geschwindigkeit der Antriebswelle als Zeitreihe. Diese Werte werden vorverarbeitet zum Beispiel um den Maschinenzustand (läuft/steht) zu erfassen und im nächsten Schritt mithilfe des Algorithmus die Auslastung pro Monat (Verhältnis produktiv zu Stillstand) zu ermitteln. Diese Informationen werden in der Verwaltungsschale strukturiert zur Verfügung gestellt – d. h. mit einer einheitlichen Bezeichnung an einer definierten Stelle – und von verschiedenen Software-Systemen (z. B. MES, ERP-System) genutzt.

Die Möglichkeit, Informationen über die reale Produktionsressource anhand von aktuell erfassten Daten abzubilden, entspricht außerdem der Idee des digitalen Zwillings.

Für die Produktionsplanung ergeben sich mithilfe von maschinellem Lernen und der Verwaltungsschale deutliche Vorteile: Die Informationsgrundlage, anhand der die realistischen Plan-Werte bestimmt werden, ist nicht nur aktuell und detailliert, sondern der Aufwand, um diese Informationen bereitzustellen dabei auch noch verhältnismäßig gering.

Sie möchten in Ihrem Unternehmen KI-Methoden einsetzen? Dann sollten Sie zuerst Ihren Datenbestand in den Blick nehmen. In diesem Beitrag erfahren Sie, welche Rolle die Datenbasis für die erfolgreiche Umsetzung von KI-Projekten bei kleinen und mittleren Unternehmen (KMU) spielt.

Das Schlagwort „Künstliche Intelligenz“ (KI) ist längst auch im deutschen Mittelstand angekommen: Vom Einsatz von sogenannten Machine-Learning-Modellen wie Random Forest oder Deep-Learning-Modellen wie neuronalen Netzen können nicht nur große Unternehmen wie Amazon, Google oder Zalando profitieren, auch bei KMU gibt es zahlreiche Möglichkeiten. Beispielhaft seien hier Personal-Einsatz-Planung und Optimierung von Produktionsabläufen genannt. Aber auch die Disposition kann mithilfe von KI optimiert werden und so manuellen Bearbeitungsaufwand und Einkaufs- sowie Lagerkosten einsparen. In immer mehr mittelständischen Unternehmen rückt dieses Thema in den Fokus und es werden erste Projekte zur KI-Anwendung für spezifische Use Cases auf den Weg gebracht. Wofür es häufig noch an Bewusstsein fehlt, ist die Bedeutung der Datenbasis.

KI-Modelle müssen „lernen“

Die meisten KI-Modelle sind stark abhängig von der Menge und der Qualität der vorliegenden Daten. Sollen beispielsweise mithilfe von sogenannten rekurrenten neuronalen Netzen zukünftige Absätze prognostiziert werden, ist es nötig, dass eine Datenhistorie vorliegt, also Aufzeichnungen über vergangene Absätze. Diese Art von Daten, bei denen eine zeitliche Abhängigkeit zwischen aufeinanderfolgenden Beobachtungen besteht, nennt man in der Statistik Zeitreihe.

Ein KI-Prognosemodell kann auf vergangenen Absätzen lernen, wie sich diese über die Zeit verändern. Dieses Lernen der Muster und Abhängigkeiten in den Daten nennt man das Trainieren des Modells. Je weniger vergangene Daten vorliegen, desto weniger kann das Modell auch aus der Vergangenheit lernen. Besonders zum Tragen kommt dies bei saisonalen Einflüssen, z. B. wiederkehrenden jährlichen Verläufen. Damit diese aus den Daten erkannt werden können, müssen vollständige Zyklen aufgezeichnet sein. Ein Beispiel: Damit ein Modell rein aus den Daten erkennt, dass beispielsweise Sonnencreme vor allem im Sommer verkauft wird, müssen die Sonnencreme-Verkäufe aus mehreren vergangenen Jahren vorliegen.

Bleiben wir beim Beispiel der Absatzprognose. Um Absätze vorherzusagen, kann es sehr hilfreich sein, zusätzliche Informationen zu den vergangenen Absätzen zu betrachten. Häufig spielen zeitliche Aspekte eine Rolle, wie Wochentage oder die Jahreszeit. Erfahrene Dispositionsmitarbeitende wissen beispielsweise, dass vor dem Schulstart die Verkäufe an Heften und Stiften steigen. Damit das Prognosemodell diesen Zusammenhang ebenfalls lernen kann, muss die Information über den anstehenden Schulstart in den Daten hinterlegt sein, z. B. über eine Monatsangabe. Andere Aspekte können Rabattaktionen oder Werbekampagnen sein, die die Verkäufe ankurbeln. Sind diese nicht in den Vergangenheitsdaten hinterlegt, kann das KI-Modell den Effekt dieser Marketingmittel nicht erkennen und so auch nicht vorhersagen, wie sich die Absätze bei einer zukünftigen Aktion verhalten werden.

Welche Daten sind für mich relevant und wie erhebe ich sie?

Um also die Potenziale von KI voll zu nutzen, ist es sinnvoll, im Vorfeld ein Konzept zur Datenerhebung und -sammlung aufzustellen. Dazu zählt die Analyse, welche Daten für die vorliegende Fragestellung relevant sind, aber auch, wie diese erhoben und so abgespeichert werden können, dass sie für Auswertungen und KI-Anwendungen verwendet werden können. Eventuell werden Marketingkampagnen schon getrackt, allerdings nur mithilfe eines Kalenders oder einer lokal abgelegten Excel-Tabelle. Viel besser ist es, wenn auch diese Daten zentral gespeichert werden, sodass sie zusammen mit den Absatzdaten direkt ausgelesen und zusammengeführt werden können.

Ein entscheidender Faktor dafür ist, dass das ERP-System flexibel genug ist, um an die Bedürfnisse des Unternehmens angepasst zu werden. Dabei spielt es erst einmal keine Rolle, ob es sich um eine eigens programmierte IT-Lösung handelt oder ein ERP-System eines großen Anbieters eingekauft wurde. Wichtig ist nur, dass es für das Unternehmen mit annehmbarem Aufwand möglich ist, zusätzlich Daten zu erfassen und Daten auch unkompliziert zu exportieren. Ebenfalls sollten gewisse Qualitätskriterien klar sein:

  • Wie können menschliche Schwächen wie Tippfehler vermieden werden, z. B. durch Automatisierung?
  • Gibt es Pflichtfelder, die hinterlegt werden müssen, und optionale, die nur unter bestimmten Umständen relevant sind?
  • Werden leere Felder durch Standardwerte gefüllt?
  • Können wir auf Konsistenz in den Eingaben prüfen und so frühzeitig Fehler vermeiden?
  • Was passiert, wenn Fehler korrigiert werden müssen?

Dabei sollte auch immer der Arbeitsaufwand bzw. die Bedienbarkeit durch Mitarbeitende mitgedacht werden. Felder und Spalten müssen so benannt werden, dass klar ist, welcher Eintrag gefordert ist. Wo möglich sollten Einträge automatisch gefüllt oder Menüs mit Auswahlmöglichkeiten integriert werden. Ist den Mitarbeitenden der Nutzen dieser Daten nicht klar oder bedeutet das Erheben einen großen Mehraufwand in ihrer täglichen Arbeit, droht die Gefahr, dass Einträge fehlerhaft sind oder ganz fehlen. Sind dies nicht nur Ausnahmen, sondern ist ein größerer Anteil der Daten fehlerhaft, wird ein KI-Modell Zusammenhänge fehlerhaft lernen. Die Motivation der Mitarbeitenden spielt also auch für die Datenerhebung eine zentrale Rolle.

Ein Beispiel für diese Gefahr ist das Erfassen von Nein-Verkäufen, also Anfragen von Kunden, welche aufgrund von fehlender Verfügbarkeit nicht bedient werden können. Für Unternehmen ist es eine enorm wichtige Information, wie häufig und unter welchen Umständen eine Kundennachfrage nicht erfüllt werden konnte. Sind Mitarbeitende allerdings nicht ausreichend geschult oder haben sie Angst, dass Nein-Verkäufe für die Bewertung ihrer Arbeit eine negative Rolle spielen könnten, werden diese nicht korrekt erfasst. Eine mögliche Konsequenz ist, dass die Prognose der Kundennachfrage auf Basis der reinen Verkaufszahlen die tatsächliche Nachfrage unterschätzt. So werden auch in Zukunft nicht mehr Artikel auf Lager gelegt und das wahre Umsatzpotenzial wird nicht erreicht.

Grundlage, um verschiedene anfallende Daten im Unternehmen von unterschiedlichen Mitarbeitenden korrekt zu erfassen und für Auswertungen nutzbar zu machen, ist eine Dokumentation des Systems bzw. der Datenstruktur. Das Aufstellen einer detaillierten Dokumentation scheint zunächst einen unnötig hohen Aufwand zu bedeuten. Allerdings lassen sich so langfristig Zeit und Ressourcen sparen. Wissen zum ERP-System und der Datenstruktur ist somit nicht an einzelne Mitarbeitende gebunden. Nicht nur innerhalb des Unternehmens können so die Monitoring- und Analysepotenziale auf Basis der Daten besser genutzt werden, auch für KI-Projekte mit externen Partnern stellt dies einen großen Vorteil dar. So lässt sich der Zeitaufwand in der ersten Phase eines KI-Projekts, in der ein gemeinsames Verständnis der Datenbasis geschaffen werden muss, stark verringern. Außerdem sind so die Informationen gesichert, sodass auch nach Personalwechsel problemlos vorhandene Systeme weiter genutzt werden können.

Das Beispiel Absatzprognose

Gerade wenn es um Prognosefragestellungen geht, sind meistens zwei Arten von Daten interessant:

  • zeitabhängige (dynamische) Daten, auch Bewegungsdaten genannt, wie z. B. Absatz- und Auftragsdaten, Feiertage, Ferien, Wochentage, aber auch Wetterdaten oder Rohstoffpreise
  • statische Daten (Stammdaten), die sich nicht über die Zeit verändern, aber sich zwischen den Zeitreihen unterscheiden. Beim Absatzprognose-Beispiel können das Eigenschaften sein, wie Artikelgruppenzugehörigkeiten, die Einteilung in Saison- und Nicht-Saisonware, Warenumfang, Gewicht usw.

All diese Daten können als relevante Eingangsdaten einem Modell übergeben werden, um auf dieser Basis die Absätze noch besser prognostizieren zu können als nur mit Blick auf die vergangenen Absätze. Gerade bei Bewegungsdaten ist es also sinnvoll, sich frühzeitig Gedanken zu machen, wie diese aufgezeichnet und abgespeichert werden können.

Eine große Herausforderung bei Prognosen allgemein ist, gute Vorhersagen auch für Fälle zu treffen, in denen noch keine oder nur wenige vergangene Werte vorliegen. Wie prognostiziert man beispielsweise die Absätze eines neu eingeführten Artikels? Eine große Hilfe ist dabei, wenn Informationen zu Ähnlichkeiten zwischen Artikeln vorliegen. Nimmt man eine neue Marke Schrauben ins Sortiment auf, wird sich diese eher verkaufen wie andere Schrauben, d. h. in ähnlichen Mengen und in ähnlicher Häufigkeit, als Wärmepumpen. Sind diese Ähnlichkeiten hinterlegt, z. B. indem jedem Artikel eine Gruppe zugeordnet ist („Schrauben“, „Rohre“, „Fußleisten“, etc.), können die Artikel allein aus den Daten gruppiert werden, ohne dass hier aufwendig das Fachwissen aus dem Unternehmen an die beauftragen KI-Expert:innen durch Workshops, Interviews oder lange Befragungen extrahiert werden muss.

So ist es also möglich, mehrere Prognosemodelle zu trainieren, die jeweils auf eine Gruppe angepasst sind. Das Schrauben-Prognosemodell kann gut die zukünftigen Absätze von Artikeln vorhersagen, die zur Gruppe Schrauben zählen. Und da das Modell auf den Daten von Schrauben trainiert wurde, kann es auch sinnvolle Prognosen für eine neue Schraubenart im Sortiment erstellen.

Eine weitere Möglichkeit, wie sogenannte Hierarchien in den Daten wertvolle Beihilfe leisten können, sind konsistente Prognosen über mehrere Aggregationsebenen. Damit die strategische und die operative Planung zusammenpassen ist es z. B. wichtig, dass sich die Prognosen auf Monatsebene zu den Prognosen auf Jahresebene aufaddieren. Gleichzeitig soll auf keiner Aggregationsebene die Prognose an Genauigkeit verlieren. Ein weiteres Beispiel ist die Aggregation über mehrere Standorte des Unternehmens. Hier sind diejenigen Unternehmen im Vorteil, welche unternehmensweit einheitliche Datenformate etablieren, sodass Daten leicht zusammengeführt werden können.

Fazit – Datenfrage immer mitdenken

Für den Einsatz von KI in KMU gibt es also zwei Möglichkeiten: Entweder ein Use Case wird aus den bereits zur Verfügung stehenden Daten abgeleitet oder aber aus dem angestrebten Use Case entstehen Anforderungen an eine Datenbasis. In beiden Fällen muss die Datenfrage immer mitgedacht werden. Da sich die Performance der meisten KI-Modelle mit der Menge an bereitgestellten Trainingsdaten verbessert, muss dies in der Zeitplanung von KI-Projekten berücksichtigt werden, gerade wenn historische Verlaufsdaten verwendet werden sollen. Insbesondere bei KMU ist es wichtig, ein passendes Datenkonzept zu erstellen, das mit den vorhandenen Ressourcen umgesetzt werden kann und diejenigen Anwendungsfälle für KI ermöglicht, die dem Unternehmen den größten Vorteil verschaffen. Deshalb sollte dieses Datenkonzept bereits zusammen mit KI-Expert:innen erarbeitet werden.

Sie brauchen Hilfe bei der Erstellung eines Datenkonzepts? Unsere Expert:innen können Sie kostenfrei im Rahmen einer Potenzialanalyse oder eines Projekts unterstützen!

Weitere Infos zu Potenzialanalysen und Projekten

Gesellschaftliche Herausforderungen wie Nachhaltigkeit, Endkundenansprüche und Wettbewerbsfaktoren wie eine effektive Qualitätssicherung fordern von Unternehmen der Lebensmittelindustrie neue Lösungen. KI-basierte Dienste können nicht nur einzelnen Betrieben, sondern auch Wertschöpfungsnetzwerken helfen, diese umzusetzen.

Warum KI?

Der Vorteil von Verfahren auf Basis von Künstlicher Intelligenz (KI) liegt darin, dass sie komplexe Zusammenhänge erfassen, verarbeiten und neue Entwicklungen lernen sowie berücksichtigen können. So können sie Entscheidungen optimieren, bei denen übliche Prozesse an ihre Grenzen stoßen.

In der Bestandsüberwachung und einer intelligenten Logistik für Nachbestellungen sorgen KI-Dienste beispielsweise dafür, überfüllte Bestände zu vermeiden. Wetter- und Suchdienst-Daten können Kundenpräferenzen vorhersagen, wodurch die Verkaufsmenge geplant werden kann. An sonnigen Tagen wird zum Beispiel der Absatz von Grillgut höher sein, als in einer Regenperiode. In der Qualitätssicherung kommen Computer-Vision-Systeme zum Einsatz, die vor Abweichungen warnen und Korrekturen der Einstellungen empfehlen. Maschinelles Lernen, ein Teilgebiet von KI, wird auch von mittelständischen Unternehmen in der Maschinenüberwachung eingesetzt – so gibt die KI Empfehlungen, die Mitarbeitende dann einstellen können.

In außerordentlich komplexen Konstellationen kommen die Potenziale von KI jedoch besonders zum Tragen: dort, wo Unternehmen gemeinsam versuchen, gesellschaftlichen Herausforderungen zu begegnen. Auf Lebensmittel- und Ressourcenverschwendung wirken sich beispielsweise so viele Faktoren aus, dass intelligente Systeme nötig sind, um sie zu reduzieren. KI-Plattformen können hier Unternehmen in der Lebensmittelindustrie helfen, Verschwendungen zu minimieren und gleichzeitig Gewinne zu maximieren.

Wie funktioniert’s?

Eine Supermarktkette sammelt alle Daten, die für eine intelligente Optimierung der Plan- und Steuerbarkeit der Filialen erforderlich sind. Daraus wird ein virtuelles Abbild einer jeden lokalen Filiale erstellt, das die zukünftige Kaufentwicklung simulieren kann. Neben unternehmensinternen Zuständen und externen Einflüssen wie Google-Trends oder Wetterdaten, die eine Produktnachfrage vorhersagen, berücksichtigen die KI-Services auch das Einkaufsverhalten der Kund:innen je Filiale und Produkt, etwa ihre Reaktionen auf Preisanpassungen.

Durch die Simulation der Endfiliale erhält die Supermarktkette Informationen, durch die sie

  • die laut KI genau richtige Menge zum richtigen Preis vorrätig hat – beispielsweise, um Produkte nah am Mindesthaltbarkeitsdatum noch zu verkaufen – sowie
  • schneller auf externe Einflüsse wie lokale Veranstaltungen reagieren und
  • eine gewinnmaximierende Preisgestaltung der Produkte möglich machen kann.

Erst durch die KI-Verfahren mit datenintensiven Lernprozessen können filial- oder sogar unternehmensübergreifend alle Faktoren berücksichtigt und Handlungsalternativen wie Mengenanpassungen nach Nachhaltigkeitskriterien bewertet werden.

Hemmend wirkt sich auf ein solches Zusammenarbeiten eine traditionelle Skepsis seitens der Unternehmen aus, interne Daten weiterzugeben. Daher muss der Nutzen für die einzelnen Unternehmen bei solchen Projekten klar erkennbar sein. Um modernen Nachhaltigkeitsherausforderungen zu begegnen, müssen Unternehmen allerdings auch die Bereitschaft entwickeln, für ein Zusammenarbeiten Daten auszutauschen.

Das Projekt Resource-efficient, Economic and Intelligent Food Chain (REIF) mit 18 Projektpartnern zeigt beispielhaft, wie mithilfe von KI Mehrwerte zur Vermeidung von einer Lebensmittelverschwendung generiert werden können.

Mitarbeitende stehen heutzutage vor immer neuen Herausforderungen, die unter anderem durch die digitale Transformation hervorgerufen werden. Wie Sie Ihre Mitarbeitenden dabei unterstützen können, erfahren Sie im Beitrag.

Die Rahmenbedingungen für Mensch, Unternehmen und Wirtschaft ändern sich immer schneller: In kürzeren Abständen kommen technische Innovationen auf den Markt, die Welt wird komplexer und unübersichtlicher, die Globalisierung führt zu einer zunehmenden Vernetzung und interkulturellen Zusammenarbeit. Hinzu kommen der den Arbeitsmarkt verändernde demografische Wandel, Wirtschaftskrisen und ein sich rasant verändernder Wettbewerb.

Nicht nur Führungskräfte müssen hierbei neue Rollen einnehmen, auch die Mitarbeitenden stehen vor der Herausforderung neue Aufgaben zu bewältigen und sich hierfür neue Kompetenzen aneignen zu müssen. Letztlich geht es dabei auch um eine Anpassung an die Digitalisierung: Neue Technologien verändern den Arbeitsplatz von Mitarbeitenden und fordern neue Kompetenzen sowie ein neues Verständnis von Arbeit. Diese Umstände erzeugen bei vielen Mitarbeiter:innen Unsicherheit und Widerstand, denn: Herausforderungen, die nicht als bewältigbar angesehen werden, erzeugen Stress und demotivieren.

Mitarbeitende bei Veränderungen mitnehmen

Nicht zuletzt durch die Pandemie wurden in den letzten Jahren mehr und mehr Arbeitsplätze „digitalisiert“ – durch die Nutzung von digitaler Kommunikation und Kollaboration wie Microsoft Teams oder anderen Enterprise Collaboration Systems wird nicht nur die Kommunikation virtuell und somit ortsungebunden, sondern auch Arbeitsabläufe und -prozesse können zeitgleich von unterschiedlichen Standorten aus komplett virtuell abgebildet und bearbeitet werden. Diese Einführung neuer Technologien sowie neuer Arbeitsplatzkonzepte (beispielsweise mobiles Arbeiten oder Activity Based Working) ist stets mit einer grundsätzlichen Veränderung für Unternehmen und Mitarbeitende verbunden. Diese Veränderungen kommen immer öfter und schwerwiegender vor.


Enterprise Collaboration Systems (ECS; Schubert & Williams, 2013) sind Kommunikations- und Kollaborationstools und -softwares wie JIRA, Microsoft Teams etc., die ortsunabhängige Kommunikation und paralleles Arbeiten an Dokumenten und Projekten ermöglichen. Sie werden für die Kommunikation, Projektorganisation und für das Wissensmanagement eingesetzt (Koch & Richter, 2009).

Activity Based Working ist ein Begriff für Arbeitsplatzkonzepte, meist in Büroumgebungen, die durch ihre Flexibilität und ihrem Design Aktivität, Kreativität und Leistungsfähigkeit fördern sollen.


Durch die Beschleunigung neuer technologischer Innovationen schreitet die Digitalisierung aller relevanten Lebens- und Arbeitsbereiche rasant voran und die Krisen der heutigen Zeit geben dem weiteren Weg eine höhere Unsicherheit. Diese Umstände sind auch gemeinhin als „VUKA-Welt“ bekannt. VUKA beschreibt mit den Begriffen Volatilität, Unsicherheit, Komplexität sowie Ambiguität sich schnell ändernde Bedingungen:

  • Volatilität (= Veränderungen innerhalb einer kurzen Zeitspanne)
  • Unsicherheit (= Unvorhersehbarkeit von Veränderungen)
  • Komplexität (= Vielschichtigkeit, Vernetzung)
  • Ambiguität (= Mehrdeutigkeit)

Für Unternehmen bedeutet VUKA letztlich jederzeit auf Veränderungen vorbereitet sein zu müssen, wobei Changemanagement einen wichtigen Beitrag zur Unterstützung bei Veränderungsprozessen leisten kann. Im Changemanagement wird vor allem Vertrauen als ein wesentlicher Faktor angesehen. Damit Vertrauen aufgebaut werden kann, sind Kommunikation und Transparenz äußerst wichtig. Nur durch eine zielgerichtete, kontinuierliche und vorausschauende Kommunikation können Missverständnisse, Ablehnung und Ärger vermieden oder Ängste abgebaut werden. Gleichzeitig sind die Sorgen und Ängste der Mitarbeitenden zu erfragen und ernst zu nehmen, um die Veränderungsbereitschaft zu erhöhen.

Die Mitarbeitenden sollten aktiv in den Veränderungsprozess involviert werden. Durch die aktive Beteiligung der Mitarbeitenden kann die Identifikation mit dem Veränderungsprojekt und damit die Motivation gesteigert werden. Den Mitarbeitenden kann hierbei Handlungsspielraum, z. B. bei der Entscheidungsfindung, eingeräumt werden. Für einen erfolgreichen Change ist es zudem wichtig zu überlegen, welche Kompetenzen Mitarbeitende und Führungskräfte für die Veränderung brauchen und diese zu fördern. Hier bedarf es guter Führung in der Digitalisierung.

Passender Führungsstil in der digitalen Transformation

Die Digitalisierung verändert nicht nur die Art des Wirtschaftens und Arbeitens, sondern auch die Art und Weise, wie wir Unternehmen führen – man spricht deshalb auch von Führung 4.0. Doch was ist mit Führung in Unternehmen eigentlich gemeint? „Führung umfasst die Fähigkeiten, Mitarbeiter optimal einzusetzen, diese zum Handeln zu bringen und zu motivieren sowie ihnen eine Richtung aufzuzeigen, um ein (gemeinsames) unternehmensrelevantes Ziel zu erreichen“ (Deutsche Gesellschaft für Personalführung e. V., 2016).

Führung ist jedoch nicht gleich Führung! Gerade für die digitale Transformation müssen traditionelle Vorstellungen von Führung hinterfragt und wenn nötig an die Veränderungen, die die Digitalisierung im Unternehmenskontext mit sich bringt, angepasst werden. Das Bild der klassischen Führungskraft, die in streng hierarchischen Strukturen delegiert, hat offenbar ausgedient. Mitarbeitende in einer agilen und auf Flexibilität ausgerichteten Arbeitswelt haben mittlerweile völlig andere Ansprüche an Führungskräfte. Dadurch ergeben sich nicht nur neue Rollen für eine Führungskraft, sondern auch neue Führungsstile.

Man unterscheidet zwischen eher klassischen und eher modernen Führungsstilen. Klassische Führungsstile (direktive, transaktionale und strategische Führung) zeichnen sich dadurch aus, dass die Führungskraft Aufgaben delegiert, die Zielerreichung überprüft und Feedback einholt. Den Mitarbeitenden wird wenig Handlungsspielraum gelassen und sie werden entsprechend ihrer Leistung gelobt oder kritisiert. Moderne Führungsstile (Laissez-faire-Führung, ethische Führung und transformationale Führung) sind dadurch gekennzeichnet, dass die Führungskraft Vertrauen in die Arbeit der Mitarbeitenden hat und Ziele und Visionen kommuniziert. Die Mitarbeitenden haben einen großen Handlungsspielraum und arbeiten eigenverantwortlich.

Auf die Frage, was letztendlich der richtige Führungsstil ist, gibt es keine pauschale Antwort. Welcher Führungsstil gewählt wird, hängt vom jeweiligen Unternehmen und seiner Unternehmenskultur, den Arbeitsaufgaben, den Mitarbeitenden sowie dem Umfeld ab. In den meisten Unternehmen findet sich eine Mischung aus verschiedenen Führungsstilen. Dabei existieren drei Referenzdimensionen für Führung:

  1. Führung spielt sich in einer ganz bestimmten Umwelt ab, heutzutage häufig einer VUKA-Welt.
  2. Führung spielt sich innerhalb einer Organisation mit bestimmten Organisationsstrukturen und einer für die Organisation typischen Unternehmenskultur ab.
  3. Führung spielt sich in der Interaktion mit den Mitarbeitenden ab.

Wie sieht die optimale Führung in Zeiten der Digitalisierung also aus? Digital Leadership scheint ein neuer Führungsstil zu sein, durch den die digitale Transformation im eigenen Unternehmen begleitet und vorangetrieben wird, mit dem Ziel, die Unternehmensprozesse agiler und flexibler zu gestalten, wobei die Anforderungen der VUKA-Umwelt berücksichtigt werden.

Digital Leadership setzt das Verständnis digitaler Technologien und ihrer Logik voraus. Dabei werden die aktuellen technologischen Entwicklungen auf den eigenen Unternehmenskontext übertragen und genutzt, um das Zusammenspiel von Mensch, Technik und Organisation zu verbessern. Die Mitarbeitenden werden im Übergang von einer analogen zu einer digitalen Arbeitswelt von der Führungskraft begleitet.

Wie Sie Mitarbeitenden im Stress helfen können

Die Veränderungen der Arbeitswelt, die mit der Digitalisierung einhergehen, wirken sich nicht nur auf Organisations- und Führungsebene aus, sondern auch auf Seiten der Mitarbeitenden. So können, wie bereits eingangs beschrieben, die rasanten Veränderungen zu Stresssituationen führen.


Stress: Unter Stress wird die starke Beanspruchung eines Organismus durch innere oder äußere Reize verstanden (Bundeszentrale für gesundheitliche Aufklärung BZgA, 2022)


Zum einen dadurch, dass ein Ungleichgewicht zwischen steigenden Leistungsanforderungen und tatsächlichen oder wahrgenommenen Kompetenzen entsteht. Zum anderen können auch dauerhafte Erreichbarkeit oder steigende Komplexität der Aufgaben und Arbeitsverdichtung zu Stresserleben führen. Die Folgen von nicht bewältigtem Stress reichen von kurzfristigen körperlichen, emotionalen oder verhaltensbezogenen Reaktionen (z. B. Gereiztheit, Konzentrationsmangel, Schlafstörungen, Erschöpfung) bis hin zu langfristigen körperlichen oder psychischen Erkrankungen (z. B. Burn-Out-Syndrom).

Dieser Zusammenhang spiegelt sich auch in den steigenden Krankheitstagen von Beschäftigten wider, die auf stressbedingte psychische Erkrankungen zurückzuführen sind. Folglich sollten die durch die Digitalisierung ausgelösten Stressbelastungen ernst genommen und die psychosoziale Gesundheit der Mitarbeitenden gefördert werden. Was also kann dafür in der Organisation getan werden?

Generell empfiehlt sich vor der Einführung etwaiger gesundheitsfördernder und stressreduzierender Maßnahmen zunächst eine Ist-Analyse. Hierbei werden gegenwärtige Stressoren am Arbeitsplatz bzw. im Unternehmen identifiziert und können damit gezielt verbessert werden. Dies kann beispielsweise in Form einer Arbeitsplatzanalyse oder Gefährdungsbeurteilung psychischer Belastungen durch Expert:innen geschehen. Möchte man die Stressphänomene im Arbeitsumfeld präventiv (d. h. bereits vor deren Entstehung) verhindern bzw. minimieren, kann auf verschiedenen Ebenen angesetzt werden:

  • Mitarbeitende: Förderung des Bewusstseins der Mitarbeitenden für deren Stressoren und Aufzeigen von gezielten stressreduzierenden Maßnahmen

Obwohl für diese Maßnahmen vornehmlich die Mitarbeitenden selbst verantwortlich sind, kommt aufgrund ihrer Fürsorgepflicht auch hier der Organisation eine wichtige Rolle zu. So könnte der Arbeitgeber beispielsweise durch offene Angebote von Gesundheitskursen oder -trainings die psychosoziale Gesundheit der Mitarbeitenden fördern.


  • Organisation: Umgestaltung des Arbeitsumfelds und -platzes im Hinblick auf technische, organisatorische und/oder soziale Bedingungen
  • Schnittstelle zwischen Organisation und Mitarbeitenden: Kombination von Maßnahmen beider Ebenen

Obwohl im Zeitalter der Digitalisierung mehr technische Hilfsmittel und Algorithmen als jemals zuvor zum Einsatz kommen, ist es wichtiger denn je, eine Organisation menschzentriert zu führen und Mitarbeiterinnen und Mitarbeiter zur Partizipation und einem gesunden Arbeiten zu befähigen. Nur mit der Akzeptanz und der Motivation von Mitarbeiterinnen und Mitarbeitern gelingt die Transformation zu einer digitalen und resilienten Organisation.

Digitale Dienstleistungen und Services gewinnen im Bereich der Unternehmensfinanzierung immer mehr an Bedeutung. Mittlerweile besteht die Möglichkeit, Finanzierungen über Online-Kreditplattformen abzuwickeln. Diese Art der Finanzierung ist für kleine und mittlere Unternehmen (KMU) aber noch eine große Ausnahme. Welche Potenziale die digitale Finanzierungsalternative bietet, soll hier dargestellt werden.

Finanzierung im Mittelstand im Umbruch

Während der Corona-Pandemie erlebte das Thema Digitalisierung einen Auftrieb – insbesondere bei der Kreditgenehmigung und -vergabe. Denn gerade in den vergangenen Monaten wurde deutlich, wie existenzsichernd schnelle Kreditzusagen vor allem für kleine und mittlere Unternehmen mit Liquiditätsengpässen sind. Damit Betriebe laufenden Kosten beispielsweise mit Hilfe eines Betriebsmittelkredits decken oder Investitionen realisieren können, ist schnelles Fremdkapital unabdingbar, wenn die unternehmenseigenen Eigenkapitalreserven krisenbedingt schwinden.

Geprägt durch eine langjährige Geschäftsbeziehung ist dabei die Hausbank die erste Anlaufstelle vieler KMU. Doch gerade kleinere Unternehmen benötigen geringere Kreditvolumen, die jedoch aufgrund der internen Kostenstruktur für Banken oft nicht rentabel sind. Auch ist die Bereitschaft zur Kreditvergabe der Hausbank oftmals an Sicherheiten und eine bestimmte Höhe des Eigenkapitals geknüpft.

Das Angebot an digitalen Alternativen wächst jedoch und so haben sich mittlerweile neue Finanzierungsmöglichkeiten wie digitale Kreditplattformen entwickelt. Unter dem Begriff Online-Kreditplattform werden digitale Plattformen zur Beschaffung von externen Finanzierungsmitteln zusammengefasst.[1]

Kreditplattformen im Überblick

Online-Kreditplattformen lassen sich im Wesentlichen in drei Arten unterteilen: Vergleichsplattformen, Vertriebsplattformen und Kreditmarktplätze.[2]

Vergleichsplattformen unterstützen bei der Suche nach einem passenden Angebot, sie dienen als Vermittler zwischen Kreditnehmern und zahlreichen möglichen Finanzierungspartnern. Beispielhaft sind hierfür Compeon oder FinCompare. Diese Finanzierungsplattformen greifen auf ein Netzwerk aus über 250 Finanzdienstleistern zurück und bieten den Unternehmen eine Vielzahl an Finanzierungslösungen.

Dagegen gewähren Vertriebsplattformen Zugang zu bestimmten Kreditangeboten von einem oder wenigen Finanzierungspartnern. Klassische Kreditgeber wie beispielsweise die Direktbank ING, verbergen sich hinter Vertriebsplattformen wie Lendico. Sogenannte White Label Kreditgeber wie die Solaris nutzen ihre Banklizenz für die Kreditvergabe, bleiben jedoch im Hintergrund.

Auf Kreditmarktplätzen wie Creditshelf und Invesdor, treffen kreditsuchende Firmen auf potenzielle Investoren. Dabei stellen interessierte Unternehmen zunächst eine Finanzierungsanfrage und erhalten nach einer Risikobewertung ein entsprechendes Kreditangebot, welches von institutionellen oder privaten Anlegern finanziert wird.

Digitale Plattformen punkten bei Antragsabwicklung

Alle Arten von Kreditplattformen haben gemeinsam, dass sie über digitale, standardisierte und weniger persönliche Finanzierungsprozesse verfügen.[3] Während bei der Hausbank Kreditsachbearbeiter:innen den gesamten Antrag manuell prüfen, erfolgt die Begutachtung auf Plattformen mittels automatisierter Prozesse. Sobald die Prüfung abgeschlossen ist, liegt bereits ein Angebot, oftmals innerhalb einiger Minuten, vor. Je nach Plattformanbieter werden in der Regel zwischen 24 und 72 Stunden benötigt, um ein Kreditangebot zu erstellen. Automatische und digitale Abläufe ersetzen somit die klassische Prüfung und bieten genau in diesem Punkt einen erheblichen zeitlichen Vorteil und eine entsprechend zügige Planungssicherheit für die Unternehmen.

Auch haben jene KMU Chancen, die einen stabilen Kapitalfluss aufweisen, jedoch nicht über die bankenüblichen Sicherheiten verfügen. Außerdem reduziert das Angebot mehrerer Finanzierungsanbieter vor allem die Suchkosten, was gerade kleineren Unternehmen, mit oftmals geringen personellen Kapazitäten die Arbeit erleichtert. Durch die erhöhte Transparenz haben Unternehmen zudem bessere Möglichkeiten, sich die günstigsten Konditionen für die von ihnen gewünschte Finanzierung zu suchen. Infolgedessen können sie Abhängigkeiten reduzieren bzw. ihren Finanzierungsmix erweitern, was gerade in Krisenzeiten hilfreich sein kann.

Digitale Finanzierungslösungen gewinnen an Bedeutung

Kleine und mittlere Unternehmen, die auf der Suche nach einer passenden Finanzierung sind, sollten nicht nur Bankinstitute in Betracht ziehen. Online-Kreditplattformen punkten vor allem mit einem breiten Angebot, Schnelligkeit und Transparenz. Insbesondere die vergangenen Krisenmonate haben deutlich gezeigt, wie essenziell rasche Kreditzusagen für mittelständische Unternehmen im Hinblick auf bestehende Herausforderungen sein können. Es lohnt sich also für KMU, ihren Finanzierungsmix zu erweitern.

 

[1] https://www.kfw.de/%C3%9Cber-die-KfW/Newsroom/Aktuelles/News-Details_665152.html
[2] https://www.kfw.de/%C3%9Cber-die-KfW/Newsroom/Aktuelles/News-Details_665152.html
[3] https://www.ifm-bonn.org/forschung/strategische-unternehmensfuehrung/detailansicht/fintechs-chancen-fuer-den-deutschen-mittelstand

Aufgrund des demographischen Wandels sowie des zunehmenden Fachkräftemangels wandern wichtige Informationen über Prozesse und Produkte immer wieder von Unternehmen ab, ohne sie zuvor gespeichert und allgemein zugänglich gemacht zu haben. Dabei ist Wissen im Unternehmen eine wichtige Ressource. Doch wie lässt sich Wissen überhaupt definieren? Und wie kann dieses erfolgreich gespeichert und verteilt werden?

Wissen umfasst Prozesse, Technologien, Fähigkeiten, Fertigkeiten und Erfahrungen der Beschäftigten sowie Informationen über Kunden, Märkte und Lieferanten. Im Gegensatz zu Informationen ist Wissen:

  • immer zweckorientiert und dreht sich um das Handeln
  • kontext- und beziehungsspezifisch und dreht sich um eine Bedeutung

 

Formen der Wissensumwandlung

Hinsichtlich der Wissensart wird zwischen implizitem und explizitem Wissen unterschieden. Implizit steht für ein persönliches Wissen, welches sich ausschließlich in den Köpfen einzelner Individuen befindet, eng mit gemachten Erfahrungen verbunden ist und daher für andere nicht zugänglich ist. Im Gegensatz dazu wird Wissen, welches außerhalb von Köpfen einzelner Personen vorhanden bzw. gut artikulierbar ist, als explizit bezeichnet.

Basierend auf dieser Differenzierung wird zwischen vier Kombinationsmöglichkeiten der Wissensteilung und -transformation unterschieden:

  • von implizit zu implizit (Sozialisation)
  • von implizit zu explizit (Externalisierung)
  • von explizit zu implizit (Internalisierung)
  • von explizit zu explizit (Kombination)
Formen der Wissensumwandlung

Im Hinblick auf den Umgang mit Wissen in industriellen Unternehmen ist insbesondere die Externalisierung von besonderer Bedeutung. Diese Form befähigt dazu, dass personifiziertes Wissen dem Unternehmen zugänglich gemacht wird und somit die Grundlage für die darauffolgende Wissensteilung sowie die Internalisierung geschaffen werden kann.

Modelle und Systeme des Wissensmanagements beschäftigen sich intensiv mit der Optimierung und der Effizienzsteigerung bei der innerbetrieblichen Umsetzung der Externalisierung. So verfolgt das Wissensmanagement einerseits die Sicherung und die Verteilung von vorhandenem Wissen, andererseits die Förderung der Kreativität mittels des Verbesserungsmanagements. Hierdurch können sich Mitarbeitende aktiv an der Entwicklung des Unternehmens beteiligen und zum Erfolg im internationalen Wettbewerb beitragen. An dieser Stelle sei darauf hingewiesen, dass das Verbesserungsmanagement oftmals auch als betriebliches Vorschlagswesen (BVW), Ideenmanagement (IDM) oder kontinuierlicher Verbesserungsprozess (KVP) bezeichnet wird.

Teilprozesse des Wissensmanagements

Zur ganzheitlichen Betrachtung des Wissensmanagements unterscheiden gängige Modelle die drei Teilprozesse:

  1. Normativer Wissensprozess
  2. Strategischer Wissensprozess
  3. Operativer Wissensprozess

Der normative Wissensprozess beschreibt dabei die Notwendigkeit einer innovativen und wissensbewussten Unternehmenskultur sowie die aktive Umsetzung eines Wissensleitbildes durch das mittlere und obere Management.

Dahingegen beschäftigt sich der strategische Wissensprozess einerseits mit der Definition zukünftiger Kompetenzfelder und -portfolios zur Abgrenzung von Wettbewerbern, andererseits mit der Definition von Berichtswegen innerhalb der Organisation.

Die Überführung von implizitem in explizites Wissen (Externalisierung) wird im Rahmen des operativen Wissensprozesses detailliert betrachtet. Zudem beschäftigt sich dieser Teilprozess mit der Integration von Anreizen für eine aktive Teilnahme der Mitarbeitenden am Wissensmanagement.

Teilprozesse des Wissensmanagements

Für die innerbetriebliche Implementierung eines erfolgreichen Wissensmanagements bedarf es darüber hinaus der Betrachtung des Wissenstransfers. In diesem Kontext beschreiben aktuelle Forschungsarbeiten zum einen den Wissenssender und zum anderen den Wissensempfänger.

Der Wissenssender besitzt dabei implizites Wissen, welches er bereit ist zu externalisieren. Hierfür wird zunächst ein Zugang zum Transfer des Wissens benötigt. Darüber hinaus muss der Transfer gemäß einem definierten Standard erfolgen, um beispielsweise Sprachbarrieren zu umgehen.

Der Wissensempfänger wiederum benötigt die Fähigkeit geteiltes Wissen aufzunehmen und zu verarbeiten, damit dieses an vorhandenem Wissen angeknüpft werden kann und somit die individuellen Fähigkeiten ausgebaut werden können. Darüber hinaus muss ebenfalls ein Zugang zum Transfer vorhanden sein. Als Transfermedium empfiehlt sich im Zeitalter der Digitalisierung auf eine innerbetrieblich vernetzte Softwarelösung zurückzugreifen, welche eine effiziente Ein- und Ausgabe ermöglicht sowie um Anreize zur aktiven Teilnahme erweiterbar ist.

Beispiel in der Lernfabrik für vernetzte Produktion

Die Umsetzung einer beispielhaften Wissensmanagement-Umgebung, welche mit Anreizelementen und einer Bewertungseinheit ausgestattet ist, ist in der Lernfabrik für vernetzte Produktion am Fraunhofer IGCV in Augsburg integriert. Hier kann die Thematik des innerbetrieblichen Wissensmanagements im Rahmen einer digitalisierten Montagelinie unter realen Bedingungen getestet werden.

Wissen wird hier ausgehend vom Shopfloor digitalisiert an übergeordnete Unternehmensbereiche transferiert. Dort angelangt wird das Wissen gewichtet nach unterschiedlichen Kriterien bewertet und kann daraufhin beispielsweise in verknüpfte Datenbanken überführt und damit wieder nutzbar gemacht, oder in den kontinuierlichen Verbesserungsprozess überführt werden.

Eine standardisierte Bewertung trägt dazu bei, den Mehrwert der externalisierten Erfahrungen und Verbesserungsvorschläge in Abgleich zur IST-Situation des Unternehmens einzuordnen bzw. zu beziffern. Eine solche Bewertung erlaubt außerdem, den Input der Mitarbeitenden zu belohnen und über Gamification-Elemente wie Punktezahlen und Highscores Anreize zu schaffen. Die Eingaben und Bewertungen funktionieren über eine App, die auf einem am Montagetisch befestigten Tablet läuft und welche über Schnittstellen zu übergeordneten Softwaresystemen wie Datenbanken verfügt.

Digitale Montagetische in der Lernfabrik für vernetzte Produktion

Die Corona-Pandemie hat das Konsumverhalten verändert. Das zeigt sich auch im Bezahlverhalten der Deutschen. Wie sich das genau entwickelt hat, hat sich unser Projektpartner ibi research zusammen mit dem Digital Commerce Research Network (DCRN) angesehen. Dabei wurden mehr als 1.000 Konsumentinnen und Konsumenten zu ihren neuen Gewohnheiten befragt.

Nachhaltige Veränderungen im Bezahlverhalten

Die Corona-Pandemie hat das Leben der Konsument:innen auf den Kopf gestellt. Gesundheitliche Sorgen oder finanzielle Ängste beschäftigen aktuell zahlreiche Menschen in Deutschland und weltweit. Gleichzeitig sind Lockerungen in Kraft getreten und ermöglichen Restaurantbesuche und Einkaufserlebnisse in Einzelhandelsgeschäften.

Im vergangenen Jahr mussten potenzielle Konsument:innen auf zahlreiche stationäre Angebote verzichten. An deren Stelle traten vermehrt digitale Services. Mehr als die Hälfte der Befragten hat vor der Corona-Pandemie am liebsten mit Bargeld bezahlt. Dieser Anteil ist in den vergangenen Monaten stark gesunken: Nur noch 34 Prozent haben ihre Einkäufe bar gezahlt, nach Ende der Pandemie planen lediglich 39 Prozent wieder hauptsächlich Bargeld zu verwenden (vgl. Abbildung 1). Besonders die jungen Kundinnen und Kunden haben sich umorientiert und nutzen jetzt andere Möglichkeiten.

Abbildung 1: Genutzte und geplante Bezahlmethoden vor, während und nach der Corona-Pandemie

Kontaktloses Bezahlen wird beliebter

Gesteigerte Hygienemaßnahmen während der Pandemie führten dazu, dass die Kundschaft verstärkt auf kontaktlose Bezahloptionen hingewiesen wurde. Dass dieses Angebot auch rege genutzt wurde, bestätigen die Umfrageergebnisse. Sowohl bei der girocard (+ 12 Prozent) als auch bei Kreditkarten (+ 4 Prozent) wurde häufiger kontaktlos durch Auflegen auf das Kassen-Terminal bezahlt. Der Großteil dieser Kundinnen und Kunden möchte das auch zukünftig beibehalten. Eine noch immer geringe Nutzerbasis haben Zahlungen per Smartphone und Smartwatch ausgelöst. Allerdings hat auch hier die Corona-Pandemie für leichten Aufschwung gesorgt: Vier Prozent der Befragten möchten nach Ende der Pandemie weiterhin mit dem Smartphone bezahlen, knapp ein Prozent mit einer Smartwatch (vgl. Abbildung 1).

Bezahlen im E-Commerce: Rechnung und PayPal liegen vorne

PayPal ist und bleibt bei den Befragten das beliebteste Zahlungsverfahren im Online-Handel. Nur bei höheren Beträgen ab 500 Euro gehen die Käuferinnen und Käufer auf Nummer sicher und wählen Zahlung auf Rechnung. Auf Platz 3 der beliebtesten Zahlverfahren ab 30 Euro steht die Kreditkarte (vgl. Abbildung 2).

Abbildung 2: Genutzte Zahlungsverfahren beim Einkauf in Online-Shops

Die teilweise resultierende Verschlechterung der Nutzerfreundlichkeit durch eine starke Kundenauthentifizierung (SKA) bei Zahlung mit Kreditkarte veranlasst rund ein Fünftel der Befragten dazu, ihre Kreditkarte seltener zu verwenden. Gleichzeitig schätzen aber 77 Prozent die gesteigerte Sicherheit durch die SKA und finden den Zusatzaufwand überschaubar (vgl. Abbildung 3).

Abbildung 3: Auswirkungen der SKA auf die Zahlung mit Kreditkarte

Ein bedenklicher Anstieg zeigt sich bei der Nutzung von Teilzahlungsoptionen oder Ratenkrediten während der Corona-Pandemie (vgl. Abbildung 4): 40 Prozent der 18- bis 29-Jährigen nutzten diese häufiger als sonst oder zum ersten Mal – der Weg in die Schuldenfalle? Ein Blick auf die Zahlen des statistischen Bundesamtes unterstreicht diese Gefahr[1]. Im Vergleich zum Jahr 2015 sind die Bundesbürger unter 20 Jahre, die bei einer Schuldnerberatungstelle als überschuldet erfasst wurden, um über 41 Prozent gestiegen.

Abbildung 4: Nutzung der Teilzahlungsoptionen bzw. Ratenkredite bei Online-Bestellungen

Online-Handel: einzige Chance für ländliche Regionen und Bedrohung für die
deutschen Innenstädte?

Ein Ergebnis der Studie ist, dass die Corona-Pandemie das Konsumverhalten in Deutschland verändert hat – jedoch in unterschiedlichen Ausmaßen. Aufgrund der Lockdowns wurde zunächst über alle Alters- und Käufergruppen mehr online eingekauft. Doch nicht bei jedem wird dies zu einer nachhaltigen Konsumveränderung führen. In ländlichen Regionen Deutschlands mangelt es unter Umständen an einer großen Auswahl von verschiedenen Produkten und Dienstleistungen. Knapp zwei Drittel sehen daher den Online Handel als einzige Möglichkeit, auf diese zuzugreifen. Allerdings wird das Einkaufen im Internet von vielen Bürgerinnen und Bürgern auch als Bedrohung wahrgenommen. Nur jeder Zehnte sieht im Online Handel keine Gefahr für die deutschen Innenstädte. Knapp die Hälfte erwartet in den nächsten drei Jahren das Verschwinden von zahlreichen stationären Geschäften (vgl. Abbildung 5).

Abbildung 5: Einschätzung zum Handel und Einkaufsverhalten

Quelle: Die Ergebnisse stammen aus einer von ibi research an der Universität Regensburg research zusammen mit dem Digital Commerce Research Network (DCRN) durchgeführten Studie (Befragungszeitraum: Juli 2021, CAPI-Befragung, 1.014 Teilnehmer). Kostenlos verfügbar unter: https://ibi.de/veroeffentlichungen/dcrn-2021.

[1] https://www.destatis.de/DE/Themen/Gesellschaft-Umwelt/Einkommen-Konsum-Lebensbedingungen/Vermoegen-Schulden/_inhalt.html#sprg233606

Auto-ID-Systeme – sie begleiten uns durch unseren Alltag. Morgens: Beim Einstempeln auf der Arbeit wird Ihr Name, der auf der Magnetkarte hinterlegt ist, mit der Ankunftszeit verknüpft. Mittags: Im Supermarkt wird anhand der Barcodes auf den Artikeln klar, wie viel Sie an der Kasse zahlen müssen. Abends: Ihr Smartphone lässt sich per Fingerabdruck entsperren und Sie können die aktuellen Nachrichten lesen. Sie brauchen sich nicht am Empfang melden, keine Preise zusammenrechnen oder lange PIN-Codes ins Handy tippen, die Prozesse zur Datenerfassung wurden automatisiert. Doch was steckt dahinter und inwiefern lassen sich diese Systeme auf die Bedarfe der Produktion übertragen?

Das Bewusstsein für die Bedeutung der Informationslogistik wurde bereits in den vorherigen Artikeln dieser Reihe geschaffen. Es bedarf einer intensiven Auseinandersetzung mit Material- und Informationsfluss, um Informationsbedarfe zu definieren und daraus passende Informationsangebote abzuleiten.

Ein Einblick in das Beispiel der Monitor Manufaktur Müller: Vor der Vernetzung der Monitor Manufaktur mit dem Schraubenhersteller Schubert hat die Logistikerin die Aufgabe übernommen, den Schraubenbestand regelmäßig zu prüfen. Dazu ist sie die Montagestationen abgegangen, hat die Füllmenge der Schraubenbehälter eingesehen und je nach Bedarf aufgefüllt. Jede neue Bestellung beim Lieferanten Schubert hat sie manuell eingeleitet. Heute wird sie durch ein Auto-ID-System in ihrer Arbeit unterstützt. Wie genau dieses System, basierend auf der RFID-Technologie (Radio-Frequency Identification), in der Monitor Manufaktur Müller eingesetzt wird, wurde bereits in den vorhergehenden Artikel dieser Reihe erläutert. Doch was bedeutet eigentlich Auto-ID?

Abbildung 1: Einsatz eines RFID-Systems in der Monitor Manufaktur Müller

Auto-ID steht für die Automatische Identifikation von Daten. Bei der Einführung eines Auto-ID-Systems bekommen die zu verfolgenden Objekte eine eindeutige Kennzeichnung. Für den Fall, dass am Objekt keine eindeutigen Identifikationsmerkmale vorliegen, bekommen sie die ID zugewiesen: auf der Magnetkarte wird die Personalnummer gespeichert, im Barcode die Artikelnummer und der Mensch hat mit dem Fingerabdruck seine ID immer dabei. Außerdem gehört zu jedem Auto-ID-System das passende Lesegerät, das die Daten erfasst: für die Magnetkarte der Magnetkartenleser, für den Barcode der Barcodescanner usw. In einer Software werden die so gesammelten Daten verarbeitet und miteinander verknüpft: die Personalnummer mit dem Zeitstempel, die Artikelnummer mit dem Preis und der Fingerabdruck mit den Zugriffsberechtigungen. Auto-ID-Systeme in der Produktion funktionieren nach dem gleichen Prinzip. Sie verbinden den Material- mit dem Informationsfluss so, dass Prozesse transparenter und die Informationslogistik vereinfacht wird. In der Monitor Manufaktur Müller wird die Artikelnummer der Schrauben auf dem RFID-Transponder des Schraubenbehälters gespeichert. Beim Abstellen der Kiste auf dem mit dem RFID-Lesegerät versehenen Regalboden werden die Daten des Schraubentyps ausgelesen, anschließend an den Schraubenlieferanten Schubert weitergegeben und die neue Bestellung ausgelöst. Weitere, in der Industrie eingesetzte Technologien, sind bspw. Barcode, NFC (Near Field Communication), BLE (Bluetooth Low Energy), WLAN (Wireless Local Area Network) und UWB (Ultra-Wideband). Einen Überblick über diese Systeme sowie deren Bestandteile und Charakteristika finden Sie hier: Auto-ID Technologien für die Intralogistik 4.0: Ein Überblick (betrieb-machen.de).[1]

Dort wo Auto-ID-Systeme eingesetzt werden, schaffen sie Datendurchgängigkeit. Sie unterstützen dabei die richtige Information zum richtigen Zeitpunkt am richtigen Ort zur Verfügung zu stellen. Die Vielzahl an Systemvarianten und die Option diese miteinander kombinieren zu können, machen eine ganzheitliche Informationsbereitstellung entlang der Produktionskette möglich. Damit bilden Auto-ID-Systeme die Basis der vernetzten Produktion. Nichtsdestotrotz ist es wichtig, vor der Einführung eines neuen Auto-ID-Systems dessen Einsatzziel genau zu definieren. Auch oder insbesondere beim Einsatz dieser helfenden Systeme bedarf es einer Abstimmung von Informationsbedarf und -angebot, um die Informationslogistik als Unterstützung und nicht etwa als zusätzlichen Arbeitsschritt wahrzunehmen.

Als Anregung hierzu die Überlegungen aus der Monitor Manufaktur Müller: Bei der Beschaffung des RFID-Systems standen noch zwei weitere Optionen für das Unternehmen im Raum – die Einführung eines Barcode- oder eines UWB-Systems.

Im Fall der Barcode-Lösung werden die Schraubenbehälter mit Barcode-Labels versehen. Um eine Nachlieferung beim Schraubenhersteller Schubert auszulösen, wird der entsprechende Barcode gescannt und die dahinter geschaltete Softwarelösung überträgt die Daten an den Lieferanten.

Ein Vorteil dieser Lösung ist der Investitionspreis. Barcode-Labels, welche schnell erzeugt und gedruckt werden können, sind in der Anschaffung günstiger als RFID-Transponder. Darüber hinaus sind Barcodes in der Datenübertragung je nach Umfeld zuverlässiger. Da es sich hierbei um ein optisches, nicht funkbasiertes Verfahren handelt, ist die Störanfälligkeit durch andere Systeme gering.

Ein Nachteil ist jedoch, dass für jede neue Lieferung an Schrauben, ein neuer Barcode gedruckt werden muss. Das ist auch der Fall, wenn der Behälter unterwegs verschmutzt und damit der Barcode unleserlich wird. RFID-Tags hingegen können mehrfach wiederbeschrieben werden und sind auch ohne Sichtverbindung (per Funktechnologie) auslesbar.

Des Weiteren hätte die Entscheidung für den Barcode die Konsequenz, dass die Logistikerin oder der Monteur, der den Schraubenbehälter geleert hat, den Barcode des Behälters manuell einscannen müsste. Das hätte einen zusätzlichen Arbeitsschritt zur Folge, der mithilfe der RFID-Technologie vermieden und damit auch nicht vergessen werden kann.

Ein letztes Argument der Monitor Manufaktur Müller, sich für die RFID- und gegen die Barcode-Lösung zu entscheiden, ist die Schnittstelle zu ihrem langjährigen Lieferanten. Dieser nutzte die RFID-Technologie schon in Zusammenarbeit mit anderen Kunden und hat die hierfür benötigte IT-Architektur bereits standardisiert.

Abbildung 2: Einsatz eines Barcode-Systems in der Monitor Manufaktur Müller

Im Fall der UWB-Lösung werden die Schraubenbehälter mit UWB-Tags versehen und der zu beobachtende Bereich mit UWB-Antennen abgedeckt. Durch regelmäßigen Signalaustausch zwischen den Tags und Antennen, kann die Position der Behälter jederzeit bestimmt werden. Um eine Nachlieferung beim Schraubenhersteller Schubert auszulösen, wird der geleerte Behälter in eine festgelegte Zone gestellt, dadurch ein Event in der verknüpften Software ausgelöst und die Daten an den Lieferanten übertragen.

Die UWB-Lösung zählt genauso wie beispielsweise die Ortung über WLAN zu den kontinuierlichen Lokalisierungsverfahren, schafft im Gegensatz zu WLAN jedoch eine höhere Auflösung. Nicht zuletzt aufgrund dieser technischen Eigenschaften ist diese Lösung in der Anschaffung um ein Vielfaches teurer als die bereits vorgestellten Alternativen. Da sie in diesem Anwendungsfall aber kaum einen Vorteil gegenüber der RFID-Lösung bietet, hat sich die Monitor Manufaktur Müller für die günstigere Variante entschieden. Für die Nachlieferung der Schrauben ist die Information ausreichend, dass der Behälter leer ist, was in der RFID-Lösung aus der Positionierung im Nachschubregal hervorgeht. Ob der Behälter links oder rechts im Regal steht, spielt hier keine Rolle.

Im nächsten Schritt möchte die Monitor Manufaktur prüfen, ob eine Installation des UWB-Systems für sie in der Spritzgussfertigung in Frage kommt. Hier ist der Bedarf der Information zum Aufenthaltsort der Spritzgussformen gegeben (siehe Informationsbedarf, Artikel 2). Die kontinuierliche Verfolgung dieser Werkzeuge könnte die aktuell anfallenden Suchzeiten stark reduzieren.

Abbildung 3: Einsatz eines UWB-Systems in der Monitor Manufaktur Müller

Nicht zuletzt die Einblicke in die Monitor Manufaktur Müller haben gezeigt, dass Auto-ID-Systeme auf verschiedene Arten die Informationslogistik in der vernetzten Produktion unterstützen können. Welches System das richtige ist, muss je nach Bedarf und Anwendungsfall entschieden werden.

zur Artikelreihe

[1] Die vorangegangene Definition von Auto-ID-Systemen stellt eine Zusammenfassung der im verlinkten Artikel gegebenen Informationen dar. Die in diesem Artikel später aufgeführte Gegenüberstellung verschiedener Auto-ID-Systeme (am fiktiven Beispiel der Monitor Manufaktur Müller) bezieht sich auf die im verlinkten Artikel aufgeführten Vor- und Nachteile der Systeme.