Meinung


Der Weg vom Reporting zur Künstlichen Intelligenz in der Lebensmittelbranche

4 Minuten

Vor über 30 Jahren startete ich meine Reise in die Welt der Warenwirtschafts-Software für die Lebensmittelbranche – zu einer Zeit, als die so genannte mittlere Datentechnik und IBM-Mainframe-Systeme durch PC-Netzwerke abgelöst wurden. Seitdem habe ich mich immer intensiver mit dem Thema Daten und deren Nutzung beschäftigt. Was sich technologisch in den letzten drei Jahrzehnten getan hat und wie ich persönlich das Thema Künstliche Intelligenz (KI) sehe, habe ich in diesem Blog zusammengefasst.

Alle Arten von Reporting- oder KI-Systemen bestehen grundsätzlich aus drei Komponenten:

1. Eine Möglichkeit zur Datenerfassung, was wir in der Welt der Business Intelligence als “ETL” (Extraktion, Transformation und Laden) bezeichnen. Dies bedeutet, dass man Daten aus Quellen übernimmt, bereinigt und so formatiert, dass sie leichter zu verarbeiten sind.

2. Eine Möglichkeit zur Datenverarbeitung: Die erfassten Rohdaten werden ausgewertet und es entstehen aussagekräftige Informationen.

3. Und schließlich eine Möglichkeit zur Visualisierung der Daten und zur Erstellung von Handlungsinformationen: Dargestellt auf Papier, auf Webseiten oder in mobilen Applikationen – aber auch als Steuerungsimpulse und automatisierte Entscheidungen, zum Beispiel für die Genehmigung von Krediten oder das Ausschleusen eines Produktes während der Lebensmittelproduktion.

Datenerfassung

Vor 30 Jahren war die Datenspeicherung noch sehr teuer. Bei der Entwicklung unserer Software mussten wir daher sorgfältig abwägen, was gespeichert werden soll, wie es gespeichert werden soll, und wie lange es aufbewahrt werden sollte. Daten konnten ausschließlich in strukturierten Dateien und Tabellen, bestehend nur aus Zahlen und Buchstaben, gespeichert werden.

Heute reden wir von ‘Big Data’: Der Speicherplatz ist nahezu unbegrenzt. Und er ist inzwischen so billig, dass Datenbanken im Speicher arbeiten und Festplatten oder SSDs nur noch zur Härtung der Informationen verwendet werden. Auch gibt es keinerlei Einschränkungen bei der Art der Daten: Sprache, Bilder, Videos und andere Audiosignale können problemlos verarbeitet werden. Es ist auch nicht mehr so, dass wir die Daten zunächst erfassen, dann speichern und später zur Verarbeitung wieder aufrufen. Vielmehr erfolgen Datenbeschaffung und Datenerfassung nun gleichzeitig, was allgemein unter dem Begriff "streaming data sets“ (Datenstreaming) bekannt ist.

Welche Chancen sich dadurch für die Prozesse in der Lebensmittelbranche auftun, zeigt unsere Leitstandlösung CSB Linecontrol. Die Lösung ermöglicht es beispielsweise, die Verpackungsmaschinen direkt zu integrieren. So können der Status und die Leistung der Verarbeitungsanlagen in Echtzeit ausgewertet und Störmeldungen in dem Wartungsmodul der Anlage ausgelöst werden – noch bevor der Bediener bemerkt hat, dass etwas nicht in Ordnung ist.

Datenverarbeitung

In den Anfängen war SQL-Reporting etwas für die IT-Abteilung. Die erforderlichen Kenntnisse zur Verarbeitung der Informationen hatten nur einige wenige, hochspezialisierte Leute mit einer entsprechenden Ausbildung. Dies hat sich mit dem Aufkommen von MS-Excel drastisch geändert. Das allgegenwärtige Instrument zur Berichtserstattung ist heutzutage auf so ziemlich jedem Bürorechner zu finden. Auf einmal war jeder Benutzer in der Lage, eigene Auswertungen zu erstellen. Wenn ich heute zu einem Interessenten komme, werde ich meistens gefragt:

  • Wie kann ich meine Excel-Tabellenkalkulation durch Ihr System ablösen?
  • Wie kann ich die Daten aus Ihrem System nach Excel exportieren?

Diese Demokratisierung der Auswertungen führte zu Veränderungen, denen wir mit der Entwicklung von SSM-Auswertungstools begegneten. Diese Editoren ermöglichten es den Kunden, eigene Auswertungen über ihr Unternehmen zu erstellen. Vor 20 Jahren gingen wir noch einen Schritt weiter: Mir mit der Integration von Python in unser ERP-System die Basis dafür, dass unsere Kunden erweiterte Analysen nach ihren eigenen Vorstellungen machen können.

Auch heute noch verwenden wir Python in unserem System, erst kürzlich wurde Anaconda dem Installationspaket hinzugefügt. Aus gutem Grund: Python und R sind die führenden Programmiersprachen in den Bereichen Machine Learning und KI. Selbst KI-Lösungen in der Cloud, wie zum Beispiel Google Tensorflow oder AzureML, können bei Bedarf direkt angebunden werden.

Beim maschinellen Lernen erfolgt die Steuerung zum großen Teil nach wie vor durch den Menschen. Der Mensch wählt den Algorithmus, wie Regressionen für die Planung, Clustering zur Feststellung von Gemeinsamkeiten, oder Klassifizierung von binären Vorhersagen. Daraus sind inzwischen Module für mehr unüberwachtes Lernen hervorgegangen, bei denen der Mensch tatsächlich nicht mehr verstehen muss, wie der Algorithmus funktioniert, und der Rechner auf der Grundlage von Regeln und Zielen lernt. Ein Beispiel, das weltweit Schlagzeilen machte, war AlphaGo von Google. Dieses System lernte das Spiel besser zu spielen als ein Mensch, und niemand kann nachvollziehen, wie der Computer zu den getroffenen Entscheidungen kam. In diesem Fall durch sogenanntes „reinforced learned“ (Lernen durch Bestärkung).

In unserer eigenen KI-Abteilung setzen wir Machine Learning heute zur Verarbeitung von Streaming-Videos ein, die der Erkennung von Kisteninhalten oder Produktionsfehlern in der Verpackung dienen. Die Schwierigkeit heute besteht nicht so sehr darin, die Methoden einer KI-Lösung zu definieren, sondern vielmehr das Ziel festzulegen. Dabei stößt der Mensch zwar weiterhin als Maßstab, doch immer häufiger stoßen wir auf Fälle, in denen die Maschinen den Menschen in puncto Präzision und Exaktheit überlegen sind.

Datendarstellung

Früher mussten wir uns mit gedruckten Zeichen auf Papier begnügen, um Informationen zu finden. Daraus haben sich graphische Datenanalysen entwickelt; zunächst auf Papier, und später auch auf den Computerbildschirmen. Durch BI-Lösungen wurde die Darstellung der Informationen unter dem Gesichtspunkt eines effizienteren Lesens weitestgehend automatisiert, indem der Benutzer die Daten nun durch die Anwendung von Datenschnitten, Filtern und Markierungen aufbereiten kann – und zwar in dem Tempo, in dem der Benutzer denken kann.

Die datengetriebene Kultur

Während die Menschen immer besser gelernt haben, sinnvoll mit den Daten zu arbeiten, wurden einige nahezu davon besessen. Anfänglich stützten sich Handlungsinformationen und Intelligenz nach wie vor auf die Prüfung und den Eingriff durch den Menschen. Einige unserer Kunden haben dann einen Weg hin zur datengetriebenen Kultur eingeschlagen: Entscheidungen wurden und werden nicht mehr aus dem Bauch heraus getroffen. Wenn sie mehr Informationen brauchten, wurden dem System noch mehr Daten hinzugefügt: Maschinen wurden in bestehende Prozesse eingebunden, und neue Prozesse und Module wurden digitalisiert, um immer mehr und immer bessere Informationen zu erhalten. Hierdurch ergab sich ein iterativer Zyklus von Erfassung, Verarbeitung und Darstellung. Da unsere Kunden im Laufe der Jahre viele ihrer historischen Daten aufbewahrt haben, können wir diese relativ einfach in sehr robusten Anwendungen für das maschinelle Lernen verwenden und erweitern.

Maschinen übernehmen Steuerung

Ich denke, alle Unternehmen befinden sich heute an irgendeinem Punkt auf diesem Weg. Was sie eint, ist der Wunsch nach mehr – und vor allem besser nutzbaren – Informationen. Sobald der Punkt erreicht ist, an dem Maschinen genauere und präzisere Handlungsinformationen liefern als Menschen, werden die Maschinen die Steuerung der Prozesse übernehmen und automatisiert Entscheidungen treffen können. Datenmengen und Datentypen stellen keine Beschränkung mehr dar – die Grenzen liegen allein in der menschlichen Vorstellungskraft.