Ein Analytics-Marktplatz für KMU

Durch immer neue Innovationen haben sich im Laufe der Zeit die wirtschaftlich führenden Branchen, ihre jeweiligen Marktführer und ihre Geschäftsmodelle kontinuierlich gewandelt. Der Einsatz von Software in der Wertschöpfung und die Kommunikation über das Internet haben Geschäftsmodelle geprägt und sind nicht erst seit der Corona-Pandemie Standard. Im Jahr 2021 zählen die Technologie-Unternehmen nach Marktkapitalisierung mit grossem Abstand zu den wertvollsten börsennotierten Unternehmen – die sechs wertvollsten, im US-amerikanischen Aktienindex S&P 500 gelisteten Unternehmen sind allesamt Technologie-Unternehmen (Abbildung 1). Die Services und Geschäftsmodelle dieser Digitalunternehmen, wie zum Beispiel Google und Facebook, basieren auf der Speicherung und Verarbeitung von Nutzerdaten. Aus den immensen Datenmengen, welche während der Nutzung der Dienste generiert werden, können Erkenntnisse über die Nutzer und ihr Verhalten mittels Machine Learning (ML) generiert und gewinnbringend vermarktet werden. Die Popularität der sog. BigTech-Services führt dazu, dass Nutzer quasi zur Herausgabe ihrer Daten gezwungen werden, indem die Anbieter im Laufe der Zeit immer neue Geschäftsbedingungen erlassen. Aufgrund der Lock-in-Effekte der GAFA-Services (Google, Amazon, Facebook und Apple) im privaten wie auch im geschäftlichen Kontext sehen die Kunden meist keine Alternative zur Einwilligung. Die GAFA-Unternehmen haben somit Zugang zu Nutzerdaten, welche anderen Marktteilnehmern nicht zugänglich sind und somit wiederum als Services von den grossen Digitalunternehmen erworben werden müssen. Langfristig ergibt sich aus dieser Spirale der Unfreiwilligkeit eine Oligopolisierung des Datenmarktes mit eklatanten Folgen für den gesamtwirtschaftlichen Wettbewerb. Nicht nur kleine und mittelständische Unternehmen, auch Grosskonzerne sind mittlerweile von den digitalen Fähigkeiten der GAFA abhängig, wie z. B. die strategische Kooperation von BMW mit Amazon Web Services zeigt. Der Autohersteller sichert sich die analytischen Fähigkeiten der Amazon-Cloud, lagert somit aber gleichzeitig zukunftsweisende, intelligente Services wie bspw. eine neue Sprachverarbeitungs-Lösung für seine Flotte aus (BMW Group, 2020). Für kleine und mittelständische Unternehmen (KMU) bietet die Künstliche Intelligenz enormes Potenzial zur Skalierung und Effizienzsteigerung, es gibt jedoch insbesondere für diese Unternehmen keine Alternative zur Nutzung der GAFA-Services, da ihnen selbst z. B. Machine-Learning-Wissen fehlt. Darüber hinaus könnten sich KMU ohne die meist Cloud-basierten GAFA-Services den Aufbau eigener intelligenter Dienste aufgrund der hohen Entwicklungskosten häufig nicht leisten. Gegen eine solche Auslagerung intelligenter Services spricht jedoch, dass die KMU digitale Innovationen damit aus der Hand geben, da wiederum Wissen zu den GAFA abfliesst. Die Folgen dieses Trends sind schwer abschätzbar, jedoch stellen die Daten den Kern der Problemstellung dar – wer Zugriff auf möglichst grosse Datenschätze hat, kann innovative und intelligente Services erstellen und gleichzeitig zukunftsweisende KI-Fähigkeiten aufbauen.

Abbildung 1: Die grössten Unternehmen nach Marktkapitalisierung (Quelle: AssetDash, 2021)
Aktuelle Herausforderungen beim Einsatz von Machine Learning für KMU

Möchte ein Unternehmen eine fachliche Fragestellung mithilfe maschineller Lernverfahren lösen, benötigt es drei elementare Ressourcen: relevante unternehmensinterne und -externe Daten, Machine-Learning-Expertise (ML-Experten) und Rechenleistung. Der Mangel an ML-Expertise stellt insbesondere für kleine und mittlere Unternehmen (KMU) ein grosses Problem dar, denn diese verfügen häufig nicht über die nötigen finanziellen Mittel, um erfahrene ML-Experten anzustellen. Bei kleinen Unternehmen liegen Initiative und Verantwortung für ML-Projekte meist bei einer einzigen Person, welche über Data-Science-Erfahrung, Domänen-Wissen sowie IT-Expertise verfügt. Bei mittleren Unternehmen können mehrere Personen involviert sein, jedoch fehlt es hier an Frameworks zur kollaborativen Zusammenarbeit und standardisierten Prozessen zur Umsetzung eines ML-Vorhabens. In beiden Fällen führt der Mangel an Know-how häufig dazu, dass identifizierte Anwendungsfälle die Konzept- oder Pilotphase nicht überleben. Darüber hinaus stellen Datenverfügbarkeit und -qualität ein grosses Problem dar: Teilweise reicht die Menge an verfügbaren Informationen nicht aus, um die ML-Modelle hinreichend zu trainieren. Zudem liegen die Datensätze ungenügend standardisiert vor, was wiederum die Kosten für die Daten-Vorverarbeitung steigen lässt und somit die finanzielle Attraktivität der Vorhaben schmälert. Reicht die Datenmenge zur Umsetzung eines Anwendungsfalls aus, gehen KMU zunehmend Partnerschaften mit externen Partnern ein, um sich KI-Expertise einzukaufen. Während kleine Unternehmen Domänen-spezifische Softwareanbieter bevorzugen, führen mittlere Unternehmen auch Forschungsvorhaben mit Universitäten durch, um kooperativ Wissen rund um das maschinelle Lernen aufzubauen. Insgesamt lässt sich ableiten, dass Unternehmensgrösse und die Maturität in Bezug auf maschinelles Lernen stark korrelieren – je grösser das Unternehmen, desto stärker sind die Fähigkeiten in Bezug auf die Technologie. KMU weisen zwar flache Hierarchien auf und das Management unterstützt ML-Vorhaben der Mitarbeiter, jedoch fehlt es an Daten und Fähigkeiten zur Umsetzung von KI-Projekten. (Bauer et al., 2020).

Ein Data-Analytics-Marktplatz für KMU
(1) Idee

Ein Analytics-Marktplatz könnte sowohl den Mangel an ML-Expertise als auch an Daten auflösen. Gelänge es, alle für Machine-Learning-Vorhaben notwendigen Ressourcen über eine Plattform mit Marktplatz-Funktionalitäten bereitzustellen, könnten unterschiedliche Aufgabenstellungen mit geeigneten ML-Modellen analysiert werden. Die für das Training der KI-Modelle benötigten Daten könnten allen Interessenten dezentral und demokratisch verwaltetet zur Verfügung gestellt werden, z. B. mithilfe der Distributed-Ledger-Technologie. Auch KI-Modelle sowie das Training dieser Modelle durch Experten könnten über einen solchen Marktplatz angeboten werden. Somit würde die Dominanz der BigTechs aufgebrochen und es könnte eine dezentrale Wertschöpfungskette für KI-Vorhaben aufgebaut werden. Zwar liesse sich ein derartiger Marktplatz als zentrale Plattform umsetzen (wie bspw. AirBnB und andere Sharing-Plattformen), doch würde auch hier bei hinreichend vielen Teilnehmern der Plattformbetreiber eine gewisse Machtposition gegenüber Anbietern und Nachfragern entwickeln. Auf einem Analytics-Marktplatz wäre ein Betreiber mit einer derartigen Machtposition hinderlich, denn die teilnehmenden Unternehmen würden sensible interne Daten und daraus abgeleitete Erkenntnisse als wettbewerbssteigernde Faktoren nicht in die Hände Dritter geben wollen.

(2) Konzept und Rollen

Einen Lösungsansatz für die Idee des Analytics-Marktplatzes bietet die Distributed-Ledger-Technologie (DLT), denn durch diese Infrastruktur können Informationen anonymisiert zwischen den Parteien verteilt werden. Ausserdem kann der Marktbetrieb mittels hinterlegter Logiken in Form von Smart Contracts dezentralisiert werden. Somit kann bspw. automatisiert festgestellt werden, ob die an einer Zusammenarbeit interessierten Parteien die Voraussetzungen für eine erfolgreiche Partnerschaft erfüllen, z. B. hinsichtlich Daten- und Modellqualität sowie Kompetenz zur Bearbeitung angefragter Aufgaben. Auf dem Marktplatz wird ausserdem nicht nur die Umsetzung von Use Cases für einzelne Unternehmen ermöglicht, sondern ebenfalls das Teilen von Erkenntnissen oder trainierten Modellen für spezifische Anwendungsfälle ermöglicht. Lanquillon und Schacht (2019) schlagen für einen solchen Marktplatz die folgenden sechs Rollen und jeweiligen Aufgaben vor:

  • Aufgabenersteller definieren die zu bearbeitende Analyseaufgabe und formulieren fachliche und technische Anforderungen an die Lösung als auch Kriterien zur Bewertung der Lösung.
  • Modellersteller stellen entweder für die Aufgabe passende und vortrainierte ML-Modelle bereit oder trainieren neue Modelle auf Grundlage von geeigneten Datensätzen, welche auf dem Marktplatz bereitgestellt werden.
  • Datenanbieter stellen Daten verschiedener Quellen bereit, hierbei steht die Einhaltung des Datenschutzes und die Gewährleistung der Datensicherheit im Zentrum. Wenn Daten für die Modellerstellung bereitgestellt werden, muss sichergestellt sein, dass der Modellersteller keine Kenntnis über deren Herkunft erlangt oder die Daten gar stehlen kann. Um eine solche Professionalität sicherzustellen, sollten die Rollen der Dateneigentümer und Datenanbieter nicht zwingend zusammenfallen, sodass die Daten bestenfalls über mehrere Unternehmen hinweg aggregiert vorliegen und bestimmte Datensätze nicht mehr den Unternehmen zugeordnet werden können, die sie bereitgestellt haben.
  • IT-Infrastruktur-Anbieter stellen Speicherplatz bereit, um z. B. verschiedene Datenquellen zu integrieren oder Datensätze unveränderlich abzuspeichern. Ausserdem stellen sie Rechenleistung zur Modellerstellung bedarfsgerecht bereit. IT-Infrastruktur-Anbieter können sowohl Organisationen wie z. B. Cloud-Anbieter als auch Privatpersonen mit ungenutztem Speicherplatz oder Rechenkapazitäten sein.
  • Modellvalidierer bewerten die Einhaltung der fachlichen Anforderungen des erstellten ML-Modells wie etwa die Modellgüte.
  • Modellnutzer müssen nicht zwingend nur die Aufgabensteller sein, denn die Modelle können sowohl öffentlich als auch bilateral bereitgestellt werden. Die Modelle können dann unmittelbar als Bibliotheken angeboten oder mittelbar in Software und Produkte integriert werden, z. B. über geeignete Schnittstellen als «Model-as-a-Service».
Abbildung 2: Ordnungsrahmen für einen Analytics-Marktplatz (Lanquillon und Schacht, 2019, S. 173)
(3) Zentrale Gestaltungsaspekte

Um den Datenaustausch zwischen verschiedenen Parteien über eine verteilte Plattform zu ermöglichen und Machine-Learning-Funktionalitäten nutzbar zu machen, müssen zunächst drei zentrale Aspekte adressiert werden (Lanquillon und Schacht, 2019):

  1. Das Vertrauen zwischen untereinander unbekannten Parteien wird über die Blockchain hergestellt. Die Technologie stellt sicher, dass Transaktionen Konsens-basiert durchgeführt werden und z. B. Datentransfers und andere Sachverhalte transparent und nachvollziehbar dokumentiert sind.
  2. Ein Anreizsystem beeinflusst die Interaktionen und somit den Erfolg des Marktplatzes massgeblich. Durch den Einsatz von DLT-basierten Smart Contracts können bspw. Micro Payments automatisiert nach Erfüllung von Aufgaben ausgelöst werden, hierbei können Kryptowährungen eingesetzt werden, da diese ebenfalls auf Blockchains basieren. Um die Aufrichtigkeit der Marktplatzteilnehmer zu gewährleisten, müssten Modellersteller, Datenanbieter, IT-Infrastruktur-Anbieter sowie Modellvalidierer ein Einsatzgeld hinterlegen, welches im Falle von Betrug oder Schlechtleistung zur Kompensation der Aufgabensteller und/oder Modellnutzer verwendet wird.
  3. Der Datenschutz hat durch den Austausch von Daten und Modellen unter einander nicht bekannten Parteien eine besondere Relevanz. Technisch eignen sich für die Modellerstellung, -validierung und -anwendung verschlüsselte Sandbox-Modell-Container, sodass die Zugriffs- und Verarbeitungsrechte zwischen den Parteien so getrennt sind, dass keine der Parteien die Inputdaten der Modelle und Ergebnisse zuordnen oder veruntreuen kann[1] (Unit 42, 2019). 
Kritische Reflektion

KMU fehlt häufig der Zugriff auf externe, Domänen-relevante Informationen und die Expertise, um sinnvolle Erkenntnisse mittels Machine Learning generieren zu können. Daher scheitern viele ML-Projekte bereits in der Planungsphase und das Potenzial der möglicherweise verteilt über mehrere KMU verfügbaren Daten und KI-Expertise kann nicht genutzt werden. Ein Analytics-Marktplatz ist ein möglicher Lösungsvorschlag, der jedoch technische und organisatorische Herausforderungen beinhaltet. Wenngleich die DLT z.B. Transparenz, Nachvollziehbarkeit und somit Vertrauen auf dem Marktplatz herstellen kann, ist diese Infrastruktur langsamer bei der Datenverarbeitung als zentrale Datenbanken und ihr Betrieb teurer, wodurch sie sich für die Verarbeitung grösserer Datenmengen nur bedingt eignet. Herausforderungen auf Seiten des maschinellen Lernens existieren hinsichtlich der rechenintensiven Datenverarbeitung sowie der Daten-Sicherheit, da alle KI-Modelle «off-chain», also ausserhalb der DLT, trainiert werden. Einen möglichen Lösungsansatz stellen gekapselte, sichere Umgebungen nach dem Sandbox-Prinzip dar. Auch wenn ein solcher Data-Analytics-Marktplatz die Marktmacht der GAFA nicht in Kürze brechen wird, so dient er dennoch als Motivation für KMU, innovative und intelligente Services zu entwickeln sowie KI-Expertise aufzubauen.


[1] Bei Interesse könnt Ihr hier mehr zu Sandbox-Containern nachlesen.


Quellen

AssetDash. (February 4, 2021). Market capitalization of largest companies in S&P 500 Index as of February 4, 2021 (in billion U.S. dollars) [Graph]. In Statista. Retrieved March 16, 2021, from https://www.statista.com/statistics/1181188/sandp500-largest-companies-market-cap/

Bauer, M., van Dinther, C., & Kiefer, D. (2020). Machine Learning in SME: An Empirical Study on Enablers and Success Factors. Retrieved March 22, 2021, from https://www.researchgate.net/publication/344651203_Machine_Learning_in_SME_An_Empirical_Study_on_Enablers_and_Success_Factors

BMW Group (2020). AWS and BMW Group Team Up to Accelerate Data-Driven Innovation. URL: https://www.press.bmwgroup.com/global/article/detail/T0322118EN/aws-and-bmw-group-team-up-to-accelerate-data-driven-innovation?language=en

Lanquillon, C. & Schacht, S. (2019). Der Analytics-Marktplatz. In S. Schacht & C. Lanquillon (Hrsg.) Blockchain und maschinelles Lernen. Wie das maschinelle Lernen und die Distributed-Ledger-Technologie voneinander profitieren. Springer Vieweg.

Christian Dietzmann

Was sind Deine Erfahrungen mit dem Thema? (Kommentieren geht auch ohne Anmeldung oder Einloggen; einfach kommentieren, auf Freigabe warten und fertig!)