Scheitern von KI-Projekten aufgrund von Datenproblemen, falscher Ausrichtung an den Geschäftsanforderungen und falschen Versprechungen.
Nachdem ich mit zahlreichen Kunden einen Proof of Concept (POC) für GRAVITY AI-Assist besprochen habe, kann ich die Ergebnisse der RAND-Studie bestätigen, die besagen, dass die Misserfolgsquote bei KI-Projekten alarmierend hoch ist und laut mehreren Analysen zwischen 70 und 85 % liegt.
Einer der wichtigsten Gründe für das Scheitern von KI-Projekten sind Probleme mit der Qualität und Quantität der Daten. KI-Modelle sind vollständig von den Daten abhängig, auf denen sie trainiert werden. Wenn diese Daten unvollständig, verzerrt oder ungenau sind, spiegelt das resultierende Modell diese Mängel wider. Wie AI Multiple Research feststellt, ist die Datenqualität in der künstlichen Intelligenz von entscheidender Bedeutung, da sie sich direkt auf die Leistung, Genauigkeit und Zuverlässigkeit der KI-Modelle auswirkt. Qualitativ hochwertige Daten führen zu gut funktionierenden KI-Systemen, während Daten von geringer Qualität zu ungenauen Ergebnissen, voreingenommenen Entscheidungen und unzuverlässiger Leistung führen können."
Das Sammeln und Aufbereiten hochwertiger Datensätze stellt für viele Organisationen eine große Herausforderung dar. Die Daten können in verschiedenen Systemen isoliert sein, uneinheitlich formatiert oder es fehlen wichtige Informationen. Außerdem können die Daten Verzerrungen enthalten, die auf historische Ungleichheiten oder menschliche Vorurteile zurückzuführen sind. Wenn diese Probleme nicht angegangen werden, wird das KI-Modell einfach lernen und diese Vorurteile verstärken, was zu ungerechten und unethischen Ergebnissen führt.
Außerdem benötigen viele KI-Anwendungen große Datenmengen, um effektiv zu sein. Techniken wie Deep Learning sind datenhungrig, und Modelle haben oft mit unzureichenden Datenmengen zu kämpfen. Die Sicherstellung einer ausreichenden Anzahl repräsentativer Daten zum ordnungsgemäßen Trainieren von KI-Systemen ist ein ständiges Hindernis, insbesondere in speziellen Bereichen oder bei seltenen Ereignissen.
Während unserer Proof-of-Concept-Phasen (POC) stoßen wir auf erhebliche Probleme. Von "fehlende Integration mit Authentifizierungssystemen" zu KI-Projekten die nicht auf die besonderen Bedürfnisse und Arbeitsabläufe des Unternehmens zugeschnitten sind. Oft hat man das Gefühl, man tut einfach etwas damit man auf eine AI-Projekt hat. Wenn unsere direkten Kunden konkrete Anwendungsfälle vorstellen, ist es für diese KI-Teams häufig schwierig, einen sinnvollen Nutzen zu liefern.
Der CIO-Artikel "10 Famous AI Disasters" gibt nicht vollständig wieder, was wir beobachtet haben. Die Projekte, die wir gesehen haben, kommen nicht annähernd an diese Anwendungsfälle heran; selbst, wenn sie scheiterten, hatten diese Projekte definierte Anwendungsfälle. Im Gegensatz dazu sind wir auf Projekte gestoßen, bei denen es nicht einmal grundlegende Anwendungsfälle gab.
Aber ich denke, dass das "Warum" nicht ausreichend beleuchtet wird. Denn solche “Fails” bei IT-Projekten sind schon seit Jahren bekannt. Die Datenverarbeitung und -erfassung ist komplex, unabhängig von der Art des Projekts.
Wie ich in einem kürzlich erschienenen Blogbeitrag erwähnte, umrahmt Michael Seemanns Behauptung den Diskurs auf provokante Weise: "Ich bin bereit zu sagen: AI ist ein Betrug. Nicht so ein offensichtlicher Betrug wie die Krypto-Schneeballsysteme, aber ein Betrug auf der Ebene des Erwartungsmanagements.
Ich habe in allen Berufsgruppen - von IT-Ingenieuren bis hin zu Führungskräften - falsche Erwartungen erlebt. Die Annahme, dass KI gleichzusetzen ist mit automatischen Lösungen, ist weit verbreitet. Sogar nachdem wir unseren GRAVITY Content Type als "AI-Assist" benannt hatten, kamen Fragen auf. Nach Demonstrationen wurde nachgefragt, warum überhaupt ein Projektaufwand nötig sei, wenn man doch von einer KI erwarten könne, dass sie Aufgaben selbstständig erledigen kann.
Warum also passieren diese Dinge? Laut dem Vortrag "Empty Innovation" von "tante" auf der re:publica 24 haben wir in den letzten Jahren zahlreiche Beispiele für so genannte "leere Innovationen" beobachtet - Blockchain/NFTs, das Metaverse und den Trend "Uber, aber für X". Diese vermeintlichen Innovationen, die von unseren "Innovationsführern" angepriesen werden, führen oft nur zu minimalen sinnvollen Veränderungen und konzentrieren sich stattdessen auf höhere Kosten für Verbraucher, Mietmodelle für zuvor besessene Güter und Praktiken und Arbeitsrechte zu untergraben.
Künstliche Intelligenz scheint einem ähnlichen Trend zu folgen, bei dem sie für bestimmte Anwendungen sehr effektiv ist, aber für andere eindeutig nicht geeignet. Trotzdem wird sie oft als universelle Lösung vermarktet.
Zur Klarstellung: Trotz meiner langjährigen Erfahrung als IT-Berater erhebe ich nicht den Anspruch, Experte für KI-Integrationsprojekte in Unternehmen zu sein. Meine Erkenntnisse sollten nicht als verbindlich angesehen werden; sie sind einfach das, was ich in den letzten Monaten durch die Demonstration eines Produkts mit "KI" im Titel und die Zusammenarbeit mit KI-Projektteams in ganz Europa gelernt habe.
Tiefes Verständnis der Abläufe: Erfolgreiche KI-Implementierungen erfordern ein tiefes Verständnis der aktuellen Abläufe und eine sorgfältige Planung, um sicherzustellen, dass die KI kritische Prozesse ergänzt und nicht unterbricht. Werden die Integrationspunkte nicht festgelegt und die KI nicht so angepasst, dass sie mit den bestehenden Systemen zusammenarbeitet, ist dies ein Rezept für Ineffizienz, Fehler und Ablehnung durch die Benutzer. KI kann nicht in einem Silo betrieben werden; sie muss nahtlos in die Struktur des Unternehmens eingewoben werden, um ihr volles Potenzial auszuschöpfen.
Funktionsübergreifendes Team: Stellen Sie ein funktionsübergreifendes Team mit Fachwissen aus den Bereichen Datenwissenschaft, Softwaretechnik, Fachwissen und Geschäftsbetrieb zusammen. Unterschiedliche Perspektiven sind entscheidend für die richtige Integration von KI in bestehende Prozesse.
Dateninfrastruktur und Pipelines: Investieren Sie in die Dateninfrastruktur und -pipelines, um sicherzustellen, dass KI-Modelle Zugang zu qualitativ hochwertigen, korrekt formatierten Daten haben.
Kontinuierliche Überwachung Ihrer KI-Modelle: Implementieren Sie Prozesse zur kontinuierlichen Überwachung und Verbesserung von KI-Modellen. KI ist ein iterativer Prozess, daher sind Mechanismen für kontinuierliches Lernen und Weiterentwicklung unerlässlich.
Copyright © The logo of "Failarmy" featured in the title image of this blog is the property of Failarmy.