15. November 2018 von Monika Gatzke
Schlaue Algorithmen an den Grenzen der Digitalisierung Teil 1
Der legendäre Satz des Silicon-Valley-Urgesteins Marc Andreessen „Software is eating the world“ aus dem Jahr 2011 war prophetisch. Software dringt immer weiter vor. Prallen reale und digitale Welt unmittelbar aufeinander, ergeben sich für Softwareentwickler und Projektverantwortliche ganz neue Anforderungen. Mit der Realität hält auch das Chaos Einzug in die IT-Systeme. Die klassischen Ansätze der Informatik helfen nicht weiter. Entgegen aller aktuellen Euphorie gibt es Grenzen der Digitalen Transformation. Entscheidet ein Algorithmus, wer einen Kredit oder eine Wohnung bekommt, verbergen sich in ihm Vorstellungen über den optimalen Zustand der Welt. Welche Parameter die Entwickler heranziehen und wie sie welchen Faktor bewerten, können Außenstehende nicht nachvollziehen. Das führt schnell zu Fehlentwicklungen. Ihr stimmt uns sicherlich zu: Der Digitalen Transformation sollten Grenzen gesetzt werden.
Zwischen Realität und Modell
Wie ihr sicherlich wisst, haben sich Methoden und Technologien des Software Engineering in den vergangenen Jahrzehnten weiterentwickelt. Eine Grundlage blieb dabei erhalten: Die Entwickler gehen von einem geschlossenen Modell aus. Alles, was das System verwalten, berechnen oder erzeugen soll, schlägt sich in Artefakten nieder. Zu den Informationen gehören Merkmale über Dinge und Menschen, sogenannte Objekte, die im Anwendungskontext relevant sind. Das können Auslastungen, Wartungszustände, Vertragsinhalte, Kundendaten oder Kontostände sein. Andere Merkmale oder Objekte spielen bei der Modellbildung und im Anwendungskontext keine Rolle. So entsteht eine Trennlinie zwischen dem im Informationssystem berücksichtigten Ausschnitt und dem Rest der Welt.
Lange war dies eine feste Grenze. Auf der einen Seite die Realität, auf der anderen Seite das Modell. Die Experten konnten exakt definieren, was ins Modell gehört und was nicht. Mit dieser Gewissheit bauten sie Softwaresysteme, optimierten Abläufe und schufen die Grundlage für neue Services und Produkte. Jetzt brechen Informationssysteme aus der Modellwelt aus. Ob Internet der Dinge, Cyber-Physical Systems, Chatbots oder datengetriebene Systeme: Sie alle sind Indikatoren für die Digitalisierung unserer Lebenswirklichkeit. Unternehmen nutzen die zugrundeliegenden Algorithmen nicht mehr nur dazu, um Maschinen zu steuern und Bestandskunden zu verwalten. Software spielt künftig auch bei der Einsatzplanung von Wartungstechnikern, der Suche nach einem Partner oder bei der Entscheidungsfindung im politischen Prozess eine Rolle. Wie ihr erkennen könnt, sind das Aufgaben, die deutlich über das hinausgehen, was die Systeme und ihre Entwickler bisher leisten mussten.
Bei sozio-technischen Systemen ist es mit der Planbarkeit schnell vorbei. Wie der Umgang mit Chatbots zeigt, haben Menschen eine diebische Freude daran, diese Interaktionssysteme an ihre Grenzen zu führen. Die Möglichkeiten, ein solches System zu torpedieren, sind für Trolle fast unbegrenzt. Damit kommt der Anspruch eines Chatbots, menschliche Kommunikation täuschend echt nachzuahmen, schnell an seine Grenzen. Ihr gebt uns sicherlich Recht, dass die Perspektive eines Trolls daher zum Testen solcher Systeme dazugehören sollten.
Chatbots sind ein Beispiel, bei dem die Modellbildung mit all ihren definierten Strukturen und Abläufen hart auf die echte Welt prallt. Entscheiden nicht mehr Modellgrenzen und verwaltete Objekte, sondern handelnde Subjekte über den Erfolg eines Informationssystems, kommen die bisherigen Ansätze der Softwareentwicklung an ihre Grenzen.
Komplexere Modelle stellen keine Lösung dar
Das über Jahre erprobte Standardvorgehen der Informatiker „Modell aufbauen, von allem anderen abstrahieren und dann nur noch damit weiterarbeiten“ reicht künftig nicht mehr aus. Die Annahme hinter einem Modell ist stets, dass es die Wirklichkeit hinreichend detailliert abbildet. Je enger aber die physische und die digitale Welt zusammenwachsen, desto weniger trifft das zu. Erste Erfahrungen mit Cyber-Physischen Systemen zeigen, dass es Informatikern Probleme bereitet, mit dieser Tatsache umzugehen. Fast reflexartig bauen sie komplexere Modelle, um die Realität detaillierter abzubilden.
So entstehen Systeme, die immer noch eine Ausnahme mehr erfassen. Ihre Schöpfer führen sich nicht vor Augen, dass hinter dieser einen Ausnahme eine unendliche Vielfalt an Möglichkeiten steckt, die das System noch immer nicht berücksichtigt. Aktuell lassen sich zwei Entwicklungen beobachten: Einerseits gibt es Informationssysteme, deren Systemgrenzen an allen Ecken und Enden ausfransen. Beispiele dafür sind betriebswirtschaftliche Systeme (ERP/Enterprise Ressource Planning) mit all ihren Funktionen. Andererseits gibt es Systeme, die sich gar nicht mehr bewegen und den Anschluss an die Digitalisierung verlieren. Sie verkommen zu langweiligen Backend-Lösungen.
Diese Diskrepanz zwischen den Modellen der Informatik und dem realen Leben zeigt die Grenzen der Digitalen Transformation auf. Es gibt Ideen, wie Experten dieses Problem in den Griff bekommen. Welchen Erfolg diese Ideen haben, steht bislang in den Sternen.
Von selbstlernenden Systemen bis hin zu Künstlicher Intelligenz
Wie ihr sicherlich wisst, erkennen Algorithmen Muster in grossen Datenmengen. Sie lernen, indem sie Experten bei der Arbeit beobachten oder indem sie gegen sich selbst antreten. All das führt dazu, dass Systeme innerhalb ihrer Grenzen zu besseren Ergebnissen kommen. Beim Sprung über diese Grenze helfen diese Ansätze nicht. Das Unvorhersehbare lässt sich nicht trainieren, wie ihr an folgendem kleinen Beispiel seht: Auf Basis hunderttausender Bilder können Entwickler einem Algorithmus beibringen, Katzen von Hunden zu unterscheiden. Ein einziges Bild einer Maus sorgt dafür, dass das System nicht mehr funktioniert.
Experten suchen die Lösung im Konzept der starken künstlichen Intelligenz. Dahinter steckt die Idee eines Systems, dessen intellektuelle Fertigkeiten mit denen eines Menschen vergleichbar sind oder diese sogar übertreffen. Eine starke KI handelt nicht mehr nur reaktiv, sondern auch aus eigenem Antrieb. In der Realität gibt es allerdings keine starke KI. Bisher kamen die Forscher noch nicht einmal in die Nähe eines Systems mit solchen Fähigkeiten. Daher dürfte diese Diskussion auf absehbare Zeit eher Philosophen als Informatiker beschäftigen.
Der erste Schritt im Hier und Jetzt sollte sein, dass die Experten verstehen, dass ein Teil der realen Welt immer ausserhalb des Informationssystems bleiben wird. Es muss klar sein, dass hinter der beobachtbaren Unordnung mehr Ausnahmen als Regeln stecken. Ein schmerzhafter Lernprozess. Das Gefühl der Allmacht, das Entwickler angesichts ihrer Möglichkeiten in den von ihnen geschaffenen Systemen bisher hatten, wird ersetzt durch Respekt und Demut vor dem Unbekannten.
Die Modelle können die Realität kaum mehr erfassen
Die Realität lässt sich nicht hinreichend und vollständig modellieren. Damit möchten wir euch Folgendes sagen: Es gilt nun, neue Systeme an der Grenze zwischen realer und digitaler Welt zu entwerfen. Dabei sollten die Experten nicht mit dem Ideal einer allumfassenden Lösung in den Entwicklungsprozess gehen, sondern mit dem aus der Lean-Startup-Bewegung bekannten Konzept des Minimum Viable Product. Dabei handelt es sich um die erste minimal funktionsfähige Variante eines Produkts oder einer Dienstleistung. Sie wird entwickelt, um den Kundenbedarf mit minimalem Aufwand zu decken. Während der praktischen Anwendung sammeln Entwickler Daten über Einsatzszenarien, Anwendungsfälle und Probleme. So können sie eingrenzen, was sich wie digitalisieren lässt und was nicht.
Gerade dieser letzte Teil der Erkenntnis – was sollte nicht digitalisiert werden oder was lässt sich einfach nicht digitalisieren – ist wichtig. Entwickler sparen viel Zeit und Geld, wenn sie sich auf die Themen konzentrieren, bei denen sich eine digitale Lösung lohnt. So können sie direkt im Entwurf der Systemgrundlagen die Systemgrenzen ziehen. Sie können Mechanismen einplanen, die greifen, wenn Ereignisse von jenseits des Erkenntnishorizontes unmittelbare Auswirkungen auf das System haben. So lassen sich Modi entwickeln, die dann zum Einsatz kommen, wenn die vorgedachten Lösungen nicht mehr weiterkommen. Ein Ansatz ist es beispielsweise, von vornherein gar kein autonom agierendes System anzustreben. Die Entwickler konzentrieren sich auf ein System, das automatisch die Unterstützung eines menschlichen Entscheiders anfordert, wenn es nicht weiter kommt. So könnte eine Lieferdrohne eigenständig den Weg durch den Luftraum bis zum Auslieferungsort finden. Aber angesichts der – völlig unvorhersehbaren – Katze, die auf der Kiste liegt, in der das Paket deponiert werden soll, schaltet sie einen Piloten hinzu, der die Situation überblickt, und einmal kurz hupt. Die Grundidee dahinter: Wir wissen nicht, was alles passieren kann.
Viele Probleme sind erkannt, es liegen aber noch nicht alle Lösungen auf dem Tisch. Gleichzeitig schicken sich Algorithmen an, die reale Welt zu verändern. Denn je mehr Funktionen und Entscheidungen ihnen übertragen werden, desto stärker beeinflussen sie das Leben des Einzelnen und die Entwicklung der Gesellschaft und das mit noch nicht absehbaren Konsequenzen.
Im zweiten Teil unseres Blog-Beitrags erfahrt ihr unter anderem, wieso die Leistungsfähigkeit von Maschinen die von Menschen übertreffen wird und warum Algorithmen schon bald eigenständig entscheiden. Übrigens: Auf unseren Webseiten zur Digitalen Transformation und zum Thema Künstliche Intelligenz findet ihr weitere spannende Themen und Impulse.
Das ist der erste Teil des Artikels. Der Originalartikel ist im is report, Ausgabe 5/2018 erschienen.