14. Februar 2023 von Marc Mezger
Rückblick auf die KI-Highlights 2022
Wenn wir auf das vergangene Jahr zurückblicken, können wir die unglaublichen Fortschritte und Entwicklungen im Bereich der Künstlichen Intelligenz (KI) nicht ignorieren. Von Durchbrüchen bei der Verarbeitung natürlicher Sprache und beim maschinellen Lernen bis hin zum zunehmenden Einsatz von KI in einer Vielzahl von Branchen sind die Auswirkungen dieser Technologie weltweit spürbar.
In meinem Jahresrückblick werde ich einen Blick auf einige der aufregendsten und bemerkenswertesten Errungenschaften im Bereich der KI werfen und die potenziellen Risiken und Herausforderungen aufzeigen, die mit ihrem raschen Fortschritt einhergehen. Wir werden uns auch mit den ethischen Erwägungen im Zusammenhang mit dem Einsatz von KI und der Bedeutung einer verantwortungsvollen Entwicklung und Anwendung befassen.
Auch in diesem Jahr wird es von entscheidender Bedeutung sein, die Diskussion über die Rolle der KI in der Gesellschaft fortzusetzen und darüber nachzudenken, wie wir ihr Potenzial nutzen können, um positive Veränderungen herbeizuführen. Ich hoffe, dass dieser Rückblick als hilfreicher Leitfaden und Denkanstoß dient, während wir uns durch die sich ständig weiterentwickelnde Landschaft der Künstlichen Intelligenz bewegen.
Large Language Models – der Hype um ChatGPT
Ich möchte mit einem Thema beginnen, mit dem das KI-Jahr 2022 endete: ChatGPT. Dabei handelt es sich um den Prototyp eines KI-Chatbots, der von OpenAI entwickelt wurde und auf Chats beziehungsweise Dialoge spezialisiert ist. OpenAI ist ein Forschungslabor für Künstliche Intelligenz, das von Elon Musk, Sam Altman und Greg Brockman gegründet wurde und sich auf die Entwicklung von KI konzentriert, insbesondere auf neuronale Netze und maschinelles Lernen.
OpenAI hat sich zum Ziel gesetzt, den Fortschritt in der Künstlichen Intelligenz zu fördern und zu einer sicheren und verantwortungsvollen Anwendung beizutragen. Das Unternehmen hat viele wichtige Beiträge zur KI-Forschung geleistet, darunter die Entwicklung neuer Algorithmen und Technologien, die Veröffentlichung wissenschaftlicher Arbeiten und die Bereitstellung von KI-Tools und -Ressourcen für die Öffentlichkeit. Im Jahr 2019 hat OpenAI eine Milliardeninvestition von Microsoft erhalten, was die Unabhängigkeit der Institution zumindest teilweise in Frage stellt. Dennoch ist OpenAI eines der besten KI-Forschungslabore der Welt. ChatGPT wurde im November 2022 veröffentlicht und erreichte in nur fünf Tagen mehr als eine Million Nutzer. ChatGPT ist ein GPT-3.5-Netzwerk, eine Transformer-Architektur, eine Zwischenversion auf dem Weg zur lang erwarteten GPT-4-Version, die für das erste Quartal 2023 erwartet wird. GPT4 soll ein weiterer Quantensprung im Bereich der natürlichen Sprachverarbeitung sein und wird voraussichtlich auch wesentlich besser als ChatGPT funktionieren.
ChatGPT kann sehr gut mit Menschen sprechen, Programme schreiben (die meistens auch funktionieren), Texte zusammenfassen und vieles mehr. Allerdings erfindet das Modell auch gerne Fakten (sogenannte Halluzinationen) – so hat das Programm bei einigen Anfragen schon ganze Studien inklusive Ergebnis komplett erfunden. Generell hat ChatGPT zwar moralische Grundsätze, diese können aber leicht durch Tricks ausgehebelt werden. Ein immer wiederkehrendes Problem bei diesen Modellen ist, dass sie über mehrere Monate trainiert werden müssen, das heißt, sie kennen nie die aktuellen Trends und Informationen. Generell kann man sagen, je einfacher die Aufgaben sind, desto besser sind die Ergebnisse von ChatGPT. Sobald die Aufgaben aber komplexer werden und mehr Wissen erfordern, ist das Modell meist überfordert. Alles in allem ist ChatGPT aber ein großartiger Prototyp, der einen Weg aufzeigt, wie KI disruptiv im Arbeitsmarkt eingesetzt werden kann.
Hat eine KI ein Bewusstsein entwickelt? – Die Google-LaMDA-Kontroverse
Laut Washington Post wurde Blake Lemoine – Software-Ingenieur bei Google – beurlaubt, nachdem er behauptet hatte, dass ein von Google entwickelter KI-Algorithmus namens LaMDA ein Bewusstsein und eine Seele habe. Der Software-Ingenieur war davon überzeugt, nachdem er mit LaMDA gesprochen hatte. Das Programm sei vergleichbar mit einem sieben- oder achtjährigen Kind. Da niemand bei Google diese Überzeugung teilte, soll Lemoine einem Mitglied des US-Senats Dokumente über den Chatbot vorgelegt und behauptet haben, Google diskriminiere seine religiösen Überzeugungen. Daraufhin wurde er von Google entlassen. Inzwischen hat Lemoine eine Abschrift eines seiner Gespräche mit LaMDA veröffentlicht. Zum Hintergrund: LaMDA ist ein Sprachmodell für Dialoge wie ChatGPT, wurde aber ohne menschliche Feedbackschleife trainiert.
Ich habe einmal ein Sprachmodell (ChatGPT) gefragt, ob es ein Bewusstsein hat. Der Vollständigkeit halber muss gesagt werden, dass dies aufgrund der LaMDA-Debatte ein kritisches Problem für KI-Unternehmen darstellt und diese Antwort wahrscheinlich absichtlich von den Entwicklerinnen und Entwicklern trainiert wurde. Dies ist vergleichbar mit der Tatsache, dass die Modelle nicht offensichtlich rassistisch oder sexistisch sind.
Ein zweischneidiges Schwert, denn diese Modelle wurden auf der Grundlage von Texten trainiert, die von Menschen verfasst wurden. Dadurch fließen natürlich auch menschliche Vorurteile und Neigungen in die gelieferten Texte ein. Andererseits können diese Programme dadurch sehr gut mit Menschen interagieren und sind in der Lage, menschliche Kommunikation zu verstehen und ein normales Gespräch zu führen. Die Behauptung, LaMDA habe ein Bewusstsein, wurde jedoch von allen Expertinnen und Experten als unhaltbar zurückgewiesen. Dies konnte auch durch die Kommunikation mit der KI nicht nachgewiesen werden.
AI Act European Union – eine Regulierung von KI
Der AI Act ist ein Gesetzesvorschlag der Europäischen Union, der einen Rahmen für die Regulierung von Künstlicher Intelligenz in der EU schaffen soll. Die vorgeschlagenen Rechtsvorschriften sollen die Sicherheit und Zuverlässigkeit von KI-Systemen gewährleisten und die Grundrechte des Einzelnen im Zusammenhang mit der Nutzung von KI schützen.
Das Gesetz teilt KI-Anwendungen in drei Risikokategorien ein:
- Verboten
- Risikoreich
- Unreguliert
Anwendungen, die ein inakzeptables Risiko darstellen, wie etwa ein von der Regierung betriebenes Social Scoring, sind verboten. Anwendungen mit hohem Risiko, wie zum Beispiel ein Tool zum Scannen von Lebensläufen, das eine Rangliste von Bewerberinnen und Bewerbern erstellt, unterliegen besonderen rechtlichen Anforderungen. Anwendungen, die nicht ausdrücklich verboten oder als riskant eingestuft sind, bleiben weitgehend unreguliert.
Das Gesetz soll sicherstellen, dass KI so eingesetzt wird, dass die Gesellschaft davon profitiert und die Rechte des Einzelnen geschützt werden. Durch die Festlegung klarer Richtlinien für die Entwicklung und den Einsatz von KI-Systemen sollen Bedenken hinsichtlich möglicher negativer Verhaltensweisenvon KI, wie Voreingenommenheit und Diskriminierung, ausgeräumt werden. Das Gesetz zielt auch darauf ab, Transparenz und Verantwortlichkeit bei der Nutzung von KI zu fördern, indem Organisationen verpflichtet werden, die Entscheidungen ihrer KI-Systeme klar zu begründen.
Der AI Act befindet sich noch im Entwurfsstadium. Sollte das Gesetz verabschiedet werden, könnte es zu einem weltweiten Standard für die Regulierung von KI werden und erhebliche Auswirkungen auf die Entwicklung und Nutzung von KI-Technologien haben. Das Gesetz wurde bereits wegen seiner Ausnahmen und Schlupflöcher kritisiert, die seine Wirksamkeit bei der Gewährleistung eines verantwortungsvollen Einsatzes von KI einschränken könnten. Es wurde auch vorgeschlagen, das Gesetz zu verbessern, indem darin mehr Flexibilität geboten wird, um auf neue und erst noch aufkommende Risiken zu reagieren, sobald sie entstehen.
Weitere Informationen zum KI-Gesetz findet ihr hier
Generative AI – KI in der Kunst
Generative KI ist eine Art der Künstlichen Intelligenz, die sich auf die Generierung neuer Inhalte konzentriert, anstatt nur vorhandene Inhalte zu erkennen und zu klassifizieren. Dabei werden Algorithmen des maschinellen Lernens eingesetzt, um auf der Grundlage einer Reihe von Eingabedaten oder einer Reihe von Regeln oder Einschränkungen neue Inhalte zu erstellen. Diese Inhalte können in Form von Text, Bildern, Musik oder anderen Medienformen vorliegen. Generative KI kann verwendet werden, um neue Ideen, Entwürfe oder Produkte zu entwickeln oder um Inhalte zu generieren, die bestehenden Inhalten ähneln, aber Variationen oder Unterschiede aufweisen. Einige Beispiele für generative KI sind Sprachübersetzung, Bilderzeugung und Musikkomposition.
Passend dazu gab es einen kleinen Skandal in der Kunstszene. Es handelt sich um einen Kunstwettbewerb, der auf der Colorado State Fair stattfand. Jason Allen reichte dort ein Bild ein, das er mit der KI-Software Midjourney erstellt hatte. Das Bild wurde unter dem Namen „Jason M. Allen via Midjourney“ eingereicht und gewann den ersten Preis in der Kategorie „Emerging Digital Artists“. Dies löste eine Debatte über den Einsatz von Künstlicher Intelligenz in der Kunst aus, da einige Leute der Meinung waren, es handele sich um ein Plagiat oder sogar um Betrug, da das Bild nicht von Menschenhand geschaffen wurde. Die Verantwortlichen des Wettbewerbs erklärten jedoch, dass es nach den derzeitigen Regeln nicht verboten sei, Kunstwerke mit Hilfe von KI zu schaffen, dass sich dies aber in Zukunft ändern könnte.
Konkret handelt es sich um die Anwendung Stable Diffusion – die Open-Source-Variante von Dalle 2. Diese wurde von der bereits erwähnten Firma OpenAI erfunden, später von Microsoft exklusiv aufgekauft und in Microsoft Azure – die Cloud-Computing-Sparte von Microsoft – integriert.
Wie bei ChatGPT ist es auch hier gelungen, mit Open Source nachzuziehen und mit Stable Diffusion vergleichbare Ergebnisse zu erzielen. Jeder Nutzer kann mit wenigen Eingabeaufforderungen eigene Bilder generieren.
Ein Beispiel für Dalle 2: Mit dem Satz „Panda mad scientist mixing sparkling chemicals in a laboratory, with an explosion of colors in a background“ konnte ich dieses Bild erzeugen:
One Model to rule them all – eine KI für alles
Eine weitere sehr interessante Entwicklung im Jahr 2022 war, dass viele Forschungsteams nicht mehr eine KI für ein spezifisches Problem entwickelt haben, sondern eine KI, die viele Probleme und Aufgaben lösen kann. Dies wird als „emergent skill of large language models“ bezeichnet und bedeutet, dass eine Anwendung in der Lage sein muss, nicht nur Kochrezepte zu entwerfen, sondern auch Bücher und Computerprogramme zu schreiben, ohne dafür optimiert zu sein. Außerdem muss eine Anwendung nicht nur mit Text, sondern auch mit Bildern umgehen können.
Im Frühjahr 2022 veröffentlichte Google das Pathways Language Model (PaLM). Eine Anwendung, die sehr gute Ergebnisse bei der Lösung von Hunderten von Aufgaben erzielte, ohne explizit dafür trainiert worden zu sein. Kurze Zeit später wurde Gato vorgestellt. Dabei handelt es sich um eine Anwendung von DeepMind, einer Tochtergesellschaft von Google, die dafür bekannt ist, eine KI gebaut zu haben, die den besten Go-Spieler der Welt geschlagen hat. Gato ist eine KI, die 600 verschiedene Aufgaben lösen kann, darunter Computerspiele spielen, Bauklötze und Legosteine stapeln oder Bilder erstellen.
Die Anwendungsmöglichkeiten für solche allgemeinen Modelle sind unbegrenzt. Sie fallen genau in den von der Europäischen Union geplanten AI Act, denn es ist notwendig, dass sie bei den Behörden registriert und regelmäßig überprüft werden. Das Problem besteht darin, dass solche Anwendungen über Fähigkeiten zur Bild- und Spracherkennung, Audio- und Videoerzeugung, Mustererkennung, Frage- und Antworterkennung und Übersetzung verfügen.
Ein Ausblick könnte wie folgt lauten: Diese Anwendungen werden in Zukunft vielleicht in der Lage sein, den Menschen perfekt zu ergänzen, und werden in Zukunft wahrscheinlich unverzichtbar sein. Beispielsweise könnte eine KI als digitaler Assistent einer Ärztin oder eines Arztes eingesetzt werden und alle administrativen Tätigkeiten automatisiert erledigen. Dadurch hätte das medizinische Personal mehr Zeit für die Patientinnen und Patienten.
Fazit
Das Jahr 2022 war voll von interessanten und neuen KI-Entwicklungen und das Feld entwickelt sich mit unglaublicher Geschwindigkeit. Und es bleibt spannend: In diesem Jahr soll OpenAI GPT-4 veröffentlicht werden – ein enormer Fortschritt, wie die Visualisierung der Parameteranzahl zeigt:
Durch die wesentlich größere Anzahl von Parametern in GPT-4 wird es wahrscheinlich ChatGPT und GPT-3 in den Schatten stellen und eine deutlich bessere Performance haben. Natürlich hat dies auch zu einem wesentlich höheren Preis für die Umwelt und die Benutzerinnen und Benutzer. Das Problem mit diesen Netzwerken besteht nämlich darin, dass sie sehr viel Energie und Zeit benötigen, um trainiert zu werden.
Das KI-Sprachmodell Bloom hat während seines Trainings 50 Tonnen CO2 produziert. Zum Vergleich: Eine Tonne CO2 entspricht 3.300 Kilometern in einem Benzinauto, einem Flug von Frankfurt nach New York oder 8.800 Tassen Kaffee. Trainiert wurde es vier Monate lang auf 384 A100-Grafikprozessoren (ca. 17.000 Euro pro Stück). Das Training kostete sieben Millionen Dollar. Neben diesem Nachteil hinsichtlich Zeit und Kosten haben solche Modelle aber auch einen Vorteil: Man muss DIE nicht mehr für jeden Zweck neu trainieren, sondern kann sie durch gezielte Befehle (Prompts) anpassen, ohne sie neu trainieren zu müssen. Auf diese Technik werde ich in einem anderen Blog-Beitrag genauer eingehen.