Ein Crashkurs über KI, Robotik und die Zukunft

LESEZEIT
5 MIN

Ist ChatGPT die schlauste dumme Sache der Welt? Die Frage, was genau KI ist, wird meiner Meinung nach zu wenig gestellt.

Gerade jetzt, wo wir uns mitten in einem großen Hype um KI befinden, ist es unglaublich wichtig, diese Diskussion zu führen. Da ich so viele Missverständnisse darüber höre, dachte ich, es wäre hilfreich, einen kleinen Leitfaden zu schreiben, was KI ist, wie wir sie heute kennen, und wohin sie möglicherweise in der Zukunft führt.

what is artificial intelligence
Automatisierung und KI – bitte nicht verwechseln!

Beginnen wir mit den Grundlagen: Automatisierung. Wenn wir an einfache Maschinen denken, die Arbeit erledigen können, sprechen wir nicht von künstlicher Intelligenz. Das mag offensichtlich erscheinen, aber wenn wir Dinge wie riesige Montagelinien mit Roboterarmen sehen, die Autos bauen, ist es verlockend anzunehmen, dass diese Maschinen denken können. Tatsächlich ist klassische Robotik zwar beeindruckend, aber nicht darauf ausgelegt, zu denken oder gar Probleme zu lösen. Das Hauptziel der Automatisierung besteht einfach darin, bestimmte Schritte mit sehr hoher Präzision nachzubilden (z. B. das Eindrehen einer Schraube immer an genau der gleichen Stelle eines Autopaneels oder der Einsatz von Sensoren, um Objekte immer nach Größe zu sortieren, wie bei einer automatisierten Münz-Zählmaschine). Dies gilt auch für Dinge wie automatisierte Zahlungsautomaten, sei es in einem Lebensmittelgeschäft oder einer Fast-Food-Kette.

Sogenannte KI kommt dann ins Spiel, wenn wir über Schlussfolgern oder Denken sprechen. Ein KI-System kann auf der Grundlage sehr unterschiedlicher Eingaben neue Ergebnisse erzeugen. Nehmen wir als Beispiel ChatGPT, da es zu den bekanntesten derzeit verfügbaren KIs gehört. Wir können ChatGPT die gleiche Frage auf vielfältige Art und Weise stellen, und es wird diese Unterschiede größtenteils verstehen und trotzdem die gleiche Antwort geben. Wo am Fließband bereits eine Änderung um einen Zentimeter den gesamten Prozess durcheinander bringen kann, kann ChatGPT viele verschiedene Eingaben verstehen und eine durchweg korrekte oder eindeutige Antwort ausspucken.

ChatGPT und der Aufstieg der großen Sprachmodelle

ChatGPT ist dabei ein sehr eingeschränktes System, das nur für eine bestimmte Aufgabe konzipiert ist: die Nachahmung der menschlichen Sprache. Dazu greift es auf riesige Datenmengen zurück, die es mit unglaublich hoher Verarbeitungsgeschwindigkeit analysiert. Aber: ist ChatGPT bei Bewusstsein und in der Lage, wie ein Mensch zu denken? Diese Frage führt uns schnell den Unterschied zwischen Fantasie und Wirklichkeit vor Augen.

Das GPT in ChatGPT steht für „Generative Pre-Trainer Transformer“ und die Arbeit an solchen Sprachmodellen begann bereits in den 1980er Jahren. Tatsächlich werden riesige Datenmengen „trainiert“ (d. h. gefüttert) und anhand dieser Daten werden mithilfe von Wahrscheinlichkeiten und Statistiken neue Ergebnisse auf der Grundlage von Fragen oder Aussagen eines Benutzers vorhergesagt. Seit den 1980er Jahren haben GPTs einige bedeutende Fortschritte gemacht, die heute im Erfolg von ChatGPT ihren Höhepunkt finden.

Wie funktionieren große Sprachmodelle genau, fragen Sie sich vielleicht? Diese Systeme kennzeichnen vorhandene Dateneinträge und weisen ihnen basierend auf ihrer Häufigkeit und relativen Nähe zueinander einen Wert zu. Das ist etwas kompliziert, aber kurz gesagt bedeutet es, dass die Modelle ziemlich genau lernen können, mit verblüffender Genauigkeit vorherzusagen, wie wir sprechen und schreiben.

Doch wo liegen ihre Grenzen? Zum einen basieren ChatGPT und alle anderen großen Sprachmodelle auf Wahrscheinlichkeits-Berechnungen. Schon bei Alan Turing war die Frage nach den Grenzen dieser Berechnungen ein großes Thema. In vielen technischen und auch wissenschaftlichen Kreisen ist man sich einig: Berechnungen können Wunder bewirken, ohne dass die berechnende Maschine ein Verständnis vom Sinn des Berechneten hätte. Aus diesem Grund wehren sich die Menschen so energisch gegen die Idee, dass ChatGPT oder jedes andere große Sprachmodell jemals „Bewusstsein“ oder „Gefühl“ erreichen kann, weil es im Kern nicht mehr als eine einfache Maschine ist, die Eingaben und Ausgaben berechnet, und nicht irgendetwas, das aus sich selbst heraus Handlungskraft hat. Da aktuelle LLMs (Large Language Models) wie ChatGPT darüber hinaus riesige Textmengen ausspucken, besteht die Frage der Kontamination: Während die erste Generation von LLMs die tatsächliche menschliche Reaktion nachahmt, werden spätere Generationen auf Daten zurück greifen, die sowohl von Menschen als auch von Maschinen generiert wurden. Welche Auswirkungen dies auf die Entwicklung der Sprachausgabe haben wird, bleibt abzuwarten.

Das bringt uns zu einer bedeutenden Grundsatzfrage.

Was ist Intelligenz überhaupt?

Manche Menschen bezeichnen Dinge wie ChatGPT als „intelligent“. Aber nehmen wir uns doch einen Moment Zeit, um darüber zu sprechen, was wir eigentlich unter Intelligenz verstehen.

Eine flüchtige Suche nach der Definition ergibt: Intelligenz ist die Fähigkeit, Wissen und Fähigkeiten zu erwerben und anzuwenden. Es ist wahr, dass ChatGPT eine Vielzahl von Dingen kann und dass es sich auf der Grundlage vergangener Eingaben und Daten selbst verfeinern kann, aber kann ChatGPT dieses Wissen auf neue Situationen anwenden? Vermutlich schon. Wenn ich ChatGPT mitteile, dass bestimmte Daten immer organisiert und in einer Tabelle ausgegeben werden sollen, kann dies in Zukunft sinnvollerweise erledigt werden, ohne dass ich es jedes Mal erneut anfordern muss.

Legt man den selben Maßstab zugrunde, gibt es eine Vielzahl von Softwareprogrammen, die bereits so arbeiten. Microsoft Excel kann mithilfe von Formeln trainiert werden und kann basierend auf früheren Eingaben weiterhin erraten, was meine nächsten Eingaben sein werden. Der Unterschied besteht darin, dass ich mit Microsoft Excel nicht in natürlicher Sprache sprechen kann. Aber bezogen auf Formeln und ihre Verwendung ist es sicherlich so, dass Excel  mich sozusagen „kennenlernt”. Auch Software, die Texteingaben vorschlägt, beispielsweise beim Versenden von Nachrichten auf Smartphones, lernt die Gewohnheiten ihre Benutzer kennen.

Auf dem Gebiet der Psychologie gibt es enorme Meinungsverschiedenheiten darüber, was Intelligenz ist und wie viele verschiedene Arten es gibt. Einige Psychologen plädieren für “kristallisierte” gegenüber “flüssiger” Intelligenz, während andere auch darauf hinweisen, dass die Art und Weise, wie flüssig man emotionale Eingaben verarbeiten und vermitteln kann (der „emotionale Quotient“, d. h. emotionale Intelligenz), ebenso ein gültiges Maß für das Verständnis menschlicher kognitiver Fähigkeiten ist.

Der oft zitierte und allgegenwärtige „Intelligenzquotient“ oder IQ-Test selbst wird häufig angegriffen, weil er irreführend, voreingenommen oder unvollständig beim Nachweis von Intelligenzunterschieden zwischen Alter, Rasse, Geschlecht und Kultur sei. Obwohl diese Metrik regelmäßig verwendet wird, ist sie nur ein Paradigma in einer viel umfassenderen Diskussion über Eignung und neuronale Fähigkeiten.

Insbesondere im Bildungsbereich hat beispielsweise die Theorie der multiplen Intelligenzen einen starken Aufschwung erlebt. Dieser Theorie zufolge verfügen manche Menschen möglicherweise über eine natürliche Begabung für Musik, Sport oder zwischenmenschliche Fähigkeiten sowie über eine Vielzahl anderer Dimensionen. Sie argumentieren, dass die Tatsache, dass ein geborener Tänzer oder Sportler so im Einklang mit seinem Körper ist, als nicht anders als ein anderer Schüler angesehen werden sollte, der sich in Mathematik und anderen abstrakten Denkaufgaben auszeichnet.

Es gibt keinen strikten Konsens über diese Ideen, und das ist völlig in Ordnung. Die Frage, wo große Sprachmodelle hineinpassen, wird die Zeit zeigen, und wenn Wissenschaftler Fortschritte bei ihren Daten machen, können möglicherweise die Fragen nach der wahren Natur der Intelligenz geklärt werden. Aber da sind wir noch nicht.

 

Die Zukunft liegt im Streben der Menschheit nach AGI

Und so kommen wir zu unserem letzten neuen Begriff: „Künstliche Allgemeine Intelligenz“ (“Artificial General Intelligence” oder AGI). AGI ist der heilige Gral, und bisher ist es niemandem gelungen, sie zu erreichen. Viele sagen, dass wir das vielleicht nie ganz schaffen werden. Aber AGI würde mehr oder weniger mit der Zuverlässigkeit eines Menschen auf echte Menschen reagieren. AGI könnte unruhig werden und Gefühle verspüren. Ohne dass Sie etwas eingeben und die Eingabetaste drücken, erscheint möglicherweise ein Hinweis auf Ihrem Bildschirm, der besagt: „Hey David, mir ist ein bisschen langweilig. Willst du dich unterhalten?” Und wenn Sie ständig „Nein“ sagen, kann es sogar einen Groll gegen Sie entwickeln. Das ist die Intelligenz, an die wir denken, wenn wir Filme über KI sehen, und obwohl die meisten Menschen dies wahrscheinlich mit eingeschränkter KI wie ChatGPT verwechseln, sind die Unterschiede sehr real.

 

Wie wird AGI aussehen?

In Film, Fernsehen und Literatur wird AGI oft als humanoide Maschine verkörpert, die böse Taten begeht. Denken Sie an so ziemlich jeden großen Film, in dem es um empfindungsfähige Roboter geht und Sie werden eine dystopische Idee von AGI erkennen. Allerdings gibt es keinen Grund zu der Annahme, dass dies jemals der Fall sein kann oder wird. So wie wir über Außerirdische sprechen und wie dumm es wäre, dass sie Menschen ähneln sollten (warum sollte etwas von einem völlig anderen Planeten und einer völlig anderen Galaxie wie wir aussehen?), ist es genauso albern, sich vorzustellen, dass AGI dem Verhalten menschlicher Gehirne ähnelt.

Denn ob es für uns überhaupt ein Ziel ist, dass KI menschliche Gedanken und Gefühle nachahmt, ist selbst eine Frage ohne Antwort. Zwei bedeutende Informatiker, Stuart Russel und Peter Norvig, haben darauf hingewiesen, dass Menschen bei der Entwicklung von Flugzeugen dies nicht mit der Absicht taten, den Flug von Vögeln nachzuahmen, also mit Flügelschlägen, Federn usw. Warum erwarten viele dasselbe von der KI? Welche „Flugzeug -Version” der KI auch immer entstehen wird, kann für die Menschheit wunderbar sein, aber der Intelligenz der Menschheit überhaupt nicht ähneln. Dies war in der Vergangenheit immer wieder beim menschlichen Einfallsreichtum der Fall, und zwar mit großem Erfolg.

 

Das Beste aus dem machen, was wir haben

Es überrascht vielleicht nicht, dass für mich am interessantesten ist, wo sich einige dieser Dinge überschneiden. Ich denke, AGI ist ein großartiges Ziel, aber bis dahin liegt noch ein weiter Weg vor uns. Allerdings verfügen wir auf der Welt über hervorragende Roboter und auch über sehr gute und ständig wachsende KI-Fähigkeiten. Ich denke an unser Fabrikbeispiel von vorhin – wenn man die Autobauroboter nur um einen Zentimeter bewegt, werden sie zu riesigen Briefbeschwerern. Wenn wir diese Roboter allerdings mit Sensoren und Sprachverarbeitungsmodellen wie ChatGPT ausstatten, können wir sie mehrere hundert Meter weit wegbewegen und sie können von ganz alleine den Weg zurück an den richtigen Ort finden, um korrekt und sicher weiterzuarbeiten.

Das ist eine Zukunft, die ich gerne gestalten möchte. Roboter, die durch die Integration von KI frei werden und so ihre gesamte Produktivität in unserem Alltag entfesseln können. Das haben wir in der Hand. Und die gute Nachricht ist, dass wir nicht auf Dinge wie AGI warten müssen, um es zu realisieren.

ALLE ARTIKEL

LESEZEIT 5 MIN

LESEZEIT 6 MIN

LESEZEIT 6 MIN

LESEZEIT 6 MIN

LESEZEIT 6 MIN

Zum Journal