Künstliche Intelligenz & Natürliche Intelligenz: Von Sinn und Unsinn

Lassen Sie mich den Exkurs über Künstliche Intelligenz mit dem Erstellen eines Rezepts für Palatschinken beginnen:

Natürliche Intelligenz (NI): Eine Person könnte mithilfe ihrer natürlichen Intelligenz, ihrer Erfahrung, ihrer Kreativität und ihres kulturellen Erbes ein Palatschinken-Rezept erstellen. Diese Person könnte aufgrund ihres Verständnisses von Geschmack, Textur und kulinarischer Harmonie die passenden Zutaten und Mengen auswählen. Sie könnte auch auf persönlichen Vorlieben basierend entscheiden, ob sie traditionelle Zutaten verwendet oder kreative Variationen hinzufügt. Dieser Prozess würde menschliche Intuition, emotionale Verbindung zur Küche und ein tiefes Verständnis für die Kunst des Kochens und die Verwendung aller Sinne einschließen.

Künstliche Intelligenz (KI): Bei der Erstellung eines Palatschinken-Rezepts durch KI würden Algorithmen und maschinelles Lernen verwendet. Die KI könnte eine große Datenbank von bestehenden Palatschinken-Rezepten analysieren, um gemeinsame Zutaten, Mengenverhältnisse und Zubereitungsarten zu identifizieren. Sie könnte auch Trends in der Küche erkennen und möglicherweise innovative Kombinationen von Zutaten vorschlagen. Die KI könnte mithilfe von Mustererkennung und Wahrscheinlichkeiten ein neues Rezept generieren, das auf den analysierten Daten basiert. Dieses Rezept würde objektiv auf bewährten Informationen und statistischen Mustern beruhen, jedoch ohne persönliche Intuition oder kulturelle Berücksichtigung.

Der Unterschied zwischen den beiden Ansätzen liegt in der Tiefe des Verständnisses. Die natürliche Intelligenz kann die subtilen Nuancen der Aromen und die emotionale Verbindung zur Nahrung besser erfassen, während die künstliche Intelligenz auf statistischer Analyse und Mustererkennung basiert, ohne ein intrinsisches Verständnis für Geschmack oder Kultur zu haben.

So kam es bei einem Versuch mittels KI aus einem Pool von 1600 bekannten Eissorten neue Rezepte zu kreieren zu folgenden Vorschlägen: Kürbis-Müll-Eis, Erdnussbutter-Schleim-Eis, Erdbeersahne-Kompost-Eis, …

KI lernt. Bei meinem letzten Versuch Eissorten zu kreieren waren durchaus schon überlegenswerte, wenn auch gewagte Kombinationen zu finden: Lavendel-Honig-Ziegenkäse-Eis, Bier-Brezel-Eis, Sardellen-Kapern-Zitronen-Eis, …

Es ist ein großer Unterschied, einen Menschen um etwas zu bitten und dasselbe Ziel einem KI-System zu setzen. Fragt man jemanden, wie man von seinem Standort aus am schnellsten zu einer Tasse Kaffee kommt, wird er vielleicht den Weg zum nächsten Kaffeehaus erklären. Bittet man einen Menschen um eine Tasse Kaffee, ist das für ihn nicht die Aufgabe seines Lebens, als ob es nichts anderes gäbe. KI könnte hingegen befinden, dass es schneller geht, wenn man beim Nachbarn einbricht und seine Kaffeemaschine kapert. KI ist nicht auf Ethik und Moral programmiert.

Die Gefahr der KI besteht nicht darin, dass sie sich gegen uns auflehnt, sondern dass sie genau das tut, worum wir sie bitten. Die Kunst, mit KI zu arbeiten ist also: Wie bereitet man eine Fragestellung auf, damit sie das tut, was wir wollen?

Manchmal liegt die Krux auch schon an den Daten, mit denen KI trainiert wurde. Eine Gruppe von Forschern trainierte KI darauf, Schleien in Bildern zu erkennen. Das ging ziemlich daneben und es wurden viele Fische erkannt, die gar keine Schleien waren. Als die Forscher fragten, welcher Teil des Bildes zur Fische-Erkennung verwendet wurde, stellte sich heraus, dass es menschliche Finger waren. Warum sollte KI nach menschlichen Fingern bei der Fische-Erkennung suchen? Nun, die Schleie ist ein Trophäenfisch und in vielen Bildern, mit der die KI trainiert wurde, wurden die Fische eben von menschlichen Händen präsentiert.

Ich liebe KI. Etwa, wenn ich ChatGPT plaudernd als Suchmaschine verwende und an Informationen gelange, die bisher allen Rechercheversuchen trotzten. Oder wenn ich im Malen und Zeichnen wenig begabt, mit Midjourney auf faszinierende Weise die Bilder aus meinem Kopf auf den Bildschirm bringe. Für das piekfeine Erstellen eines Literaturverzeichnisses, das mich sonst Stunden beschäftigt hätte. Oder für das Analysieren von großen Datenmengen. Wobei wir schon wieder beim Unsinn sind, denn oft werden dabei äußerst überzeugende Aussagen generiert, die schlichtweg falsch sind oder gar gefährlich.

Das liegt daran, dass KI Systeme keine „Grundwahrheit“ haben, die aktuelle, präzise und vollständige Daten erfordern würde. Gütekriterien wie Objektivität, Transparenz, Erklärbarkeit und Nachvollziehbarkeit fehlen vollständig. KI ist laufend am Lernen.

Nutzt man KI also in einem Themengebiet, in dem man sich auskennt, kann man schmunzeln über so manchen haarsträubenden Unsinn, den ein Chatbot produziert. Und es ist auch spannend, mit gezielten Fragen herauszufinden, wes Geistes Kind KI ist. Aber man kann die Fehler erkennen und bestenfalls gleich Feedback geben, um den Lernprozess mitzusteuern und voranzutreiben. Ganz anders sieht es allerdings aus, wenn man beispielsweise versucht, Hilfe für ein gesundheitliches Problem zu finden, dass einen piesackt.

Künstliche Intelligenz in der Medizin

Gerade in der Medizin ist KI eine große Hilfe bei der Erstellung von Diagnosen, etwa beim Deuten von Röntgenbildern und MRT-Scans oder bei der Hautkrebserkennung. Und als Instrument der Schulmedizin ist sie natürlich auch hervorragend geeignet für die Therapieplanung oder das Herstellen individueller Medikamente. Maschinelle Intelligenz für eine maschinelle Medizin.

Für eine ganzheitliche, integrative biopsychosoziale Medizin braucht es jedoch mehr. Und hier sind wir bei Leistungen, die KI nicht zu erbringen vermag. Empathie erfordert die Mensch-zu-Mensch-Begegnung. Nonverbale Kommunikation ist mit einem Chatbot nicht möglich, Intuition und Urteilsvermögen fehlen ebenso wie Ethik und Moral.

Einst dachte man, natürliche Intelligenz wäre großteils eine genetische Sache. Doch unser Gehirn verfügt nur über das Potenzial zu Intelligenz. Ob und in welchem Ausmaß wir es entfalten, hängt von unseren Erfahrungen und von unseren sozialen Beziehungen ab.

Wenn wir diese Lernerfahrungen nicht mehr machen, etwa, weil wir sie in hohem Maße an künstliche Intelligenz delegieren, verarmen und verdummen wir kollektiv.

Sollte man nun das Kind mit dem Bade ausschütten, oder gibt es Wege der Synthese, um das Beste aus beiden Welten zu nutzen? Dazu bedarf es jedenfalls radikaler Umbrüche. Bildungseinrichtungen müssen weg vom Auswendiglernen von Fakten und stattdessen den Fokus auf kritisches Denken, Kreativität, das Fördern von Neugier und Entdeckergeist sowie das Lösen von Problemen legen. Ein grundlegendes Verständnis von KI kann dazu beitragen, sie dort zu nutzen, wo sie sinnvoll ist. Für einen klugen Umgang mit Technologie ist es notwendig, sich über seine ethischen Prinzipien und moralischen Werte klar zu sein.

Künstliche Intelligenz hat sich in rasender Geschwindigkeit Allgegenwärtigkeit erobert. KI ist überall, ob es uns bewusst ist oder nicht. Ob sie zu unserer Zerstörung oder zu unserer Erlösung beitragen wird, liegt in unserer Hand.

Soll künstliche Intelligenz zum Wohle aller beitragen, ist die erste Forderung, dass sie frei von finanziellen Interessen zur Open Source werden muss, anstatt eine weitere Ausbeutungsoptimierung des Kapitalismus darzustellen. Die zweite Notwendigkeit ist, die Konstruktion offenzulegen, um eine gemeinsame transparente Gestaltung zu ermöglichen, und zwar nicht nur einer privilegierten Gruppe von Menschen. Die bohrende Frage ist: Welche Werte liegen der Konstruktion und Verwendung zugrunde?

Wie schnell es gewollt oder auch ungewollt zu Verzerrungen kommen kann, zeigt das Beispiel von Amazon, das KI dazu verwendete, eine maschinelle Vorauswahl für Bewerbungen anhand der zugesandten Unterlagen zu treffen. Das Experiment scheiterte, da das Ausgangsmaterial für die Mustererkennung Bewerbungen der bisherigen Belegschaft waren. Und das waren großteils Männer. Frauen wurden also systematisch benachteiligt.

KI ist ziemlich beschränkt, denn sie versteht nicht, was sie sieht. Darum ist es so schwer, die Bilderkennung von selbstfahrenden Autos zu entwickeln, und deshalb gibt es so viele Pannen aufgrund einer verwirrten KI. 2016 gab es einen tödlichen Unfall, als jemand die Autopilot-KI von Tesla benutzte. Aber statt sie auf der Autobahn zu nutzen, wofür sie entworfen wurde, setzte er sie in der Stadt ein. Ein Lastwagen fuhr vor dem Auto heraus und das Auto bremste nicht. Die KI wurde durchaus darauf trainiert, die Lastwagen in Bildern zu erkennen. Aber die KI wurde darauf trainiert, die LKWs auf Autobahnen zu erkennen, wo man sie normalerweise von hinten sieht. LKWs auf der Autobahn seitlich zu sehen, sollte eigentlich nicht passieren. Als die KI diesen LKW sah, erkannte sie ihn vermutlich als Verkehrszeichen, unter dem sie sicher durchfahren konnte.

Es mag faszinierend sein, metaphorische Analogien zwischen Künstlicher Intelligenz und dem Kollektiven Unbewussten herzustellen, und damit auch unserem Wunsch nach Transzendenz nachgeben, können doch die großen Mengen an Daten auf Muster und Zusammenhänge hindeuten, die an kollektive menschliche Erfahrungen erinnern. Die Gefahr maschineller Transzendenz geht jedoch über die chemisch induzierte hinaus, und könnte darin gipfeln, dass wir uns selbst überflüssig machen, mit einer Intelligenz, die die kognitive Leistungsfähigkeit der Natur übertrifft, mit genetisch perfekt gestylten Körpern und sogar mit wunschgemäßen Emotionen per Brain-Computer-Interface.

So mag es uns ergehen wie dem Zauberlehrling in Goethes Faust: „Die Geister, die ich rief, werd’ ich nun nicht mehr los.“


Dieser Beitrag darf geteilt werden: Creative Commons–Lizenz 4.0 international:

(Namensnennung – Nicht kommerziell – Keine Bearbeitungen)