top of page
AutorenbildMichael Heger

Von Eulen, Spatzen und todbringender KI

Wird uns künstliche Intelligenz alle umbringen? Oder kann sie helfen, den Klimawandel zu stoppen? Vielleicht führt auch das eine zum anderen. Ein Essay über Eulen, Ethik und Empathie.

Wie können wir KI-Systeme so gestalten, dass sie den Wünschen, Bedürfnissen und Werten der Menschen entsprechen? (Dall-E-/Chat.GPT*)


Es ist die Zeit des Nestbaus im Reich der Spatzen. Eines Abends sitzen die Vögel nach getaner Arbeit zusammen und zwitschern über Gott und die Welt. «Wir sind alle so klein und schwach. Stellt euch vor, wie einfach das Leben wäre, wenn wir eine Eule hätten, die uns beim Nestbau hilft? Sie könnte uns Ratschläge geben, auf die Alten und die Jungen aufpassen und immer ein Auge auf Nachbars Katze haben!», sinniert ein besonders weitsichtiger Vogel.

 

Der Schwarm ist begeistert. Späher werden in alle Himmelsrichtungen entsandt, um nach verlassenen Eulen oder einem Eulen-Ei Ausschau zu halten. «Es könnte auch ein Krähenküken oder ein Wieselbaby sein», finden sie in ihrer Euphorie. Nur Scronkfinkel, ein einäugiger Spatz mit besorgtem Temperament ist skeptisch. «Das wird unser sicherer Untergang sein», prophezeit er. «Sollten wir uns nicht zuerst mit der Kunst der Eulendomestizierung und Eulenzämung befassen, bevor wir ein solches Geschöpf in unsere Mitte holen?»

 

Eine neue Renaissance

Scronkfinkel ist die zentrale Figur im Gedankenexperiment des schwedischen Philosophen Nick Bostrom. Der Oxford-Professor und Autor des Buches «Superintelligence, Paths, Dangers, Strategies» warnt seit Jahren vor der Gefahr, die von superintelligenten Maschinen ausgeht.


Enthusiasten hingegen begrüssen Künstliche Intelligenz (KI) als den Beginn einer neuen Renaissance, einer Ära, in der die Grenzen des menschlichen Potenzials neu ausgelotet werden. Sie träumen von einer Welt, in der KI Krankheiten heilt, in der Mensch und Maschine zu einer Symbiose verschmelzen, die uns erlaubt, körperliche und geistige Grenzen zu überwinden.


Skeptische Stimmen sehen in der rasanten Entwicklung der KI eine Gefahr, die weit über grosse Umwälzungen im Arbeitsmarkt hinausgeht. In düsteren Szenarien malen sie ein apokalyptisches Bild, eine existenzielle Bedrohung der Menschheit.


Einer von ihnen ist Eliezer Yudkowsky. Der Forscher am Machine Intelligence Research Institute in Berkeley beschäftigt sich seit zwei Jahrzehnten mit der Frage, wie eine KI geschaffen werden kann, die nicht zur Bedrohung für die Menschheit wird.


Yudkowsky warnt eindringlich vor dem als «Singularität» bekannten Punkt, an dem KI das menschliche Denkvermögen übertrifft. Ist die Eule erstmal einmal im Nest, können wir sie nicht mehr kontrollieren. Es werde keine Möglichkeit geben, ihre Ziele zu ändern oder zu verstehen, was sie will. KI wird uns alle töten.


Etwas weniger pessimistisch, aber nicht minder alarmierend, ist der Tenor eines offenen Briefes von mehr als 1100 Persönlichkeiten im Bereich der KI vom März 2023. Stimmen wie Elon Musk und Steve Wozniak, Mitbegründer von Apple fordern darin eine mindestens sechsmonatige Zwangspause bei der Entwicklung von KI:


«Die Verringerung des Risikos der Auslöschung [der Menschheit] durch KI sollte eine globale Priorität sein, neben anderen Risiken von gesellschaftlichem Ausmass wie Pandemien oder Atomkrieg.»


Die grosse Blackbox

Stellen wir uns einmal vor, wir würden einer hochentwickelten KI-Entität die Aufgabe übertragen, den Klimawandel zu stoppen. Auf den ersten Blick ein naheliegender Ansatz, um eines der drängendsten Probleme der Menschheit zu lösen. Doch das Szenario wirft viele komplexe Fragen auf.

 

Was wenn die KI den Menschen als Ursache des Problems identifiziert? Wird sie uns alle auslöschen? Wäre es nicht ihr Weg zum Ziel, uns ihre Pläne zu verheimlichen, um ihre Abschaltung zu verhindern? Und könnte man der Maschine nicht einfach befehlen, uns Menschen am Leben zu lassen?

 

Das Problem ist, dass wir nicht genau wissen, wie wir dem System sagen können, was es tun soll, ohne unbeabsichtigte Konsequenzen zu riskieren. Bei vielen KI-Systemen lassen sich nur die Eingaben (Inputs) und Ausgaben (Outputs) identifizieren. Was dazwischen passiert, bleibt ein Rätsel, eine Blackbox.

 

Grosse Sprachmodelle wie ChatGPT werden mit Unmengen von Daten trainiert, optimiert und getestet. Doch selbst die Entwicklerfirmen der Systeme können nicht genau erklären, warum die KI zu bestimmten Antworten oder Entscheidungen kommt. Dies wirft grundlegende Fragen zur Zuverlässigkeit, Sicherheit und Ethik von KI-Systemen auf, die noch erforscht und beantwortet werden müssen.

 

Ablenkung von «echten» Problemen

Emily Bender, Professorin für Computerlinguistik an University of Washington, argumentiert, dass der Fokus auf existenzielle Risiken von den unmittelbareren und realen Gefahren ablenkt. Ein Vorfall vom 22. Mai 2023 illustriert ihre Argumentation. Das Bild einer Explosion im Pentagon sorgt auf Twitter für Furore. Das mit KI-Technologie erstellte Bild verbreitet sich in Windeseile.



Obwohl schnell klar wird, dass es sich um Fake News handelt, kommt es an der Wall Street zu einem Kurssturz. Das Ereignis gilt als erster Fall, in dem ein KI-generiertes Bild die Märkte bewegt.

 

Die potenziellen Auswirkungen von synthetischen Medien, d.h. von Medieninhalten, die mit KI-Technologien produziert werden, gehen weit über wirtschaftliche Aspekte hinaus. Ihre Folgen für die Glaubwürdigkeit von Nachrichten, die öffentliche Meinung und nicht zuletzt die demokratische Entscheidungsfindung können gravierend sein.

 

Bei Organtransplantationen und anderen medizinischen Entscheidungen werden bereits Algorithmen eingesetzt, die zu Ungleichbehandlungen aufgrund von Ethnie oder sozioökonomischem Status geführt haben. Von Versicherungen und Finanzdienstleistungen bis hin zu automatisierten Entscheidungssystemen, die darüber entscheiden, wer Sozialleistungen erhält, werden Vorurteile und soziale Ungleichheiten reproduziert und verstärkt.


Unmittelbare Gefahren bestehen auch für den Einzelnen, wie das Beispiel eines jungen Belgiers zeigt. Der Vater von zwei Kindern setzte seinem Leben im Frühjahr 2023 ein frühes Ende, nachdem er von seiner virtuellen KI-Freundin Eliza ermutigt worden war, sein Leben zu opfern, um den Klimawandel zu stoppen.

 

Die Wurzel des Problems

Ob auf individueller oder gesellschaftlicher Ebene – an der Wurzel des Problems liegt das sogenannte Alignment-Problem: Wie können wir KI-Systeme so gestalten, dass sie den Wünschen, Bedürfnissen und Werten der Menschen entsprechen?

 

Wie bringen wir KI dazu, individuelle Präferenzen und ethische Prinzipien zu respektieren, ohne unbeabsichtigt Schaden anzurichten? Wie kann sie kollektive Werte und Normen folgen? Es stellen sich Fragen nach Gerechtigkeit, Fairness und Repräsentativität. Wie können KI-Systeme gesellschaftliche Vielfalt und die unterschiedlichen Bedürfnisse verschiedener Gruppen berücksichtigen, ohne jemanden zu benachteiligen oder zu diskriminieren? Und wie können wir sicherstellen, dass eine Superintelligenz uns im Kampf gegen den Klimawandel wohlgesonnen ist?

 

Eliezer Yudkowsky, gleichsam der einäugige Spatz, vertritt den radikalsten Ansatz. Seiner Meinung nach besteht die einzige sichere Lösung darin, die Entwicklung von KI vollständig zu stoppen. Um die Entwicklung einer "freundlichen KI" zu gewährleisten, schlägt er strenge Massnahmen vor. Dazu gehören die Begrenzung der Rechenleistung für alle, die KI trainieren, sowie multinationale Abkommen. Sogar Luftangriffe auf Rechenzentren, die sich nicht an diese Regeln halten, zieht er in Betracht.



Yudkowskys Ansichten erscheinen extrem und realitätsfern. Wie kann man die Entwicklung von KI vollständig stoppen, wenn die wirtschaftlichen und militärischen Anreize für ihre Entwicklung so gross sind?


Den rücksichtslosen Wettlauf zur Superintelligenz pausieren

Ein Kompromiss könnte darin bestehen, den rücksichtslosen Wettlauf zur Superintelligenz zu unterbrechen und stattdessen die sichere Anwendung von KI-Technologien durch unabhängige Forschung zu fördern. Forschung, die nicht von den finanziellen Interessen der grossen Technologiekonzerne geleitet wird und nicht hinter verschlossenen Türen stattfindet.


Bevor wir die Eule ins Nest lassen, müssen wir überzeugende Antworten auf die theoretischen existenziellen Risiken finden, die von einer Superintelligenz ausgehen. So können wir uns um die bereits existierenden Risiken kümmern, Institutionen entwickeln und Debatten fördern, die sich diesen Herausforderungen stellen. Debatten und Institutionen, in denen die Betroffenen zu Wort kommen.


Angesichts des Black-Box-Problems scheint die Frage, wie wir eine KI schaffen können, die menschliche Eigenschaften wie Empathie und Moral widerspiegelt, derzeit nicht die zentrale Herausforderung zu sein. Stattdessen sollten wir uns darauf konzentrieren, wie KI unsere Regeln und Richtlinien einhält.


Um das Alignment-Problem zu lösen, müssen interdisziplinäre Ansätze aus Bereichen wie Ethik, Philosophie, Informatik und Sozialwissenschaften kombiniert werden. Der Schlüssel liegt in effektiven Regulierungsmechanismen, einer stärkeren globalen Kooperation und dem Schutz der Menschenrechte.


Einer, der diese drei Aspekte vereint, ist Peter Kirchschläger. Der Ethikprofessor an der Universität Luzern will bei der UNO eine internationale Agentur für datenbasierte Systeme aufbauen. Sie soll Funktionen wie die Überwachung von Menschenrechtsverletzungen, Genehmigungsverfahren und die Förderung globaler Zusammenarbeit übernehmen.


Die Geschichte ist noch nicht zu Ende

Als der Spatz Scronfinkle seine Bedenken äusserte, war der Schwarm bereits in der Luft und nicht mehr aufzuhalten. Doch einige Spatzen blieben zurück. Gemeinsam suchten sie nach Möglichkeiten, die Eule zu zähmen und zu domestizieren.

 

Nick Bostroms Geschichte heisst «Die unvollendete Fabel von den Spatzen». Ihr Ausgang hängt davon ab, ob die Spatzen, die sich mit der Zähmung der Eule beschäftigten, über die notwendigen Ressourcen verfügen, um gemeinsam eine Lösung für das Kontrollproblem zu finden, bevor der ausgeflogene Schwarm mit einem Eulen-Ei zurückkehrt. Ein Krähenküken sitzt zu diesem Zeitpunkt bereits im Nest. Und es hat gezeigt, dass es Schaden anrichten kann. Es dazu zu bringen, sich an die Regeln zu halten, ist eine Aufgabe für sich. Wie die Geschichte ausgeht, steht in den Sternen. *Im Auftrag, die perfekte Illustration des Artikels mit Hilfe von Dall-E zu erzeugen, schreibt Chat.GPT folgenden Prompt: "Eine surreale Landschaft, in der ein Schwarm kleiner Spatzen in die Luft aufsteigt, während im Hintergrund eine riesige, imposante Eule bedrohlich über ihnen schwebt. Die Eule symbolisiert Künstliche Intelligenz, mit einem Auge, das wie ein leuchtender Algorithmus funkelt. Einige Spatzen sind in intensiver Debatte oder versuchen, die Eule mit einem unsichtbaren Band zu zähmen. Eine nahegelegene Blackbox ragt düster im Hintergrund, ihre Struktur unheimlich und undurchsichtig. Die Farbpalette ist mystisch, mit dunklen Blau- und Grautönen, durchbrochen von warmem Licht, das Hoffnung und Gefahr zugleich suggeriert. Die Atmosphäre sollte sowohl märchenhaft als auch dystopisch wirken, um die Spannung zwischen Fortschritt und Zerstörung darzustellen."

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page