„Während wir lernen, KI zu nutzen, lernt sie, uns zu nutzen“: Yuval Harari beim UN AI for Good Summit

Der Historiker Yuval Noah Harari erklärt auf dem AI for Good Global Summit der Vereinten Nationen: „Während wir lernen, KI zu nutzen, lernt sie, uns zu nutzen“, und wir sollten ihren Einsatz verlangsamen, nicht ihre Entwicklung.

In seiner Rede am Donnerstag auf dem AI for Good Global Summit der Internationalen Fernmeldeunion (ITU) der Vereinten Nationen zum Thema „Leitplanken für eine sichere und verantwortungsvolle KI“ vertrat Harari die Ansicht, dass die KI zwar weiter entwickelt werden sollte, aber nicht ohne Sicherheitsprüfungen und Vorschriften eingesetzt werden sollte.

„Während wir lernen, KI zu nutzen, lernt sie, uns zu nutzen“

Yuval Noah Harari, AI for Good Global Summit, 2023

„While we are learning to use AI, it is learning to use us“: Yuval Noah Harari, @ITU AI for Good Summit pic.twitter.com/abKHXq7H6v

— Tim Hinchliffe (@TimHinchliffe) July 7, 2023

„Während wir lernen, KI zu nutzen, lernt sie, uns zu nutzen“, sagte Harari und fügte hinzu: „Es ist sehr schwierig, die Entwicklung [der KI] aufzuhalten, weil wir diese Mentalität des Wettrüstens haben. Die Menschen sind sich – einige von ihnen – der Gefahren bewusst, aber sie wollen nicht zurückbleiben.

Aber das wirklich Entscheidende, und das ist die gute Nachricht, ist die Verlangsamung des Einsatzes – nicht der Entwicklung„, fügte er hinzu.

Der Historiker verglich die Entwicklung der künstlichen Intelligenz mit einem Virus im Labor und sagte, es sei in Ordnung, ihn zu entwickeln, aber nicht, ihn in der Öffentlichkeit einzusetzen.

„Es ist, als hätte man einen sehr gefährlichen Virus in seinem Labor, aber man gibt ihn nicht an die Öffentlichkeit weiter; das ist in Ordnung“

Yuval Noah Harari, AI for Good Global Summit, 2023

„You can have an extremely sophisticated AI tool in your laboratory as long as you don’t deploy it out into the public sphere .. It’s like you have this very dangerous virus in your laboratory, but you don’t release it to the public sphere; that’s fine“: Yuval Noah Harari @ITU pic.twitter.com/QAr4vfHfpT

— Tim Hinchliffe (@TimHinchliffe) July 7, 2023

„Man kann ein extrem ausgeklügeltes KI-Tool in seinem Labor haben, solange man es nicht in der Öffentlichkeit einsetzt. Das ist weniger gefährlich“, sagte Harari.

„Das ist so, als hätte man einen sehr gefährlichen Virus in seinem Labor, den man aber nicht an die Öffentlichkeit weitergibt. Es gibt eine Sicherheitsmarge.“

So wie Pharmaunternehmen und Autohersteller Sicherheitsprüfungen durchlaufen müssen, sollte dies auch für KI gelten, so Harari.

„Jetzt ist es zum ersten Mal in der Geschichte möglich, Milliarden von falschen Menschen zu erschaffen […] Wenn man nicht wissen kann, wer ein echter Mensch und wer ein falscher Mensch ist, wird das Vertrauen zusammenbrechen und mit ihm zumindest die freie Gesellschaft“

Yuval Noah Harari, AI for Good Global Summit, 2023

„Now it is possible for the first time in history to create billions of fake people […] If you can’t know who is a real human and who is a fake human, trust will collapse, and with it at least, free society“: Yuval Noah Harari @ITU pic.twitter.com/IKZm29bAPc

— Tim Hinchliffe (@TimHinchliffe) July 7, 2023

Zum Thema KI-generierte Deepfakes und Bots sagte Harari: „Jetzt ist es zum ersten Mal in der Geschichte möglich, gefälschte Menschen zu schaffen – Milliarden von gefälschten Menschen – so dass man mit jemandem online interagiert und nicht weiß, ob es sich um einen echten Menschen oder einen Bot handelt.

„In einem Jahr wird es wahrscheinlich fast unmöglich sein, sicher zu sein, ob man mit einem Deepfake oder einem echten Menschen spricht.

„Wenn dies zugelassen wird, wird es der Gesellschaft das antun, was Falschgeld dem Finanzsystem anzutun droht.“

„Wir sollten ihre [KI] potenziellen Auswirkungen auf die Gesellschaft, die Kultur, die Psychologie und die Wirtschaft der Welt besser verstehen, bevor wir sie im öffentlichen Raum einsetzen.“

Yuval Noah Harari, AI for Good Global Summit, 2023

How can we ensure that AI is used ethically? What regulatory steps should we take to protect ourselves? Watch my deep-dive into these questions with @nxthompson, from yesterday’s @ITU ‚AI for Good‘ summit.
Full video on https://t.co/h0YjQeQqk9#ai #aiforgood #tech pic.twitter.com/1dSzYSE2hT

— Yuval Noah Harari (@harari_yuval) July 7, 2023

Der Historiker fügte hinzu: „Wenn man nicht wissen kann, wer ein echter Mensch ist und wer ein falscher Mensch, wird das Vertrauen zusammenbrechen und mit ihm zumindest die freie Gesellschaft. Vielleicht werden Diktaturen es irgendwie schaffen, aber keine Demokratien“.

Harari stellte klar, dass die Erschaffung von Fake-Menschen in Ordnung sei, solange sie als solche gekennzeichnet und nicht als echt ausgegeben würden – „ich muss wissen, ob es ein echter Mensch ist oder nicht“, sagte er.

Die Internationale Fernmeldeunion ist die Sonderorganisation der Vereinten Nationen für Informations- und Kommunikationstechnologien (IKT).

„Wir sind keine geheimnisvollen Seelen mehr, wir sind jetzt hackbare Tiere“

Yuval Noah Harari, Weltwirtschaftsforum, 2020

Harari hat mehrfach auf den Jahrestagungen des Weltwirtschaftsforums (WEF) in Davos gesprochen, wo er erklärte: „Wir Menschen sollten uns an den Gedanken gewöhnen, dass wir keine geheimnisvollen Seelen mehr sind; wir sind jetzt hackbare Tiere.“

In seiner Rede auf dem WEF 2020 sagte Harari: „Um Menschen zu hacken, braucht man viel biologisches Wissen, viel Rechenleistung und vor allem eine Menge Daten.

„Wenn man genug Daten über mich hat und genug Rechenleistung und biologisches Wissen, kann man meinen Körper, mein Gehirn, mein Leben hacken. Man kann einen Punkt erreichen, an dem man mich besser kennt als ich mich selbst.“

Diese Macht, Menschen zu hacken, so Harari, „kann natürlich für gute Zwecke wie eine viel bessere Gesundheitsversorgung genutzt werden, aber wenn diese Macht in die Hände eines Stalin des 21. Jahrhunderts fällt, wird das Ergebnis das schlimmste totalitäre Regime in der Geschichte der Menschheit sein, und wir haben bereits eine Reihe von Bewerbern für den Job des Stalin des 21. Jahrhunderts.“

„Wir sollten KI erst dann regulieren, wenn wir einen bedeutsamen Schaden sehen, der tatsächlich eintritt – und keine imaginären Szenarien.“

Michael Schwarz, WEF-Wachstumsgipfel, 2023

„We shouldn’t regulate #AI until we see some meaningful harm that is actually happening […] There has to be at least a little bit of harm, so that we see what is the real problem“ — Microsoft Chief Economist to #WEF #GrowthSummit23 pic.twitter.com/24XS0jl7hS

— Tim Hinchliffe (@TimHinchliffe) May 4, 2023

Auf dem WEF-Wachstumsgipfel 2023 sprach Michael Schwarz auf einem Panel zum Thema „Wachstums-Hotspots: Die generative KI-Revolution nutzen“ argumentierte Michael Schwarz von Microsoft, dass es am besten sei, KI erst dann zu regulieren, wenn etwas Schlimmes passiert, um die potenziell größeren Vorteile nicht zu unterdrücken.

„Ich bin ziemlich zuversichtlich, dass KI von schlechten Akteuren genutzt werden wird; und ja, sie wird echten Schaden anrichten; und ja, wir müssen sehr vorsichtig und sehr wachsam sein“, sagte Schwarz auf dem WEF-Panel.

Auf die Frage nach der Regulierung der generativen KI erklärte der Microsoft-Chefökonom:

„Was sollte unsere Philosophie zur Regulierung von KI sein? Es ist klar, dass wir sie regulieren müssen, und ich denke, meine Philosophie ist da sehr einfach.

„Wir sollten die KI so regulieren, dass wir das Kind nicht mit dem Bade ausschütten.

„Ich denke also, dass die Regulierung nicht auf abstrakten Prinzipien beruhen sollte.

„Als Wirtschaftswissenschaftler mag ich Effizienz, also sollten wir KI erst dann regulieren, wenn wir einen bedeutenden Schaden sehen, der tatsächlich eintritt – und nicht nur imaginäre Szenarien.“

Am 23. Januar 2023 verlängerte Microsoft seine Partnerschaft mit OpenAI – den Entwicklern von ChatGPT – und investierte zusätzlich zu den 1 Milliarde Dollar, die Microsoft 2019 in OpenAI steckte, und einer weiteren Runde im Jahr 2021 weitere 10 Milliarden Dollar, wie Bloomberg berichtet.