April 15, 2025
Warner

Ist Künstliche Intelligent selbst das ultimate Deep Fake?

Quelle: (21) AI – The Refreshing Truth – by Michael Warden

Ein anderer Titel für diesen Beitrag hätte lauten können: „Was mir an KI am besten gefällt“ – mit der Antwort, dass mir gefällt, wie treffend der Begriff benannt ist. KI ist künstlich. Sie ist keine echte Intelligenz. Ich renne hier vielleicht offene Türen ein, denn fast jeder, mit dem ich spreche, egal welchen Alters und welcher Herkunft, ist der Meinung, dass eine Maschine nicht wirklich intelligent sein kann.1 Dennoch ist eine genauere Betrachtung angebracht – denn „KI“ ist zweifellos eine große Sache, und es ist wichtig, dass wir verstehen, womit wir es zu tun haben und womit nicht.

Diejenigen, die ein persönliches Interesse an diesem Thema haben, die von Übertreibungen oder Panikmache profitieren oder die einfach dazu neigen, den Menschen schlechtzumachen, verbreiten weiterhin die Botschaft, dass „Computer massiv intelligenter sein werden als Menschen“ oder dass „das Gehirn nur ein Fleischcomputer ist“ (wie der verstorbene MIT-Informatiker Marvin Minsky behauptete) oder dass KI den Großteil der Menschheit „nutzlos“ machen wird (wie vom Historiker und Autor Yuval Noah Harari vorgeschlagen).

Wenn man sich den Hype anhört, der uns zu diesem Thema – wie zu fast jedem anderen – vorgesetzt wird, könnte man meinen, dass „die Experten“ sich einig sind in ihrer Gewissheit, dass Maschinen dem Menschen überlegen sind und auf dem Weg zu ungeahnten Intelligenzstufen und sogar zu Bewusstsein sind.

Ist es also so, dass diejenigen von uns, die an der Authentizität der Intelligenz von KI oder sogar an ihrem potenziellen Intelligenzvermögen zweifeln, sich selbst etwas vormachen? Anscheinend nicht. Die Wahrheit ist, wie sich herausstellt, dass uns in dieser Hinsicht eine ganze Reihe von „Expertenmeinungen“ zustimmen.

ELIZA – Die erste „KI“

In den 1970er Jahren legte der MIT-Informatiker Joseph Weizenbaum mit seinem bahnbrechenden Buch „Computer Power and Human Reason“ einen soliden und dauerhaften Grundstein für das Verständnis der Frage der künstlichen Intelligenz.

Mitte der 1960er Jahre hatte Weizenbaum selbst ein Computerprogramm namens „ELIZA“ entwickelt und es so eingestellt, dass es die Rolle eines Psychotherapeuten für diejenigen übernahm, die es benutzten. Er tat dies als Experiment und glaubte keineswegs, dass eine Maschine die Rolle des „psychologischen Heilers“ effektiv erfüllen sollte oder könnte.

Trotz des hohen Entwicklungsstands der Software in den 1960er Jahren war Weizenbaum jedoch beunruhigt darüber, in welchem Ausmaß die Menschen seiner Kreation ein seiner Meinung nach „unangemessenes Maß an Autorität“ verliehen. Diese Erfahrung prägte ihn so sehr, dass er eine zweijährige Auszeit von seiner Professur am MIT nahm, um zu forschen und sein Buch zu schreiben, in dem er Schritt für Schritt darlegte, dass das menschliche Bewusstsein und Denken Dimensionen umfasst, die weder jetzt noch jemals „berechenbar“ sein können, und warum „Algorithmen plus Rechenleistung“ nicht dasselbe sind wie „Intelligenz“. Auf den ersten Seiten drückte er seine Bedenken folgendermaßen aus:

Die Reaktion auf ELIZA zeigte mir deutlicher als alles, was ich bisher gesehen hatte, in welch maßloser Weise ein selbst gut ausgebildetes Publikum fähig ist, ja danach strebt, einer Technologie, die es nicht versteht, überzogene Attribute zuzuschreiben. Ich war mir sicher, dass die Entscheidungen der Öffentlichkeit über neue Technologien viel mehr davon abhängen, was die Öffentlichkeit diesen zuschreibt, als davon, was sie tatsächlich sind oder können oder nicht können. Wenn, wie es den Anschein hat, die Zuschreibungen der Öffentlichkeit völlig falsch sind, dann sind öffentliche Entscheidungen zwangsläufig fehlgeleitet und oft falsch.

Dieses Zitat bringt uns zum Kern der Sache. Die Frage ist nicht, ob „KI“ nützlich ist oder nicht. Zweifellos werden sie für Aufgaben wie die Erstellung von Programmcode, die Vorbereitung von Vertragsentwürfen, die schnelle Zusammenfassung langer, komplexer Texte und viele andere Dinge (nicht zu vergessen ihre bisher wahrscheinlich beeindruckendste Leistung, die Erstellung von „Deep Fake“-Videos) sehr nützlich sein. Und sie sind gekommen, um zu bleiben. Das stellt niemand in Frage. Die Frage ist nicht einmal, ob die Fähigkeiten von „KI“ zunehmen werden. Wir alle wissen, dass sie es tun. Nein, die Frage ist vor allem, inwieweit sie wirklich intelligent sind oder sein können. Und damit verbunden, was wir von ihnen erwarten sollten und wie wir unsere Beziehung zu ihnen gestalten sollten.

Wir könnten beispielsweise bei dem Versuch, die Beziehung zu managen, anerkennen, dass sich die menschlichen Fähigkeiten grundlegend von den maschinellen Fähigkeiten unterscheiden, und folglich anerkennen, dass, wie Wizenbaum es ausdrückt, „nicht alles, was ein Computer tun kann, von einem Computer getan werden sollte“. (Die Psychotherapie ist ein großartiges, aber bei weitem kein isoliertes Beispiel).

Fünfzig Jahre nach „Computer Power and Human Reason“ scheint die Gesellschaft das Problem jedoch nicht erkannt zu haben und hat weiterhin jeder neuen Generation von ELIZA-Nachfolgern enorm „übertriebene Autorität“ zugeschrieben. Eine solche Situation hätte Weizenbaum nicht überrascht. Während seiner Recherchen und beim Schreiben dämmerte es ihm – etwas, das ihn erkennen ließ, wie enorm die Aufgabe des Verstehens und der öffentlichen Bildung war, die er sich vorgenommen hatte. Etwas, das er zu begreifen begann, sollte den Großteil seines restlichen Lebens in Anspruch nehmen. Er drückte es so aus:

… allmählich wurde mir klar, dass mich bestimmte grundlegende Fragen chronischer infiziert hatten, als ich zunächst angenommen hatte. Ich werde sie wahrscheinlich nie loswerden.

„The Emperor’s New Mind“

Fünfzehn Jahre nachdem Weizenbaum erstmals mit der Welt gesprochen hatte, veröffentlichte Sir Roger Penrose, Wissenschaftsphilosoph und einer der bedeutendsten mathematischen Physiker der Welt, eine Abhandlung mit dem Titel „The Emperor’s New Mind“ – ein wunderbarer Titel, der wie kein anderes jemals geschriebenes Buch die Natur des Inhalts widerspiegelt.

Penrose argumentierte, dass es nicht möglich sei, eine umfassende Simulation eines Gehirns oder eines Geistes oder der Dinge, die diese tun können, zu entwickeln, da das Verständnis der Physik von Gehirnprozessen noch unvollständig sei und die Wissenschaft, wie ein Gehirn zu einem Geist wird, noch weit davon entfernt sei. Auf seinem Weg durch viele und komplexe Bereiche der Wissenschaft und Mathematik trug er eine große Menge an Beweisen zusammen, die eine Vielzahl relevanter Argumente gegen die Möglichkeit einer wirklich intelligenten Maschine stützen, von denen wir hier nur zwei erwähnen möchten:

Erstens, dass ein großer Teil des echten Denkens weder Wörter noch Zahlen noch irgendwelche „kodierbaren“ Symbole beinhaltet und daher von keinem Computer ausgeführt werden kann. (Noch viel weniger das Bewusstsein, bei dem er die Absurdität aufzeigt, dass es jemals aus der Ausführung eines Algorithmus entstehen könnte, egal wie komplex dieser ist).

Zweitens finden viele Verständnisfortschritte des menschlichen Geistes unter Umständen und auf eine Weise statt, die mit einer einfachen Entschlüsselung von Symbolen nicht vereinbar ist und nur durch einen mentalen Zugang zu den höheren, bereits existierenden und fließenden Wahrheiten erklärbar scheinen, die Platons Welt der ewigen Ideale oder Archetypen entsprechen. Dies übersteigt eindeutig die Fähigkeiten jeder Maschine (wahrscheinlich für immer) und ist der Grund dafür, dass Computer zu keiner echten Kreativität fähig sind. Bemerkenswerte Argumente, die tatsächlich von einem Physiker stammen, aber so ist es nun einmal!

Penrose gewann 1990 den „Science Book Prize“ für seine Arbeit, doch es ist erstaunlich, wie wenig „The Emperor’s New Mind“ [Der neue Geist des Kaisers], wie auch „Computer Power and Human Reason“ [Computerleistung und menschliche Vernunft] davor und andere relevante Titel seither, in der Öffentlichkeit wahrgenommen wurde. Es könnte aufschlussreich sein, darüber nachzudenken, warum das so ist.

Die Gesellschaft nach dem Bild der Maschine

Eine weitere Meilenstein-Analyse des Problems, fünf Jahre nach Penrose, stammt von Stephen Talbott, zu dieser Zeit leitender Redakteur beim renommierten Computerbuchverlag „O’Reilly & Associates“. Es trug den Titel „The Future Does Not Compute“. Da es Mitte der 1990er Jahre war, mag es nicht überraschen, dass der Schwerpunkt des Buches auf den sozialen Auswirkungen des Internets lag. Aber es ging immer noch um Computertechnologie und das Zusammenspiel von menschlicher Intelligenz mit „synthetischer Intelligenz“, das er analysierte.

Dementsprechend widmete er zwar ein ganzes Kapitel den seiner Meinung nach sehr konkreten Grenzen der künstlichen Intelligenz, befasste sich aber in erster Linie mit den Auswirkungen, die das „digitale Eintauchen“ über das Internet auf uns als Individuen und als Gesellschaft hatte und haben würde. Der Ton wurde durch den Titel seines Eröffnungskapitels vorgegeben, das den Titel „Can Human Ideals Survive the Internet“ [Können menschliche Ideale das Internet überleben] trug.

Die Computertechnologie beeinflusst die Gesellschaft, so Talbott, in erster Linie durch die bewusste Beziehung, die wir zu den Maschinen haben oder nicht haben. An diesem Punkt wird es interessant. Welche Art von „Intelligenz“ hat welche Art von „Beziehung“ zu welcher Art von „Intelligenz“? Lassen Sie uns etwas tiefer in die Materie eintauchen:

Schon vor dem Aufkommen der Computer führte die Industrialisierung die Menschheit in eine Art mechanisiertes Denken. Seit der industriellen Revolution wurde alles zunehmend prozeduralisiert. Der Grundstein dafür, alles auf Algorithmen anstatt auf Denken zu stützen, wurde gelegt. Eine zunehmend mechanisierte Umgebung und Lebensweise hat uns dazu gebracht, die Welt und sogar uns selbst in mechanisierten Begriffen zu sehen. Die Menschheit wurde in eine träge, maschinenähnliche Betrachtungsweise von allem eingelullt – die später durch die hypnotische Wirkung des Fernsehens, die zunehmend mechanische und prozedurale staatliche Regulierung von allem und so weiter noch vertieft wurde. Infolgedessen sind wir in vielen Lebensbereichen in einen „Autopilot“-Modus übergegangen, in dem wir einfach nur „den Verfahren folgen“. Wir haben zugelassen, dass wir in unserer eigenen Mentalität etwas maschinenähnlich werden – und es sollte vielleicht nicht überraschen, dass Maschinen besser darin sind, maschinenähnlich zu sein als wir, wenn wir das getan haben.

Die Welt hat sich so sehr auf jene Elemente menschlicher Aktivität konzentriert, die auf Algorithmen, Berechnungen und Kalkulationen reduziert werden können, dass wir begonnen haben, jene Elemente völlig aus den Augen zu verlieren, die nicht reduziert werden können. Und da wir alles aus den Augen verloren haben, was über bloße Logik und Algorithmen hinausgeht, haben wir begonnen, unser eigenes Leben und unser eigenes Selbst auf die gleiche Ebene zu reduzieren. Höhere Fähigkeiten der Intuition, des Urteilsvermögens und der Unterscheidung – sogar der Moral – haben begonnen zu verkümmern. Wir haben in gewisser Weise begonnen, schlafzuwandeln, und je mehr wir schlafwandeln, desto mehr entstehen die Standardrichtungen für die Gesellschaft aus der Technologie selbst.

Wenn das passiert – wenn wir keine wachen und engagierten Menschen haben – die das Sagen haben, laufen Systeme immer mehr von selbst, und wenn sie das tun, tendieren sie immer mehr in Richtung Standardisierung, Universalisierung und Zentralisierung. Die hoffnungsvollen Potenziale der Demokratisierung, Dezentralisierung und Ermächtigung, mit denen Menschen bei jeder neuen Technologie beginnen, gehen verloren. Talbott warnt:

… die Fähigkeit der computerbasierten Organisation, sich auf eine halb schlafwandlerische Weise selbst zu erhalten, frei von bewusster, gegenwärtiger menschlicher Kontrolle – und dennoch eine gewisse interne, logische Kohärenz aufrechterhaltend – ist in einem Maße erhöht, das wir kaum zu ergründen beginnen.

Der erschreckende Endpunkt einer solchen Abkehr von Denken und Engagement ist für mich auch der einprägsamste Punkt in Talbots Buch, nämlich dass „Systeme, die sich selbst steuern“, zu der Möglichkeit, vielleicht sogar der Wahrscheinlichkeit, einer bestimmten Art von Totalitarismus führen, der nicht einmal eine despotische menschliche Hierarchie benötigt, um ihn voranzutreiben:

… die rechnergestützte Gesellschaft beginnt uns zu zeigen, wie Totalitarismus eine von niemandem erzwungene Gewaltherrschaft sein kann.

Die Welt wird unflexibel, autokratisch und unvernünftig, und „niemand ist schuld“.

Es scheint notwendig, hier anzuerkennen, dass es heute unter bestimmten politischen und kommerziellen Mächten eine wachsende Orientierung hin zu absichtlich eingesetzten Formen des Totalitarismus gibt. Der Punkt, der hier angesprochen werden soll, ist jedoch, dass die bewusste Absicht jetzt optional ist – Totalitarismus kann jetzt auch ohne sie entstehen.

Die Gefahr, die in dieser vorausschauenden Warnung vor einem „totalitären Regime ohne despotisches Zentrum“ (wenn ich das so umschreiben darf) liegt, muss wohl kaum betont werden. Es ist ein beunruhigender Gedanke, und die Realität dieses Trends ist um uns herum bereits viel sichtbarer als zu der Zeit, als Talbott darüber schrieb.

Die offensichtlicheren Formen, in denen dies sichtbar wird, sind vielleicht die zunehmende bürokratische Kontrolle, die zunehmende Überwachung, die Einschränkung von Rechten, Mitbestimmung, Autonomie und Privatsphäre sowie der Verlust an Flexibilität. Aber ich möchte auch einen anderen Weg vorschlagen: Standardisierte und unflexible Systeme – und insbesondere mehrere solcher Systeme, die miteinander interagieren – zwingen uns ständig zu Absurditäten, und wenn sie dies tun, gibt es keine Möglichkeit, die Absurdität anzufechten. Wir alle haben das schon erlebt, und es ist ein weiteres Merkmal, das totalitären Regimen der Vergangenheit gemeinsam ist.

In der Nähe solcher Gefahren liegt jedoch die größte und wahrhaftigste Chance, die KI der Menschheit zu bieten hat. Denn je intensiver KI wird, desto deutlicher werden die grundlegenden Unterschiede zwischen „kreativem Denken“ und bloßer „Berechnung“ hervorgehoben und uns auf möglicherweise schmerzhafte Weise die Folgen einer fortgesetzten Missachtung dieser Unterschiede vor Augen geführt. Wie der Klappentext von Talbotts Buch sagt:

[Computertechnologie] ist die mächtigste Einladung, in einem Zustand des Schlafs zu verharren, der uns je begegnet ist. Entgegen der üblichen Ansicht stellt sie das Fernsehen in den Schatten, was ihre Macht betrifft, Passivität zu erzeugen, unseren Geist zu zerstreuen, unsere Vorstellungskraft zu zerstören und uns unsere Menschlichkeit vergessen zu lassen. Und doch kann sie aus genau diesen Gründen auch eine Gelegenheit sein, in unsere vollste Menschlichkeit einzutreten, mit einem nie zuvor erreichten Selbstbewusstsein.

Inseln im Cyberstrom

Im Jahr 2008 verstarb Weizenbaum am Ende eines langen Lebens, das er größtenteils damit verbracht hatte, sich mit den schwierigen Fragen der künstlichen Intelligenz auseinanderzusetzen. Er wurde 85 Jahre alt. Obwohl er von Beruf Informatiker war, hatte er einen Großteil seines Lebens gesellschaftlichen Fragen gewidmet und der Frage, wie die Gesellschaft mit der sich beschleunigenden Entwicklung der Computertechnologie zurechtkommen würde.

Kurz vor seinem Tod gab er ein Interview, dessen Abschrift später unter dem Titel „Islands in the Cyberstream“ [Inseln im Cyberstrom] mit dem bezeichnenden Untertitel „Auf der Suche nach Zufluchtsorten der Vernunft in einer programmierten Gesellschaft“ veröffentlicht wurde. Darin behandelte Weizenbaum viele Fragen zur KI, von der Frage, ob von einem Computer erzeugte Poesie als Poesie angesehen werden kann oder nicht,² bis hin zu der Frage, warum fast alle Wissenschaftler, die an der Entwicklung von KI beteiligt sind, männlich sind³, und wie die Computertechnologie die etablierten sozialen und politischen Institutionen gegen den Druck für notwendige Veränderungen gestärkt hat. Er wiederholte aber auch Talbotts Botschaft, dass es auf die Art unserer bewussten Beziehung zur Technologie ankommt und nicht auf die Technologie selbst. Oder anders ausgedrückt: Unser Fokus sollte nicht darauf liegen, was in der Entwicklung der Computertechnologie geschieht, sondern darauf, was mit der Entwicklung unserer selbst geschieht.

Die „Inseln im Cyberstrom“, auf die sich Weizenbaum bezieht, sind keine Orte, sondern Menschen. Es sind jedoch keine Menschen, die es vermeiden, Computertechnologie zu nutzen. Es sind auch nicht einfach Menschen, die Computertechnologie nicht mögen. Sie sind Menschen, die sich weigern, sich der vermeintlichen Unausweichlichkeit zu ergeben und mit dem Strom zu schwimmen, und die darauf bestehen, den Unterschied zwischen „Beurteilung und Berechnung“ und zwischen „Kreativität und Berechnung“ zu erkennen, und die auch auf der fortgesetzten Anwendung menschlicher Wahrnehmung und Unterscheidung bestehen.

Die amerikanische Kongressabgeordnete Tulsi Gabbard wurde 2018 zu einer Insel im Cyberstrom, als sie in Anerkennung der Tatsache, dass die elektronische Stimmabgabe weitaus anfälliger für Manipulationen sein kann und immer sein wird als einfachere Methoden, ihren „Paper Voting Bill“ vorlegte. Millionen haben den ersten Schritt getan, um zu einer Insel im Cyberstrom zu werden, indem sie beschlossen haben, die Nutzung digitaler Geräte durch ihre Kinder in den ersten Jahren einzuschränken. Oder wenn sie darauf bestehen, Bargeld zu verwenden, wo immer sie können. (Ein sehr wichtiger Widerstand gegen die Entstehung eines „totalitären Regimes mit/ohne despotischem Zentrum). Der Stadtrat von Madrid, wo ich lebe, wurde kürzlich zu einer Insel im Cyberstrom, indem er digitale Geräte aus den Klassenräumen für Kleinkinder und Grundschüler der Stadt verbannte, mit Ausnahme sehr kurzer Zeiträume unter strenger Aufsicht. Ich bin eine Insel im Cyberstrom, wenn ich mich weigere, überall, wo ich hingehe, ein Smartphone bei mir zu tragen. (Mir ist klar, dass dies für viele Menschen eine nahezu unmögliche Option ist, aber für mich ist es das nicht). Nicholas Carr, Herausgeber der „Harvard Business Review“, war eine Insel im Cyberstrom, als er 2010 Forschungsergebnisse zusammenstellte und veröffentlichte, die zeigten, dass die übermäßige Nutzung digitaler Geräte zu einer Verkürzung der Aufmerksamkeitsspanne führen kann, und Wege aufzeigte, wie wir uns davor schützen können.

Weizenbaum sprach auch von Inseln, die sich zu Archipelen und schließlich zu Landmassen zusammenschließen.

Warum das wichtig ist

Die Frage, ob Maschinen wirklich intelligent sein können, ist, wie jetzt klar sein sollte, von mehr als nur akademischem Interesse. Die Antworten, zu denen wir kommen, werden unsere Erwartungen nicht nur an die Maschinen, sondern auch an uns selbst prägen. Und diese Erwartungen werden wiederum bestimmen, ob wir auf eine Welt intelligenter Menschen zusteuern, die praktische Werkzeuge weise einsetzen, oder auf eine Welt zunehmend verkümmerter Menschen, die in einem „totalitären Regime ohne despotisches Zentrum“ leben.

Die Antwort scheint jedoch klar zu sein. In einer sehr unehrlichen Welt ist „künstliche Intelligenz“ ein erfrischend ehrlicher Name. Natürlich geben diejenigen, die sowohl die Agenda für Billionenprofite als auch für die „transhumanistische Ideologie“ vorantreiben, nicht auf – das Potenzial für Reichtum, Macht und mehr Kontrolle über die Bevölkerung ist einfach zu groß. Die „Interessen“ brauchen uns, damit wir Angst vor der „beeindruckenden Intelligenz der Maschinen“ haben und in die Resignation und „Akzeptanz des Unvermeidlichen“ getrieben werden. Daher lassen sie die Botschaft und die Übertreibung nicht abreißen und verändern und passen sich an, um auch den Widerstand zu überwinden. In jüngster Zeit scheinen sie beispielsweise erkannt zu haben, dass das Wort „künstlich“ zu ehrlich ist, und haben stattdessen begonnen, den Ausdruck „Maschinenintelligenz“ zu fördern.

Allerdings zu spät. Die Katze scheint bereits aus dem Sack zu sein.

Schreibe einen Kommentar