Mai 23, 2024

Neuralink kann keine Gedanken lesen und wird es auch nie können – VN Alexander

0

Quelle: Neuralink Does Not Read Minds and Never Will – OffGuardian

Die Schlagzeilen schreien:

AI Mind-Reading ist da!“

„Neuralink ermöglicht es dem Menschen, den Computer mit seinen Gedanken zu steuern!“

„KI-Implantate chinesischer Soldaten verbessern Fähigkeiten und Reaktionszeiten“.

Jedes neuronale Implantat, ob von Elon Musks Unternehmen oder anderen Forschungseinrichtungen, ist in der Lage, elektrische Impulse zur motorischen Steuerung zu empfangen. Diese Geräte entschlüsseln keine Gedanken.

Gedanken über Objekte, Erinnerungen, Überzeugungen und Absichten sind komplexe, widerhallende Beziehungen zwischen mehreren gleichzeitigen Prozessen in mehreren Regionen des Gehirns. Gedanken sind kein „Code“ – eine lineare Abfolge von Zeichen – die in einem bestimmten Bereich des Gehirns gespeichert wären.

Im Januar dieses Jahres implantierten die Mitarbeiter von Neuralink ein Fitbit-ähnliches Gerät in das Gehirn der ersten menschlichen Versuchsperson. Das Gerät verfügt über 64 Fäden, die tief in das Gewebe der motorischen Hirnrinde reichen, mit etwa 3.000 Elektroden, die elektrische Entladungen auffangen, die auftreten, wenn eine Person versucht, ihren Körper zu bewegen. Die Entscheidung, sich zu bewegen, der Wille, sich zu bewegen, und die Motivation, sich zu bewegen, sind komplexere Prozesse, die vor dem Feuern der motorischen Neuronen stattfinden.

Die Forscher, die einen Hype um „Gedankenlesegeräte“ veranstalten, sind vielleicht in ihren mechanistischen Fachgebieten so engstirnig ausgebildet, dass sie nicht erkennen, dass das Gerät keine Gedanken liest und dies auch nie tun wird – oder vielleicht verstehen sie dies, aber sie wollen die motorischen Impulse von Menschen mit elektrischem Strom kontrollieren können.

Wie die toten Frösche von Galvani.

In diesem Aufsatz beschreibe ich drei verschiedene Nervenimplantate, die an gelähmten Menschen erprobt werden, obwohl es sicherere Kommunikationsgeräte gibt, die genauso gut, wenn nicht sogar besser funktionieren könnten. Die Patienten selbst scheinen zu verstehen, dass die implantierten Geräte begrenzt sind, aber sie hoffen, dass ihre Aufopferung eines Tages große Fortschritte in der Technologie zum Nutzen anderer ermöglichen wird.

Nachdem ich beschrieben haben werde, wie die Implantate bei diesen Probanden funktionieren, werde ich versuchen zu ergründen, warum unsere Kultur so sehr an der Vorstellung festhält, dass eine Maschine jemals erkennen könnte, was wir denken. Vielleicht ist es so, wie Iain McGilchrist in seinem 2009 erschienenen Buch „The Master and His Emissary: The Divided Brain and the Making of the Western World“ festgestellt hat, dass die linke Gehirnhälfte, die den Menschen für eine Maschine hält, die Oberhand gewonnen hat.

Patient 1: Ann

Im Jahr 2023 wurde Ann am „Weill Institute for Neurosciences“ der University of California San Francisco ein Brain-Computer-Interface-Gerät (BCI) implantiert. Anns Arme und Beine sind gelähmt, und sie kann nicht sprechen. Aber sie ist zu Mimik und Gestik fähig. Wenn sie ihren Mund bewegt, als ob sie sprechen würde, kann das Implantat Impulse in ihrem motorischen Kortex auffangen, die zu ihren Gesichtsmuskeln gehen.

Die vom neuronalen Implantat erfassten Pulsmuster werden in einen Computer eingespeist, ein so genanntes „neuronales“ Netzwerk, das die mit bestimmten Gesichtsbewegungen verbundenen Pulse für verschiedene Phoneme kategorisiert und identifiziert. Um die künstliche Intelligenz zu trainieren, musste Ann wochenlang immer wieder verschiedene Laute wiederholen, bis der Computer die mit allen grundlegenden Sprachlauten verbundenen Gehirnaktivitätsmuster erkannte. Nach Angaben der Forscher musste der Computer nur 39 Phoneme (Vokal- und Konsonantenkombinationen) lernen, um jedes englische Wort zu erkennen. Sie verfügt nun über einen Wortschatz von 1024 Wörtern, den sie mit diesem Gerät nutzen kann.

Ein KI-Avatar auf dem Bildschirm, der Ann ähnelt, spricht über einen Sprachsynthesizer die Wörter, die Ann ausspricht.

Ich frage mich, warum Ann nicht die ausgeklügelte KI-Software benutzt, die für das Lippenlesen entwickelt wurde, da sie ja Wörter aussprechen kann. Mit dem Lippenleseprogramm und einer Kamera, die auf ihr Gesicht gerichtet ist, statt auf ein Implantat in ihrem Gehirn, könnte sie einen Wortschatz von 1.024 Wörtern wahrscheinlich leicht überschreiten.

Patient 2: Bravo1

Der zweite Patient in seinen 40ern heißt Bravo1. Er kann seine Gesichtsmuskeln nicht bewegen, wie Ann es kann. KI-gestütztes Lippenlesen ist keine Option. Im Jahr 2021 implantierten Forscher der UC San Franscisco ein Gerät, das die an seine Stimmbänder gesendeten Pulse erkennt. Das System ist in der Lage, bis zu 18 Wörter pro Minute mit einer Genauigkeit von 75-93% zu erkennen, wenn es eine „Autokorrektur“-Funktion einsetzt. Da die verschiedenen Muster der Stimmbandaktivierung selbst für eine KI-Mustererkennungssoftware schwer zu unterscheiden sind, liefert ihm das System zusammen mit der Textvorhersage etwa 50 Wörter, mit denen er arbeiten kann.

Es muss betont werden, dass die von den Systemen von Ann und Bravo1 verwendete KI keine elektrischen Muster mit Sprachmustern in Verbindung bringen kann, ohne dass der Patient umfassend geschult wird und mitarbeitet.

Diese Implantate werden nie einsatzbereite Geräte sein, die die an die Stimmbänder oder Gesichtsmuskeln gesendeten Impulse entschlüsseln können, um festzustellen, welche Wörter gemeint sind. Die Person, deren Gehirnaktivität gemessen wird, muss die KI trainieren.

Bravo1 musste zum Beispiel versuchen, das Wort „Wasser“ immer wieder zu sagen, während die KI dieses Muster aufzeichnete und dann ein verallgemeinertes Modell des Musters erstellte, das jedes Mal leicht anders ist. Er musste dies mit jedem der 50 Wörter tun, die das Programm jetzt erkennen kann.

Ich stelle fest, dass dieser Mann blinzeln kann. Es scheint mir, dass er das Morsealphabet lernen könnte. Wiederum könnte man eine Kamera auf sein Gesicht richten – und mit Hilfe der KI den nächsten Buchstaben und das nächste Wort vorhersagen – und er wäre in der Lage, viel effizienter und sicherer im Morsecode zu kommunizieren – ohne sich einer Gehirnoperation zu unterziehen und ohne ein Gerät ertragen zu müssen, das irgendwann gefährliche Entzündungen hervorrufen könnte.

Patient 3: Nolan

Die erste menschliche Testperson von Neuralink ist der 29-jährige Nolan, der ein Implantat erhielt, das im Gegensatz zu den Implantaten von Ann und Bravo1 nicht vollständig entfernt werden kann. Die Fäden der motorischen Signaldetektoren sind so fein, dass sie sich in das Hirngewebe einarbeiten.

Anders als Ann und Bravo1 kann Nolan sprechen. Er kann auch seinen Kopf und seine Schultern bewegen. Er hatte die Möglichkeit, einen sprachgesteuerten Computer zu benutzen. Er hätte auch ein Gerät bekommen können, mit dem er seinen Kopf wie einen Joystick bewegen kann, um einen Cursor zu steuern.

Stephen Hawking tippte auf einer Tastatur, indem er mit seinen Wangenmuskeln zuckte; er hatte kein Implantat.

Wie bei den anderen Patienten erfasst auch Nolans Implantat Nervenimpulse, die Bewegungen steuern. Nolan muss versuchen, seine Hand zu bewegen, wie er es tun würde, um eine Computermaus zu steuern, und diese Impulse werden vom Implantat aufgenommen und drahtlos an einen Computer gesendet, der sie kategorisiert und nach einem Training die Maus entsprechend bewegt.

Der Neuralink-Ingenieur in dem Video, dessen Name Bliss ist, scherzt, dass Nolan telekinetische Kräfte hat. In den meisten Kommentaren unter dem Video werden solche Behauptungen wiederholt.

Ich weiß nicht, ob Nolan in der Lage ist, die Maus zu bewegen, ohne sich bewusst darum zu bemühen. Wie das Gehen gehört auch das Bewegen einer Maus zu den Fähigkeiten, die man unbewusst beherrschen sollte.

In der nächsten Phase der Forschung möchte das Neuralink-Team ein zweites Gerät zur Stimulation der Muskeln implantieren, wobei die beiden Geräte als Brücke über den geschädigten Bereich von Nolans Rückenmark fungieren sollen. Eine solche Technologie, vielleicht in Verbindung mit einem Exoskelett, könnte Nolans Lebensqualität wirklich verbessern. Ich hoffe, dass er als Ergebnis dieses Experiments eines Tages wieder laufen kann. Ich hoffe nicht, dass seine Gedanken jemals von einem Computer gelesen werden können.

Als Bliss Nolan fragte, was er mit seinen neuen Kräften anstellen könne, antwortete er, dass er bis 6 Uhr morgens Videospiele spielen könne.

Ich denke, Nolan könnte einen der sprachgesteuerten Roboter von Telsa als persönlichen Assistenten einsetzen. Vielleicht lässt sich Musk dazu überreden, Nolan einen solchen Roboter zur Verfügung zu stellen.

Ist dies erst der Anfang für die KI-Technologie zum Gedankenlesen? Oder sehen wir schon, dass das nicht der richtige Weg ist, weil keines dieser Implantate Gedanken per se aufnimmt? Sie nehmen motorische Impulse auf.

Gehirnchirurgie könnte Ihnen helfen, schneller zu klicken und zu swipen

Elon Musk sagt, dass in naher Zukunft auch nicht behinderte Menschen ein Neuralink-Implantat haben wollen, mit dem sie direkt mit einem Computer, dem gesamten Internet und sogar der KI interagieren können.

Einen Moment mal. Was will er eigentlich damit sagen? Werden Menschen mit Neuralink mit der KI verschmelzen und alle Daten auf den Servern von Google mit ihrem „geistigen Auge“ erfassen?

Musk spekuliert, dass Menschen mit Neuralink in der Lage sein werden, schneller zu klicken und zu swipen.

Es ist ja nicht so, dass KI in die neuronale DNA injiziert werden soll. Menschen mit Neuralink werden immer noch externe Computer und Bildschirme benutzen.

Mit einem Neuralink würde man lediglich seine Hand – ein Schnittstellenwerkzeug, das in Milliarden von Jahren der Evolution perfektioniert wurde – durch eine Bluetooth-Verbindung zu einem Fitbit-ähnlichen Gerät ersetzen, das möglicherweise nicht so gut funktioniert.

Wer würde das wollen? Professionelle Videospieler?

Die linke Gehirnhälfte als Symbolmanipulator vs. die rechte Gehirnhälfte als Denker

In seiner Arbeit über die Funktionsweise und Interaktion der linken und rechten Gehirnhälfte versucht Iain McGilchrist nicht, die äußerst komplizierte Chemie zu beschreiben, die der Aktivität der Gehirnwellen zugrunde liegt. In der Tat sind Forscher wie McGilchrist hauptsächlich darauf angewiesen, das Verhalten von Menschen mit Hirnschäden zu beobachten, um zu verstehen, wie das Gehirn funktioniert. Wenn eine der Hemisphären geschädigt ist, kommt es zu vorhersehbaren neurologischen Defiziten.

Aber insgesamt wird bei der Lektüre von McGilchrist deutlich, dass Denken und Handeln, Glauben und Erinnern äußerst komplexe Prozesse sind, die sich auf die verschiedenen Regionen des Gehirns verteilen und voneinander abhängen, um Bedeutung zu erzeugen.

Ich leite ein monatliches Webinar mit dem Titel „Wir sind keine Maschinen„, in dem ich diejenigen kritisiere, die glauben, künstliche Intelligenz sei tatsächlich intelligent, und ich versuche zu zeigen, dass biologische Prozesse viel komplexer sind als Computerprozesse. Ich könnte meinen Studenten sagen, sie sollen McGilchrist zuhören und einfach mit dem Webinar fertig werden. Er macht deutlich, dass es illusorisch ist zu glauben, man könne Gedanken entschlüsseln, indem man ein paar tausend Sonden in das Gehirn eines Menschen steckt.

Laut McGilchrist ist die linke Hemisphäre mechanistisch. Sie ist an der Verwendung von Werkzeugen beteiligt und behandelt Objekte in der Welt als unbelebt und kontextlos. Die linke Hemisphäre ist an der Produktion von Sprache beteiligt, so wie man mit einem Werkzeug umgeht, indem man vordefinierte Verfahren mit vorhersehbaren Ergebnissen anwendet.

Die rechte Hemisphäre sorgt für die Kontextualisierung von Wörtern, d. h. für die Bedeutung der Wörter.

Verschiedene Arten von Zeichen: Symbole, Icons und Indizes

In meinem Fachgebiet, der Biosemiotik, würde ich sagen, dass die rechte Hemisphäre mehr mit dem zu tun hat, was wir geerdete Zeichen, Icons und Indizes nennen. Intelligentes Denken und Handeln ist etwas, was alle Lebewesen, auch Mikroben und einzelne Zellen, tun können. Und sie scheinen in der Lage zu sein, dies mit Hilfe von geerdeten Zeichen zu tun.

Das Icon als Zeichen assoziiert etwas mit einer anderen Sache aufgrund einer physischen Ähnlichkeit. Wenn ich zum Beispiel eine Katze darstellen möchte, könnte ich sie imitieren und sagen: „Miau, miau“, und Sie würden verstehen, was ich meine, denn mein Miau klingt ähnlich wie das Geräusch einer Katze. In den Zellen eines Körpers kann ein Symbolzeichen ein Molekül sein, das aufgrund seiner ähnlichen Form in einen Rezeptor passt. Physikalische Ähnlichkeit führt zu einer Assoziation. Auf diese Weise können Dinge aufgrund kontextualisierter Beziehungen zu Zeichen für andere Dinge (oder Ergebnisse) werden.

Ein Index assoziiert etwas mit einer anderen Sache (oder einem Ergebnis) aufgrund eines physischen Vektors. Ein Kleinkind kann seine Wünsche mitteilen, indem es mit seinem Zeigefinger auf etwas zeigt. Sie sehen, dass der Säugling auf das Objekt gerichtet ist. Als biologisches Beispiel können wir uns vorstellen, wie ein Schleimpilz anfängt, schnell in eine bestimmte Richtung zu pulsieren, was ihn dazu veranlasst, sich in Richtung eines erkannten Nahrungsgefälles zu bewegen.

Diese Art von Zeichen erhält ihre Bedeutung aus dem Kontext und muss nicht erlernt werden.

Im Gegensatz dazu muss eine andere Art von Zeichen, die als Symbol oder Code bezeichnet wird, erlernt werden, da sie nicht auf physischen Beziehungen beruht. Das Wort „Katze“ zum Beispiel bezieht sich willkürlich auf das Tier, das miaut.

In Ergänzung zu McGilchrists Argument würde ich sagen, dass die so genannte „Sprache“ der linken Hemisphäre keine Symbole oder Indizes verwendet, deren Bedeutungen auf einem Kontext beruhen. Die linke Hemisphäre scheint sich ausschließlich der Symbolmanipulation zu bedienen.

Wie bereits erwähnt, steht ein Symbol als eine Art von Zeichen für etwas, das durch Konvention festgelegt ist, d. h. ein Zeichen, ein Ton oder ein Muster wird willkürlich mit etwas anderem verbunden. Beim Morsealphabet zum Beispiel stehen Striche und Punkte willkürlich für Töne oder Zahlen.

Computerdesigner haben kein Konzept für Icons oder Indizes oder irgendeine Art von geerdeten Zeichen. Deshalb müssen Computer programmiert werden, direkt von einem Programmierer oder indirekt durch Versuch und Irrtum.

Computer verwenden keine Icons und Indexzeichen. Wie die linke Hemisphäre sind auch Computer ausschließlich mit Symbolen beschäftigt. Einsen und Nullen sind Symbole, die Muster bilden, die andere Arten von Symbolen, Wörtern und Zahlen darstellen.

Soweit KI die menschliche Intelligenz imitieren kann, scheint sie nur die linke Gehirnhälfte zu imitieren, also den Teil, der nicht wirklich viel denkt.

Die linke Hemisphäre kann halluzinieren

Obwohl in einem Computer keine Zeichen kontextualisiert werden, wie bei Icons und Indizes in lebenden Organismen, können Computer statistische Ähnlichkeiten in Mustern von Einsen und Nullen erkennen. Auf diese Weise scheint ein Computer auf der Grundlage von Ähnlichkeiten zu verallgemeinern, beispielsweise bei der Rechtschreibprüfung. Computer können auch die Häufigkeit des gemeinsamen Auftretens verschiedener Muster erkennen und so vorhersagen, dass das Wort „Huhn“ mit größerer Wahrscheinlichkeit auf „gegrillt“ folgt als auf „Katze“. Aber diese Art von falscher Kontextualisierung muss auf massiven Daten beruhen, die die Leitwahrscheinlichkeiten liefern. Dieses System funktioniert wie ein manipuliertes Rouletterad.

Eine KI mit einem großen Sprachmodell (Large Language Model, LLM) wie Chat-GPT oder Gemini oder Bard kann behaupten, dass A und B miteinander verbunden seien, und zwar auf der Grundlage einer falschen Identifizierung von Ähnlichkeiten oder häufigen Paarungen. Dies muss die Ursache für die so genannte „Halluzinationstendenz“ von LLM sein.

Hirngeschädigte Patienten, bei denen die linke Hemisphäre dominiert, neigen ebenfalls zu Halluzinationen.

Wollen wir, dass die linke Hemisphäre das Sagen hat?

McGilchrist hat festgestellt, dass computergenerierte Antworten die Sprachproduktion der linken Gehirnhälfte nachahmen.

Er hat auch argumentiert, dass unsere Gesellschaft mehr und mehr von denjenigen geführt zu werden scheint, deren linke Hemisphäre dominanter ist als die, deren rechte Hemisphäre einen größeren Einfluss auf ihre Denkprozesse hat.

Die linke Gehirnhälfte ist bürokratisch und mechanistisch. Sie bleibt in Spurrillen stecken und ist darauf angewiesen, dass die rechte Gehirnhälfte ihr hilft, den Kurs zu ändern. Menschen mit einer Schädigung der rechten Gehirnhälfte, die sich ausschließlich auf die linke Gehirnhälfte verlassen, halten an einem Weg fest, auch wenn dieser offensichtlich falsch ist.

Die positivistische linke Hemisphäre tut so, als ob sie bereits alle richtigen Antworten zur Lösung von Problemen kennt. Die Dominanz der linken Hemisphäre veranlasst die Menschen dazu, darauf zu vertrauen, dass die institutionellen Führer die richtigen Programme umsetzen, die dann auch funktionieren. McGilchrist sagt, dass die linke Hemisphäre, wenn die Dinge nicht wie erwartet funktionieren, nicht die Möglichkeit in Betracht zieht, dass ihre Lösung einfach falsch sein könnte, und stattdessen annimmt, dass sie noch mehr vom Gleichen tun muss. Doppelt so viel.

Kommt Ihnen das bekannt vor?

Schreibe einen Kommentar