September 21, 2021

Beunruhigende neue Forschung: Gesichtserkennung soll politische Partei verraten können – TechCrunch

Quelle: Facial recognition reveals political party in troubling new research | TechCrunch

Forscher haben ein maschinelles Lernsystem entwickelt, von dem sie behaupten, dass es die politische Partei einer Person mit angemessener Genauigkeit allein anhand ihres Gesichts bestimmen könne. Die Studie, die von einer Gruppe stammt, die auch gezeigt hat, dass sexuelle Präferenzen scheinbar auf diese Weise abgeleitet werden können, spricht offen die Fallstricke der „modernen Phrenologie“ an und vermeidet sie sorgfältig, was zu der unbequemen Schlussfolgerung führt, dass unser Aussehen mehr persönliche Informationen ausdrücken kann, als wir denken.

Die Studie, die diese Woche in der Zeitschrift „Nature Scientific Reports“ erschien, wurde von Michal Kosinski von der Stanford University durchgeführt. Kosinski machte 2017 Schlagzeilen mit einer Arbeit, die herausfand, dass die sexuelle Präferenz einer Person aus Gesichtsdaten vorhergesagt werden kann.

Die Studie wurde nicht so sehr wegen ihrer Methoden kritisiert, sondern wegen der Idee, dass etwas, das nicht-physikalisch ist, auf diese Weise nachgewiesen werden könnte. Aber Kosinskis Arbeit, so erklärte er damals und im Nachhinein, wurde speziell durchgeführt, um diese Annahmen in Frage zu stellen und war für ihn ebenso überraschend und beunruhigend wie für andere. Die Idee war nicht, eine Art KI-Gaydar zu bauen – ganz im Gegenteil. Wie das Team damals schrieb, war es notwendig, dies zu veröffentlichen, um andere zu warnen, dass so etwas von Leuten gebaut werden könnte, deren Interessen über das Akademische hinausgingen:

„Wir waren wirklich beunruhigt über diese Ergebnisse und haben viel Zeit damit verbracht, zu überlegen, ob sie überhaupt öffentlich gemacht werden sollten. Wir wollten nicht genau die Risiken ermöglichen, vor denen wir warnen. Die Fähigkeit zu kontrollieren, wann und wem man seine sexuelle Orientierung offenbart, ist nicht nur für das eigene Wohlbefinden, sondern auch für die eigene Sicherheit entscheidend.

Wir waren der Meinung, dass es dringend notwendig ist, politische Entscheidungsträger und LGBTQ-Gemeinschaften auf die Risiken aufmerksam zu machen, denen sie ausgesetzt sind. Wir haben kein die Privatsphäre verletzendes Tool geschaffen, sondern vielmehr gezeigt, dass grundlegende und weit verbreitete Methoden ernsthafte Bedrohungen für die Privatsphäre darstellen.“

Ähnliche Warnungen können dazu ausgesprochen werden, denn obwohl die politische Zugehörigkeit zumindest in den USA (und zumindest derzeit) kein so sensibles oder persönliches Element ist wie die sexuelle Präferenz, ist sie dennoch sensibel und persönlich. Es vergeht kaum eine Woche, in der man nicht liest, dass der eine oder andere politische oder religiöse „Dissident“ verhaftet oder getötet wird. Wenn unterdrückerische Regime das, was als hinreichender Verdacht gilt, mit der Aussage „Der Algorithmus hat Sie als möglichen Extremisten markiert“ erreichen könnten, anstatt beispielsweise Nachrichten abzufangen, würde diese Art von Praxis viel einfacher und skalierbarer werden.

Der Algorithmus selbst ist keine sonderlich fortschrittliche Technologie. Kosinskis Arbeit beschreibt einen ziemlich gewöhnlichen Prozess, bei dem ein maschinelles Lernsystem mit Bildern von mehr als einer Million Gesichtern gefüttert wurde, die von Dating-Seiten in den USA, Kanada und Großbritannien sowie von amerikanischen Facebook-Nutzern gesammelt wurden. Die Personen, deren Gesichter verwendet wurden, identifizierten sich im Rahmen des Fragebogens der Seite als politisch konservativ oder liberal.

Der Algorithmus basiert auf Open-Source-Gesichtserkennungssoftware, und nach einer grundlegenden Bearbeitung, um nur das Gesicht zu beschneiden (sodass sich keine Hintergründe als Faktoren einschleichen), werden die Gesichter auf 2.048 Scores reduziert, die verschiedene Merkmale repräsentieren – wie bei anderen Gesichtserkennungsalgorithmen sind dies nicht unbedingt intuitive Dinge wie „Augenbrauenfarbe“ und „Nasentyp“, sondern eher computerbezogene Konzepte.

Bildnachweis: Michal Kosinski / Nature Scientific Reports

Das System erhielt Daten zur politischen Zugehörigkeit, die von den Menschen selbst stammten, und begann damit fleißig, die Unterschiede zwischen den Gesichtsstatistiken von Menschen, die sich als konservativ identifizieren, und denen, die sich als liberal identifizieren, zu untersuchen. Denn es stellte sich heraus, dass es Unterschiede gibt.

Natürlich ist es nicht so einfach wie „Konservative haben buschigere Augenbrauen“ oder „Liberale runzeln mehr die Stirn“. Es kommt auch nicht auf die Demografie an, das würde die Sache zu einfach und simpel machen. Denn wenn die Identifikation mit einer politischen Partei sowohl mit dem Alter als auch mit der Hautfarbe korreliert, dann ist das schon ein einfacher Vorhersagealgorithmus. Aber obwohl die von Kosinski verwendeten Software-Mechanismen ziemlich standardisiert sind, hat er darauf geachtet, gründlich vorzugehen, damit diese Studie, wie auch die letzte, nicht als Pseudowissenschaft abgetan werden kann.

Der offensichtlichste Weg, dies zu erreichen, besteht darin, das System die politische Partei von Personen gleichen Alters, Geschlechts und gleicher ethnischer Zugehörigkeit erraten zu lassen. Bei dem Test wurden zwei Gesichter präsentiert, eines von jeder Partei, und es musste erraten werden, welches das richtige war. Offensichtlich liegt die Zufallsgenauigkeit bei 50%. Menschen sind bei dieser Aufgabe nicht sehr gut, sie liegen nur leicht über dem Zufall, etwa 55% genau.

Der Algorithmus erreichte eine Genauigkeit von 71 % bei der Vorhersage der politischen Partei zwischen zwei gleichartigen Individuen und 73 % bei zwei Individuen jeglichen Alters, ethnischer Zugehörigkeit oder Geschlechts (aber immer noch unter der Voraussetzung, dass einer konservativ und einer liberal ist).

Bildnachweis: Michal Kosinski / Nature Scientific Reports

Drei von vier Punkten zu erreichen mag nicht wie ein Triumph für die moderne KI erscheinen, aber wenn man bedenkt, dass Menschen kaum besser als ein Münzwurf abschneiden können, scheint es hier etwas zu geben, das eine Überlegung wert ist. Kosinski hat darauf geachtet, auch andere Grundlagen abzudecken; dies scheint keine statistische Anomalie oder Übertreibung eines einzelnen Ergebnisses zu sein.

Der Gedanke, dass einem die politische Partei ins Gesicht geschrieben sein könnte, ist beunruhigend, denn obwohl die eigene politische Gesinnung bei weitem nicht die privateste aller Informationen ist, ist sie doch etwas, das man vernünftigerweise als nicht greifbar ansieht. Man kann seine politischen Überzeugungen mit einem Hut, einer Anstecknadel oder einem T-Shirt zum Ausdruck bringen, aber im Allgemeinen betrachtet man sein Gesicht als überparteilich.

Wenn Sie sich fragen, welche Gesichtszüge besonders aufschlussreich sind, kann das System das leider nicht melden. In einer Art Parastudie isolierte Kosinski ein paar Dutzend Gesichtsmerkmale (Gesichtsbehaarung, Direktheit des Blicks, verschiedene Emotionen) und testete, ob diese gute Prädiktoren für Politik sind, aber keines führte zu mehr als einer kleinen Erhöhung der Genauigkeit gegenüber dem Zufall oder der menschlichen Expertise.

„Kopfausrichtung und emotionaler Ausdruck stachen hervor: Liberale neigten dazu, der Kamera direkter ins Gesicht zu blicken, drückten eher Überraschung und seltener Abscheu aus“, schrieb Kosinski in den Autorennotizen für die Studie. Aber was sie hinzugefügt haben, ließ mehr als 10 Prozentpunkte der Genauigkeit unberücksichtigt: „Das deutet darauf hin, dass der Gesichtserkennungsalgorithmus viele andere Merkmale gefunden hat, die die politische Orientierung verraten.“

Die reflexartige Verteidigung à la „Das kann nicht wahr sein – Phrenologie war Schlangengift“ greift hier leider nicht. Es ist beängstigend zu denken, dass es wahr ist, aber es hilft uns nicht weiter, zu leugnen, was eine sehr wichtige Wahrheit sein könnte, da sie sehr leicht gegen Menschen verwendet werden könnte.

Wie bei der Untersuchung der sexuellen Orientierung geht es hier nicht darum, einen perfekten Detektor für diese Informationen zu schaffen, sondern zu zeigen, dass es möglich ist – damit Menschen beginnen, die Gefahren zu bedenken, die dadurch entstehen. Wenn zum Beispiel ein unterdrückerisches theokratisches Regime gegen nicht-rechte Menschen oder solche mit einer bestimmten politischen Einstellung vorgehen wollte, gibt ihnen diese Art von Technologie eine plausible technologische Methode, dies „objektiv“ zu tun. Und was noch wichtiger ist, es kann mit sehr wenig Arbeit oder Kontakt mit der Zielperson gemacht werden, im Gegensatz zum Durchwühlen ihrer Social-Media-Historie oder dem Analysieren ihrer Einkäufe (auch sehr aufschlussreich).

Wir haben bereits davon gehört, dass China Gesichtserkennungssoftware einsetzt, um Mitglieder der umkämpften religiösen Minderheit der Uiguren zu finden. Und auch in unserem eigenen Land vertrauen die Behörden auf diese Art von KI – es ist nicht schwer, sich vorzustellen, dass die Polizei die „neueste Technologie“ einsetzt, um zum Beispiel Gesichter bei einer Demonstration zu klassifizieren und zu sagen: „Diese 10 wurden vom System als die liberalsten bestimmt“, oder was auch immer.

Die Vorstellung, dass ein paar Forscher mit Hilfe von Open-Source-Software und einer mittelgroßen Datenbank mit Gesichtern (für eine Regierung ist es trivial, eine solche Datenbank zusammenzustellen, falls sie nicht eh schon eine hat) dies überall auf der Welt und für jeden Zweck tun könnten, ist beängstigend.

„Don’t shoot the messenger“, sagte Kosinski. „In meiner Arbeit warne ich vor den weit verbreiteten Algorithmen zur Gesichtserkennung. Besorgniserregend ist, dass diese KI-Physiognomiker jetzt eingesetzt werden, um die intimen Merkmale von Menschen zu beurteilen – Wissenschaftler, Politiker und Bürger sollten das zur Kenntnis nehmen.“

Schreibe einen Kommentar