• Thursday May 23,2019

Sollten wir uns um Computeralgorithmen "psychische Gesundheit" sorgen?

Anonim

Halluziniert mein Auto? Ist der Algorithmus, mit dem das polizeiliche Überwachungssystem in meiner Stadt betrieben wird, paranoid? Marvin, der Androide in Douglas Adams Hitchhikers Guide to the Galaxy, hatte Schmerzen in allen Dioden auf seiner linken Seite. Fühlt sich mein Toaster so an?

Das hört sich alles lächerlich an, bis wir erkennen, dass unsere Algorithmen zunehmend nach unserem eigenen Bild hergestellt werden. Da wir mehr über unsere eigenen Gehirne erfahren haben, haben wir dieses Wissen dazu verwendet, algorithmische Versionen von uns selbst zu erstellen. Diese Algorithmen steuern die Geschwindigkeiten fahrerloser Autos, identifizieren Ziele für autonome militärische Drohnen, berechnen unsere Anfälligkeit für kommerzielle und politische Werbung, finden unsere Seelenverwandten in Online-Partnervermittlungsdiensten und bewerten unsere Versicherungs- und Kreditrisiken. Algorithmen werden zu einem nahen Umfeld in unserem Leben.

Die beliebtesten Algorithmen, die derzeit in der Belegschaft eingesetzt werden, sind Deep-Learning-Algorithmen. Diese Algorithmen spiegeln die Architektur menschlicher Gehirne wider, indem sie komplexe Repräsentationen von Informationen erstellen. Sie lernen, Umgebungen zu verstehen, indem Sie sie kennenlernen, erkennen, was wichtig zu sein scheint, und finden heraus, was vorhergesagt wird. Diese Algorithmen sind wie unsere Gehirne zunehmend von psychischen Problemen bedroht.

Deep Blue, der Algorithmus, der 1997 den Schachweltmeister Garry Kasparov besiegte, tat dies mit brutaler Gewalt und untersuchte Millionen Positionen pro Sekunde, bis zu 20 Züge in der Zukunft. Jeder konnte verstehen, wie es funktioniert, selbst wenn er es nicht selbst tun könnte. AlphaGo, der tiefgreifende Lernalgorithmus, der Lee Sedol 2016 beim Go-Spiel besiegt hat, unterscheidet sich grundlegend. Mit tiefen neuronalen Netzwerken entwickelte er sein eigenes Verständnis des Spiels, das als das komplexeste Brettspiel gilt. AlphaGo lernte durch das Beobachten anderer und durch Spielen. Sowohl Informatiker als auch Go-Spieler sind von AlphaGos unorthodoxem Spiel verwirrt. Ihre Strategie scheint zunächst unangenehm zu sein. Erst im Nachhinein verstehen wir, was AlphaGo gedacht hat, und selbst dann ist es gar nicht so klar.

Um Ihnen ein besseres Verständnis darüber zu vermitteln, was ich unter Denken verstehe, bedenken Sie dies. Programme wie Deep Blue können einen Fehler in ihrer Programmierung haben. Sie können aus Speicherüberlastung abstürzen. Sie können aufgrund einer unendlichen Schleife in einen Lähmungszustand geraten oder einfach die falsche Antwort in einer Nachschlagetabelle ausspucken. Alle diese Probleme können jedoch von einem Programmierer gelöst werden, der Zugriff auf den Quellcode hat, den Code, in den der Algorithmus geschrieben wurde.

Algorithmen wie AlphaGo sind völlig verschieden. Ihre Probleme sind nicht ersichtlich, wenn der Quellcode betrachtet wird. Sie sind so eingebettet, dass sie Informationen darstellen. Diese Darstellung ist ein sich ständig verändernder hochdimensionaler Raum, ähnlich wie im Traum herumzulaufen. Um dort Probleme zu lösen, bedarf es nur eines Psychotherapeuten für Algorithmen.

Nehmen Sie den Fall von fahrerlosen Autos. Ein fahrerloses Auto, das sein erstes Stoppschild in der realen Welt sieht, wird bereits während des Trainings Millionen von Stoppschildern gesehen haben, wenn es seine geistige Repräsentation dessen, was ein Stoppschild ist, aufbaut. Bei verschiedenen Lichtverhältnissen, bei gutem Wetter und schlechtem Wetter mit und ohne Einschusslöcher enthalten die Stoppschilder, denen sie ausgesetzt war, eine verwirrende Vielfalt von Informationen. Unter den meisten normalen Bedingungen erkennt das fahrerlose Auto ein Stoppschild für das, was es ist. Aber nicht alle Bedingungen sind normal. Einige kürzlich durchgeführte Demonstrationen haben gezeigt, dass ein paar schwarze Aufkleber auf einem Stoppschild den Algorithmus dazu bringen können zu glauben, dass das Stoppschild ein 60 Meilen pro Stunde Zeichen ist. Der Algorithmus halluziniert etwas, das beunruhigend dem kontrastreichen Farbton eines Baumes ähnelt.

Wie viele verschiedene Möglichkeiten kann der Algorithmus halluzinieren? Um dies herauszufinden, müssten wir den Algorithmus mit allen möglichen Kombinationen von Eingangsstimuli versehen. Dies bedeutet, dass es unendlich viele Möglichkeiten gibt, wie es schief gehen kann. Crackerjack-Programmierer wissen dies bereits und nutzen es, indem sie so genannte gegnerische Beispiele erstellen. Die KI-Forschungsgruppe LabSix am Massachusetts Institute of Technology hat gezeigt, dass sie die Schwachstellen des Algorithmus erkennen können, indem sie Bilder dem Bildklassifizierungsalgorithmus von Google präsentieren und die zurückgesendeten Daten verwenden. Sie können dann ähnliche Dinge tun, als würden Sie die Bilderkennungssoftware von Google dazu bringen, zu glauben, dass ein Bild mit X-Rating nur ein paar Welpen sind, die im Gras spielen.

Algorithmen machen auch Fehler, weil sie Merkmale der Umgebung aufgreifen, die mit Ergebnissen korreliert sind, auch wenn keine kausale Beziehung zwischen ihnen besteht. In der algorithmischen Welt wird dies als Überanpassung bezeichnet. Wenn dies in einem Gehirn geschieht, nennen wir es Aberglauben.

Das größte algorithmische Versagen aufgrund von Aberglauben, das wir bisher kennen, wird als Gleichnis von Google Grippe bezeichnet. Google Grippe nutzte die von Google eingegebenen Personen, um den Ort und die Intensität von Influenza-Ausbrüchen vorherzusagen. Die Vorhersagen von Google Grippe funktionierten anfangs gut, wurden jedoch im Laufe der Zeit immer schlimmer, bis schließlich die doppelte Anzahl von Fällen vorhergesagt wurde, die an die US-amerikanischen Zentren für Krankheitskontrolle übermittelt wurden. Wie ein algorithmischer Hexendoktor hat Google Flu einfach auf die falschen Dinge geachtet.

Algorithmische Pathologien sind möglicherweise fixierbar. In der Praxis sind Algorithmen jedoch häufig proprietäre Black Boxes, deren Aktualisierung kommerziell geschützt ist. Cathy O'Neils Weapons of Math Destruction (2016) beschreibt eine wahrhaftige Freakshow kommerzieller Algorithmen, deren heimtückische Pathologien gemeinsam das Leben der Menschen ruinieren. Die algorithmische Verwerfungslinie, die die Reichen von den Armen trennt, ist besonders überzeugend. Ärmere Menschen haben häufiger schlechte Kredite, leben in Gebieten mit hoher Kriminalität und sind von anderen Armen mit ähnlichen Problemen umgeben. Aus diesem Grund zielen Algorithmen diese Personen auf irreführende Anzeigen ab, die ihrer Verzweiflung zum Opfer fallen, bieten ihnen Subprime-Kredite an und schicken mehr Polizeibeamte in ihre Wohnviertel. Dadurch steigt die Wahrscheinlichkeit, dass sie von der Polizei wegen Verbrechen gestoppt werden, die in wohlhabenderen Stadtvierteln zu ähnlichen Raten begangen werden. Algorithmen, die vom Justizsystem verwendet werden, verlängern die Haftstrafe dieser Personen, reduzieren ihre Chancen auf Bewährung, blockieren sie von Jobs, erhöhen ihre Hypothekenzinsen, verlangen höhere Versicherungsprämien und so weiter.

Diese algorithmische Todesspirale ist in verschachtelten Puppen von Blackboxen verborgen: Blackbox-Algorithmen, die ihre Verarbeitung in hochdimensionalen Gedanken verbergen, auf die wir keinen Zugriff haben, sind in Blackboxen mit proprietärem Besitz verborgen. Dies hat einige Orte wie New York City dazu veranlasst, Gesetze vorzuschlagen, die die Überwachung der Fairness in von kommunalen Diensten verwendeten Algorithmen durchsetzen. Aber wenn wir keine Verzerrung in uns selbst entdecken können, warum sollten wir dann erwarten, dass wir sie in unseren Algorithmen entdecken?

Durch das Trainieren von Algorithmen über menschliche Daten lernen sie unsere Vorurteile. Eine kürzlich von Aylin Caliskan an der Princeton University durchgeführte Studie fand heraus, dass Algorithmen, die anhand der Nachrichten trainiert wurden, Rassen- und Geschlechtervoreingenommenheit im Wesentlichen über Nacht lernten. Wie Caliskan bemerkte: "Viele Leute glauben, dass Maschinen nicht voreingenommen sind. Aber Maschinen werden mit menschlichen Daten trainiert. Und die Menschen sind voreingenommen.

Social Media ist ein sich windendes Nest der menschlichen Neigung und des Hasses. Algorithmen, die Zeit auf Social-Media-Sites verbringen, werden schnell zu Bigots. Diese Algorithmen sind gegen männliche Krankenschwestern und weibliche Ingenieure gerichtet. Sie werden Fragen wie Einwanderung und Minderheitenrechte auf eine Art und Weise betrachten, die einer Untersuchung nicht standhält. Bei einer halben Chance sollten wir von Algorithmen erwarten, dass sie Menschen genauso ungerecht behandeln wie Menschen einander. Algorithmen sind jedoch konstruktiv überbewusst und haben kein Gefühl ihrer eigenen Unfehlbarkeit. Wenn sie nicht dazu ausgebildet sind, haben sie keinen Grund, ihre Inkompetenz in Frage zu stellen (ähnlich wie Menschen).

Bei den oben beschriebenen Algorithmen beruhen ihre psychischen Probleme auf der Qualität der Daten, auf die sie trainiert werden. Algorithmen können jedoch auch psychische Probleme haben, je nachdem, wie sie aufgebaut sind. Sie können ältere Dinge vergessen, wenn sie neue Informationen lernen. Stellen Sie sich vor, Sie lernen den Namen eines neuen Mitarbeiters und vergessen plötzlich, wo Sie leben. Im Extremfall können Algorithmen unter einem katastrophalen Vergessen leiden, bei dem der gesamte Algorithmus nichts mehr lernen oder sich an nichts erinnern kann. Eine Theorie des altersbedingten kognitiven Verfalls von Menschen basiert auf einer ähnlichen Idee: Wenn der Speicher überfüllt ist, benötigen Gehirn und Desktop-Computer mehr Zeit, um das zu finden, was sie wissen.

Wenn Dinge pathologisch werden, ist das oft eine Ansichtssache. Infolgedessen bleiben geistige Anomalien beim Menschen routinemäßig unentdeckt. Synästhetiker wie meine Tochter, die geschriebene Briefe als Farben wahrnimmt, erkennen oft nicht, dass sie ein wahrnehmungsbezogenes Geschenk haben, bis sie im Teenageralter sind. Beweise, die auf den Sprachmustern von Ronald Reagan beruhen, deuten nun darauf hin, dass er wahrscheinlich als Präsident an Demenz litt. Und The Guardian berichtet, dass die Massenerschießungen, die in den letzten fünf Jahren in den USA alle neun von zehn Tagen stattgefunden haben, häufig von sogenannten "normalen" Menschen begangen werden, die zufällig unter Gefühlen von Verfolgung und Depression zerbrechen.

In vielen Fällen sind wiederholte Fehlfunktionen erforderlich, um ein Problem zu erkennen. Die Diagnose einer Schizophrenie erfordert mindestens einen Monat ziemlich schwächende Symptome. Antisoziale Persönlichkeitsstörung, der moderne Begriff für Psychopathie und Soziopathie, kann bei Personen erst ab dem 18. Lebensjahr diagnostiziert werden, und nur dann, wenn Verhaltensstörungen vor dem 15. Lebensjahr in der Vergangenheit aufgetreten sind.

Es gibt keine Biomarker für die meisten psychischen Erkrankungen, genauso wie der Code für AlphaGo keine Fehler enthält. Das Problem ist in unserer Hardware nicht sichtbar. Es ist in unserer Software. Die vielen Arten, wie unser Verstand schief geht, machen jedes psychische Problem für sich einzigartig. Wir sortieren sie in breite Kategorien wie Schizophrenie und Asperger-Syndrom, aber die meisten sind Störungen des Spektrums, die Symptome abdecken, die wir alle in unterschiedlichem Maße teilen. Im Jahr 2006 argumentierten die Psychologen Matthew Keller und Geoffrey Miller, dass dies eine unvermeidliche Eigenschaft der Art und Weise ist, in der Gehirne gebaut werden.

Es gibt vieles, was in Gedanken wie dem unseren schief gehen kann. Carl Jung schlug einmal vor, dass in jedem gesunden Menschen ein Verrückter steckt. Da unsere Algorithmen uns ähnlicher werden, wird es einfacher, sie zu verbergen.

Dieser Artikel wurde ursprünglich bei Aeon veröffentlicht und wurde unter Creative Commons erneut veröffentlicht.


Interessante Artikel

Ein mondbeschiener Wolkenschild - vom Weltraum aus gesehen

Ein mondbeschiener Wolkenschild - vom Weltraum aus gesehen

Bild des Tages: | Aktualisiert 20.12.2013 mit einem zweiten Bild unten. | Am 18. Dezember 2013 konnte der KKW-Satellit Suomi durch einen beinahe Vollmond dieses ungewöhnliche Bild eines spektakulären Wolkenbildes am östlichen Hang der Rocky Mountains in Colorado und Wyoming einfangen. Sie können die Nachtzeit an den Lichtpunkten erkennen, die im rechten Teil des Bildes am deutlichsten sichtbar sind. Di

Wann wird das Wetter zum Klima?

Wann wird das Wetter zum Klima?

Wann wird das Wetter zum Klima? Es fühlt sich wirklich so an, als ob die Antwort jetzt ist . Diese Karte zeigt, wie hoch die Durchschnittstemperaturen in den USA in letzter Zeit waren. Vor allem in Colorado sorgten niedrige Niederschlagsmengen in Verbindung mit trockenem Wetter (plus einer immer länger werdenden warmen Jahreszeit, in der Kiefernkäfer gedeihen und lebende Bäume zerstören können) dafür, dass der Staat zu einem Spiel wurde, das darauf wartet, beleuchtet zu werden. und d

Forschungsförderung: Es ist eine Gruppenarbeit

Forschungsförderung: Es ist eine Gruppenarbeit

Jackson Solway Wie viele Studenten in wissenschaftlichen Bereichen war Cindy Wu von einer akademischen Laufbahn in der Forschung fasziniert. Nach ihrem Abschluss in Biologie im Jahr 2011 arbeitete sie als wissenschaftliche Mitarbeiterin an der University of Washington in Seattle, ihrer Alma Mater. Während sie dort war, wollte sie eine Behandlung mit Anthrax zur Aufklärung von Staphinfektionen durchführen, war sich jedoch nicht sicher, wie sie Geld für ihre Idee bekommen konnte. Al

Nein, tropische Abholzungsraten fallen nicht

Nein, tropische Abholzungsraten fallen nicht

Ein Gebiet in der Nähe von Acre, Brasilien, zeigt den Fortschritt von Wald zu Weideland auf einer großen Rinderfarm: intakter Wald (links), Wald, der zu Weideland (oben) verbrannt wird, frisch gerodeter Wald (unten) und Gras, das zum Weiden bereit ist (rechts) ). Jüngste Studien zeigen eine Zunahme der Entwaldung. R

Sieh dir das an: Der Komet kann auf Mars wirken

Sieh dir das an: Der Komet kann auf Mars wirken

Wenn Sie zu denjenigen gehören, die Mars eines Tages nach Hause rufen möchten, empfehlen wir Ihnen, mindestens bis zum nächsten Herbst zu warten. Das ist, wenn die NASA sagt, ein Komet könnte in den Roten Planeten rammen. Der Comet 2013 A1 schneidet derzeit mit etwa 125.000 Meilen pro Stunde und misst irgendwo zwischen 0, 5 und 3 Meilen im Durchmesser. Se