Hey Google, es tut uns leid, dass du deinen Ethikrat verloren hast, also haben wir einen für dich eingerichtet



Nun, das hat nicht lange gedauert. Nach etwas mehr als einer Woche machte Google einen Rückzieher bei der Gründung seines Advanced Technology External Advisory Council oder ATEAC – ein Komitee, das dem Unternehmen Leitlinien für die ethische Entwicklung neuer Technologien wie KI geben soll. Die Aufnahme der Präsidentin der Heritage Foundation, Kay Coles James, in den Rat löste einen Aufschrei über ihre umweltfeindlichen, LGBTQ- und einwanderungsfeindlichen Ansichten aus führte fast 2.500 Google-Mitarbeiter eine Petition für ihre Absetzung zu unterzeichnen. Stattdessen beschloss der Internetgigant einfach, das Ganze abzuschalten.

Wie konnte es so schief gehen? Und kann Google sie korrigieren? Wir haben ein Dutzend Experten für KI, Technologie und Ethik hinzugezogen, die uns sagen, wo sich das Unternehmen verirrt hat und was es als Nächstes tun könnte. Wenn diese Leute auf ATEAC gewesen wären, hätte die Geschichte vielleicht einen anderen Ausgang genommen.




'Seien Sie transparent und konkret in Bezug auf die Rollen und Verantwortlichkeiten, die Ethikkommissionen haben'

Rashida Richardson, Direktorin für Politikforschung am AI Now Institute



„Wir haben keinen Einblick, ob Ethikkommissionen tatsächlich ein moralischer Kompass oder nur ein weiterer Stempel sind“

Theoretisch könnten Ethikkommissionen von großem Nutzen sein, wenn es darum geht sicherzustellen, dass KI-Produkte sicher und nicht diskriminierend sind. Aber damit Ethikkommissionen sinnvoll wirken können, müssen sie öffentlich rechenschaftspflichtig sein und über eine echte Aufsichtsbefugnis verfügen.

Das bedeutet, dass Technologieunternehmen bereit sein sollten, die Kriterien zu teilen, die sie verwenden, um auszuwählen, wer in diesen Ethikgremien sitzen darf. Sie sollten auch transparent und spezifisch über die Rollen und Verantwortlichkeiten ihrer Ethikkommissionen sein, damit die Öffentlichkeit ihre Wirksamkeit beurteilen kann. Ansonsten haben wir keinen Einblick, ob Ethikkommissionen tatsächlich ein moralischer Kompass oder nur ein weiterer Stempel sind. Angesichts des globalen Einflusses und der Verantwortung großer KI-Unternehmen ist dieses Maß an Transparenz und Rechenschaftspflicht unerlässlich.



Überlegen Sie, was es tatsächlich bedeutet, Technologie effektiv und gerecht zu regieren

Jake Metcalf, Technologieethiker bei Data & Society

Das ATEAC-Hullabaloo zeigt uns, wie angespannt und umstritten dieses neue Zeitalter der Technikethik wahrscheinlich sein wird. Google hat den Raum in diesem Fall eindeutig falsch verstanden. Politisch marginalisierte Bevölkerungsgruppen, die den klassifizierenden Launen von KI/ML-Technologien unterliegen, werden wahrscheinlich die schlimmsten ethischen Schäden durch automatisierte Entscheidungsfindung erfahren. Dass Google Kay Coles James wegen ihrer Meinungsvielfalt gegenüber ihrem offenen Hass auf Transgender bevorzugt, zeigt, dass sie nicht angemessen darüber nachdenken, was es tatsächlich bedeutet, Technologie effektiv und gerecht zu regieren.

„Ethik bedeutet zwei verschiedene Dinge, die in der Praxis widersprüchlich sein können. Unternehmen sind für Ersteres offen und haben Angst vor Letzterem.“



Für Unternehmen ist es schwierig, weil Ethik zwei verschiedene Dinge bedeutet, die in der Praxis widersprüchlich sein können: Es ist sowohl die tägliche Arbeit, Konsequenzen zu verstehen und abzumildern (z zu Recht angeordnet werden kann (z. B. ob unterschiedliche Schäden für marginalisierte Gemeinschaften bedeuten, dass eine Produktlinie aufgestockt werden sollte). Unternehmen sind ersterem gegenüber aufgeschlossen und haben vor letzterem Angst. Aber wenn es bei der KI-Ethik nicht darum geht, automatisierten Missbrauch zu verhindern, den Transfer gefährlicher Technologien an autokratische Regierungen zu blockieren oder die Automatisierung staatlicher Gewalt zu verbieten, dann ist es schwer zu wissen, was Technologieunternehmen außer leeren Gesten davon halten. Unter dem netten neuen Ethikberichtstool, das mit den KPI-Metriken des Unternehmens kompatibel ist, ist eine echte Sorge, dass Menschenleben auf dem Spiel stehen. Diese alle gleichzeitig im Kopf zu behalten, ist eine bürokratische Herausforderung für Unternehmen und für Ethiker, die daran interessiert sind, gerechtere Technologien gewinnen zu sehen.

Erkenne zuerst den Elefanten im Raum an: die KI-Prinzipien von Google

Evan Selinger, Philosophieprofessor am Rochester Institute of Technology

Google legte den Kibosh auf ATEAC, ohne zuerst den Elefanten im Raum anzuerkennen: die KI-Prinzipien die CEO Sundar Pichai im Sommer artikulierte. Führende Akademiker, Leute aus Organisationen der Zivilgesellschaft und leitende Angestellte von Technologieunternehmen haben mir immer wieder gesagt, dass die Prinzipien zwar auf dem Papier gut aussehen, aber flexibel genug sind, um so interpretiert zu werden, dass Google keine Kompromisse bei langfristigem Wachstum eingehen muss Strategien – nicht zuletzt, weil die Durchsetzungsmechanismen für die Verletzung der Prinzipien nicht klar definiert sind und das gesamte Unternehmen am Ende ein Selbstregulierungsunternehmen bleibt.



Abgesehen davon würde es sicherlich dazu beitragen, die Führung gegenüber einem Ethikrat rechenschaftspflichtiger zu machen, wenn die Gruppe (a) richtig zusammengesetzt wäre; (b) klare und robuste institutionelle Befugnisse erhalten (anstatt nur Ratschläge zu erteilen); und (c) auch selbst an transparente Rechenschaftsstandards gebunden sein, um sicherzustellen, dass es nicht zu einem Rädchen in einer rationalisierenden Ethik-Waschmaschine wird.

Ändern Sie die Personen, die für die Zusammenstellung dieser Gruppen verantwortlich sind

Ellen Pao, Gründerin von Project Include

Dieser gescheiterte Versuch zeigt genau, warum Google bessere Berater braucht. Aber vielleicht müssen sie auch die Leute ändern, die für die Zusammenstellung dieser Gruppen verantwortlich sind – und vielleicht sollten ihre internen Teams diese Arbeit auch erledigen. Wie wir alle gesehen haben, gab es mehrere Probleme mit dem Ergebnis, aber auch Probleme mit dem Prozess. Wenn Sie der gesamten Gruppe nicht mitgeteilt haben, mit wem sie zusammenarbeiten werden, ist das ein großer Fehler. Menschen zusammenzubringen, die die Welt, in der wir leben, stärker reflektieren, hätte intern geschehen sollen, bevor versucht wurde, eine externe Gruppe zusammenzustellen.

Randbemerkung: Die Leute sollten die Gruppen, denen sie beitreten, die Konferenzpanels, auf denen sie sprechen, und ihre Teams untersuchen, bevor sie sich verpflichten, damit sie wissen, wofür sie sich anmelden. Es ist erstaunlich, wie sehr man sie beeinflussen kann und wie man die Zusammensetzung einer Gruppe verändern kann, indem man einfach darum bittet.

Stärken Sie Antagonismus – nicht diese freundlichen internen Partnerschaften und Bemühungen, sich an der Hand zu halten

Meg Leta Jones, Assistenzprofessorin für Kommunikation, Kultur und Technologie an der Georgetown University

Ethikgremien sind niemandes Tagesgeschäft und bieten nur eine Möglichkeit für seltene Gespräche auf hoher Ebene, die bestenfalls Einsicht und schlimmstenfalls Deckung bieten. Wenn wir Vertrauen in Institutionen wie Technologien, Technologieunternehmen, Medien und Regierungen aufbauen wollen, verlangt unsere aktuelle politische Kultur Antagonismus – nicht diese freundlichen internen Partnerschaften und Bemühungen um die Hand. Antagonisten zu stärken und Antagonismus zu unterstützen, kann die Ziele der „ethischen KI“ angemessener und effektiver erfüllen.

„Ethikausschüsse geben bestenfalls Einblick und decken schlimmstenfalls ab“

Schauen Sie nach innen und befähigen Sie Mitarbeiter, die sich solidarisch mit gefährdeten Gruppen stellen

Anna Lauren Hoffmann, Assistenzprofessorin an der Information School an der University of Washington

Googles gescheiterter ATEAC-Vorstand macht deutlich, dass es bei der KI-Ethik nicht nur darum geht, wie wir KI-Technologien konzipieren, entwickeln und implementieren – es geht auch darum, wie wir Ethik betreiben. Gelebte Schwachstellen, Verteilung von Macht und Einfluss und wessen Stimmen sich erheben, sind alles wesentliche Überlegungen, wenn man Ethik in der realen Welt verfolgt. Zu diesem Zweck machen das ATEAC-Debakel und andere Widerstände (z. B. gegen Project Maven , Dragonfly und Richtlinien zur sexuellen Belästigung ) deutlich, dass Google bereits über eine enorme Ressource in vielen seiner eigenen Mitarbeiter verfügt. Während wir auch eine sinnvolle Regulierung und externe Aufsicht brauchen, sollte das Unternehmen nach innen schauen und die bereits marginalisierten Mitarbeiter, die bereit sind, sich zu organisieren und solidarisch mit gefährdeten Gruppen zu stehen, befähigen, um die allgegenwärtigen Probleme von Transphobie, Rassismus, Fremdenfeindlichkeit und Hass anzugehen.

Ein Vorstand kann nicht nur aus „ein paar wichtigen Leuten, die wir kennen“ bestehen. Sie brauchen echte Ethiker

Patrick Lin, Direktor der Ethik + Emerging Sciences Group bei Cal Poly

Mit den Worten von Aaliyah: Ich denke, der nächste Schritt für Google besteht darin, sich abzustauben und es erneut zu versuchen. Aber sie müssen sorgfältiger überlegen, wen sie in das Board aufnehmen – es darf nicht nur eine „Fragen wir ein paar wichtige Leute, die wir kennen“-Liste sein, wie es die Version 1.0 des Rates zu sein schien. Erstens, wenn ein ernsthaftes Interesse an ethischer Beratung besteht, dann brauchen Sie echte Ethiker – Experten, die eine professionelle Ausbildung in theoretischer und angewandter Ethik haben. Sonst wäre es eine Absage an den Wert von Expertise, die wir heute schon viel zu oft sehen, zum Beispiel in der Grundlagenforschung.

'Stellen Sie sich vor, das Unternehmen wollte einen KI-Rechtsrat einberufen, aber es wäre nur ein Anwalt dabei'

Stellen Sie sich vor, das Unternehmen wollte einen KI-Rechtsrat einberufen, aber es gab nur einen Anwalt (so wie es nur einen Philosophen im KI-Ethikrat v1.0 gab). Das würde ernsthafte rote Fahnen auslösen. Es reicht nicht aus, dass jemand an rechtlich wichtigen Themen arbeitet – das tun unzählige Menschen, mich eingeschlossen, und sie können die Expertenmeinung von Rechtswissenschaftlern und Anwälten gut ergänzen. Aber damit dieser Rat wirklich effektiv ist, muss er in seinem Kern echte Domänenexperten enthalten.

Die letzten Wochen haben gezeigt, dass direktes Organisieren funktioniert

Os Keyes, ein Doktorand im Data Ecologies Lab an der University of Washington

Um ehrlich zu sein, habe ich keinen Rat für Google. Google tut genau das, was Unternehmen in unserer Gesellschaft tun sollen; arbeiten für politische (und damit regulatorische und damit finanzielle) Vorteile, ohne dass eine Spur von Moral in ihre Quartalsergebnisse oder ihren strategischen Plan eindringt. Mein Rat gilt allen außer Google. Für Personen außerhalb von Google: Rufen Sie Ihre Vertreter an. Fragen Sie, was sie in Bezug auf die KI-Regulierung tun. Fragen Sie, was sie in Bezug auf Lobbying-Kontrollen unternehmen. Fragen Sie, was sie in Bezug auf die Unternehmensregulierung tun. Für Akademiker: Rufen Sie Ihre Dozenten an. Fragen Sie, was sie tun, um Ethikstudenten beizubringen, dass Ethik nur dann wichtig ist, wenn sie angewandt und gelebt wird. Für Leute innerhalb von Google: Rufen Sie die Leute außerhalb an und fragen Sie, was sie von Ihnen brauchen. Die Ereignisse der letzten Wochen haben gezeigt, dass direktes Organisieren funktioniert; Solidarität funktioniert.

Vier Sitzungen pro Jahr dürften keine Auswirkungen haben. Wir brauchen agilen Ethik-Input

Irina Raicu, Direktorin des Internetethikprogramms an der Santa Clara University

Ich denke, das war eine große verpasste Chance. Ich fragte mich, wer innerhalb von Google an der Entscheidungsfindung darüber beteiligt war, wen ich einladen sollte. (Diese Entscheidung an sich erforderte vielfältige Eingaben.) Aber dies spricht hier für das allgemeinere Problem: die Tatsache, dass Google die Ankündigung über die Einrichtung des Boards gemacht hat, ohne seine Kriterien für die Auswahl der Teilnehmer zu erläutern. Es gab auch sehr wenige Diskussionen über ihre Gründe für die Einrichtung des Boards, was sie sich von der Wirkung des Boards erhofften usw. Hätten sie mehr Kontext geliefert, wäre die anschließende Diskussion vielleicht anders verlaufen.

Es gibt auch andere Probleme; Angesichts der Geschwindigkeit, mit der sich KI entwickelt und eingesetzt wird, haben vier Treffen (selbst mit einer heterogenen Gruppe von KI-Ethikberatern) im Laufe eines Jahres wahrscheinlich keine nennenswerten Auswirkungen – d.h. um den Weg der Forschung oder Produktentwicklung wirklich zu verändern. Solange das Modell agile Entwicklung ist, brauchen wir auch agilen Ethik-Input.

Die Gruppe muss befugt sein, Nein zu Projekten zu sagen

Sam Gregory, Programmdirektor bei Witness

Wenn Google wirklich die Achtung von Ethik oder Menschenrechten in die KI-Initiativen einbauen möchte, müssen sie zunächst erkennen, dass ein Beratungsgremium oder sogar ein Governance-Gremium nur Teil eines größeren Ansatzes ist. Ihnen muss von Anfang an klar sein, dass die Gruppe tatsächlich befugt ist, Nein zu Projekten zu sagen und sich Gehör zu verschaffen. Dann müssen sie sich ausdrücklich zu dem Rahmenwerk äußern – wir empfehlen, dass es auf etablierten internationalen Menschenrechtsgesetzen und -normen basiert – und daher sollte eine Person oder Gruppe, die nachweislich diskriminiert oder missbräuchlich ist, nicht Teil davon sein.

Vermeiden Sie es, Ethik wie ein PR-Spiel oder ein technisches Problem zu behandeln

Anna Jobin, Forscherin am Health Ethics and Policy Lab der Eidgenössischen Technischen Hochschule

Wenn Google es mit ethischer KI ernst meint, muss das Unternehmen Ethik nicht wie ein PR-Spiel oder ein technisches Problem behandeln und sie in seine Geschäftspraktiken und -prozesse einbetten. Möglicherweise muss es seine Governance-Strukturen neu gestalten, um eine bessere Vertretung und Rechenschaftspflicht sowohl für seine internen Mitarbeiter als auch für die Gesellschaft insgesamt zu schaffen. Insbesondere muss das Wohlergehen von Minderheiten und schutzbedürftigen Gemeinschaften weltweit Vorrang haben, insbesondere von Menschen, die durch seine Technologie beeinträchtigt werden oder werden könnten.

„Suchen Sie nicht nur nach traditionellem Fachwissen, sondern auch nach den Erkenntnissen von Menschen, die Experten für ihre eigenen gelebten Erfahrungen sind.“

Joy Buolamwini, Gründerin der Algorithmic Justice League

Wenn wir über die Governance von KI nachdenken, müssen wir nicht nur nach traditionellem Fachwissen suchen, sondern auch nach den Erkenntnissen von Menschen, die Experten für ihre eigenen gelebten Erfahrungen sind. Wie können wir marginalisierte Stimmen in die Gestaltung von KI einbeziehen? Wie könnte eine partizipative KI aussehen, die die Ansichten derjenigen in den Mittelpunkt rückt, die am stärksten von den negativen Auswirkungen der KI bedroht sind?

'Ich kann mir nicht vorstellen, dass eine Empfehlung eines solchen Beratungsgremiums den Anforderungen des Marktes im Wege steht'

Lernen aus der ATEAC-Erfahrung Google sollte kompensierte Community-Review-Prozesse in die Entwicklung seiner Produkte und Dienstleistungen einbeziehen. Dies erfordert eine sinnvolle Transparenz und kontinuierliche Überwachung. Und Google und andere Mitglieder der Partnerschaft für KI sollten einen Teil der Gewinne beiseite legen, um Konsortiumsfinanzierungen für die Forschung zu KI-Ethik und Rechenschaftspflicht bereitzustellen, ohne sich nur auf KI-Fairnessforschung zu konzentrieren, die allein die technischen Perspektiven erhöht.

Vielleicht ist es das Beste, wenn das Feigenblatt der „ethischen Entwicklung“ weggewischt wurde

Adam Greenfield, Autor von Radikale Technologien

Alles, was wir über dieses Board gehört haben, war beschämend, angefangen von dem anfänglichen Instinkt, James zu der Entscheidung einzuladen, es zu schließen, anstatt Energie darauf zu verwenden, mit den Konsequenzen dieser Entscheidung fertig zu werden. Aber da meine Gefühle gegenüber KI mehr oder weniger die des Butlerian Jihad sind, ist es vielleicht das Beste, wenn das Feigenblatt der „ethischen Entwicklung“ weggewischt wurde. Letztendlich kann ich mir keine Empfehlung eines solchen Beratungsgremiums, wie auch immer es zusammengesetzt sein mag, vorstellen, das den Anforderungen des Marktes und/oder der wahrgenommenen Notwendigkeit, mit anderen Akteuren in der KI-Entwicklung zu konkurrieren, im Wege steht.

„Es ist ermutigend, die Macht des Mitarbeiteraktivismus zu sehen“

Tess Posner, CEO von AI4ALL

Es ist großartig zu sehen, wie Unternehmen, Organisationen und Forscher daran arbeiten, ethische Rahmenbedingungen für KI zu schaffen. Die Technologiebranche erlebt in diesem Bereich wachsende Schmerzen – herauszufinden, wie man dies richtig macht, ist eine Herausforderung und wird Zeit und Wiederholungen erfordern. Wir glauben, dass dies eine Gelegenheit ist, weiterhin zu fragen, welche Stimmen einbezogen werden müssen, und sicherzustellen, dass verschiedene Stimmen und Stimmen einbezogen werden, die möglicherweise direkt von den Ergebnissen der getroffenen Entscheidungen betroffen sind. Es ist ermutigend zu sehen, wie stark der Mitarbeiteraktivismus den Wandel bei diesem und anderen Themen in der Technologie beeinflusst.

verbergen