Die KI-Buchhaltungsbewegung gewinnt an Stärke

In einem demnächst erscheinenden Bericht der Algorithmic Justice League (AJL), einer privaten gemeinnützigen Organisation, wird empfohlen, bei der Verwendung eines KI-Modells eine Offenlegung zu verlangen und ein öffentliches Verzeichnis von Vorfällen zu erstellen, bei denen KI Schaden angerichtet hat. Das Repository kann Prüfern dabei helfen, potenzielle Probleme mit Algorithmen zu erkennen und Aufsichtsbehörden bei der Untersuchung oder mit Bußgeldern bei wiederholten Verstößen zu unterstützen. AJL-Mitbegründerin Joy Buolamwini war Co-Autorin eines einflussreichen Audits aus dem Jahr 2018, bei dem festgestellt wurde, dass Gesichtserkennungsalgorithmen bei weißen Männern am besten und bei dunkelhäutigen Frauen schlechter funktionieren.

Dem Bericht zufolge ist es entscheidend, dass die Prüfer unabhängig sind und die Ergebnisse öffentlich eingesehen werden können. Ohne diese Sicherheitsvorkehrungen “gibt es absolut keinen Rechenschaftsmechanismus”, sagt Sacha Costanza-Chuk, Forschungsleiterin bei AJL. “Wenn sie wollen, können sie es einfach begraben. Wenn ein Problem gefunden wird, gibt es keine Garantie, dass es angegangen wird. Es ist zahnlos, verschwiegen und Prüfer haben keinen Einfluss.”

Deep Raji ist ein AJL Fellow, der Audits bewertet und am Audit von Gesichtserkennungsalgorithmen 2018 teilgenommen hat. Sie warnte davor, dass große Technologieunternehmen gegenüber externen Prüfern aggressiver vorgehen und manchmal mit Klagen aus Gründen des Datenschutzes oder der Bekämpfung von Piraterie drohen. Im August verbot Facebook Akademikern der New York University die Überwachung politischer Werbeausgaben und vereitelte die Bemühungen eines deutschen Forschers, den Instagram-Algorithmus zu untersuchen.

Raggi fordert die Einrichtung eines Prüfungsaufsichtsgremiums innerhalb einer Bundesbehörde, um beispielsweise Standards durchzusetzen oder Streitigkeiten zwischen Wirtschaftsprüfern und Unternehmen zu schlichten. Ein solches Gremium könnte dem Financial Accounting Standards Board oder den Standards der Food and Drug Administration zur Bewertung von Medizinprodukten nachempfunden sein.

Prüfungsstandards und Wirtschaftsprüfer sind wichtig, da zunehmende Forderungen nach einer KI-Regulierung zur Gründung einer Reihe neuer Prüfungsgesellschaften geführt haben, von denen einige von KI-Kritikern stammen, und andere, die möglicherweise besser für die von ihnen geprüften Unternehmen geeignet sind. Im Jahr 2019 empfahl eine Koalition von KI-Forschern aus 30 Organisationen externe Audits und Regulierungen, die im Rahmen des Aufbaus von KI einen Markt für Prüfer schaffen, dem die Menschen mit nachprüfbaren Ergebnissen vertrauen.

Kathy O’Neil gründete ein Unternehmen, O’Neil Risk Consulting & Algorithmic Auditing (Orcaa), teilweise um künstliche Intelligenz zu bewerten, die der Öffentlichkeit nicht sichtbar ist oder nicht zugänglich ist. Orcaa arbeitet beispielsweise mit Generalstaatsanwälten in vier US-Bundesstaaten zusammen, um Algorithmen für Finanz- oder Konsumgüter zu bewerten. Aber O’Neill sagt, dass es potenzielle Kunden verliert, weil Unternehmen eine vernünftige Ablehnung aufrechterhalten und nicht wissen wollen, ob oder wie ihre KI den Menschen schadet.

Anfang dieses Jahres führte Orcaa eine Prüfung eines Algorithmus durch, den HireVue verwendet, um die Gesichter von Personen bei Vorstellungsgesprächen zu analysieren. In einer Pressemitteilung des Unternehmens wurde behauptet, dass bei der Prüfung keine Probleme mit Genauigkeit oder Voreingenommenheit festgestellt wurden, aber die Prüfung habe nicht versucht, Systemcode, Schulungs- oder Leistungsdaten für verschiedene Personengruppen auszuwerten. Kritiker sagten, HireVues Charakterisierung des Audits sei irreführend und irreführend. Kurz vor der Veröffentlichung des Audits kündigte HireVue an, den Einsatz von künstlicher Intelligenz in Video-Bewerbungsgesprächen einzustellen.

O’Neill glaubt, dass Audits nützlich sein können, sagt jedoch, dass es in gewisser Weise zu früh ist, den von der AJL festgelegten Ansatz zu verfolgen, zum Teil, weil es keine Standards für Audits gibt und wir nicht vollständig verstehen, wie KI schadet den Menschen. Stattdessen bevorzugt O’Neill einen anderen Ansatz: rechnerische Wirkungsbewertungen.

Während ein Audit die Ausgabe eines KI-Modells bewerten könnte, um zu sehen, ob beispielsweise Männer anders behandelt werden als Frauen, kann sich die Wirkungsbewertung eher darauf konzentrieren, wie der Algorithmus konzipiert ist, wer geschädigt werden könnte und wer verantwortlich ist, wenn etwas schief geht . In Kanada müssen Unternehmen die Risiken für Einzelpersonen und Gemeinschaften durch die Verwendung des Algorithmus bewerten; In den Vereinigten Staaten werden Bewertungen entwickelt, um zu entscheiden, wann KI ein geringes oder hohes Risiko hat und wie sehr die Menschen KI vertrauen.

Die Idee, Auswirkungen und potenzielle Schäden zu messen, begann in den 1970er Jahren mit dem Nationalen Umweltschutzgesetz, das zur Erstellung von Umweltverträglichkeitsdaten führte. Diese Berichte berücksichtigen Faktoren von der Kontamination bis hin zur möglichen Entdeckung antiker Artefakte; Ebenso werden Wirkungsbewertungen von Algorithmen eine Vielzahl von Faktoren berücksichtigen.

William

Leave a Reply

Your email address will not be published.