IQNA

Künstliche Intelligenz Instrument zur Diskriminierung von Muslimen und Minderheiten in Indien

13:04 - September 18, 2023
Nachrichten-ID: 3009056
Neu Delhi (IQNA)- Die in Indien zum Trainieren von KI-Systemen verwendeten Datenbanken sind voreingenommen in Bezug auf Kaste, Geschlecht, Religion und sogar Standort, wodurch Vorurteile und Diskriminierung ihnen gegenüber aufrechterhalten werden. Kritiker sagen beispielsweise, dass der Einsatz von Gesichtserkennungstechnologie die Gefahr einer verstärkten Überwachung von Muslimen, niederen Kasten, indigenen Adivasi und anderen marginalisierten sozialen Gruppen und Minderheiten mit sich bringt.

Nach IQNA unter Berufung auf Hindu Bussiness Line sagte nach kommunalen Zusammenstößen im Stadtteil Jahangirpuri in Delhi am 11. September letzten Jahres die Polizei, dass sie Gesichtserkennungstechnologie einsetzte, um Dutzende zu identifizieren und zu verhaften. Dies ist der zweite Fall dieser Art nach gewalttätigeren Ausschreitungen in der Hauptstadt im Jahr 2020.

In beiden Fällen waren die meisten Angeklagten Muslime. Menschenrechtsgruppen und Technologieexperten kritisierten den Einsatz KI-basierter Technologie durch die indische Regierung um Arme, Minderheiten- und Randgruppen in Delhi oder anderswo im Land ins Visier zu nehmen.

Indien verfügt über Instrumente der künstlichen Intelligenz von denen Beamte sagen, dass sie die Effizienz steigern und den Zugang der Menschen zu Informationen verbessern werden. Technologieexperten befürchten, dass das Fehlen einer formellen Richtlinie für den ethischen Einsatz von KI den Menschen schadet, Vorurteile verstärkt, Zugehörigkeit zu einer Minderheit kriminalisiert und Interessen der Reichen stärker begünstigt als die der weniger Wohlhabenden.

Shivangi Narayan, ein Forscher, der präventive Polizeiarbeit in Delhi erforscht hat, sagte: „Sie (der Einsatz künstlicher Intelligenz) wirkt sich direkt auf Menschen aus die im Abseits stehen wie Dalits, Muslime. Und es betrifft soziale Minderheiten und verstärkt Voreingenommenheit und Diskriminierung gegen sie.“

 

Fehlende rthische Implikationen des Einsatzes künstlicher Intelligenz in Indien

Indien, mit einer Bevölkerung von 1,4 Milliarden Menschen und der fünftgrößten Volkswirtschaft der Welt, durchläuft einen rasanten technologischen Wandel und setzt auf künstlicher Intelligenz basierende Systeme in Bereichen ein, die von Gesundheit, Bildung, Landwirtschaft bis hin zur Strafjustiz reichen, sagen Experten. Es gab kaum Debatten über ihre moralischen Implikationen in diesem Land.

In einem Land, das seit langem von tiefen Spaltungen in Fragen wie sozialer Klasse, Religion, Geschlecht oder Reichtum geplagt wird befürchten Forscher wie Narayan – ein Mitglied des Algorithmic Governance Research Network –, dass KI all diese Spaltungen noch verschärfen könnte.

„Wir glauben, dass Technologie objektiv funktioniert“, sagte er. Aber die Datenbanken, die zum Trainieren von KI-Systemen verwendet werden sind voreingenommen hinsichtlich Klasse, Geschlecht, Religion und sogar Standort, was Vorurteile und Diskriminierung ihnen gegenüber verschärft.

Die Gesichtserkennungstechnologie nutzt die künstliche Intelligenz, um Live-Bilder mit einer Datenbank gespeicherter Gesichter abzugleichen. Dies ist eine von mehreren Anwendungen künstlicher Intelligenz, die laut Kritikern zur zunehmenden Überwachung von Muslimen, Dalits niedriger Kaste, indigenen Adivasis und anderen bergen marginalisierte soziale Gruppen und Minderheiten führt.

Siva Mathiyazhagan, Assistenzprofessorin an der University of Pennsylvania, erklärte in einem Interview mit Reuters: Die Verknüpfung von Datenbanken mit dem nationalen ID-System und der zunehmende Einsatz künstlicher Intelligenz für Kreditgenehmigungen, Beschäftigungs- und Hintergrundüberprüfungen könnten den Marginalisierten die Türen völlig verschließen.

Er fügte hinzu: Die zunehmende Beliebtheit generativer künstlicher Intelligenzprogramme (eine Art künstlicher Intelligenz, die in der Lage ist als Reaktion auf die Anfrage eines Benutzers Text, Bilder oder andere Medien zu produzieren – generative KI wie Chatbots verschärft diese Vorurteile. Wenn Sie einen Chatbot nach den Namen von 20 indischen Ärzten und Professoren fragen werden in der Regel Nachnamen aus der oberen Kaste der Hindus vorgeschlagen. Dies ist nur ein Beispiel dafür wie Asymmetrie in Daten zu verzerrten Ergebnissen generativer KI-Systeme führt.

 

Digitale Beobachtung der Klasse

Kastendiskriminierung wurde in Indien bereits vor 75 Jahren verboten, dennoch werden Dalits immer noch häufig misshandelt und viele ihrer Versuche in Indiens soziale Schichten aufzusteigen stoßen auf gewaltsame Unterdrückung.

Studien zeigen, dass Dalits, Muslime und indigene Inder trotz der positiven Programme der indischen Regierung in der Hochschulbildung und an guten Arbeitsplätzen nicht vertreten sind und beim Smartphone-Besitz und bei der Nutzung sozialer Medien hinter den Indern der Oberschicht zurückbleiben.

Eine Analyse von Google Research aus dem Jahr 2021 ergab, dass etwa die Hälfte der indischen Bevölkerung – hauptsächlich Frauen, ländliche Gemeinden und Adivasis – keinen Zugang zum Internet hat sodass möglicherweise ganze Gemeinden im Datensatz weggelassen oder falsch dargestellt werden, was zu falschen Schlussfolgerungen führt und somit ungerecht wird.

Google-Analyseforscher sagen: Die Probleme reicher Menschen wie Herzkrankheiten und Krebs stehen im Vordergrund aber nicht die Tuberkulose armer Menschen. Dies verschärft die Kluft zwischen denen, die von KI profitieren und denen die nicht provitieren.

Sicherheits-Apps für Mobiltelefone, die Datenkartierung verwenden, um unsichere Gebiete zu kennzeichnen, wurden von Nutzern der Mittelschicht manipuliert, die dazu neigen Dalit-, Muslim- und Slumgebiete als unerwünscht zu kennzeichnen, was möglicherweise zu einer übermäßigen polizeilichen Überwachung dort führt.

„Die Ironie besteht darin, dass Menschen, die in diesen Datensätzen nicht berücksichtigt werden immer noch diesen datengesteuerten Systemen ausgesetzt sind die Voreingenommenheit und Diskriminierung reproduzieren“, sagte Urvashi Aneja, Direktor und Gründer einer Forschungsgruppe namens Digital Futures Lab.

Offizielle Daten zeigen, dass Indiens Kriminalitätsdatenbanken problematisch sind, da Muslime, Dalits und indigene Völker häufiger verhaftet, angeklagt und inhaftiert werden als andere.

Mithilfe künstlicher Intelligenz werden vorbeugende Polizeiakten genutzt, um Personen zu identifizieren, bei denen die Wahrscheinlichkeit einer Straftat besteht oder die im Verdacht stehen, eine Straftat zu begehen. Es ist möglich, dass generative KI vor Gericht eingesetzt wird beispielsweise am Obersten Gerichtshof von Punjab und Haryana, der als erster im Land ChatGPT nutzte, um zu entscheiden ob einem Verdächtigen in einem Mordfall eine Freilassung auf Kaution gewährt wird.

Nikita Sonavane, Mitbegründer des Criminal Justice and Police Accountability Project, einer gemeinnützigen Organisation sagte, jedes neue KI-basierte prädiktive Polizeisystem wahrscheinlich nur ein Erbe von Klassendiskriminierung und unfairer Kriminalisierung ist und überwacht weiterhin marginalisierte Gemeinschaften.

Die Polizei ist in Indien schon immer kasteistisch gewesen erklärte Sunavan und die Daten sind genutzt worden, um kasten-basierte Hierarchien zu stärken. Was wir derzeit erleben ist die Entstehung und Anwendungeiner bundesweiten digitalen Mangelüberwachung.

 

Was sagt Indiens Gesetz über künstliche Intelligenz?

Regierungen auf der ganzen Welt regulieren die KI nur langsam. Chinas Gesetzesentwürfe für generative KI sind letzten Monat in Kraft getreten, während sich das KI-Gesetz der EU in der Endphase der Verhandlungen befindet und die US-amerikanische AI ​​Bill of Rights Richtlinien für die verantwortungsvolle Gestaltung und Nutzung generativer KI enthält.

Indien hat kein KI-Gesetz und das Einzige was diesbezüglich existiert ist eine Strategie der staatlichen Denkfabrik NITI Aayog, die besagt, dass KI-Systeme nicht aufgrund von Religion, Rasse, Kaste, Geschlecht usw. diskriminieren sollten. Herkunft, Geburtsort oder Wohnort und sollten überwacht werden um sicherzustellen dass sie unvoreingenommen und frei von Voreingenommenheit sind.

Aber es gibt in Indien kaum eine Debatte über Voreingenommenheit in der KI, auch wenn das Bewusstsein für Anti-Kasten-Gesetze in der Technologiebranche in den USA wächst. Kalifornien steht kurz davor der erste Staat zu werden der klassenbezogene Diskriminierung in diesem Bereich verbietet und Seattle ist bereits die erste Stadt in den USA die Diskriminierung im Technologiebereich verbietet.

Der Einsatz künstlicher Intelligenzwerkzeuge könne den Privilegierten zugute kommen und Frauen, die Unterschicht und andere marginalisierte Gruppen im Allgemeinen umgehen, sagte Urvashi Anja. Was benötigt wird, ist ein besseres Verständnis von Vorurteilen und ihren Auswirkungen in verschiedenen sozialen Kontexten. Wir müssen die Annahme aufgeben dass Voreingenommenheit verschwindet und akzeptieren dass dies immer existiert und Systeme entsprechend entwerfen und aufbauen (um Voreingenommenheit zu verhindern).

 

4168223

captcha