Vernetzen Sie sich mit uns

Hassverbrechen

Selbst eine Klage in Höhe von 2.4 Milliarden Dollar wird den Online-Hass nicht stoppen – Silicon Valley wurde speziell dafür geschaffen, ihn zu vergrößern

SHARE:

Veröffentlicht

on

Wir nutzen Ihre Anmeldung, um Ihnen Inhalte auf die von Ihnen gewünschte Weise bereitzustellen und um Sie besser zu verstehen. Sie können sich jederzeit abmelden.

Im Oktober 2021 Professor Meareg Amare (im Bild) wurde doxxed auf Facebook. Wochen später wurde er in seinem eigenen Haus brutal ermordet, schreibt Courteney Mukoyi.

Nun steht Facebooks Mutterkonzern Meta vor einer 2.4 Milliarden US-Dollar Klage, dem vorgeworfen wird, in Amares Heimat Äthiopien zur Gewalt angestiftet zu haben.

Amares Doxxing war kein Zufall. Seine Informationen fielen nicht einfach in die falschen Hände – sie wurden gezielt verstärkt, um zu gewaltsamer Selbstjustiz aufzurufen. 

In der heutigen Welt wird die Rolle des Staates bei der Untersuchung von Fehlverhalten und dem Schutz Unschuldiger durch Online-Mobs ersetzt, die als Richter, Geschworene und Henker fungieren.

Und das nicht nur in Äthiopien. 

In Indien 20 Menschen wurden innerhalb von zwei Monaten ermordet nachdem ihm 2018 über WhatsApp Kindesentführung vorgeworfen wurde. 

Bald darauf kam es in Deutschland zu fremdenfeindlichen Unruhen nach Gerüchte in den sozialen Medien behauptete, ein Deutscher sei von Asylbewerbern getötet worden. Und erst letztes Jahr brachen in Großbritannien nach der tragischen Ermordung dreier junger Mädchen in Southport historische Unruhen aus – angeheizt durch eine Welle von Desinformation über die Identität des mutmaßlichen Mörders.

Werbung

In jedem dieser Fälle zielte die Desinformation auf Minderheiten oder muslimische Gemeinschaften ab, die bereits mit Rekordwerte von Hassverbrechen. 

Sobald ein Algorithmus geboren ist, beginnt er zu mutieren und lernt, wie – und wen – er hassen kann, basierend auf den Daten und Mustern, die er auswertet. Wie beim Schmetterlingseffekt wird selbst die kleinste Spur von Voreingenommenheit oder Diskriminierung sofort verstärkt. 

Von da an wird es schnell unkenntlich. Unkontrollierbar. Sogar für seinen Schöpfer. 

Doch selbst wenn er wollte, kann Mark Zuckerberg den Stecker nicht ziehen. 

Es liegt nicht nur daran, dass die Maschine ihrem Schöpfer entwachsen ist, sondern auch daran, dass keiner der relevanten Akteure über die notwendigen Mittel verfügt, um sie einzudämmen. Die Tech-Giganten verfügen zwar über das technische Know-how, aber es fehlt ihnen entweder der Wille oder die rechtliche Handlungsfreiheit. Nationale Regierungen haben zwar Gesetzgebungsbefugnis, handeln aber viel zu langsam, um mit der Innovation Schritt zu halten. Und zivilgesellschaftliche Organisationen verstehen die Gefahren vielleicht besser als jeder andere, doch ihnen fehlt die Infrastruktur oder der Einfluss, um Veränderungen durchzusetzen.

Nehmen wir zum Beispiel die EU Gesetz über digitale Dienste – erstmals Ende 2020 vorgeschlagen, aber erst 2024 in Kraft gesetzt. Während der langen Entwicklungsphase – ChatGPT wurde erst 2022 veröffentlicht – hat sich die digitale Landschaft dramatisch verändert, sodass die Regeln veraltet waren, bevor sie überhaupt eingeführt wurden. 

Seit der Einführung des Gesetzes ist die Durchsetzung – einschließlich Maßnahmen Online-Hassrede und die algorithmische Verstärkung extremistischer Inhalte einzudämmen – hat sich als schwierig erwiesen. Angriffe auf Minderheiten, darunter Muslime und Juden, haben einen historischen Höchststand erreicht. Die extreme Rechte hat sogar benutzt die Tat als Rechtfertigung für ihre eigene entmenschlichende Rhetorik. 

Bei der UNO im letzten Monat, Mohammad Al-Issa, Generalsekretär der Muslimische Weltligabehauptete, die Islamophobie sei eine wachsende Krise. Al-Issa hat wiederholt gewarnt dass KI soziale Medien als Waffe einsetzen, Desinformation verbreiten und Extremisten rekrutieren könnte – genau deshalb argumentiert er, dass religiöse Führer in die Entwicklung ethischer Rahmenbedingungen einbezogen werden müssen. Seine Warnungen spiegeln die von Papst Franziskus und dem Vatikan wider, die KI als „Schatten des Bösen'.

Al-Issas Bemühungen, Hass zu bekämpfen, reichen lange vor der heutigen KI-Debatte zurück. Im Januar 2020 leitete eine Delegation Der Besuch muslimischer Führungspersönlichkeiten in der Gedenkstätte Auschwitz-Birkenau – einer der höchsten islamischen Besuche an diesem Ort – unterstreicht das umfassende Engagement für die Auseinandersetzung mit dem Erbe von Hass und Gewalt. Angesichts des Krieges im Nahen Osten ist dieses Engagement für die Förderung des interreligiösen Verständnisses heute dringlicher denn je.

„Wenn religiöse Führer bei AI-Veranstaltungen keinen Sitz haben“, warnte Al-Issa in einem kürzlich erschienenen Artikel„…in der sich entwickelnden Debatte über KI würden wichtige Fachexperten fehlen, die notwendig sind, um die Möglichkeit einer neuen Ära des KI-gestützten Extremismus abzuwenden.“

Wenn Fortschritte erzielt werden sollen, müssen Technologie, Politik und Gemeinschaft aufhören, isoliert voneinander zu arbeiten, und anfangen, eine gemeinsame, koordinierte Antwort zu entwickeln. 

Erstens müssen wir in Forschung und Entwicklung jenseits der Silicon-Valley-Blase investieren und gleichzeitig unsere Abhängigkeit von der zunehmend unberechenbaren Regierungsführung von Präsident Trump verringern. Als Nächstes sollten wir neue Regeln einführen, die Unternehmen und Organisationen verpflichten, bei ihren Aktivitäten die Interessengruppen der Gemeinschaft zu konsultieren und sicherzustellen, dass Algorithmen anhand umfassender Datensätze trainiert werden.

Gleichzeitig muss die EU neue Instrumente entwickeln, um die unvermeidliche Verzerrung von KI-Systemen zu erkennen und zu mildern. Wir sollten außerdem allgemeine KI-Kompetenzprogramme und Rechenschaftsplattformen einführen, um die Öffentlichkeit über potenzielle Bedrohungen aufzuklären und ihr die Möglichkeit zu geben, Beschwerden zu melden. 

Die Ereignisse in Äthiopien oder Southport sind keine Anomalie, sondern eine Warnung: Die heutigen Plattformen sind keine neutralen Orte mehr. Sie beeinflussen aktiv die öffentliche Meinung und das Verhalten – allzu oft auf eine Weise, die Gewalt schürt und die Gesellschaft polarisiert.

Letztlich geht es bei dieser Klage gegen Meta nicht nur um Verantwortlichkeit, sondern auch um Prävention. Regulierungsstandards werden sicherlich helfen, aber Einschränkungen müssen durch Diversifizierung ausgeglichen werden.

Nur dann können wir die Vorteile dieser Technologien bewahren, ohne die Idee der Gerechtigkeit einem unkontrollierbaren algorithmischen Mob zu überlassen.

Über den Autor:

Courteney Mukoyi ist Gründer und Direktor der Justice Code Foundation, die bestehende und neue Technologien nutzt, um die Menschenrechte in simbabwischen Gemeinden zu fördern. Er ist ein begeisterter CivicTech-Experte und hat einen Master of Laws in Internationalem Handel von der Universität Kapstadt.

Muyoki erhielt mehrere Auszeichnungen, darunter den Democracy Innovation Award 2022 und den Wangari Maathai AI Impact Award 2023. 2023 wurde er für das Mandela Washington Fellowship ausgewählt. Derzeit ist er Mitglied des UNHRC Youth Advisory Board und des Youth Sounding Board der Europäischen Union. Er hat mit verschiedenen Organisationen, darunter dem Accountability Lab und der Afrikanischen Union, zusammengearbeitet, um den Einsatz von Technologie und künstlicher Intelligenz im Bereich Menschenrechte und bürgerschaftliches Engagement voranzutreiben. Er ist ein Serienunternehmer, der auch das InsurTech-Startup TopSure gründete, mit dem er seine Reise zur Gründung von Unicorn-Startups in Afrika begann.

Teile diesen Artikel:

EU Reporter veröffentlicht Artikel aus verschiedenen externen Quellen, die ein breites Spektrum an Standpunkten zum Ausdruck bringen. Die in diesen Artikeln vertretenen Positionen entsprechen nicht unbedingt denen von EU Reporter. Bitte lesen Sie den vollständigen Inhalt von EU Reporter. Veröffentlichungsbedingungen Weitere Informationen: EU Reporter nutzt künstliche Intelligenz als Werkzeug zur Verbesserung der journalistischen Qualität, Effizienz und Zugänglichkeit und gewährleistet gleichzeitig eine strenge menschliche redaktionelle Kontrolle, ethische Standards und Transparenz bei allen KI-gestützten Inhalten. Bitte lesen Sie den vollständigen Bericht von EU Reporter. KI-Richtlinie .

Trending