„A THOUSAND CUTS”
ZUSAMMENFASSUNG DES BERICHTES
TRIGGERWARNUNG:
Dieser Bericht behandelt sensible Themen wie technologiegestützte geschlechtsspezifische Gewalt (TfGBV) und enthält Beispiele für Inhalte, darunter explizite Aufrufe zu Gewalt und Diskriminierung, die für manche Leser*innen verstörend sein können.
Seit Jahrzehnten kämpft die LGBTI-Gemeinschaft in Polen mit systematischer Diskriminierung. Diese Diskriminierung verschärfte sich zwischen 2015 und 2023 unter der Regierung der Partei „Recht und Gerechtigkeit“ (Prawo i Sprawiedliwość, PiS), in deren Amtszeit die polnischen Behörden Maßnahmen ergriffen, die den Spielraum für die Zivilgesellschaft einschränkten, indem sie die Rechtsstaatlichkeit untergruben, die Rechte von Frauen und LGBTI-Personen attackierten und ein zunehmend unwirtliches Umfeld für LGBTI-Personen und ihre Verbündeten schufen.
Feindselige und stigmatisierende Äußerungen gegen LGBTI-Personen, auch von hochrangigen Politiker*innen, wurden alltäglich. Im Jahr 2022 fand Amnesty International überzeugende Beweise dafür, wie diese Rhetorik in Gewalt gegen die Gemeinschaft mündete, wobei die Angriffe auf LGBTI-Personen bei friedlichen Versammlungen wie Gleichstellungsmärschen und Protesten deutlich zunahmen.
Ein prominentes Beispiel hierfür ist der Gleichstellungsmarsch 2019 in Białystok, bei dem die Teilnehmer*innen mit Flaschen, Pflastersteinen und Feuerwerkskörpern angegriffen und von Gegendemonstrant*innen mit hasserfüllten Beleidigungen beschimpft wurden. Einige Monate später verhaftete die Polizei beim Gleichstellungsmarsch in Lublin Dutzende von Gegendemonstrant*innen, die gekommen waren, um den friedlichen Marsch anzugreifen. Später stellte sich heraus, dass zwei der Gegendemonstrant*innen selbstgebaute Sprengsätze zum Marsch mitgebracht hatten.
Im Jahr 2020 war die Feindseligkeit gegenüber LGBTI-Personen in Polen so groß, dass etwa ein Drittel der Regionen des Landes symbolische Resolutionen gegen die „LGBT-Ideologie” verabschiedet hatten.
Vor diesem Hintergrund wurde X mit Inhalten überschwemmt, die Hass propagierten und zu Gewalt, Feindseligkeit oder Diskriminierung gegenüber LGBTI-Personen aufriefen, was einer technologiegestützten geschlechtsspezifischen Gewalt (TfGBV) gleichkam und eine Reihe von Menschenrechtsverletzungen mit sich brachte. Diese Inhalte waren besonders auffällig auf den X-Konten von Politiker*innen, von denen viele Inhalte veröffentlichten, die Hass schürten und LGBTI-Personen entmenschlichten, indem sie suggerierten, dass ihre Identität eine politische „Ideologie” sei und sie eine Gefahr für die Sicherheit von Kindern darstellten. Die Verbreitung dieser Beiträge auf der Plattform schuf ein Umfeld, in dem die Verherrlichung von Hass gegenüber LGBTI-Personen zunehmend normalisiert und gesellschaftlich akzeptiert wurde.
Das Vorhandensein von Inhalten, die TfGBV auf X darstellen, wurde durch die mangelhaften Praktiken des Unternehmens bei der Moderation von Inhalten noch verschärft, die sich aufgrund drastischer Personalabbau nach der Übernahme der Plattform durch Elon Musk im Oktober 2022 weiter verschlechterten. Eine Woche nach der Übernahme durch Elon Musk schienen Personen, die gegen die Rechte von LGBTI-Personen agieren, damit zu beginnen, die Grenzen von X in Bezug auf anti-LGBTI-Äußerungen auszutesten. Der ehemalige Ultimate Fighting Championship-Kämpfer Jake Shields (der 34.000 Follower auf X hat) veröffentlichte ein Foto einer Dragqueen mit der Bildunterschrift: „Das ist ein Groomer“. Er fuhr fort: „Vor einem Monat wurde ich wegen genau diesem Tweet gesperrt, also werden wir sehen, ob Twitter jetzt frei ist.“
Kurz nach der Übernahme von X löste Elon Musk den Trust and Safety Council auf, eine Berater*innengruppe aus 100 zivilgesellschaftlichen, Menschenrechts- und anderen Organisationen, die sich mit Kinderausbeutung, Selbstmord, Selbstverletzung und Hassreden auf der Plattform befasste. Schätzungen zufolge entließ Elon Musk auch 80 % der Ingenieure, die sich mit Vertrauen und Sicherheit befassten. Ende 2022 wurde berichtet, dass er plante, sich bei der Moderation von Inhalten stark auf Automatisierung zu verlassen, eine Methode, die bekanntermaßen fehleranfällig ist, und bestimmte manuelle Überprüfungen zu streichen. Im Jahr 2023 führte X „Community Notes” ein, wodurch im Wesentlichen einige Funktionen der Inhaltsmoderation an zufällig ausgewählte Plattformnutzer*innen ausgelagert wurden, die sich als Mitwirkende registrieren und bestimmte Zulassungskriterien erfüllen.
Die Richtlinien von X zu schädlichen Inhalten, einschließlich Inhalten, die TfGBV darstellen können, haben sich während der Amtszeit von Elon Musk ebenfalls geändert. So hat X beispielsweise im April 2023 eine Richtlinie gegen die „gezielte falsche Geschlechtszuordnung und Deadnaming von trans* Personen” aufgehoben. Diese Richtlinie wurde 2024 wieder eingeführt.
Elon Musk hatte zuvor erklärt, dass er die Regeln für zulässige Inhalte auf der Plattform lockern werde, und vorgeschlagen, dass X alle Beiträge zulassen sollte, die nicht gegen die innerstaatlichen Gesetze der Länder verstoßen, in denen das Unternehmen tätig ist.
Es scheint, dass er sein Versprechen gehalten hat. Vor dem 30. Oktober 2023 hieß es in den Community-Richtlinien von X: „Wir verfolgen eine Null-Toleranz-Politik gegenüber gewalttätigen Äußerungen, um die Sicherheit unserer Nutzer*innen zu gewährleisten und die Normalisierung gewalttätiger Handlungen zu verhindern.“ (Hervorhebung hinzugefügt.) Nach der Aktualisierung lautet die Richtlinie nun: „Wir können gewalttätige Äußerungen entfernen oder deren Sichtbarkeit verringern, um die Sicherheit unserer Nutzer zu gewährleisten und die Normalisierung gewalttätiger Handlungen zu verhindern.“ (Hervorhebung hinzugefügt.)
Mitglieder der LGBTI-Gemeinschaft in Polen berichteten Amnesty International, dass sie aufgrund ihrer Sichtbarkeit auf der Plattform einer Welle des Hasses ausgesetzt waren, der auf ihrem tatsächlichen und/oder wahrgenommenen Geschlecht, ihrer sexuellen Orientierung, ihrer Geschlechtsidentität und/oder ihrem Geschlechtsausdruck beruhte. Viele der Befragten erklärten, dass sich die Online-Rhetorik negativ auf ihr Wohlbefinden auswirke. Jolanta Prochowicz, eine lesbische Frau aus der Stadt Lublin, sagte beispielsweise gegenüber Amnesty International: „Wir sollten soziale Medien als Teil unseres sozialen Lebens anerkennen. Wenn wir etwas im Internet sagen, tut es weh, als wäre es real ... Es ist schädlich, es ist schmerzhaft und es kann sehr mächtig sein. Soziale Medien beeinflussen nicht unser normales Leben, sie sind unser normales Leben und sie haben Einfluss auf uns.“
Aleksandra Herzyk, eine asexuelle Frau aus Krakau, berichtete Amnesty International, dass sie auf X angegriffen wurde, nachdem sie auf der Plattform über ihre Asexualität gesprochen hatte. Aleksandra wurde auch mit Inhalten konfrontiert, die TfGBV auf X darstellten, nachdem sie über ihre Entscheidung für eine Brustverkleinerungsoperation geschrieben hatte, was dazu führte, dass einige Nutzer der Plattform sie fälschlicherweise als trans* Frau identifizierten.
Aleksandra sagte gegenüber Amnesty International: „Wissen Sie, die Dinge, die man über sich selbst liest – sie sind nicht wahr, aber irgendwie bleiben sie im Kopf. Es ist wie der Tod durch tausend Schnitte.“ Aleksandra erzählte Amnesty International, dass sie nach den Hasskommentaren auf X die Plattform nicht mehr nutzt und sich Anfang 2024 endgültig abgemeldet hat. Im Jahr 2018 stellte Amnesty International in einem Bericht mit dem Titel „Toxic Twitter“ fest, dass X (damals bekannt als Twitter) die Rechte von Frauen im Internet nicht respektierte, indem es Online-Missbrauch nicht angemessen bekämpfte. PoC Frauen, Frauen aus ethnischen und religiösen Minderheiten, lesbische, bisexuelle und trans*gender Frauen, non-binäre Personen und Frauen mit Behinderungen waren auf der Plattform am stärksten von Missbrauch betroffen. Im Jahr 2020 stellte Amnesty International fest, dass X zwar seit 2018 einige Fortschritte bei der Bekämpfung von TfGBV erzielt hatte, das Unternehmen jedoch weiterhin seinen Menschenrechtsverpflichtungen nicht nachkam.
Es scheint, dass sich seit 2020 wenig verbessert hat – zumindest im Zusammenhang mit Polen. Im Jahr 2024 veröffentlichte eine polnische Nichtregierungsorganisation namens Never Again Association einen Bericht, in dem 343 Fälle von „Hass“ dokumentiert sind, die sie zwischen August 2023 und August 2024 an X gemeldet hatte. Never Again Association ist als „Trusted Flagger” bei einem Online-Überwachungsprojekt registriert, das vom EU-Programm „Citizens, Equality, Rights and Values” finanziell unterstützt wird. In den meisten der dokumentierten Fälle weigerte sich X entweder, die Beiträge zu entfernen, oder ignorierte die Meldungen. Die Beiträge enthielten Inhalte, die als Aufruf zu Gewalt und Diskriminierung gegen marginalisierte Gemeinschaften, einschließlich der LGBTI-Gemeinschaft, angesehen werden konnten. Mehrere der von Never Again Association gemeldeten Beiträge – darunter Beiträge, in denen LGBTI-Personen als Abweichler*innen dargestellt, beleidigt und zur Diskriminierung oder sogar zur Auslöschung der LGBTI-Gemeinschaft aufgerufen wird – sind weiterhin auf der Plattform sichtbar. Dieser Bericht beschreibt, wie X – durch seine mangelhaften Praktiken bei der Moderation von Inhalten und die mangelnde Sorgfaltspflicht im Bereich der Menschenrechte – es versäumt hat, TfGBV gegen die LGBTI-Gemeinschaft in Polen auf seiner Plattform zu verhindern und angemessen einzudämmen, und damit zu Menschenrechtsverletzungen gegen diese Gemeinschaft beigetragen hat.
Es wird detailliert beschrieben, wie die Unterbesetzung der Content-Moderation bereits vor der Übernahme durch Elon Musk im Jahr 2022 ein Problem für das Unternehmen war und wie es versäumt hat, sich angemessen mit LGBTI-Organisationen der Zivilgesellschaft in Polen auseinanderzusetzen, um die Risiken für die Community auf der Plattform zu mindern. Diese Versäumnisse in Verbindung mit der ungerechtfertigten Aufhebung von Schutzmaßnahmen zum Schutz der Plattformnutzer vor schädlichen Äußerungen – im Einklang mit Elon Musks selbst erklärter Politik des „absoluten Recht auf freie Meinungsäußerung“ – haben dazu geführt, dass X mit Inhalten überschwemmt wird, die TfGBV darstellen, darunter Hassreden, die zu Gewalt, Feindseligkeit oder Diskriminierung gegenüber LGBTI-Personen aufrufen.
Im Rahmen dieser Untersuchung führte Amnesty International in Zusammenarbeit mit dem Algorithmic Transparency Institute (ATI) der National Conference on Citizenship eine quantitative Untersuchung zu X durch, wobei 32 Forschungsaccounts verwendet wurden, die zwischen dem 1. März und dem 31. März 2025 insgesamt 163.048 Tweets sammelten.1 Diese quantitative Untersuchung ergab, dass anti-LGBTI-Inhalte auf der Plattform weit verbreitet sind. Die Analyse der Stichprobe von 1.387 Tweets deutet darauf hin, dass homophobe und transphobe Inhalte auf X weit verbreitet sind, insbesondere bei Accounts, die Politiker*innen folgen, die die Rechte von LGBTI-Personen nicht unterstützen. Amnesty International stellte fest, dass fast 4 % der Tweets, die von den Forschungsaccounts aus den Accounts von Politiker*innen gesammelt wurden, die die Rechte von LGBTI-Personen nicht unterstützen, homophob oder transphob waren, und dass mehr als 25 % aller LGBTI-bezogenen Inhalte, die von diesen Accounts gesehen wurden, homophob oder transphob waren. Darüber hinaus stellte Amnesty International fest, dass ein hoher Anteil der Inhalte zu LGBTI-Themen homophobe und transphobe Inhalte enthielt (sowohl in Beiträgen als auch in Antworten auf Beiträge) und dass die Forschungsaccounts, die Politiker*innen folgten, die die Rechte von LGBTI-Personen unterstützen, diesen Antworten stärker ausgesetzt waren.
Von 2015 bis 2023 wurde Polen von der Partei „Recht und Gerechtigkeit“ (PiS) regiert, die offen gegen LGBTI eingestellt war.
Diese Verbreitung ist umso besorgniserregender, als das Geschäftsmodell von X darauf basiert, Inhalte zu empfehlen, die für die Nutzer*innen interessant sind, unabhängig von ihren möglichen Auswirkungen.
In diesem Bericht hat Amnesty International erstmals eine umfassende menschenrechtsbasierte Analyse des Geschäftsmodells von X durchgeführt und festgestellt, dass es sich um ein auf Überwachung basierendes Geschäftsmodell handelt, wie wir es auch bei anderen Technologieunternehmen wie Meta, Google und TikTok festgestellt haben. Ähnlich wie bei anderen Unternehmen, die ein auf Überwachung basierendes Geschäftsmodell betreiben, ist die Erfassung von Nutzer*innendaten für X als Plattform von zentraler Bedeutung, nicht nur, weil die Plattform dadurch besser vorhersagen kann, welche Inhalte für ihre Nutzer*innen interessant sind, sondern auch, weil der Wert der Daten den Wert des Unternehmens für potenzielle Werbekunden bestimmt. Diese Attraktivität für potenzielle Werbekunden ist entscheidend, da X auf gezielte Werbung angewiesen ist.
Seit 2013 stammen fast alle Einnahmen von X aus gezielter Werbung auf der Website. Um die Erfassung von Nutzer*innendaten aufrechtzuerhalten und zu optimieren, legen die Algorithmen von X vor allem Wert auf die Maximierung der „Nutzer*inneninteraktion”, indem sie Inhalte anzeigen, mit denen Nutzer*innen am ehesten interagieren (im Fall von X abgeleitet aus Kommentaren, Retweets und Likes). X bietet auch Premium-Abonnements an, mit denen Nutzer*innen für zusätzliche Funktionen wie längere Beiträge und eine verbesserte algorithmische Verstärkung bezahlen können, darunter die „Priorisierung von Antworten”, was bedeutet, dass Antworten von Premium-Nutzern unter den Beiträgen besser sichtbar sind.
Wie Amnesty International bereits zuvor dokumentiert hat, besteht bei überwachungsbasierten Geschäftsmodellen die Gefahr, dass sie in ihrem Streben nach immer mehr Engagement und Nutzer*innendaten die Verbreitung schädlicher Inhalte fördern. Dieses Geschäftsmodell, kombiniert mit unzureichenden Richtlinien und Praktiken zur Moderation von Inhalten, setzt die LGBTI-Gemeinschaft in Polen einem hohen Risiko aus, durch eine große Menge an Inhalten, die TfGBV darstellen, gezielt geschädigt zu werden.
Ein typisches Beispiel für Inhalte, die sich gegen die LGBTI-Gemeinschaft richten und auf der Plattform verbreitet werden, ist ein Clip, den die polnische Partei Konfederacja im Juli 2023 gepostet hat. Darin spricht einer ihrer damaligen Abgeordneten, Grzegorz Braun, im Parlament über die LGBTI-Gemeinschaft. In dem Clip sagt er: „Wir wollen nicht, dass Abweichler*innen, Befürworter von Abweichungen und protzige professionelle Sodomiten unseren Kindern Toleranz beibringen.“ Seit Mai 2025 ist der Beitrag weiterhin auf X zu sehen. Er wurde mehr als 99.000 Mal angesehen.
LGBTI-Personen berichteten Amnesty International, dass sie regelmäßig Beiträge auf der Plattform sehen, die sie entmenschlichen oder sogar zu ihrer Ausrottung aufrufen. Ein Befragter beschrieb Beiträge, in denen es hieß: „LGBTQ-Personen werden in Gaskammern kommen, oder sie reden über uns, als wären wir Abschaum, und sie denken, dass wir ausgerottet werden müssen“. Eine andere Person berichtete, dass sie Beiträge gesehen habe, in denen behauptet wurde, dass „[LGBTI]-Personen nicht normal sind, dass sie gegen polnische Familien sind, dass sie polnische Familien zerstören, dass sie keine Menschen sind, sondern [eine] Ideologie“.
Die völlig unzureichenden Investitionen von X in die Moderation von Inhalten im Allgemeinen und speziell in Polen sind ein wesentlicher Faktor dafür, dass das Unternehmen Inhalte, die TfGBV gegen die LGBTI-Gemeinschaft darstellen, nicht entfernt. Laut seinen eigenen Transparenzberichten verfügt X nur über zwei polnischsprachige Content-Moderator*innen – von denen einer Polnisch als Zweitsprache spricht –, die für eine Bevölkerung von 37,45 Millionen Menschen und 5,33 Millionen X-Nutzer*innen zuständig sind. Dies ist ein Hinweis auf die mangelnden Investitionen des Unternehmens in Ressourcen für die Moderation von Inhalten, was auch durch die Einführung von Community Notes durch X deutlich wird, wodurch die Moderation von Inhalten effektiv an die Nutzer*innen der Plattform ausgelagert wird. Die Kombination aus unzureichenden Ressourcen, Richtlinien und Praktiken hat dazu beigetragen, dass X zu einer Plattform geworden ist, die mit hasserfüllten Inhalten gegen die LGBTI-Gemeinschaft überschwemmt ist.
Alle Unternehmen haben die Verantwortung, die Menschenrechte zu achten, unabhängig davon, wo auf der Welt sie tätig sind und in welchen Bereichen sie tätig sind. Um dieser Verantwortung gerecht zu werden, müssen Unternehmen kontinuierliche und proaktive Sorgfaltspflichten im Bereich der Menschenrechte wahrnehmen, um ihre Auswirkungen auf die Menschenrechte zu identifizieren, zu verhindern, zu mindern und Rechenschaft darüber abzulegen, wie sie damit umgehen. Für Technologieunternehmen wie X sollte die Sorgfaltspflicht auch Situationen umfassen, in denen ihr Geschäftsmodell, ihre Geschäftstätigkeit, ihre Designentscheidungen und ihre Praktiken zur Moderation von Inhalten Menschenrechtsrisiken schaffen oder verschärfen.
Gemäß der Verordnung zum Digital Services Act (DSA) der EU sind sogenannte sehr große Online-Plattformen (VLOPs) wie X verpflichtet, systemische Risiken zu bewerten und zu mindern und müssen jährliche Risikobewertungen vorlegen. In der jüngsten öffentlich zugänglichen Risikobewertung von X aus dem Jahr 2024 räumt die Plattform ein, dass Einzelpersonen und Gruppen auf der Plattform Ziel von hasserfüllten Inhalten oder Missbrauch werden könnten, was zu einem Gefühl der Angst und Einschüchterung führen und Selbstzensur zur Folge haben könnte. X listete hierfür mehrere Maßnahmen zur Risikominderung auf, darunter das Herabstufen von Inhalten (Verringerung der Sichtbarkeit bestimmter Inhalte), Transparenz in Bezug auf Regeln und Prozesse sowie Qualitätskontrollen und Prozessüberprüfungen von Richtlinien. In der Risikobewertung werden jedoch keine spezifischen Risiken für die LGBTI-Gemeinschaft erwähnt. Die von der DSA vorgeschriebene unabhängige Prüfung der Risikobewertung von X für das Jahr bis zum 23. August 2024 ergab, dass der Risikobewertungsprozess der Plattform nicht streng genug war und dass die derzeitigen Risikominderungsmaßnahmen zur Verringerung systemischer Risiken unwirksam waren. Außerdem wurde unter anderem ein Mangel an Risikominderungsmaßnahmen in Bezug auf algorithmische Systeme festgestellt.
Dieser Bericht kommt zu dem Schluss, dass X es versäumt hat, angemessene Sorgfaltspflichten im Bereich der Menschenrechte in Bezug auf seine Aktivitäten in Polen zu erfüllen, selbst nachdem es von der DSA mit der Durchführung von Risikobewertungen beauftragt worden war. Das Unternehmen hat es daher versäumt, angemessene Maßnahmen zu ergreifen, um Risiken oder Schäden, die durch seine Produkte, Dienstleistungen und Aktivitäten entstehen könnten, zu verhindern oder zu mindern. Diese Analyse macht deutlich, dass X die Verbreitung von Inhalten, die TfGBV darstellen, auf seiner Plattform erleichtert und zu Menschenrechtsverletzungen gegen die LGBTI-Gemeinschaft in Polen beigetragen hat.
Am 22. August 2024 wandte sich Amnesty International schriftlich an X und stellte Fragen zu den Maßnahmen des Unternehmens im Zusammenhang mit seinen Geschäftsaktivitäten in Polen zwischen 2019 und 2024. X hat darauf nicht geantwortet.
Wie in diesem Bericht ausführlich dargelegt, hat das Versäumnis von X, seinen Menschenrechtsverpflichtungen gemäß den Leitprinzipien der Vereinten Nationen für Wirtschaft und Menschenrechte (UN-Leitprinzipien) sowie seinen gesetzlichen Verpflichtungen gemäß dem DSA nachzukommen, zu erheblichen Schäden für die LGBTI-Gemeinschaft in Polen beigetragen. Die völlig unzureichenden Maßnahmen von X zur Schadensminderung und seine gleichgültige Haltung gegenüber hasserfüllten Inhalten in Verbindung mit einem Geschäftsmodell, das Menschenrechtsrisiken verschärft, erhöhen die Wahrscheinlichkeit, dass sich solche Schäden in Zukunft wiederholen. Es sind dringende, weitreichende Reformen erforderlich, um sicherzustellen, dass X nicht weiterhin zu diesen Menschenrechtsverletzungen beiträgt – darunter vor allem eine angemessene Ausstattung der Inhaltsmoderation mit Ressourcen und eine Änderung seines auf Überwachung basierenden Geschäftsmodells.
Die wiederholten Versäumnisse von X in Polen zeigen, dass das Unternehmen immer noch nicht in der Lage ist, seine systemischen Risiken für die Menschenrechte anzugehen. Die DSA bietet einen wichtigen Weg für Rechenschaftspflicht und Abhilfe und muss konsequent und sinnvoll durchgesetzt werden.
Leider hat die polnische Regierung die Rechtsvorschriften noch nicht vollständig auf nationaler Ebene umgesetzt, verfügt nicht über eine*n vollständig benannte*n oder bevollmächtigte*n nationale*n Koordinator*in für digitale Dienste (DSC), wie es die DSA vorschreibt, und hat keine Regeln für DSA-Sanktionen festgelegt. Es ist von entscheidender Bedeutung, dass die polnische Regierung das Fehlen eines DSC dringend angeht und sicherstellt, dass diese Funktion in Bezug auf Fachwissen, Kapazitäten und Finanzierung mit ausreichenden Ressourcen ausgestattet wird. Ohne einen DSC können die Nutzer*innen von X in Polen ihre Rechte gemäß dem DSA nicht in vollem Umfang ausüben. Im Mai 2025 hat die Europäische Kommission Polen – zusammen mit Tschechien, Spanien, Zypern und Portugal – wegen der jeweiligen Nichtumsetzung des DSA im Inland vor den Gerichtshof der Europäischen Union gebracht.
In der Zwischenzeit kann die Europäische Kommission unverzüglich eine Untersuchung zu X einleiten und die Maßnahmen der Plattform zur Minderung systemischer Risiken, die sich sowohl aus ihrem Geschäftsmodell als auch aus ihren Praktiken zur Moderation von Inhalten ergeben, genauer unter die Lupe nehmen. Dies ist von besonderer Bedeutung, da sich TfGBV auf X weiterhin negativ auf die LGBTI-Gemeinschaft in Polen auswirkt – einschließlich nachteiliger Auswirkungen auf das Recht des Einzelnen auf freie Meinungsäußerung und Nichtdiskriminierung.
Die EU verfügt über die Instrumente, um ihrer Verpflichtung zum Schutz der Menschenrechte nachzukommen – einschließlich des Rechts auf ein Leben frei von geschlechtsspezifischer Gewalt (GBV). Sie darf nicht zögern, diese Instrumente einzusetzen.
1 Forschungskonten sind fiktive Online-Identitäten. Sie können für verschiedene Zwecke genutzt werden. In dieser Studie haben Amnesty International und ATI sie verwendet, um die Verbreitung und Verstärkung von Anti-LGBTI-Inhalten auf X in Polen besser zu verstehen.