Die WikiMANNia-Redaktion hat zum 31. Dezember 2019 die Arbeit eingestellt.   –   Das 11. Jubiläum war vor 73 Tagen.

Google musste auf Druck des deutschen Staates WikiMANNia aus ihrem Index werfen. "Jugendschutz" dient als Vorwand für die Zensur.

Die Indizierung WikiMANNias vom 9. Januar 2020 als "jugendgefährdend" war illegal und ist damit ungültig.   –   Weitere Informationen dazu

Information icon.png 9. Internationaler Vatertag am 21. Juni 2020 - InternationalerVatertag.de[ext]
Internationaler Vatertag 2020
Donate Button.gif
Spendeneingang
Wissen teilen ohne feministische Indoktrination.

Die Antithese zur feministischen Opfer- und Hassideologie.

Donate Button.gif
Stand: 432,20 €
Judge confirms the mothers right of possession and justifies it with the childs welfare.jpg
Rolle des Staates in der Familie
Politik in Deutschland: Willkommenskultur für Migranten, Abtreibungs­kultur für Ungeborene, Zerstörungs­kultur für Familien. Logo - MSI.png
Besser klug vorsorgen, als teuer draufzahlen. - MSI
Feminismus basiert auf der Verschwörungstheorie, Männer auf der gesamten Welt hätten sich kollektiv gegen die Weiber verschworen, um sie zu unter­drücken, zu schlagen, zu ver­gewaltigen und auszubeuten. Feministinnen bekämpfen Ehe und Familie, weil die bürgerliche Familie das Feindbild ist. Frauen werden kollektiv als Opfer inszeniert und Männer als Täter denunziert. So manifestiert sich ein Ressentiment gegen alles Männliche bis hin zum offenen Männerhass. Dies bewirkt eine tief­greifende Spaltung der Gesellschaft, die es zu überwinden gilt.

Schattenbann

Aus WikiMANNia
Wechseln zu:Navigation, Suche
Hauptseite » Zensur » Schattenbann

Schattenbann (Englisch shadow banning, auch: stealth banning, ghost banning, comment ghosting) ist Kryptozensur 2. Ordnung und bezeichnet das Verstecken von Inhalten vor den meisten, nur nicht vor der gebannten[wp] Person, die diese Inhalte erzeugt hat und dieses Verstecken in aller Regel gar nicht bemerkt.

Entstehung

Die ersten Dienste, die Schattenbann anwendeten, waren die amerikanischen Online-Dating-Dienste[wp]. Das wichtigste Kapital solcher Dienste ist die Anzahl der Nutzer. Also standen die Dienste ständig in scharfer Konkurrenz um die Nutzerschaft. Speziell neue Dienste mussten naturgemäß bei Null anfangen und suchten nach Methoden, so schnell wie möglich so billig wie möglich so viele Nutzer wie möglich zu werben, denn davon hing das Überleben des Projekts ab. Also erstellten sie Fake-Profile bei den großen Diensten und bewarben dort ihren neuen Dienst. Das war den großen Diensten natürlich nicht recht, weil sie weder Kunden verlieren wollten noch die Belästigung ihrer Klientel durch aufdringliche Werbung dulden konnten. Besonders die Dienste, bei denen die Mitgliedschaft kostenlos war, hatten große Probleme mit Werbern. Die Werber-Profile waren zwar relativ leicht zu erkennen, aber das schlichte Sperren oder Löschen dieser Profile erwies sich als fast wirkungslos, weil sich die dahinter stehenden Werber sofort wieder neue Konten erstellten, was an sich auch wieder eine zusätzliche Arbeits­belastung für den befallenen Dienst darstellte. Also kam man auf die Idee, zuerst einmal die Versendung von Werbe­nachrichten zu verzögern, um die Schadwirkung der Werber zu dämpfen. Diese Taktik wurde immer weiter verfeinert. Es war wichtig, den Werber nicht merken zu lassen, dass sein Wirken vom System erkannt wurde, damit der Werber möglichst viel Zeit und Mühe bei seinem möglichst wirkungslosen Tun vergeudete. Der Schattenbann ist also in einem rein wirtschaftlichen Umfeld entstanden, ohne jede politische Absicht.

Da Online-Dating-Dienste im Prinzip auch Soziale Netzwerke[wp] sind, arbeiten in diesem Bereich die gleichen Fachleute, die sich untereinander kennen und gelegentlich auch von einem Arbeitgeber zum nächsten wechseln bzw. von größeren Diensten abgeworben werden. So konnte sich diese Technik auf andere Dienste wie YouTube und Facebook ausbreiten, wo sie aber nicht nur rein wirtschaftliche Zwecke verfolgte.

Funktionsweise

Beim Schattenbann werden die Eingaben des Nutzers meistens nicht gelöscht, wie bei einer konventionellen Zensur. Die Daten werden also vom Nutzer erzeugt, abgespeichert und bleiben erhalten. Es liegt aber in der Natur dieser digitalisierten Inhalte, dass sie zwar maschinen­lesbar[wp] sind, aber nicht ohne weiteres von Menschen gelesen oder gesehen werden können. Um digitale Inhalte für Menschen rezipierbar zu machen, müssen sie dekodiert[wikt] werden und auf einem Endgerät, beispielsweise einem Flach­bildschirm ausgegeben werden. Bei jedem Seitenaufbau wird also eine Datenbank abgerufen, und die Daten werden nach vielfältigen Kriterien für den Nutzer aufbereitet. Die dieser Aufbereitung, die Rendering[wp] genannt wird, zugrunde liegenden Algorithmen[wp] sind dafür entscheidend, welcher Nutzer welche Inhalte zu sehen bekommt. Angenommen, der Schattenbann bezieht sich auf einen bestimmten Nutzer, der sozusagen unangenehm aufgefallen ist, dessen Produktion also in Zukunft niemand mehr zu sehen bekommen soll, dann würde die Kryptozensur dadurch in Gang gesetzt, dass dem Konto dieses Nutzers ein entsprechendes Flag[wp] angehängt würde. Beim Rendering würde die Software beispielsweise eine Liste von Kommentaren abrufen, die einem Video auf YouTube zugeordnet sind, das jemand sich ansehen möchte. Während diese Liste abgearbeitet wird und Kommentar für Kommentar angezeigt wird, liest die Software bei jedem Kommentar notwendigerweise auch die Information aus, welcher Nutzer ihn geschrieben hat. Nur so kann der Nutzername und die Verlinkung auf sein Profil dem Kommentar hinzugefügt werden, wie es allgemein üblich ist. Bei der Abfrage des Erzeuger­profils liest die Software nun auch das ggf. vorhandene Flag aus und stellt somit fest, daß der Erzeuger des Kommentars gebannt wurde. Ist der Abrufer, für den diese Seite gerendert wird, identisch mit dem Erzeuger des Kommentars, dann wird auch der Kommentar gerendert, andernfalls nicht. So sieht der Gebannte seinen eigenen Kommentar und sonst sieht niemand den Kommentar. Da der Erzeuger des Kommentars ihn sieht, hat er keinen Anlass, misstrauisch zu werden oder sich über irgend etwas zu beschweren. Daher ergreift er auch keine Maßnahmen gegen die Bannung, der er unterliegt, denn das System informiert ihn in keiner Weise darüber, daß er gebannt wurde.

Auslöser für Schattenbann

Es gibt viele Arten in das Fadenkreuz der Krypto­zensoren zu geraten.

  • Eigene Aktivitäten: Man tut etwas, was den Interessen des Dienst­anbieter entgegensteht.
  • Denunziation[wp]: Dritte beschweren sich beim Dienst­anbieter über Inhalte oder Verhaltensweisen.
  • Kontaktschuld[wp]: Man hat mit (zu vielen) Nutzern interagiert, die ihrerseits gebannt sind oder waren.
  • Blocklisten: Man ist außerhalb des Dienstes auf eine Blockliste geraten, die auch von diesem Dienst genutzt wird.[1]
  • Blockierung durch andere Nutzer (zu viele) andere Nutzer des Dienstes haben einen auf ihre persönliche Blockliste gesetzt.

Bei all diesen Anlässen ist zu bedenken, dass die Gründe, warum der Dienste­anbieter einen Nutzer oder einen Inhalt dem Schattenbann unterwirft, oft keine politischen, sondern wirtschaftliche Gründe sind, genau wie bei der anlass­bezogenen Zensur. Auch wenn der Auslöser eher politischer Natur ist, weil beispielsweise die im Grunde staatliche Amadeu-Antonio-Stiftung einen Inhalt wegen angeblicher Hassrede denunziert hat, so reagiert der Dienst­anbieter darauf aus rein wirtschaftlichen Gründen, weil das Netzwerkdurchsetzungsgesetz ihn mit einem Bußgeld von bis zu 5 Millionen Euro bedroht.

Methoden

Es gibt inzwischen eine große Anzahl von Methoden des Schattenbanns. Einige der inzwischen bekannt gewordenen Methoden werden im Folgenden erläutert.

Nachrichtenunterdrückung

Persönliches Nachrichten, die innerhalb des Dienstes verschickt werden, werden auf verschiedenste Art behindert. Im einfachsten Fall werden sie nicht zugestellt. Das würde in den meisten Sozialen Netzwerken aber auffallen, es sei denn, der Kontakt wurde zuvor noch nie hergestellt und man hat auch keinen zweiten Kontaktweg zu der Person. Dann kann man auch nicht nachprüfen, ob die Nachricht zugestellt wurde. Das ist in den meisten Online-Dating-Diensten (s.o.) der Fall und bei Initiativ­kontakten in Facebook. So kann soziale Vernetzung behindert werden. Man kann dem Versender anzeigen, daß die Nachricht ausgeliefert wurde, ohne aber den Empfänger zu benachrichtigen. Der Versender kann dann nicht unterscheiden, ob die Nachricht tatsächlich nicht ausgeliefert wurde, ob sie nur nicht gelesen wurde, weil keine Benachrichtigung erfolgte oder ob der Empfänger sie nur aus einem Grunde, die der Empfänger selber zu verschulden hat, nicht gesehen hat. Weiterhin kann man die Versendung der Nachricht verzögern, um zeitnahe Kommunikation zu verhindern und so die Wirksamkeit der Nachricht herabzusetzen, die dann beispielsweise inhaltlich veraltet ist, wenn sie wahrgenommen wird.

Benachrichtigungsmanipulation

Die Benachrichtigungen, die der Nutzer normalerweise über neue Inhalte (Videos, Beiträge, Reaktionen, persönliche Nachrichten) bekommen würde, können ganz oder teilweise ausfallen, verzögert werden, oder deren Aktivierung kann erodieren. Und natürlich wird man niemals auf YouTube die Nachricht bekommen: "Der Kanal Klimaskeptiker, den Du seit Tag und Jahr abonniert hast, ist anlässlich einer Denunziation[wp] durch die Amadeu-Antonio-Stiftung gelöscht worden." Das heißt, alle Ereignisse, die im weitesten Sinne als Zensur gelten könnten, werden so gut es geht verschwiegen. Dass ein Kanal gelöscht wurde, muss man also selber daran merken, dass man schon ungewöhnlich lange keine Benachrichtigungen mehr über neue Videos bekommen hat. Es wäre absolut korrekt, die Nutzer über den Wegfall von Quellen, für die sie Benachrichtigungen aktiviert hatten, zu informieren. Es wird aber in keinem Dienst jemals vorgenommen, obwohl es sehr leicht wäre, das so zu programmieren, und die Nutzer immer für solche Informationen dankbar wären.

Weiterleitungen einschränken

Weiterleitungen von Inhalten, auch Teilen genannt, kann scheinbar allgemein­gültigen Einschränkungen unterliegen, die aber tatsächlich spezifisch sind. Auch hier geht es darum, die Informations­leistung kritischer Nutzer herab­zu­setzen, die individuelle Fähigkeit zum Publizieren zu begrenzen. Solche Maßnahmen lassen sich, wenn sie allgemeiner Natur sind, auch hervor­ragend rechtfertigen. So kann man bei Facebook aus einer geschlossenen Gruppe heraus gar keine Inhalte teilen. Das kann mit "Privat­sphäre" begründet werden. Tatsache ist aber, dass jeder Nutzer die Inhalte dennoch Stück für Stück auf seinen eigenen Rechner kopieren kann und von dort aus erneut publizieren. Die Weiterleitung ist dadurch nur aufwendiger, wird aber keinesfalls verhindert, was das Privat­sphären-Argument widerlegt. Auch bei WhatsApp[wp] ist seit Anfang 2019 die Weiterleitung von Nachrichten von 20 auf 5 begrenzt worden. Das wurde mit Missbrauchs­fällen begründet. Auch hier ist die Begründung nur eine vorgeschobene, denn tatsächlich kann man eine Nachricht, die man an fünf Leute weiter geleitet hat, danach wieder an fünf Leute weiter­leiten. Auch hier wieder nur eine Behinderung der Informations­leistung der Nutzer und keinesfalls eine echte Maßnahme gegen angeblichen Missbrauch.[2] Dies dämpft die Geschwindigkeit, mit der die Bürger dafür sorgen, dass Inhalte "viral gehen", wodurch die Überwacher des Systems mehr Zeit haben, zu reagieren, also mit härteren Zensur­maßnahmen gegen­zu­steuern.

Suchen optimieren

Es ist allgemein üblich geworden, dem Nutzer beim Suchen ungebeten zu helfen. Kommerzielle Dienste stellen die Ausgabe­reihen­folge der Ergebnisse niemals auf "billigstes zuerst" ein, obwohl alle Nutzungs­statistiken zeigen, dass das die beliebteste Reihenfolge ist. Stattdessen stehen die Reihen­folgen eher auf "beliebtestes/bestes Produkt", also eine äußerst subjektive und völlig unüberprüfbare Reihenfolge. Google beispielsweise macht sich gar nicht erst die Mühe, ein Sortier­kriterium anzugeben. Dass Google die Sortierung extrem nach seinem jeweiligen Nutzer ausrichtet, ist seit langem bekannt.[3] Die Dienste können das mit "Kundendienst" begründen, liefern aber in keinem Falle eine Dokumentation, wie genau der Algorithmus funktioniert. Hinter dieser Nebelkerze der angeblichen Kunden­freundlichkeit können sie dann alles verstecken, was sie wollen, von politischem Nudging, über Marketing bis Shadow Banning. Twitter ist schon 2017 deswegen heftig in die Kritik geraten.[4] Der Such­algorithmus von YouTube hat zwar diverse Einstell­möglichkeiten, liefert aber nie die Ergebnisse, die diesen Vorgaben entsprechen würden. Die tatsächlich die Ausgabe­reihen­folge bestimmenden Regeln werden nicht veröffentlicht. Beobachtungen lassen vermuten, dass der Algorithmus zwar die Entstehung von Hypes begünstigt, dass aber im Falle eines kritischen Videos, das gerade "viral geht", ein Moderatoren­team solche Fälle mit einem Bann belegt und diese Videos dann in der Suche benachteiligt und aus den Vorschlägen rausnimmt. Eine weitere Form der Such­optimierung ist die Ausgabe­reihen­folge der Kommentare unter YouTube-Videos, die standardmäßig auf "Top-Kommentare" steht, was auch nirgends näher erläutert wird. Alternativ kann man auf "neueste zuerst" umstellen, was einigermaßen das demnach zu erwartende Ergebnis zeigt, abgesehen von den gebannten Kommentaren. Offensichtlich sind "Top-Kommentare" diejenigen, mit den meisten Daumen hoch, sonst würden des öfteren die Kommentare von AfD-Sympathisanten oben sein, weil sie oft doppelt so viele Daumen hoch haben, wie Kommentare in denen das Reizwort AfD nicht vorkommt.[5] Weniger moderat oder unauffällig geht Google mit den Inhalten der Metapedia um, die werden nämlich niemals angezeigt.[6]

Kommentarspalten moderieren

Wie David Kriesel[wp] in seinem Vortrag über SpiegelMining[ext] anmerkte, hat natürlich jeder Publizist das Recht, die Kommentar­funktion unter einzelnen Artikeln abzuschalten.[7] Und man muss schon mit Methoden des Big Data[wp] daran gehen, um aufzuzeigen, dass diese Abschaltungen politische Methode haben und nicht nur dazu dienen für Ruhe und Ordnung im eigenen Haus zu sorgen. Bei nachträglichen Abschaltungen der Kommentar­funktion, die übrigens auch von YouTube-Kanal­betreibern individuell für jedes einzelne Video vorgenommen werden können, wird natürlich auch die Sichtbarkeit aller zuvor dort getätigter Kommentare abgeschaltet.

Der eigentliche Schattenbann aber geschieht auf der Grundlage des individuellen Nutzers und seiner jeweiligen Kommentare. So sind entweder die Kommentare eines bestimmten Nutzers auf dem ganzen Dienst nur für ihn selber sichtbar. Ein Kanal­betreiber bei YouTube bzw. ein Gruppen­administrator bei Facebook oder ein Nutzer bei Twitter hat einen anderen Nutzer auf seine Blockliste gesetzt und ahnt selber gar nicht, dass dieser geblockte Nutzer nun weiter fröhlich kommentiert, ohne dass irgendjemand anderes etwas davon mitbekommen würde. Weder wird dem Kanal­betreiber in der Hilfe des Dienstes etwas von den Methoden der Kryptozensur verraten, noch wird der geblockte Nutzer von irgend einer Seite darüber informiert, dass er nun generell oder auf einem bestimmten Kanal oder von einem bestimmten Nutzer geblockt wurde. Was in vielerlei Hinsicht zuerst aussieht, wie eine legitime Maßnahme, um im eigenen Verantwortungs­bereich für Ruhe zu sorgen und Stören­frieden einen Platzverweis auszusprechen, entwickelt sich immer mehr zu einer Maßnahme der politischen Repression, besonders, weil der Platzverweis unausgesprochen bleibt und die meisten zugrunde­liegenden Algorithmen geheim bleiben. So wird ein Publizist, der einen einzelnen, seiner Meinung nach unpassenden Kommentar glaubte einfach gelöscht zu haben, zum unwissenden Mittäter der Kryptozensur, weil er effektiv damit über den betroffenen Nutzer den geheimen Bann ausgesprochen hat, obwohl er das weder ahnte noch wollte. Geschulte Gesinnungs­täter hingegen können in verschwörerischer Kenntnis der Regeln auf kritische Nutzer Jagd machen, indem sie deren Kommentare regelmäßig anschwärzen und sie als Horde individuell blocken, wodurch diese kritischen Nutzer auf dem Dienst in die irreversible Fallgrube eines Negativ-Rankings kommen, das dazu führt, dass sie dienstweit dem Schattenbann unterliegen oder gar auf Blocklisten landen, die von einem Dienst­anbieter mit anderen Diensten ausgetauscht werden. Hier besteht das "Geheimwissen" der macht­erhaltenden Kräfte in der einseitigen Kenntnis der ansonsten undokumentierten Algorithmen.

Manipulation von Kennzahlen

Jedes professionell agierende Unternehmen arbeitet mit Kennzahlen, um die massenhaft stattfindenden Vorgänge zu erfassen und Statistiken für das Management zur Verfügung stellen zu können. In digitalen Diensten der Informations­verarbeitung dienen diese Kennzahlen, im Verein mit den Algorithmen, die dem Betrieb des Dienstes zugrunde liegen, als sehr wirtschaftliches Steuerungs­instrument der Vorgänge im System. So kann beispielsweise die Kennzahl der Häufigkeit des Aufrufs eines Inhaltes dazu verwendet werden, seine Beliebtheit zu erkennen und diesen Inhalt in Folge mit besser bezahlter Werbung zu vermischen, den Inhalt in sogenannten Feeds und auf Portal­seiten zu "featuren", um so Teilhaber und Mitverursacher eines Hypes zu werden, der die Werbe­einnahmen fördert. So weit ist das ein gänzlich kommerzieller Vorgang. Und das kommerzielle Interesse des Dienstes ist im Rahmen des herrschenden Zeitgeistes auch eine sakrosankte Begründung für derartige Mechanismen, der einerseits sehr wohl der "unschuldige" Entstehungs­grund gewesen sein kann.

Aber, was auch immer die Motivation des Produkt­managements ursprünglich gewesen sein mochte, so hat sich die Manipulation von Kennzahlen als das wirtschaftlichste Mittel der politischen Repression erwiesen, gegen das innerhalb der Dienste kein Kraut gewachsen ist. Alles, was ein Computer zählen kann, kann zur Kennzahl erhoben werden. Es gibt unzählige Möglichkeiten. Die bekanntesten Kennzahlen sind diejenigen, die der Nutzer zu sehen bekommt, also die Anzahl von Mitgliedern einer Facebook-Gruppe, Anzahl der "Freunde", Likes[wp] und Dislikes, Anzahl der Kommentare (die oft nicht mit den "von Hand" zählbaren Kommentaren über­einstimmen, weil das System die ausgeblendeten Kommentare mit zählt), Aufruf­zahlen von Inhalten, Abonnenten­zahlen und Häufigkeit des Teilens. Dazu gibt es eine völlig unbekannte Anzahl von Kennzahlen, die der Nutzer nie zu sehen bekommt: Wie oft die Kommentare eines Nutzers moniert wurden, wie oft die Beiträge eines Publizisten gelöscht wurden, mit wie vielen Nutzern ein Nutzer Umgang hatte, die ihrerseits auf geheimen Blocklisten stehen oder standen, wie oft ein Nutzer bestimmte Schlüsselworte benutzt hat, wie viel Zeit der Nutzer im System verbracht hat, wie viele Konten der Nutzer hat, wie viele Werbe­einnahmen der Nutzer generiert hat oder wie oft sich die Agenten der Amadeu-Antonio-Stiftung schon über einen Nutzer beschwert haben. Der Gläserne Bürger[wp] ist nicht aus Glas, sondern aus Kennzahlen und den Daten, die die DSGVO zu schützen vorgibt. Auch Kanäle oder Inhalte sind solche gläsernen Entitäten, die Kennzahlen liefern, aus Kennzahlen bestehen und von Kennzahlen abhängig sind. Die unschlagbare Effizienz der Nutzung von Kennzahlen besteht unter anderem darin, dass sie miteinander verknüpft werden können, um das System voll­automatisch in Echtzeit[wp] steuern zu können, selbst, wenn man diese Kennzahlen gar nicht manipuliert, sondern lediglich ihr Zusammenspiel politisch nutzt. Und wenn dem Dienst­anbieter das nicht reicht, kann er die Kennzahlen auch manipulieren. Er kann beispielsweise veröffentlichte Aufruf­zahlen absenken.[8] Einerseits kann man damit den Nutzern eine geringere Popularität vorgaukeln und andererseits den internen Hype-Produktions-Mechanismen, die ihrerseits nicht nur auf die großräumige Gruppendynamik[wp] einwirken, sondern ihrer Natur nach dieser Gruppen­dynamik, der Massenpsychologie[wp] nachempfunden wurden, die Feedback-Verstärkung stehlen. Man demotiviert also die Nutzer, die die Aufruf­zahlen sehen und verringert die Anzahl der Nutzer, die den Inhalt überhaupt zur Kenntnis nehmen werden. Aufgrund des unseres kapitalistischen Systems immanenten, allgegen­wärtigen Wettbewerbes, hier dem Aufmerksamkeits­management, gerät der Inhalt dann in eine noch überzeugendere Abwärts­spirale. Wofür die Produkt­manager des Dienstes also nur sehr wenig Zeit aufwenden müssen, also die grundlegende Konfiguration der Algorithmen, die hernach voll­automatisch wirken, in Kombination mit einigen wenigen Manipulationen an den Kennzahlen durch ein Moderatoren­team des Dienstes, müssen die Anbieter der unerwünschten Inhalte einen um mehrere Größen­ordnungen höheren Aufwand treiben, um wenigstens eine Art von Existenz aufrecht­zu­erhalten. An einen regelrechten Erfolg ist dabei gar nicht zu denken, um so weniger an nachhaltigen Erfolg. Sollten vorübergehend Effekte auftreten, die wie ein echter Erfolg aussehen, so treten umgehend nicht-kryptische Formen der Zensur in Kraft.

Was man tun kann

Da die dem Schattenbann zugrunde liegende Taktik darin besteht, den Erzeuger, Veröffentlicher oder Verbreiter von Informationen in dem Glauben zu halten, dass seine Handlungen erfolgreich verlaufen wären, kommt es darauf an, alle Formen der Informations­verbreitung in jedem Falle auf ihre tatsächliche Wirksamkeit zu überprüfen, um so wenigstens zu erkennen, wann Schattenbann eingesetzt wird. Der Glaube an die ungestörte Funktion eines Systems zur Informations­verbreitung ist als naiv und völlig unrealistisch anzusehen. Das bezieht sich auf alle Informatik-Systeme, nicht nur auf US-basierte "soziale" Netzwerke. Es fängt damit an, dass man sich grundsätzlich für Dienste, in denen man auf der Grundlage einer digitalen Identität, also eines Nutzerkontos bei dem Dienst, eine zweite, unabhängige Identität schafft oder mit einer weiteren, vertrauens­würdigen, persönlich bekannten Person, die dort auch ein Konto hat, zusammen­arbeitet. Nachdem man einen Beitrag veröffentlicht hat, beispielsweise einen Kommentar in einer Kommentar­spalte unter einem YouTube-Video, muss man aus der Perspektive des anderen Kontos prüfen, ob der Kommentar auch für andere Nutzer sichtbar ist. Dabei gilt es zu bedenken, dass die Fähigkeit der großen Internet­firmen, speziell die Fähigkeiten von Google, deren 100%ige Tochter YouTube ist, zu erkennen, wer mit wem zusammen­arbeitet oder gar identisch ist, sehr hoch ist. Wer zwei Konten auf der Basis von Google hat, kann sich sicher sein, daß Google weiß, dass es sich dabei um die gleiche Person handelt, unabhängig davon, welche Angaben zur Person man gemacht hat. Nicht nur können die privaten Dienste ihre Analysen über eine Person machen, auch hat die NSA vollen Zugriff auf alle dafür benötigten Daten und führt zusätzliche personen­bezogene Analysen durch und speichert diese Daten auf unbegrenzte Zeit.[9]

Um sich sicher zu sein, dass eine "private" Kommunikation innerhalb eines Dienstes wie Facebook auch erfolgreich war, ist es erforderlich, vom Kommunikations­partner eine möglichst spezifische Antwort zu bekommen. Man muss also in vielen Fällen auf dem Dialog bestehen, insbesondere bei Initiativ­kontakten. So lange man keine "vernünftige" Rückmeldung bekommen hat, muss man davon ausgehen, dass die Kommunikation nicht stattgefunden hat. Die in solchen Diensten üblichen kleinen Marker, die dem Versender anzeigen sollen, dass die Nachricht verschickt, übertragen oder gelesen wurde, sind nicht vertrauens­würdig. Der Dienst kann sie nach Belieben manipulieren. Etwas anderes ist die noch(!) einigermaßen vertrauens­würdige MDN[wp] im allgemeinen E-Mail-Verkehr, die man deswegen grundsätzlich nutzen sollte. Da wo die MDN einen nicht weiter bringt, kann auch die DSN[wp] zusätzlich genutzt werden. Der kritische Bürger ist also gehalten, sich mit diesen Mechanismen gründlich vertraut zu machen und der Zuverlässigkeit eines jeden Systems, das er nicht selber gebaut und erfolgreich getestet hat, zu misstrauen. Die Techniken der Übertragungs­kontrolle für den Nutzer sind so alt, wie die Übertragungswege. Aber leider wissen nur die aller­wenigsten Nutzer, wie sie funktionieren, oder dass es sowas überhaupt gibt. Die Standard­einstellungen sind in allen Fällen so, dass eine Kontrolle nicht stattfindet. Das gilt auch für SMS[wp], die man beispielsweise verwenden kann, auch wenn jemand WhatsApp[wp] nicht hat, es nicht installiert hat, nicht aktualisiert hat, nicht gestartet hat oder wegen abgeschaltetem W-LAN[wp] nicht empfangen kann usw. Auch für SMS kann man Empfangs­bestätigungen anfordern.[10]

Man kann nichts gegen den Schattenbann tun. Einerseits ist es legal genug, dass ein gerichtliches Vorgehen scheitern würde, andererseits müsste man einen mehr­stelligen prozentualen Anteil der Nutzer eines Dienstes hinter sich bringen, um einen Boykott organisieren zu können, der eine reale Auswirkung auf das Verhalten des Dienstes hätte. Bei zwei Milliarden effektiver YouTube-Nutzer wären das mindestens 200 Millionen Nutzer, also ganz Europa. Aber gerade letzteres wird mittels des effektiven Schattenbanns ausgeschlossen. Man kann es also nur erforschen und möglichst umgehen, indem man zu den Personen, mit denen man kommunizieren möchte, möglichst viele und diverse Kommunikations­wege eröffnet und offen hält: Persönliches Gespräch, Telefonat, Brief, E-Mail, SMS, WhatsApp, Video-Chat[wp] und andere Instant Messenger[wp] wie Telegram[wp], Jedermannfunk[wp] wie PMR[wp] LPD[wp] oder CB-Funk[wp], TTY[wp] usw.

Einzelnachweise

  1. Fruzsina Eordogh: Why Republicans Weren't The Only Ones Shadow Banned On Twitter, Forbes am 31. Juli 2018
  2. André Reinhardt: WhatsApp: Zahl der Weiter­leitungen wird deutlich reduziert, tleltatif.de am 22. Januar 2019
  3. Youtube-link-icon.svg Eli Pariser: Vorsicht vor "Filter-Blasen" im Internet - TED (2. Mai 2011) (Länge: 9:05 Min.) (Filterblase)
  4. Schattenbann-Welle im deutschen Twitter, Heise/Telepolis am 26. Juni 2017
  5. Youtube-link-icon.svg Nuhr im Ersten - Sendung vom 28. November 2019 - Comedy & Satire im Ersten (28. November 2019) (Länge: 44:38 Min.) (Dieter Nuhr[wp])
  6. John de Nugent[mp]: GERMAN Google.de verschweigt sogar die blosse Existenz der deutschen Metapedia, daher unterstuetzt sie!, 17. August 2013
  7. Youtube-link-icon.svg SpiegelMining - Reverse Engineering von Spiegel-Online (33c3) - media.ccc.de (29. Dezember 2016) (Länge: 58:46 Min.) (David Kriesel[wp] auf dem Chaos-Computer-Congress)
  8. Youtube-link-icon.svg Bewiesen: YouTube stiehlt über 7.000 Abrufe - taz-Redakteurin wacht in Realität auf - Oliver Janich[wp] (23. Oktober 2019) (Länge: 23:49 Min.)
  9. Youtube-link-icon.svg So erobern wir das Internet zurück - Edward Snowden (18. März 2014) (Länge: 35:18 Min.), [1], TED2014, März 2014
  10. Youtube-link-icon.svg Get delivery report of sms on android oppo - How To Do? (2. Oktober 2017) (Länge: 1:09 Min.)


Dieser Artikel basiert auf dem Artikel Shadow Banning (30. November 2019) aus der freien Enzyklopädie FreeWiki. Der FreeWiki-Artikel steht unter der Lizenz Namensnennung - Weitergabe unter gleichen Bedingungen 3.0 Unported (CC BY-SA 3.0). In der FreeWiki ist eine Liste der Autoren verfügbar, die vor Übernahme in WikiMANNia am Text mitgearbeitet haben.