Geteiltes Leid – oder geteilte Propaganda?

Nach den Attacken in Israel kursieren falsche und unbestätigte Informationen, auch in etablierten Medien wie «Watson» und der «Sonntags­Zeitung». Das ist ein Problem, zu dem wir alle beitragen.

Von Basil Schöni (Text) und Leillo (Illustration), 19.10.2023

Vorgelesen von Regula Imboden
0:00 / 18:25

Journalismus, der Ihnen hilft, Entscheidungen zu treffen. Und der das Gemeinsame stärkt: die Freiheit, den Rechtsstaat, die Demokratie. Lernen Sie uns jetzt 21 Tage lang kostenlos und unverbindlich kennen:

Am Dienstagabend kam es zu einer Explosion im Al-Ahli-Spital im Gazastreifen. Mehrere hundert Menschen sollen dabei getötet worden sein. Israel macht die Gruppierung «Islamischer Jihad» verantwortlich. Diese und die Hamas geben der israelischen Armee die Schuld. Was im Detail passiert ist, ist noch unklar.

Seit anderthalb Wochen sind klassische und soziale Medien voll mit Informationen zum Konflikt im Nahen Osten. Hunderte Bilder, Videos und Berichte erreichen alle, die diese Medien konsumieren.

In den letzten anderthalb Wochen die Geschehnisse zu verfolgen, fühlte sich an, als versuchte man, einen Schluck Wasser aus einem Feuerwehr­schlauch zu trinken.

Ein Problem, das in jedem Krieg erscheint, trat seit den Anschlägen vom 7. Oktober besonders zutage: Viele der kursierenden Informationen sind falsch.

Dass sie trotzdem verbreitet werden, ist manchmal Absicht. Manchmal ist es Versehen. Und manchmal handwerkliche Nachlässigkeit. Oft ist es eine Mischung davon.

Im Internet ist jede Medien­konsumentin auch eine potenzielle Multiplikatorin. Mit zwei Klicks hat man ein Bild, ein Video, einen Text mit seinem eigenen Netzwerk geteilt. Und dieses teilt den Inhalt weiter. Und weiter. Und weiter.

Dass man dabei Falsch­informationen verbreitet, passiert schnell. Auch für Geübte ist es schwierig, die Wahrheit von der gut gemachten Lüge zu unterscheiden. Und eine Lüge gut zu machen, ist leider recht einfach.

Doch wie funktionieren diese Lügen?

Kontext, KI, Computer­spiele

Ein simpler, aber effektiver Trick ist etwa, reales, aber altes Bild­material in einen falschen Kontext zu setzen. In den letzten Tagen kursierte zum Beispiel ein Bild, das mehrere Leichen von Kindern zeigt, die angeblich von der israelischen Armee getötet wurden. Tatsächlich stammt das Bild aus dem syrischen Bürger­krieg und zeigt Opfer eines Giftgas­angriffs von 2013.

Solche Falsch­kontextualisie­rungen machen einen grossen Teil der Falsch­informationen aus, die zum aktuellen Konflikt kursieren. In einem anderen Fall wurden Bilder einer propalästinensischen Demonstration in Zürich verbreitet. Es wurde behauptet, sie sei als Reaktion auf die Angriffe der Hamas durchgeführt worden. Tatsächlich fand die Demonstration bereits 2021 statt.

Etwas kurios sind verschiedene Videos, die angeblich militärische Auseinander­setzungen in Israel oder dem Gaza­streifen zeigen. In Wahrheit stammen sie aus einem Computerspiel.

Auch klassische Fälschungen sind nach wie vor ein beliebtes Mittel. Ein Dokument sollte etwa beweisen, dass die USA militärische Hilfe im Wert von 8 Milliarden Dollar an Israel gesprochen hätten. Tatsächlich wurde bloss ein existierendes Dokument manipuliert, mit dem Militär­hilfe an die Ukraine im Wert von 400 Millionen Dollar bewilligt worden war.

Eine relativ neue Strategie, um falsche Informationen zu verbreiten, wird durch das Aufkommen von auf künstlicher Intelligenz (KI) basierten Bild­generatoren ermöglicht. Jedoch nicht, indem KI-generierte Bilder als echt ausgegeben werden – dafür scheint das generierte Bild­material noch zu leicht als solches erkennbar zu sein. Stattdessen wird behauptet, authentische Bilder seien KI-generiert. Das geschah beispiels­weise bei einem Bild einer verbrannten Kinder­leiche, das die israelische Regierung auf X veröffentlicht hatte.

Bereits nach kurzer Zeit tauchten Posts von Leuten auf, die das Bild durch ein Online­tool prüfen liessen, das angeblich KI-generierte Bilder erkennen kann. Das Programm gab an, dass das Bild künstlich erstellt worden sei. Doch solche Erkennungs­tools sind notorisch unzuverlässig. Ein Professor der Universität Berkeley konnte keine Hinweise erkennen, dass das Bild von einer KI generiert wurde.

Gerade auf X kursieren sehr viele Falsch­informationen zum Krieg im Nahen Osten. Das liegt auch an den Änderungen, die Elon Musk seit seiner Übernahme der Plattform vorgenommen hat. So wurden die internen Teams stark verkleinert, die sich um staatlich organisierte Desinformations­kampagnen kümmern sollten. Gegenüber der BBC sagte ein früherer Mitarbeiter von X, dass wichtige Experten nicht mehr bei der Plattform arbeiten würden, die in dieser Sache für spezifische Regionen wie dem Nahen Osten zuständig gewesen seien.

Im Sommer führte X ausserdem ein, dass zahlende Userinnen ab einer bestimmten Reichweite ihre Posts monetarisieren können. Das heisst, dass sie einen Teil der Werbe­einnahmen erhalten, die durch ihre Posts generiert werden. Damit bestehen finanzielle Anreize, Posts mit möglichst grosser Reichweite zu verfassen. Spektakuläre und emotionalisierende Falsch­informationen zur Situation im Nahen Osten eignen sich hierfür besonders gut.

Eine Quelle ist keine Quelle

Nicht nur erwiesene Falsch­informationen sind in der aktuellen Situation ein Problem. Auch plausible Meldungen, die (noch) nicht unabhängig bestätigt wurden, verbreiten sich in Windeseile. Das lässt sich aufzeigen an einer Geschichte, die vergangene Woche öffentlich wurde.

Am 10. Oktober, drei Tage nach den Massen­morden der Hamas, führte die israelische Armee Journalistinnen durch den Kibbuz Kfar Aza. Auch eine Journalistin des Fernseh­senders i24News war dort. In einem Video berichtete sie, dass unter den Toten enthauptete Babys gefunden worden seien. Das hätten ihr Soldaten erzählt. In einem weiteren Beitrag erzählt ein Soldat selber von enthaupteten Kindern.

Die offizielle Position der israelischen Streitkräfte (IDF) war zu diesem Zeitpunkt wider­sprüchlich. Der amerikanischen Zeitung «Insider» bestätigte ein Sprecher am 10. Oktober die Information. Der türkischen Nachrichten­agentur Anadolu gab die israelische Armee gleichentags an, die Behauptungen nicht bestätigen zu können.

Ein journalistisches Grund­prinzip ist die Zwei-Quellen-Regel. Sie besagt, dass eine Behauptung durch mindestens zwei voneinander unabhängige Quellen gestützt werden muss. Ist dies nicht der Fall, gilt sie als unbestätigt und muss explizit als solche gekennzeichnet werden.

Der Bericht von i24News fusste auf einer einzigen Quelle: dem israelischen Militär. Trotzdem verbreitete sich die Nachricht, als wäre sie bereits Fakt. Auch in Schweizer Medien und bei Schweizer Journalistinnen.

«20 Minuten» veröffentlichte am Morgen des 11. Oktober einen Artikel, der die Geschichte aufnahm: «Die Gräueltaten, die hier verübt wurden, sprengen jede Vorstellungs­kraft. Hamas-Terroristen enthaupteten demnach Babys», heisst es im Artikel. Auch «Nau.ch» stellte die unbestätigte Geschichte im Lead eines Artikels als Fakt dar. Eine Journalistin von Tamedia verbreitete das i24News-Video auf X mit dem Kommentar: «Sie haben Babys in ihren Krippen geköpft.» In allen drei Fällen diente ausschliesslich der unbestätigte Bericht von i24News als Quelle.

Einige Stunden nach den Artikeln von «Nau.ch» und «20 Minuten» publizierte CBS News am 11. Oktober erstmals eine zweite Quelle für die Geschichte der enthaupteten Babys. Ein Mitarbeiter des Rettungs­dienstes Zaka berichtete, enthauptete Baby­leichen persönlich gesehen zu haben.

Ab diesem Zeitpunkt konnte die Information als einigermassen glaubwürdig angesehen werden – auch wenn harte und öffentlich zugängliche Belege bis heute fehlen. Bis dahin aber wurde die Meldung allein auf X bereits 44 Millionen Mal angezeigt. Auch wenn die Geschichte widerlegt worden wäre, wären sehr viele Menschen überzeugt geblieben, dass sie sich zugetragen hat.

Auch nachdem CBS News am 11. Oktober eine zweite Quelle geliefert hatte, hielt die Verwirrung an. Später am gleichen Tag erwähnte US-Präsident Joe Biden die Geschichte in einer Rede: «Ich hätte nie gedacht, dass ich das sehen würde … dass ich bestätigte Bilder haben würde von Terroristen, die Kinder köpften.» Auf Nachfrage korrigierte ein Sprecher des Weissen Hauses, dass der Präsident keine solchen Bilder gesehen und die Berichte nicht unabhängig verifiziert habe.

Erst am 12. Oktober berichtete die «Jerusalem Post», dass sie Bilder von enthaupteten Babys gesehen habe, die das Büro des israelischen Premier­ministers bei seinem Besuch auch dem US-Aussen­minister gezeigt habe.

Die Wahrheit und nichts als die Wahrheit

Die Meldung hat sich also im Grundsatz erhärtet. Die Hamas hat wahrscheinlich Babys enthauptet. Aber warum kommt es überhaupt darauf an, ob die Babys geköpft oder auf andere Weise ermordet wurden?

Der amerikanische Journalist Ben Goggin drückte es so aus: «Our standard of truth shouldn’t be an approximation when it comes to war.» Im Krieg sollten wir uns nicht mit Annäherungen an die Wahrheit zufriedengeben.

Jede Konflikt­partei hat ein Interesse daran, die Gegen­seite als möglichst unmenschlich und grausam darzustellen. Es ist eine zentrale Aufgabe der Medien, bei solchen Behauptungen die Wahrheit von der Lüge zu trennen. Die Vergangenheit hat immer wieder gezeigt, dass mit erfundenen Geschichten über die Grausamkeit der Gegen­seite Kriege legitimiert werden.

Die Menge an unzuverlässigen oder falschen Informationen zum Konflikt im Nahen Osten wird in den nächsten Wochen zunehmen. Nach den Anschlägen im Süden Israels haben sich die Geschehnisse in den Gaza­streifen verlagert. Für ausländische Journalistinnen ist es kaum möglich, dorthin zu gelangen. Die verbleibenden palästinensischen Medien­schaffenden kämpfen mit Strom- und Internet­ausfällen und damit, sich und ihre Familien in Sicherheit zu bringen.

Der Informationsraum ist in diesem Konflikt zu einem zentralen Schlacht­feld geworden. Am 7. Oktober entwendeten Hamas-Anhänger die Smartphones ihrer Opfer und streamten ihre Taten live über deren Social-Media-Kanäle. Als die israelischen Streit­kräfte den Gaza­streifen zu bombardieren begannen, drohte die Hamas damit, die Hinrichtung von Geiseln in Bild und Ton zu übertragen. Die israelische Regierung verbreitet auf X ihrerseits Bilder von blut­verschmierten Tatorten und – wir kommen noch darauf – falsche Behauptungen über getötete palästinensische Kinder.

Es ist neu, dass mit dieser Konsequenz und Rücksichts­losigkeit über soziale Netzwerke Propaganda betrieben wird. Die Folgen sind schwer abzuschätzen.

Fest steht jedoch: Sollte die israelische Armee in den Gaza­streifen einmarschieren, dürften die unabhängigen Quellen vor Ort noch weniger werden. Und die Falsch­informationen von allen Seiten noch häufiger.

Niemand ist gefeit

Wie geht man als Medien­konsumentin mit dieser Situation um? In den vergangenen Tagen erschienen in fast allen grösseren Medien Artikel über die Schwemme an Falsch­informationen. Viele dieser Artikel enthielten Empfehlungen, wie man falsche Informationen erkennt. Ein häufiger Ratschlag ist es, nur Inhalte weiter­zuverbreiten, die aus einer bekannten und vertrauens­würdigen Quelle stammen.

Doch dieser Rückgriff auf Autoritäten hat seine Probleme. Gut gemachte Fakes versuchen oft, im Namen solcher Autoritäten zu sprechen. So wurde etwa ein Account auf X als der einer Journalistin der BBC ausgegeben, um mit erhöhter Glaub­würdigkeit irreführendes Bild­material zu verbreiten.

In einem anderen Fall wurde ein gefälschtes BBC-Video verbreitet, in dem behauptet wurde, dass die Ukraine der Hamas Waffen verkauft habe, die sie selber von westlichen Staaten erhalten habe. Das Video versuchte gleich zweifach mit der Stimme der Autorität zu sprechen. Im gefälschten BBC-Bericht wurde nämlich behauptet, die renommierte Recherche­organisation Bellingcat habe Beweise für den Waffen­handel gefunden.

Auch bekannte und eigentlich vertrauens­würdige Personen und Medien sind nicht dagegen gefeit, auf Falsch­informationen herein­zufallen.

So teilte ein Journalist von CH Media auf X einen Post, der behauptet, eine antiisraelische Demonstration in London vom 13. Oktober 2023 zu zeigen. In Wahrheit ist das gezeigte Video über zwei Jahre alt. Obwohl der Post inzwischen durch X als irreführend gekennzeichnet wurde, war er bei Redaktions­schluss immer noch auf dem Profil des Journalisten zu finden.

Einen besseren Umgang hatte eine andere Journalistin von CH Media. Diese hatte einen Post über ein Video gemacht, das Kinder in Käfigen zeigt, angeblich aus dem Gaza­streifen. In Wahrheit war das Video aber älter und stammte aus einem anderen Kontext. Nachdem verschiedene User die Journalistin auf diesen Umstand aufmerksam gemacht hatten, stellte sie dies in einem weiteren Post richtig. Später löschte sie ihren ursprünglichen Post.

Es sind nicht nur die sozialen Netzwerke

Gröbere Mängel lassen sich bei «Watson» feststellen. Dort erschien kürzlich ein Artikel, der ursprünglich von «T-Online» stammt und «die perfide Hamas-Propaganda» zum Thema hat. Der Artikel schreibt diverse Falsch­informationen pauschal der Hamas zu, obwohl diese von verschiedenen anonymen Accounts stammen und kaum zu identifizieren ist, wer tatsächlich hinter den Profilen steckt. Belege dafür, dass hinter den aufgelisteten Beispielen die Hamas steckt, enthält der Artikel nicht.

Eines dieser Beispiele betrifft das Video eines toten palästinensischen Kindes. «Watson» behauptet, bei dem Kind handle es sich in Wahrheit um eine Puppe und die Hamas habe «offensichtlich vergessen, das Gesicht des falschen Kindes zu verpixeln». Diese Geschichte wurde auf X unter anderem vom offiziellen Account des israelischen Staates verbreitet, der vom israelischen Aussen­ministerium verwaltet wird.

Während «Watson» den Beweis schuldig bleibt, dass es sich beim Kind im Video um eine Puppe handelt, hat die indische Non-Profit-Organisation «Alt News» den Fakten­check gemacht. Sie fand heraus, dass das Video von einem palästinensischen Fotografen gemacht wurde. Anhand von weiterem Bild­material konnte «Alt News» verifizieren, wann und wo das Foto entstand. Die Organisation kommt zum Schluss, dass die Behauptung falsch ist, dass es sich bei dem Kind um eine Puppe handelt.

Auch ein Journalist des «Nebelspalters» verbreitete die Geschichte der angeblichen Puppe auf X. Ein anderer Journalist des gleichen Mediums teilte einen Post, der den angeblichen Namen eines Hamas-Mitglieds nennt, der an der Tötung einer deutsch-israelischen Zivilistin beteiligt gewesen sein soll. Belege dafür, dass der Name stimmt, werden nicht genannt.

In einem Interview mit der «SonntagsZeitung» schliesslich erzählt eine Schrift­stellerin Horror­geschichten, die angeblich in Israel statt­gefunden hätten. So habe die Hamas «Kindern und Erwachsenen bei lebendigem Leib Körper­teile abgeschnitten und sie dann angezündet», ausserdem seien Babys vergewaltigt worden.

Weder die grossen internationalen Medien, noch renommierte Nachrichten­agenturen wie Reuters oder AP oder englisch­sprachige israelische Zeitungen wie «Haaretz» oder die «Times of Israel» berichteten über derartige Gräuel­taten. In der «SonntagsZeitung» bleiben diese Anschuldigungen ohne Einordnung. Belege werden keine genannt.

Was also tun?

Was bleibt einem übrig als Medien­konsumentin in einer solchen Situation? Was tun, wenn die sozialen Netzwerke voll sind mit irre­führenden oder unbestätigten Informationen? Wenn auch Journalisten diese dort verbreiten? Und sie auch in die klassischen Medien tragen?

Am Anfang sollte eine Erkenntnis stehen: Niemand ist immun gegen Falsch­informationen. Sie sind es nicht. Ich bin es nicht. Ihre Lieblings­journalistin ist es nicht. Vorsicht ist darum angebracht.

Als Zweites muss ein Appell kommen: Wir alle tragen eine Verantwortung. Medien sind heute bidirektional. Die mediale Realität wird nicht von einzelnen Akteuren geschaffen. Sondern von allen, die sich im Informations­raum bewegen. Auch Ihr persönliches Handeln hat also Konsequenzen.

An dritter Stelle sind Fragen angebracht: Was sind die Quellen für eine Behauptung? Werden überhaupt welche genannt? Wenn ja, wie viele sind es? Sind es Quellen, die Ihnen sympathisch sind? Sind es Informationen, die Sie in Ihrer Meinung bestärken? Dann ist besondere Vorsicht geboten.

Und schliesslich wird eine Tugend zunehmend wichtiger, die nicht immer angenehm ist: Geduld. In Krisen­zeiten nimmt das Bedürfnis nach Information sprunghaft zu. Und der Drang, Erkenntnisse zu teilen, ist stark. Doch Wahrheit braucht Zeit. Unterdrücken Sie also den Reflex, Dinge sofort zu teilen.

Eine Information mit Gewicht hat auch übermorgen noch Gewicht.

Wenn sie denn stimmt.

In Bezug auf die Falschinformation über ein totes palästinensisches Kind, das angeblich eine Puppe sei, haben wir zwei Details angepasst. Einerseits wurde die Falsch­information anhand eines Videos verbreitet, von dem dann Screen­shots im Umlauf waren. Andererseits wurde das Video von einem palästinensischen Fotografen erstellt, nicht von einem der Agentur AFP. Das Material des AFP-Fotografen war dazu verwendet worden, die Originalquelle des Videos zu finden.

Rund 27’000 Menschen machen die Republik heute schon möglich. Lernen Sie uns jetzt auch kennen – 21 Tage lang, kostenlos und unverbindlich: