Zunächst einmal: Die Enthüllungen von #panamapapers sind eine großartige Chance, mit Daten neuen Schwung in einen Journalismus zu bringen, der von vielen Seiten totgeredet wird. Und sie werden dabei helfen, das Format auch in kleineren Projekten anzuwenden, etwa auf lokaler Ebene. Doch Datenjournalismus birgt auch Risiken.

Ein journalistischer Beitrag ist immer nur so gut, wie seine Recherche beziehungsweise seine Quellen. Dieser Erkenntnis gilt für den Datenjournalismus umso mehr.

Von der Fehlinterpretation bis hin zur bewussten Manipulation

Wer selbst schon einmal im Umfeld von Big Data, Datenbankanalysen, Data Mining und Business Intelligence gearbeitet hat, der weiß, wie viele Fallstricke dabei lauern. Heruntergebrochen auf den „neuen“ Journalismus sind diese – beispielhaft und sehr vereinfacht dargestellt:

Und nun?

Normalerweise bräuchte jeder Verlag, jeder Medienschaffende eine oder mehrere unabhängige Instanzen, welche die Ergebnisse und die Folgeerscheinungen des Datenjournalismus kontrollieren und monitoren. Oder diese Arbeit wird in Zusammenarbeit mit einem geeigneten (ehrenamtlichen) investigativen Verbund durchgeführt. Crowd-gestützte Analysen öffentlich gemachter Daten sind ein weitere Ansatz. Zumindest, sofern genügend Interesse an einer Geschichte besteht, was bei lokalen Ansätzen schwierig wird.

Eine fundierte Kontrolle werden sich kleinere und private Medienmacher nicht leisten können (manche werden es sich bewusst auch nicht leisten wollen). Dann jedoch lauert die Gefahr, dass man Wahrheiten erzeugt und viral teilt, die einer genauen Überprüfung nicht standhalten. In „Das gekaufte Web“ gehe ich genauer auf die Mechanismen ein, die aus Daten Falschnachrichten und Propaganda werden lassen.

Feedback erwünscht…

Ist meine Haltung zu pessimistisch? Wie könnten geeignete Kontrollwerkzeuge aussehen? Und wie halten es Journalisten, Blogger etc. mit der Validierung von Daten jeglicher Art? Die Kommentare sind offen.

Titelbild: © Jan Erik Waider / unsplash.com