Datavis – Neue Codes für Gedächtnismaschinen

Ich hatte zuletzt im Rahmen des Artikels über Datentransparenz den mangelhaften Zugriff auf öffentliche Daten in Deutschland kritisiert. Im Anschluß daran habe ich mal ein wenig über die sich verändernden Formen und Formate von datenbezogenem Wissen recherchiert, die sich im Zuge einer zugriffsoffeneren Datenlage ergeben haben und dabei einige spannende Projekte entdeckt. Doch zunächst muss man vielleicht etwas vorgreifen um den generellen Zusammenhang zu erfassen, in dem diese Veränderung sich vollzieht. Denn die Technisierung und Digitalisierung aller möglichen Aspekte der Lebenswelt ermöglicht nicht nur einen veränderten Zugriff und Umgang mit Daten, sondern ermöglicht zunächst einmal völlig neue Formen des Abtastens und Erfassens, also der Datenerhebung. Nun fußt die Kritik an der fehlenden Zugriffsoffenheit von Daten vor allem in einer unzureichenden Korrespondenz von Datenerhebung und Datenauswertung. Sprich: wenn immer größere Teile unseres Handelns in Algorythmen übersetzt, als Datensätze gespeichert und zu Proflen decodiert werden, benötigt man entsprechende Strategien um der entstehenden Datenflut zu begegnen. Dies wirft die Frage nach den Werkzeugen und Instrumenten auf, mit denen wir komplexe Datenzusammenhänge darstellen und verstehbar machen können.

Seit ein paar Wochen ist zum Beispiel das Projekt visualizing.org online, das auf die sich ergebenen Probleme der zunehmenden Verfügbarkeit von (öffentlichen) Daten reagiert: „By some estimates, we now create more data each year than in the entirety of prior human history. Data visualization helps us approach, interpret, and extract knowledge from this information. […] We created Visualizing.org because we want to help connect the proliferation of public data… with a community that can help us understand this data… with the general public.“ (visualizing.org). Das Projekt ist als Plattform zur Veröffentlichung von Datenvisualisierungen angelegt, stellt aber gleichzeitig auch die Quellen zur Verfügung, mit denen diese umgesetzt werden (können): besonders gefällt mir zum Beispiel die Darstellung von Flüchtlingsströmen auf der Basis des UNHCR Refugee Report von Christian Behrens (FH Potsdam, niceone.org). Über den Influence Explorer kann man untersuchen, wie unterschiedliche Lobbygruppen die Politik beeinflussen. Bei Google Insights for Search kann man verfolgen wie Youtube und Facebook Sex als prominentere Suchbegriffe ablösen. Gapminder gehört schon zu den älteren Projekten und hat mit der Visualisierung von Daten im Rahmen der United Nations Millenium Development Goals nicht nur große Aufmerksamkeit, sondern auch eine neue „fact based world view“ etabliert.

Insgesamt lässt sich die Thematik in einen Zusammenhang mit der Frage nach einem angemessenen Content Management stellen: die Gedächtnismaschinen, die wir produzieren verlangen nach neuen Ordnungsstrukturen und Darstellungsformen, um nicht dysfunktional zu werden. So stellt etwa Wigley fest: „Content Management […] is the set of protocols that must be introduced when production, distribution and consumption are no longer easily distinguishable. (…) When production is collective, continous, parallel, uneven and deterritorialized while consumtion becomes a kind of authorship, new protocols of access and archiving are needed.“ (Wigley 2008,3 Volume: 10). Einen guten Einblick in die visuelle Epistemik dieser wissenschaftlichen Bilder gibt Dieter Merschs Text „Visuelle Argumente. Zur Rolle der Bilder in den Naturwissenschaften„. (Bilder (c) niceone.org, google)

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert