Agenda 15/14

Am 07.04.2014 von Haruki

Big Data: Mehr Daten produzieren größere Fehler

“Google Flu Trends“, die über die Herstellung von Korrelationen ermittelt werden, waren bereits Thema bei uns. So aufschlussreich und interessant diese Trends sind: Ein sehr empfehlenswerter Artikel der Financial Times führt uns heute die Fehleranfälligkeit solcher korrelationsbasierten Konzepte vor Augen. Der Artikel erklärt detailliert und mit vielen Beispielen, warum mehr Daten nicht zwangsläufig zu richtigeren Ergebnissen führen – im Gegenteil: Ein häufiger Fehler bei Big-Data-Analysen gründet in der verwendeten Stichprobe. Aufgrund der Menge der vorhandenen Daten verfällt man dem Eindruck, die Analyse würde sich auf eine repräsentative Grundgesamtheit beziehen. Oft ist die Stichprobe jedoch verzerrt und so führen die vorhandenen Datenmassen nur zu einer exakteren Darstellung einer verzerrten Wahrheit. Ein Beispiel aus dem Text: Die App „Street Bump” aus Boston übermittelt automatisiert Smartphone-Daten von Autofahrern, um Schlaglöcher in der Stadt zu identifizieren. Was dabei außer Acht gelassen wird: Stadtteile mit geringer Smartphone-Dichte fallen durch das Raster. Das Fazit: Big Data Analyseverfahren werden in Zukunft noch hilfreicher sein. Wichtig ist aber, dass wir uns der Grenzen und potenziellen Fehleranfälligkeit solcher Methoden bewusst bleiben.

 

Artikel kommentieren

Ähnliche Beiträge