Suchen
 
 

Ergebnisse in:
 


Rechercher Fortgeschrittene Suche

Die neuesten Themen
» Die Heimatschutzarchitektur
Gestern um 12:05 am von checker

» Erwin Anton Gutkind
Sa Okt 21, 2017 11:59 pm von checker

» Die Gottbegnadeten-Liste
Sa Okt 21, 2017 11:52 pm von checker

» Das Neue Bauen
Sa Okt 21, 2017 11:38 pm von checker

» Friedrich Ernst Dorn
Mo Okt 16, 2017 9:17 am von Andy

» **** Platin ****
Mo Okt 16, 2017 9:11 am von Andy

» Der Aufruf der Kulturschaffenden
Mo Okt 16, 2017 9:02 am von Andy

» Harry Rosenthal
Mo Okt 16, 2017 8:54 am von Andy

»  BASF-Rückruf - Krebserregender Stoff in Matratzen gelandet?
Fr Okt 13, 2017 9:51 pm von checker

Navigation
 Portal
 Index
 Mitglieder
 Profil
 FAQ
 Suchen
Partner
free forum
Oktober 2017
MoDiMiDoFrSaSo
      1
2345678
9101112131415
16171819202122
23242526272829
3031     

Kalender Kalender


** Big Data **

Vorheriges Thema anzeigen Nächstes Thema anzeigen Nach unten

** Big Data **

Beitrag  Andy am Mi Okt 19, 2016 8:23 pm

Der aus dem englischen Sprachraum stammende Begriff Big Data [ˈbɪɡ ˈdeɪtə] (von englisch big ‚groß‘ und data ‚Daten‘) bezeichnet Datenmengen, welche

zu groß,
zu komplex,
zu schnelllebig oder
zu schwach strukturiert

sind, um sie mit manuellen und herkömmlichen Methoden der Datenverarbeitung auszuwerten.[1] Im deutschsprachigen Raum ist der traditionellere Begriff Massendaten. „Big Data“ wird häufig als Sammelbegriff für digitale Technologien verwendet, die in technischer Hinsicht für eine neue Ära digitaler Kommunikation und Verarbeitung und in sozialer Hinsicht für einen gesellschaftlichen Umbruch verantwortlich gemacht werden.[2] Er steht dabei grundsätzlich für große digitale Datenmengen, aber auch für deren Analyse, Nutzung, Sammlung, Verwertung und Vermarktung.[3]


Farbliche Darstellung der Aktivität eines Wikipedia-Bots über einen längeren Zeitraum: typisches Beispiel der Veranschaulichung von „Big Data“ mit einer Visualisierung

In der Definition von Big Data bezieht sich das „Big“ auf die drei Dimensionen volume (Umfang, Datenvolumen), velocity (Geschwindigkeit, mit der die Datenmengen generiert und transferiert werden) sowie variety (Bandbreite der Datentypen und -quellen).[4] Erweitert wird diese Definition um die zwei V's value und validity, welche für einen unternehmerischen Mehrwert und die Sicherstellung der Datenqualität stehen.[5] Der Begriff „Big Data“ unterliegt als Schlagwort einem kontinuierlichen Wandel; so wird mit ihm ergänzend auch oft der Komplex der Technologien beschrieben, die zum Sammeln und Auswerten dieser Datenmengen verwendet werden.[6][7] Die gesammelten Daten können dabei aus verschiedensten Quellen stammen (Auswahl):

Aufzeichnungen verschiedenster Überwachungssysteme.[8]
die Nutzung von Kunden- oder Bank- bzw. Bezahlkarten (Giro („EC“)-, Kreditkarte)
jegliche elektronische Kommunikation,
geschäftliche bzw. private Nutzung durch beispielsweise Unterstützung mittels elektronischer Geräte oder Systeme wie „Fitness“- bzw. „Gesundheitsarmbänder“ („Activity Tracker“), „Ambient Assisted Living“ („umgebungsunterstütztes Leben“), globaler Navigationssysteme wie „GPS“, Smartphones, Computer usw.,
Kraftfahrzeuge,
vernetzte Technik in Häusern („Smart Homes“, „Smart Meter“),
von Behörden und Unternehmen erhobene und gesammelte Daten.

„Big Data“ umfasst auch Bereiche, die als „intim“ bzw. „privat“ gelten: Der Wunsch der Industrie und bestimmter Behörden, möglichst freien Zugriff auf diese Daten zu erhalten, sie besser analysieren zu können und die gewonnenen Erkenntnisse zu nutzen, gerät dabei unweigerlich in Konflikt mit geschützten Persönlichkeitsrechten der Einzelnen. Ein Ausweg ist allein durch eine

Anonymisierung der Daten vor dem Ausbeuten, wenn nicht schon durch
Anonymisierung vor dem Auswerten

zu erreichen. Klassische Anwender sind Provider sozialer Netzwerke und von Suchmaschinen. Die Analyse, Erfassung und Verarbeitung von großen Datenmengen ist heute in vielen Bereichen alltäglich.

Big Data kann Geschäftsprozess-Verbesserungen in allen Funktionsbereichen von Unternehmen, vor allem aber im Bereich der Technologieentwicklung und Informationstechnik sowie des Marketings erzeugen.[9] Die Erhebung und Verwertung der Datenmengen dient dabei im Allgemeinen der Umsetzung von Unternehmenszielen oder zur staatlichen Sicherheit. Bisher haben vor allem große Branchen, Unternehmen und Anwendungsbereiche der Wirtschaft, Marktforschung, Vertriebs- und Servicesteuerung, Medizin, Verwaltung und Nachrichtendienste die entsprechenden digitalen Methoden für sich genutzt: Die erfassten Daten sollen weiterentwickelt und nutzenbringend eingesetzt werden. Die Erhebung der Daten dient dabei meistens für konzernorientierte Geschäftsmodelle sowie Trendforschung in den sozialen Medien und Werbeanalysen, um zukunftsweisende und möglicherweise gewinnbringende Entwicklungen zu erkennen und in Prognosen umzumünzen.[10]

Hintergrund

Mengen von Massendaten wachsen typischerweise exponentiell. Berechnungen aus dem Jahr 2011 zufolge verdoppelt sich das weltweite erzeugte Datenvolumen alle 2 Jahre.[11] Diese Entwicklung wird vor allem getrieben durch die zunehmende maschinelle Erzeugung von Daten z. B. über Protokolle von Telekommunikationsverbindungen (Call Detail Record, CDR) und Webzugriffen (Logdateien), automatische Erfassungen von RFID-Lesern, Kameras, Mikrofonen und sonstigen Sensoren. Big Data fallen auch in der Finanzindustrie an (Finanztransaktionen, Börsendaten) sowie im Energiesektor (Verbrauchsdaten) und im Gesundheitswesen (Verschreibungen). In der Wissenschaft fallen ebenfalls große Datenmengen an, z. B. in der Geologie, Genetik, Klimaforschung und Kernphysik. Der IT-Branchenverband Bitkom hat Big Data als einen Trend im Jahr 2012 bezeichnet[12]. Bei großen Datenkomplexen verbietet sich der unwirtschaftliche Aufwand für ein Speichern auf Vorrat. Dann werden lediglich Metadaten gespeichert oder das Auswerten setzt mitlaufend oder mindestens gering zeitversetzt mit dem Entstehen der Daten auf.
Weitere Bedeutungen

Big Data bezeichnet primär die Verarbeitung von großen, komplexen und sich schnell ändernden Datenmengen. Als Buzzword wird der Begriff in den Massenmedien aber auch verwendet für

die zunehmende Überwachung der Menschen durch Geheimdienste auch in westlichen Staaten bspw. durch Vorratsdatenspeicherung
die Verletzung von Persönlichkeitsrechten von Kunden durch Unternehmen
die zunehmende Intransparenz der Datenspeicherung durch Delokalisierung (Cloud Computing)
der Wunsch der Industrie aus den vorhandenen Daten einen Wettbewerbsvorteil erlangen zu können
die Automatisierung von Produktionsprozessen (Industrie 4.0, Internet der Dinge)
die intransparente Automatisierung von Entscheidungsprozessen in Software[13][14]
der Einsatz neuer Technologien statt Standardsoftware (insbesondere in Unternehmen mit einer konservativen IT oft durch Verwendung von Software as a Service um firmeninterne IT-Einschränkungen zu umgehen)
die Entwicklung von eigenen Softwarelösungen („inhouse IT“) statt dem Einsatz von „off-the-shelf“ Software durch Fremdunternehmen
Werbung, basierend auf Daten über die Internet- und Handynutzung
die Organisation von Zusammenarbeit im Rahmen von People Analytics Projekten

selbst wenn in diesem Zuge teilweise weder große noch komplexe Datenmengen anfallen.[15]
Beispiele

In der Forschung können durch Verknüpfung großer Datenmengen und statistische Auswertungen neue Erkenntnisse gewonnen werden, insbesondere in Disziplinen, in denen bisher viele Daten noch von Hand ausgewertet wurden. Unternehmen erhoffen sich von der Analyse von Big Data Möglichkeiten zur Erlangung von Wettbewerbsvorteilen, zur Generierung von Einsparungspotentialen und zur Schaffung von neuen Geschäftsfeldern. Staatliche Stellen erhoffen sich bessere Ergebnisse in der Kriminalistik und Terrorismusbekämpfung[16]. Beispiele, in denen man Vorteile erwartet, sind:

Zeitnahe Auswertung von Webstatistiken und Anpassung von Onlinewerbemaßnahmen (wird aber bereits seit Jahren gemacht)
Bessere, schnellere Marktforschung
Risikobewertung und Anpassung von Versicherungsbeiträgen in Abhängigkeit vom Verhaltensmuster (Beitragsgestaltung PKW je nach Fahrweise,[17] für die Krankenversicherung je nach gesundheitsbezogenem Verhalten)
Bonitätsprüfung (Big-Data-Scoring)
Entdeckung von Unregelmäßigkeiten bei Finanztransaktionen (Fraud-Detection)
Einführung und Optimierung einer intelligenten Energieverbrauchssteuerung (Smart Metering)
Erkennen von Zusammenhängen in der medizinischen Diagnostik
Echtzeit-Cross- und Upselling im E-Commerce und stationären Vertrieb
Aufbau flexibler Billingsysteme in der Telekommunikation
Geheimdienstliches Erstellen von Bewegungsprofilen mit Programmen wie Boundless Informant
Datenzugriff und -analyse auf raumzeitliche Rasterdaten in Wissenschaft und Industrie, beispielsweise nach dem Open-Geospatial-Consortium-Standard Web Coverage Service
Vorhersage von Epidemien
Verbesserungen der Arbeitsbedingungen für Mitarbeiter, etwa die Reduzierung von Burnout Raten, durch datenbasierte Change Projekte[18]
Auffinden von Fachkräften durch datengestützte Webanalysen
Verarbeitung von Daten aus Wettersatelliten und anderen naturwissenschaftlich eingesetzten Sensoren
IT Operations Analytics: Das Anwenden der "Big Data"-Prozesse auf IT-Systeme, um effizientes und innovatives IT-Management zu bertreiben.[19]

Die reine Analyse von Kundendaten ist jedoch noch nicht automatisch Big Data – oft handelt es sich bei vielen Anwendungen aus dem Marketing viel mehr um „Small-Data“-Analytics.[15]

Verarbeitung von Big Data

Klassische relationale Datenbanksysteme sowie Statistik- und Visualisierungsprogramme sind oft nicht in der Lage, derart große Datenmengen zu verarbeiten. Für Big Data kommen daher neue Arten von Datenspeicher- und Analyse-Systemen zum Einsatz, die parallel auf bis zu Hunderten oder Tausenden von Prozessoren bzw. Servern arbeiten. Dabei gibt es u. a. folgende Herausforderungen:

Verarbeitung vieler Datensätze
Verarbeitung vieler Spalten innerhalb eines Datensatzes
Schneller Import großer Datenmengen
Sofortige Abfrage importierter Daten (Realtime Processing)
Kurze Antwortzeiten (Latenz und Verarbeitungsdauer) auch bei komplexen Abfragen
Möglichkeit zur Verarbeitung vieler gleichzeitiger Abfragen (Concurrent Queries)
Analyse verschiedenartiger Informationstypen (Zahlen, Texte, Bilder, …)

Die Entwicklung von Software für die Verarbeitung von Big Data befindet sich noch in einer frühen Phase. Bekannt ist der MapReduce-Ansatz, der bei Open-Source-Software (Apache Hadoop und MongoDB) sowie bei einigen kommerziellen Produkten (Aster Data, Greenplum, u. a.) zum Einsatz kommt.
Kritik
Schwammiger Begriff und Hype

Der Begriff „Big Data“ wird für jegliche Art der Datenverarbeitung verwendet, selbst wenn die Daten weder groß noch komplex sind oder sich schnell ändern; und mit herkömmlichen Techniken problemlos verarbeitet werden können.[15] Die zunehmende Aufweichung des Begriffs führt dazu, dass er immer mehr ein aussageloser Marketingbegriff wird und vielen Prognosen zufolge innerhalb der nächsten Jahre eine starke Abwertung erfahren wird („Tal der Enttäuschungen“ im Hypezyklus).
Fehlende Normen

Kritik gibt es an „Big Data“ vor allem dahingehend, dass die Datenerhebung und -auswertung praktisch ausschließlich nach technischen Aspekten erfolgt, also dass beispielsweise der technisch einfachste Weg gewählt wird, die Daten zu erheben und die Auswertung von den Möglichkeiten, diese Daten zu verarbeiten, begrenzt wird. Statistische Grundprinzipien wie das einer repräsentativen Stichprobe werden oft vernachlässigt. So kritisierte die Sozialforscherin Danah Boyd:[20]

Größere Datenmengen müssten nicht qualitativ bessere Daten sein
Nicht alle Daten seien gleichermaßen wertvoll
„Was“ und „Warum“ seien zwei unterschiedliche Fragen
Bei Interpretationen sei Vorsicht geboten
Nur weil es verfügbar ist, sei es nicht ethisch vertretbar.

Ein Forscher ermittelte beispielsweise, dass Menschen nicht mehr als 150 Freundschaften pflegen (Dunbar-Zahl), was sodann als technische Begrenzung in sozialen Netzwerken eingeführt wurde – in der falschen Annahme, als „Freunde“ bezeichnete Bekanntschaften würden echte Freundschaften widerspiegeln.[20][21] Sicherlich würde nicht jeder alle seine Facebook-Freunde in einem Interview als Freunde benennen – der Begriff eines „Freundes“ signalisiert bei Facebook lediglich eine Kommunikationsbereitschaft.

Eine entscheidende Frage ist auch, wem die von Privatpersonen gesammelten Daten gehören, wer die Verfügungshoheit über sie behält und wer ihre Nutzung kontrolliert.
Fehlende Substanz der Auswertungen

Ein anderer kritischer Ansatz setzt sich mit der Frage auseinander, ob Big Data das Ende aller Theorie bedeutet. Chris Anderson, Chefredakteur beim Magazin Wired beschrieb 2008 das Glaubwürdigkeitsproblem jeder wissenschaftlichen Hypothese und jedes Modells bei gleichzeitiger Echtzeitanalyse lebender und nicht lebender Systeme. Korrelationen werden wichtiger als kausale Erklärungsansätze, die sich oft erst später bewahrheiten oder falsifizieren lassen.[22]
Fehlende Regulierung

Der schleswig-holsteinische Datenschutzbeauftragte Thilo Weichert warnt: „Big Data eröffnet Möglichkeiten des informationellen Machtmissbrauchs durch Manipulation, Diskriminierung und informationelle ökonomische Ausbeutung – verbunden mit der Verletzung der Grundrechte der Menschen.“[23][24]
Entsolidarisierung

Mit Bezug auf die Versicherungsbeitragsanpassung mittels Big Data wird unter anderem die „Gefahr einer schleichenden Entsolidarisierung in der Versicherung“ hervorgehoben.[25]
Rezeption

Kongress Alte Feuerwache Köln, September/Oktober 2016: Leben ist kein Algorithmus - Solidarische Perspektiven gegen den technologischen Zugriff[26]

Kunst

Florian Mehnert, Basel/Hüningen/Weil am Rhein, September/Oktober 2016: Großinstallation Freiheit 2.0[27]

Siehe auch

Data-Mining, Data Science, Data-Warehouse, unstrukturierte Daten
Filterblase
INDECT
Internet der Dinge
Nudging, Profiling


Quelle
avatar
Andy
Admin

Anzahl der Beiträge : 22328
Anmeldedatum : 03.04.11

Benutzerprofil anzeigen

Nach oben Nach unten

Vorheriges Thema anzeigen Nächstes Thema anzeigen Nach oben


 
Befugnisse in diesem Forum
Sie können in diesem Forum nicht antworten