Datenmanagement 

4.1 Datenbeschaffung 

Datenbeschaffung ist ein wesentlicher Schritt in der Data Science, der den Prozess des Sammelns oder Generierens von Daten für die anschließende Analyse und Verarbeitung beschreibt. In der Praxis umfasst die Datenbeschaffung mehrere Schlüsselaspekte:

  1. Identifizierung der Datenquellen: Auswahl geeigneter Datenquellen, die relevante Informationen für das spezifische Data-Science-Projekt enthalten. Diese können interne Datenbanken, öffentliche Datensätze oder Daten von Drittanbietern sein.
  2. Datensammlung: Der Prozess des Erwerbens von Daten aus den identifizierten Quellen. Dies kann das Herunterladen vorhandener Datensätze, das Sammeln von Daten über APIs oder das Extrahieren von Informationen aus verschiedenen Systemen oder Plattformen umfassen.
  3. Datenintegration: Zusammenführung von Daten aus verschiedenen Quellen, um einen kohärenten und umfassenden Datensatz zu erstellen, der für die Analyse verwendet werden kann.
  4. Berücksichtigung rechtlicher Aspekte: Einhaltung von Datenschutzbestimmungen und anderen rechtlichen Rahmenbedingungen bei der Datenbeschaffung, insbesondere beim Umgang mit personenbezogenen Daten [1].

Die Qualität und Relevanz der beschafften Daten haben einen direkten Einfluss auf die Güte der Datenanalyse und der daraus resultierenden Erkenntnisse. Daher ist eine sorgfältige und überlegte Datenbeschaffung für den Erfolg von Data-Science-Projekten unerlässlich.

4.2 Datenbereinigung 

Datenbereinigung ist ein wesentlicher Prozess in der Datenvorbereitung und -analyse, bei dem Daten auf Fehler, Inkonsistenzen und Unvollständigkeiten geprüft und korrigiert werden. Dieser Prozess ist entscheidend, um die Qualität und Zuverlässigkeit der Datenanalyse zu gewährleisten. Die wesentlichen Schritte der Datenbereinigung umfassen:

  1. Identifizierung fehlerhafter oder unvollständiger Daten: Aufspüren von fehlenden Werten, falschen Datentypen oder unplausiblen Daten.
  2. Bereinigung von Datenfeldern: Korrektur oder Entfernung von fehlerhaften Datenfeldern und Anpassung der Datenformate.
  3. Entfernen von Duplikaten: Identifikation und Entfernung von doppelten Datensätzen, um Redundanzen zu vermeiden.
  4. Validierung der Daten: Überprüfung der Daten auf Übereinstimmung mit vordefinierten Regeln oder Mustern.
  5. Datenkonsolidierung: Zusammenführung von Daten aus verschiedenen Quellen und Angleichung von Datensätzen zur Konsistenz.
  6. Datenanreicherung: Ergänzung fehlender Informationen durch externe oder zusätzliche Datenquellen.

Die Datenbereinigung ist ein fortlaufender Prozess, der regelmäßig durchgeführt werden sollte, um die Datenqualität aufrechtzuerhalten und aussagekräftige Analyseergebnisse zu erzielen.

4.3 Datenexploration 

Datenexploration, auch als explorative Datenanalyse bekannt, ist ein entscheidender Schritt in der Data Science, der sich mit dem ersten „Eintauchen“ in die Daten befasst, um Muster, Anomalien, Trends und Zusammenhänge zu identifizieren. Die wichtigsten Aspekte der Datenexploration umfassen:

  1. Visualisierung von Daten:
    • Einsatz von Grafiken und Diagrammen, um die Verteilung und Beziehungen der Daten zu verstehen.
    • Verwendung von Tools wie Histogrammen, Scatterplots und Boxplots.
  2. Deskriptive Statistiken:
    • Berechnung grundlegender statistischer Kennzahlen wie Mittelwert, Median, Modus, Varianz und Standardabweichung.
    • Bewertung der zentralen Tendenz und Streuung der Daten.
  3. Erkennung von Mustern:
    • Suche nach auffälligen Mustern oder Trends in den Daten.
    • Analyse von Zeitreihendaten, um saisonale oder zyklische Muster zu erkennen.
  4. Identifizierung von Anomalien:
    • Auffinden von Ausreißern oder ungewöhnlichen Datenpunkten, die weitere Untersuchungen erfordern.
  5. Korrelationsanalyse:
    • Überprüfung der Beziehungen zwischen verschiedenen Variablen, um Zusammenhänge zu verstehen.
    • Anwendung von Korrelationskoeffizienten zur Quantifizierung der Stärke und Richtung der Beziehung.
  6. Datenqualitätsprüfung:
    • Überprüfung auf Vollständigkeit, Genauigkeit und Konsistenz der Daten.
    • Identifizierung und Behandlung fehlender Werte.
  7. Hypothesenbildung:
    • Entwickeln von Hypothesen auf der Grundlage der initialen Datenanalyse zur weiteren Untersuchung.

Datenexploration ist ein iterativer Prozess, der tiefere Einblicke in die Daten ermöglicht und die Grundlage für weiterführende Analysen und Modellierungen legt.

4.4 Datenvisualisierung 

Datenvisualisierung ist ein entscheidender Prozess in der Data Science, bei dem Daten grafisch dargestellt werden, um Informationen verständlich und zugänglich zu machen. Die Kernaspekte der Datenvisualisierung umfassen:

  1. Darstellung von Daten: Nutzung von visuellen Elementen wie Diagrammen, Grafiken und Karten, um Datenmuster, Trends und Abhängigkeiten zu veranschaulichen [1], [3], [4].
  2. Erkenntnisgewinnung: Datenvisualisierung ermöglicht es Entscheidungsträgern, komplexe Datenmengen schnell zu erfassen und neue Insights zu gewinnen [2], [5].
  3. Einfachere Interpretation: Durch die Umwandlung roher Daten in visuelle Formate können komplexe Informationen leichter verstanden und analysiert werden [5].
  4. Vielfältige Techniken: Einsatz verschiedener Visualisierungstechniken wie Balkendiagramme, Liniendiagramme, Kuchendiagramme, Heatmaps und mehr, um unterschiedliche Datentypen und Beziehungen darzustellen.
  5. Nutzung in verschiedenen Bereichen: Datenvisualisierung ist in vielen Job-Rollen und Branchen relevant, von Data Analytics bis hin zu Marketing und Geschäftsentwicklung [6].

Datenvisualisierung ist ein wesentlicher Bestandteil der Datenanalyse, da sie nicht nur die Dateninterpretation erleichtert, sondern auch dabei hilft, komplexe Konzepte und Ergebnisse einem breiteren Publikum zu kommunizieren.