Machine Learning Grundlagen

Dieses Kapitel vermittelt die fundamentalen Konzepte des maschinellen Lernens.
Der Abschnitt klärt, was unter Machine Learning zu verstehen ist, welche Lernparadigmen existieren und wie sich typische Aufgabentypen unterscheiden.


Inhaltsverzeichnis

  1. Was ist Lernen?
  2. Was ist Machine Learning?
    1. Kernkonzepte
    2. Anwendungsgebiete
  3. Wie funktioniert Machine Learning?
    1. Der Lernprozess im Detail
  4. Lernparadigmen
    1. Übersicht der Lernparadigmen
  5. Lernparadigmen und Aufgabentypen
  6. Supervised Learning (Überwachtes Lernen)
    1. Die zwei Hauptaufgaben
    2. Klassifizierung
    3. Regression
    4. Vergleich: Klassifizierung vs. Regression
  7. Unsupervised Learning (Unüberwachtes Lernen)
    1. Clustering (Segmentierung)
    2. Anomalieerkennung
    3. Assoziationsanalyse
  8. Zusammenfassung
    1. Die wichtigsten Punkte
    2. Entscheidungshilfe: Welcher Ansatz?
  9. Abgrenzung zu verwandten Dokumenten

Was ist Lernen?

Bevor wir uns dem maschinellen Lernen widmen, lohnt sich ein Blick auf das Konzept des Lernens selbst:

Lernen ist ein Prozess, bei dem:

  • Wissen, Fähigkeiten, Verhaltensweisen oder Einstellungen erworben, verändert oder verstärkt werden
  • Informationen aufgenommen, verarbeitet und behalten werden
  • Anpassung an neue Situationen ermöglicht wird

Lernen kann auf verschiedene Weisen erfolgen:

mindmap
  root((Lernen))
    Erfahrung
      Trial & Error
      Beobachtung
    Unterricht
      Strukturierte Anleitung
      Feedback
    Training
      Wiederholung
      Optimierung

Diese menschlichen Lernprinzipien bilden die Grundlage für das maschinelle Lernen – übertragen auf Computer und Algorithmen.


Was ist Machine Learning?

Machine Learning (maschinelles Lernen) bezeichnet einen Bereich der künstlichen Intelligenz, der es Computern ermöglicht:

  1. Automatisch aus Informationen und Erfahrung zu lernen
  2. Die Leistung bei bestimmten Aufgaben kontinuierlich zu verbessern
  3. Muster und Zusammenhänge zu erkennen und diese in Vorhersagen, Entscheidungen oder Aktionen umzusetzen
flowchart LR
    subgraph input["Eingabe"]
        D[("Daten")]
    end
    
    subgraph process["Verarbeitung"]
        A["Algorithmus"]
        M["Modell"]
        D --> A
        A --> |"Training"| M
    end
    
    subgraph output["Ausgabe"]
        P["Vorhersagen"]
        E["Entscheidungen"]
        K["Aktionen"]
    end
    
    M --> P
    M --> E
    M --> K
    
    style D fill:#e3f2fd
    style A fill:#fff9c4
    style M fill:#c8e6c9
    style P fill:#f3e5f5
    style E fill:#f3e5f5
    style K fill:#f3e5f5

Kernkonzepte

Begriff Beschreibung
Algorithmus Präzise, wohldefinierte Prozedur zur Lösung einer Aufgabe
Modell Das Ergebnis des Lernprozesses – repräsentiert erkannte Muster
Training Der Prozess, bei dem ein Algorithmus aus Daten lernt
Vorhersage Anwendung des trainierten Modells auf neue Daten

Anwendungsgebiete

Machine Learning ist heute in vielen Bereichen verbreitet:

  • Bilderkennung: Gesichtserkennung, medizinische Bildanalyse, autonomes Fahren
  • Spracherkennung: Sprachassistenten, automatische Transkription
  • Datenanalyse: Kundensegmentierung, Trendanalyse
  • Prognose: Wettervorhersage, Aktienkurse, Nachfrageplanung
  • Automatisierte Entscheidungsfindung: Kreditvergabe, Empfehlungssysteme

In Einführungsveranstaltungen wirkt das schnell so, als beginne ML immer mit einem passenden Algorithmus. In der Praxis ist das selten der erste Engpass. Häufiger ist unklar, ob überhaupt genügend brauchbare Daten vorliegen, ob das Problem als Klassifikation oder Regression formuliert werden sollte oder ob eine einfache Regel bereits ausreichen würde.


Wie funktioniert Machine Learning?

Der grundlegende ML-Prozess folgt einem klaren Muster:

flowchart TB
    subgraph phase1["<b>#1 Datensammlung</b>"]
        D1[("Rohdaten")]
        D2["Aufbereitete<br/>Daten"]
        D1 --> D2
    end
    
    subgraph phase2["<b>#2 Training"]
        D2 --> ALG["ML-Algorithmus"]
        ALG --> |"Lernt Muster"| MOD["Trainiertes<br/>Modell"]
    end
    
    subgraph phase3["<b>#3 Anwendung"]
        NEW[("Neue Daten")]
        NEW --> MOD
        MOD --> PRED["Vorhersage"]
    end
    
    style D1 fill:#e3f2fd
    style D2 fill:#bbdefb
    style ALG fill:#fff9c4
    style MOD fill:#c8e6c9
    style NEW fill:#e3f2fd
    style PRED fill:#f3e5f5

Der Lernprozess im Detail

  1. Daten sammeln: Relevante Beispieldaten für das Problem zusammentragen
  2. Daten aufbereiten: Bereinigen, transformieren und für das Training vorbereiten
  3. Algorithmus wählen: Passenden ML-Algorithmus für die Aufgabe auswählen
  4. Modell trainieren: Algorithmus lernt Muster aus den Trainingsdaten
  5. Modell evaluieren: Leistung auf ungesehenen Testdaten prüfen
  6. Modell anwenden: Vorhersagen für neue Daten erstellen

Gerade bei ersten Projekten wird dieser Ablauf oft zu linear gedacht. Tatsächlich führen schwache Evaluation, ungeeignete Features oder auffällige Fehlerbilder meist wieder zurück in frühere Schritte. Ein ML-Projekt ist deshalb fast immer iterativ, auch wenn der Ablauf auf Folien sauber nacheinander aussieht.


Lernparadigmen

Die Art der verfügbaren Daten bestimmt, welches Lernparadigma angewendet werden kann. Es gibt drei grundlegende Ansätze:

flowchart TD
    %% Startpunkt
    Q1{"Gibt es <br/>Daten?"}

    %% Zweig: Keine Daten vorhanden
    Q1 -- "Nein" --> Q_Env{"Können Daten<br/>gewonnen/simuliert werden?"}
    Q_Env -- "Ja" --> RL["🎮 <b>Reinforcement Learning</b><br/>(Lernen durch Interaktion)"]
    Q_Env -- "Nein" --> NO["❌ Keine ML-Lösung<br/>möglich"]

    %% Zweig: Daten vorhanden
    Q1 -- "Ja" --> Q2{"Gibt es zu den Daten<br/>bekannte Zielwerte<br/>(Labels)?"}
    
    Q2 -- "Ja" --> SL["🎯 <b>Supervised Learning</b><br/>(Vorhersage & Klassifikation)"]
    Q2 -- "Nein" --> UL["🔍 <b>Unsupervised Learning</b><br/>(Struktur- & Mustererkennung)"]

    %% Styling
    style SL fill:#c8e6c9,stroke:#2e7d32
    style UL fill:#bbdefb,stroke:#1565c0
    style RL fill:#fff9c4,stroke:#fbc02d
    style NO fill:#ffcdd2,stroke:#c62828

Übersicht der Lernparadigmen

Paradigma Daten Lernziel Typische Anwendung
Supervised Learning Daten mit bekannten Lösungen (Labels) Vorhersage für neue Daten Spam-Erkennung, Preisvorhersage
Unsupervised Learning Daten ohne Labels Strukturen und Muster entdecken Kundensegmentierung, Anomalieerkennung
Reinforcement Learning Interaktion mit Umgebung Optimale Strategie lernen Spielstrategien, Robotersteuerung

Lernparadigmen und Aufgabentypen

Jedes Lernparadigma umfasst verschiedene Aufgabentypen:

mindmap
  root((Machine 
  Learning))
    Supervised Learning
      Klassifizierung
      Regression
      Dimensionsreduktion
      Sequenzmodellierung
      Generative Modellierung
    Unsupervised Learning
      Clustering
      Anomalieerkennung
      Dimensionsreduktion
      Assoziationsanalyse
      Generative Modellierung
    Reinforcement Learning
      Agenten
      Belohnungssysteme
      Policy Optimization

Supervised Learning (Überwachtes Lernen)

Beim Supervised Learning werden Modelle mit gelabelten Daten trainiert – also Daten, bei denen die richtige Antwort bekannt ist. Das Modell lernt, die Beziehung zwischen Eingabe (Features) und Ausgabe (Label/Target) zu erkennen.

Die zwei Hauptaufgaben

flowchart LR
    subgraph SL["Supervised Learning"]
        direction TB
        IN["Features<br/>(Eingabe)"]
        
        subgraph tasks["Aufgabentypen"]
            CL["Klassifizierung<br/>📊"]
            RG["Regression<br/>📈"]
        end
        
        OUT_CL["Kategorie<br/>(diskret)"]
        OUT_RG["Zahlenwert<br/>(stetig)"]
        
        IN --> CL
        IN --> RG
        CL --> OUT_CL
        RG --> OUT_RG
    end
    
    style CL fill:#c8e6c9
    style RG fill:#bbdefb
    style OUT_CL fill:#e8f5e9
    style OUT_RG fill:#e3f2fd

Klassifizierung

Ein Klassifizierungsmodell sagt kategoriale Werte voraus – es ordnet Datenpunkte einer von mehreren vordefinierten Klassen zu.

Beispiele:

Anwendung Features (Eingabe) Klassen (Ausgabe)
Spam-Erkennung E-Mail-Text, Absender, Betreff Spam / Kein Spam
Medizinische Diagnose Symptome, Laborwerte Gesund / Krank
Fahrprüfung Übungsstunden, Theorie-Tests Bestanden / Nicht bestanden
Bilderkennung Pixel-Werte Katze / Hund / Vogel / …
flowchart LR
    subgraph beispiel["Beispiel: Spam-Klassifikation"]
        EMAIL["📧 E-Mail"]
        F1["Absender bekannt?"]
        F2["Verdächtige Links?"]
        F3["Typische Spam-Wörter?"]
        MODEL["🤖 Klassifikator"]
        
        EMAIL --> F1
        EMAIL --> F2
        EMAIL --> F3
        F1 --> MODEL
        F2 --> MODEL
        F3 --> MODEL
        
        MODEL --> SPAM["🚫 Spam"]
        MODEL --> OK["✅ Kein Spam"]
    end
    
    style SPAM fill:#ffcdd2
    style OK fill:#c8e6c9

Regression

Ein Regressionsmodell sagt stetige, numerische Werte voraus.

Beispiele:

Anwendung Features (Eingabe) Ausgabe (numerisch)
Immobilienbewertung Lage, Größe, Baujahr, Ausstattung Preis in €
Temperaturvorhersage Historische Daten, Luftdruck, Jahreszeit Temperatur in °C
Umsatzprognose Vergangene Verkäufe, Marketing, Saison Umsatz in €
Speiseeis-Konsum Außentemperatur, Wochentag Absatzmenge
flowchart LR
    subgraph beispiel["Beispiel: Immobilienpreis"]
        HOUSE["🏠 Immobilie"]
        F1["Wohnfläche: 120m²"]
        F2["Baujahr: 2010"]
        F3["Lage: Stadtzentrum"]
        F4["Zimmer: 4"]
        MODEL["🤖 Regressor"]
        
        HOUSE --> F1
        HOUSE --> F2
        HOUSE --> F3
        HOUSE --> F4
        F1 --> MODEL
        F2 --> MODEL
        F3 --> MODEL
        F4 --> MODEL
        
        MODEL --> PRICE["💰 385.000 €"]
    end
    
    style PRICE fill:#c8e6c9

Vergleich: Klassifizierung vs. Regression

Aspekt Klassifizierung Regression
Ausgabewert Kategorie (diskret) Zahl (stetig)
Beispiel-Frage “Ist es Spam?” “Wie viel kostet es?”
Anzahl möglicher Ausgaben Endlich viele Klassen Unendlich viele Werte
Typische Metriken Accuracy, Precision, Recall, F1 MSE, RMSE, R²
Beispiel-Algorithmen Logistische Regression, Decision Tree, Random Forest Lineare Regression, Random Forest, XGBoost

Unsupervised Learning (Unüberwachtes Lernen)

Beim Unsupervised Learning arbeiten wir mit ungelabelten Daten – die “richtigen Antworten” sind nicht bekannt. Das Ziel ist es, versteckte Strukturen und Muster in den Daten zu entdecken.

flowchart TB
    subgraph UL["<b>Unsupervised Learning</b>"]
        direction LR
        
        subgraph CL["<b>Clustering"]
            CL_DESC["Ähnliche Objekte<br/>gruppieren"]
            CL_EX["Kundensegmente,<br/>Dokumentgruppen"]
        end
        
        subgraph AN["<b>Anomalieerkennung"]
            AN_DESC["Untypische<br/>Datenpunkte finden"]
            AN_EX["Betrugserkennung,<br/>Defekte Produkte"]
        end
        
		subgraph AS["<b>Assoziationsanalyse"]
		    AS_DESC["Zusammenhänge<br/>zwischen Merkmalen finden"]
		    AS_EX["Warenkorbanalyse,<br/>Produktempfehlungen"]
		end
	end
	
	CL ~~~ AN ~~~ AS
    
    style CL fill:#bbdefb
    style AN fill:#fff9c4
    style AS fill:#f3e5f5

Clustering (Segmentierung)

Clustering ist ein Verfahren zur Entdeckung von Ähnlichkeitsstrukturen in Daten. Die gefundenen Gruppen von “ähnlichen” Objekten werden als Cluster bezeichnet.

flowchart LR
    subgraph before["Vor dem Clustering"]
        D1[("🔵🔴🔵🔴<br/>🔵🔴🔵🔴<br/>Ungeordnete<br/>Datenpunkte")]
    end
    
    subgraph process["Clustering"]
        ALG["Clustering-<br/>Algorithmus"]
    end
    
    subgraph after["Nach dem Clustering"]
        C1["🔵🔵🔵<br/>Cluster 1"]
        C2["🔴🔴🔴<br/>Cluster 2"]
    end
    
    D1 --> ALG
    ALG --> C1
    ALG --> C2
    
    style D1 fill:#e3f2fd
    style C1 fill:#bbdefb
    style C2 fill:#ffcdd2

Anwendungsbeispiele:

  • Kundensegmentierung: Gruppierung von Kunden nach Kaufverhalten
  • Dokumenten-Clustering: Thematische Sortierung von Texten
  • Bildkompression: Reduktion von Farbpaletten

Anomalieerkennung

Die Anomalieerkennung identifiziert Datensätze, die für die gesamte Datenbasis untypisch sind.

flowchart TB
    subgraph data["Datenpunkte"]
        NORMAL["⚪⚪⚪⚪⚪⚪⚪⚪⚪<br/>Normale Datenpunkte"]
        ANOMALY["🔴<br/>Anomalie"]
    end
    
    subgraph result["Erkennung"]
        AN_ALG["Anomalie-<br/>Algorithmus"]
        NORMAL --> |"unauffällig"| AN_ALG
        ANOMALY --> |"auffällig!"| AN_ALG
        AN_ALG --> ALERT["⚠️ Warnung"]
    end
    
    style NORMAL fill:#e8f5e9
    style ANOMALY fill:#ffcdd2
    style ALERT fill:#fff9c4

Anwendungsbeispiele:

  • Betrugserkennung: Ungewöhnliche Kreditkartentransaktionen
  • Qualitätskontrolle: Defekte Produkte in der Fertigung
  • Netzwerksicherheit: Verdächtige Aktivitäten erkennen
  • Medizin: Abnormale Messwerte identifizieren

Assoziationsanalyse

Die Assoziationsanalyse dient dem Auffinden von Zusammenhängen in transaktionsbasierten Daten. Die Ergebnisse werden als Assoziationsregeln dargestellt.

flowchart LR
    subgraph transactions["Transaktionen"]
        T1["🛒 Brot, Butter, Milch"]
        T2["🛒 Brot, Butter"]
        T3["🛒 Brot, Milch, Eier"]
        T4["🛒 Brot, Butter, Milch, Eier"]
    end
    
    subgraph analysis["Analyse"]
        ALG["Assoziations-<br/>Algorithmus"]
    end
    
    subgraph rules["Gefundene Regeln"]
        R1["Wer Brot kauft,<br/>kauft oft auch Butter"]
        R2["Brot + Butter<br/>→ oft auch Milch"]
    end
    
    T1 --> ALG
    T2 --> ALG
    T3 --> ALG
    T4 --> ALG
    ALG --> R1
    ALG --> R2
    
    style rules fill:#e8f5e9

Das klassische Beispiel: Warenkorbanalyse

“Wer Windeln kauft, kauft oft auch Bier” – Diese berühmte (wenn auch umstrittene) Entdeckung zeigt, wie Assoziationsanalyse unerwartete Zusammenhänge aufdecken kann.

Anwendungsbeispiele:

  • Empfehlungssysteme: “Kunden, die X kauften, kauften auch Y”
  • Cross-Selling: Produktempfehlungen im E-Commerce
  • Angebotsgestaltung: Produktbündel und Rabattaktionen

Zusammenfassung

flowchart TB
    ML["Machine Learning"]
    
    ML --> SL["Supervised Learning<br/>📊"]
    ML --> UL["Unsupervised Learning<br/>🔍"]
    ML --> RL["Reinforcement Learning<br/>🎮"]
    
    SL --> SL1["Klassifizierung<br/>Kategorien vorhersagen"]
    SL --> SL2["Regression<br/>Zahlen vorhersagen"]
    
    UL --> UL1["Clustering<br/>Gruppen finden"]
    UL --> UL2["Anomalieerkennung<br/>Ausreißer finden"]
    UL --> UL3["Assoziationsanalyse<br/>Zusammenhänge finden"]
    
    RL --> RL1["Strategieoptimierung<br/>Optimales Handeln lernen"]
    
    style ML fill:#e1f5fe
    style SL fill:#c8e6c9
    style UL fill:#bbdefb
    style RL fill:#fff9c4

Die wichtigsten Punkte

Konzept Kernaussage
Machine Learning Computer lernen aus Daten, Muster zu erkennen und Vorhersagen zu treffen
Supervised Learning Lernen mit gelabelten Daten – die richtigen Antworten sind bekannt
Unsupervised Learning Lernen ohne Labels – Strukturen und Muster selbst entdecken
Klassifizierung Kategoriale Vorhersagen (z.B. Spam/Kein Spam)
Regression Numerische Vorhersagen (z.B. Preis in €)
Clustering Ähnliche Datenpunkte gruppieren
Anomalieerkennung Ungewöhnliche Datenpunkte identifizieren

Entscheidungshilfe: Welcher Ansatz?

flowchart TB
    START["Welchen ML-Ansatz<br/>brauche ich?"]
    
    Q1{"Habe ich<br/>gelabelte Daten?"}
    START --> Q1
    
    Q1 --> |"Ja"| Q2{"Welche Art<br/>von Vorhersage?"}
    Q1 --> |"Nein"| Q3{"Was will ich<br/>herausfinden?"}
    
    Q2 --> |"Kategorien"| A1["Klassifizierung"]
    Q2 --> |"Zahlenwerte"| A2["Regression"]
    
    Q3 --> |"Gruppen"| A3["Clustering"]
    Q3 --> |"Ausreißer"| A4["Anomalieerkennung"]
    Q3 --> |"Zusammenhänge"| A5["Assoziationsanalyse"]
    
    style A1 fill:#c8e6c9
    style A2 fill:#c8e6c9
    style A3 fill:#bbdefb
    style A4 fill:#bbdefb
    style A5 fill:#bbdefb

Abgrenzung zu verwandten Dokumenten

Thema Abgrenzung
ML Workflow Grundlagen erklaeren was ML ist; der Workflow beschreibt wie Projekte strukturiert durchgefuehrt werden
Entscheidungsbaum Grundlagen behandeln Lernparadigmen uebergreifend; Entscheidungsbaum ist eine konkrete Implementierung von Supervised Learning
Clustering (K-Means & DBSCAN) Grundlagen definieren Unsupervised Learning als Paradigma; Clustering implementiert es praktisch ohne Labels

Version: 1.0
Stand: Januar 2026
Kurs: Machine Learning. Verstehen. Anwenden. Gestalten.