Modeling
Überblick über Machine Learning Modelle und ihre Anwendungsfälle.
Modellauswahl
Einstiegspunkt für die systematische Auswahl des passenden Algorithmus.
Modellauswahl – Welche Kriterien entscheiden über die Modellwahl? Systematische Strategien zur Auswahl des optimalen Algorithmus für verschiedene Problemstellungen.
Modell-Steckbriefe – Welches Modell eignet sich für welchen Anwendungsfall? Kompakte Übersicht aller wichtigen ML-Algorithmen mit Vor- und Nachteilen.
Supervised Learning
Modelle, die aus gelabelten Daten lernen, um Vorhersagen zu treffen.
Entscheidungsbaum – Wie trifft ein Entscheidungsbaum Vorhersagen? Hierarchische Regelstruktur für Klassifikation und Regression.
Random Forest – Wie verbessert Bagging die Vorhersagequalität? Ensemble aus multiplen Entscheidungsbäumen mit Feature-Randomisierung.
Regression – Wann ist lineare oder logistische Regression die richtige Wahl? Lineare und logistische Regression für stetige und binäre Vorhersagen.
XGBoost – Was macht Gradient Boosting schneller und präziser als andere Ensembles? Extreme Gradient Boosting für höchste Performance bei tabellarischen Daten.
Unsupervised Learning
Modelle, die Strukturen in ungelabelten Daten entdecken.
Clustering (K-Means & DBSCAN) – Wie werden Datenpunkte ohne Labels sinnvoll gruppiert? Partitions- und dichtebasiertes Clustering im Vergleich.
PCA und LDA – Wie werden hochdimensionale Daten reduziert ohne wesentliche Information zu verlieren? Dimensionsreduktion und Visualisierung mit PCA und LDA.
Apriori – Wie werden häufige Muster in Transaktionsdaten gefunden? Association Rules und Warenkorbanalyse mit dem Apriori-Algorithmus.
Deep Learning
Neuronale Netze für komplexe Muster in Bildern, Text und Sequenzen.
Neuronale Netze – Wie lernen neuronale Netze aus Daten? Grundlagen: Architektur, Aktivierungsfunktionen und Training.
Spezielle Neuronale Netze – Welche Netzarchitektur eignet sich für Bilder, Zeitreihen oder Anomalien? CNN (Computer Vision), RNN/LSTM (Zeitreihen) und AutoEncoder.
Ensemble-Methoden
Kombination mehrerer Modelle für bessere Vorhersagen.
Ensemble-Methoden – Wie werden mehrere Modelle zu einem besseren kombiniert? Übersicht über Bagging, Boosting und Stacking-Konzepte.
Random Forest – Wie verbessert Bagging die Vorhersagequalität? Bagging-Ensemble aus multiplen Entscheidungsbäumen.
XGBoost – Was macht Gradient Boosting schneller und präziser als andere Ensembles? Extreme Gradient Boosting für höchste Performance.
Stacking – Wie lernt ein Meta-Modell aus den Vorhersagen anderer Modelle? Kombination heterogener Modelle durch Meta-Learning.
Automatisierung
AutoML – Wie automatisiert PyCaret den ML-Workflow? Workflow-Automatisierung von Datenvorbereitung bis Modellauswahl.