Deployment

Deployment beginnt im ML-Kontext nicht erst bei Docker oder Cloud-Hosting. Relevant wird es in dem Moment, in dem ein Modell wiederholbar laufen, mit echten Eingaben umgehen und außerhalb des Trainingsnotebooks nutzbar bleiben soll. Genau an dieser Schwelle zeigt sich, ob ein Projekt nur eine Auswertung ist oder bereits eine Anwendung.

Einstieg

Die beiden Deployment-Dokumente decken im Kurs zwei typische Übergänge ab: den Weg von einem Notebook zu einer strukturierten Anwendung und den Sonderfall einer einfachen Web-Oberfläche mit Gradio.

  • Gradio DeploymentWie wird aus einem Modell eine kleine Web-App? Gradio, Hugging Face Spaces und einfache Bereitstellungspfade.
  • Produktionsreife AnwendungWas passiert zwischen Notebook und produktiver Anwendung? Strukturierung, Konfiguration, Tests und Go-Live-Vorbereitung.

Modellbereitstellung

Nicht jedes ML-Projekt braucht einen vollwertigen Service. Häufig reicht zunächst ein gespeichertes Modell, das in einem Skript, einer internen Anwendung oder einer Demo wieder geladen werden kann. Der relevante Unterschied liegt darin, ob das Ergebnis reproduzierbar und wartbar bleibt.

Thema Beschreibung
joblib Serialisierung von scikit-learn Modellen (empfohlen)
pickle Python-Standard für Objektspeicherung
ONNX Framework-übergreifendes Modellformat
TensorFlow SavedModel TensorFlow/Keras Modellformat

Pipelines

Pipelines sind im Deployment nicht nur Komfort, sondern Absicherung gegen inkonsistente Vorverarbeitung. Sobald Preprocessing und Modell voneinander getrennt laufen, steigen Fehler und Reproduktionsprobleme schnell.

Konzept Beschreibung
scikit-learn Pipeline Verkettung von Preprocessing und Modell
ColumnTransformer Unterschiedliche Transformationen für verschiedene Spaltentypen
MLflow Experiment Tracking und Model Registry
DVC Versionierung von Daten und Modellen

Web Apps (Gradio)

Gradio eignet sich im Kurs vor allem für den Übergang von der Modelllogik zur vorzeigbaren Oberfläche. Das ist kein Ersatz für größere Produktarchitekturen, aber ein guter erster Deployment-Schritt.

Thema Beschreibung
Gradio Deployment Web-Interfaces, Hugging Face Spaces, Docker

Weitere Web-Frameworks:

  • Streamlit - Datenbasierte Web-Apps
  • Flask/FastAPI - REST APIs für ML-Modelle

Cloud & MLOps

Mit wachsender Komplexität treten weitere Fragen hinzu: Modellversionierung, Experiment Tracking, Monitoring und Managed Services. Nicht jedes Projekt braucht diesen Stack sofort, aber die Begriffe sollten eingeordnet sein.

Plattform Beschreibung
Hugging Face Spaces Kostenloses Hosting für ML-Demos
AWS SageMaker Vollständige ML-Plattform
Google Cloud AI Managed ML Services
Azure ML Microsoft Cloud ML-Lösung

Table of contents