Modell-Auswahl Guide

Welches Modell für welche Aufgabe? Praktische Designregeln und Modul-Mapping für den GenAI-Kurs.


Inhaltsverzeichnis

  1. Modelle im Kurs
  2. Designregeln
    1. Regel 1 — Grundlagen und Demos: gpt-4o-mini
    2. Regel 2 — RAG-Synthese und komplexe Inhalts-Generierung: gpt-5.1
    3. Regel 3 — Multimodale Aufgaben: gpt-4o
    4. Regel 4 — Einfache Extraktion und Klassifikation: immer gpt-4o-mini
    5. Regel 5 — Baseline immer zuerst
  3. Entscheidungsbaum
  4. Modul-Mapping
    1. Standard: gpt-4o-mini (Fokus Konzept, nicht Modellqualität)
    2. Upgrade auf gpt-5.1: Qualität der Ausgabe entscheidend
    3. Upgrade auf gpt-4o: Multimodaler Input erforderlich
    4. Sonderfall: Lokale Modelle (M14)
  5. Code-Muster
    1. Standard-Chain (gpt-4o-mini)
    2. RAG-Synthese (gpt-5.1)
    3. Multimodal — Bildanalyse (gpt-4o)
  6. Kosten-Orientierung
  7. Abgrenzung zu verwandten Dokumenten

Modelle im Kurs

Modell Stärke Typischer Einsatz im Kurs
gpt-4o-mini Schnell, günstig, zuverlässig Grundlagen, Demos, einfache Chains, Standard-RAG
gpt-5.1 Coding, Inhalts-Generierung, konfigurierbare Reasoning-Tiefe RAG-Synthese, komplexe Outputs, strukturierte Generierung
gpt-4o Multimodal (Text + Bild + Audio) Bildanalyse, multimodales RAG, Audio-Verarbeitung

[!TIP] Faustregel Modellwahl
Nicht das stärkste Modell wählen — das passende für die Aufgabe. Mit gpt-4o-mini starten, nur bei echtem Bedarf upgraden.


Designregeln

Regel 1 — Grundlagen und Demos: gpt-4o-mini

Alle Module, in denen das Konzept im Vordergrund steht (nicht die Ausgabequalität), verwenden gpt-4o-mini. Begründung: Didaktik, Kosteneffizienz, schnelle Iteration im Kurs.

from langchain.chat_models import init_chat_model

llm = init_chat_model("openai:gpt-4o-mini", temperature=0.0)

Regel 2 — RAG-Synthese und komplexe Inhalts-Generierung: gpt-5.1

Wenn die Ausgabequalität entscheidend ist — z. B. bei der Synthese von Dokumenten-Chunks oder der Generierung strukturierter Berichte — kommt gpt-5.1 zum Einsatz.

# Korrekt: ohne temperature (API-Kompatibilität)
rag_llm = init_chat_model("openai:gpt-5.1")

[!DANGER] temperature-Parameter führt zu API-Fehler
temperature führt bei gpt-5.1 zu einem API-Fehler, außer wenn reasoning_effort="none" gesetzt ist. Empfehlung: temperature weglassen und reasoning_effort zur Qualitätssteuerung nutzen.

Regel 3 — Multimodale Aufgaben: gpt-4o

Aufgaben mit Bildanalyse, Audio oder kombiniertem Text-Bild-Input erfordern ein multimodales Modell.

multimodal_llm = init_chat_model("openai:gpt-4o")

Regel 4 — Einfache Extraktion und Klassifikation: immer gpt-4o-mini

Strukturierte Datenextraktion aus klar definierten Texten, einfache Klassifikation, Formatierung: Premium-Modelle bringen hier keinen Mehrwert, kosten aber deutlich mehr.

Regel 5 — Baseline immer zuerst

Jedes neue Notebook startet mit gpt-4o-mini als Baseline. Upgrade auf gpt-5.1 oder gpt-4o nur, wenn die Baseline-Qualität nachweislich unzureichend ist.


Entscheidungsbaum

flowchart TD
    START(["Welche Aufgabe
hat der LLM-Aufruf?"])

    START --> D{"Demo / Grundlagen /
Konzept im Fokus?"}
    START --> R{"RAG-Synthese /
komplexe Textgenerierung?"}
    START --> M{"Multimodal:
Bild, Audio, Video?"}
    START --> U{"Unklar /
neues Notebook?"}

    D -->|Ja| MINI["⚪ gpt-4o-mini
temperature=0.0"]
    R -->|Ja| GP["🟢 gpt-5.1
ohne temperature"]
    M -->|Ja| GO["🔵 gpt-4o
Multimodal"]
    U -->|Ja| BASE["⚪ gpt-4o-mini
als Baseline starten"]

    style MINI fill:#546E7A,color:#fff
    style GP   fill:#2E7D32,color:#fff
    style GO   fill:#1565C0,color:#fff
    style BASE fill:#546E7A,color:#fff
    style START fill:#E65100,color:#fff

Modul-Mapping

Standard: gpt-4o-mini (Fokus Konzept, nicht Modellqualität)

Module Thema Begründung
M00–M05 Kurs-Intro, GenAI-Grundlagen, Modellsteuerung, Transformer Konzept > Qualität
M06 OutputParser, strukturierte Ausgaben Struktur lernen, nicht Qualität optimieren
M07 Chat-Memory-Patterns Architektur-Verständnis im Vordergrund
M10 Agenten mit LangChain Erste Agenten-Schritte — Konzept zählt
M11 Middleware Sicherheits- und Steuerungskonzepte
M12 MCP LangChain Agent Tool-Integration verstehen
M13 Gradio Web-UI Interface-Design > Modellqualität
M20 OpenAI Agent Builder No-Code-Plattform — Plattform gibt Modell vor

Upgrade auf gpt-5.1: Qualität der Ausgabe entscheidend

Module Thema Begründung
M08 RAG mit LangChain Synthese von Dokumenten-Chunks: Qualität zählt
M09 SQL-RAG Komplexe natürlichsprachliche SQL-Generierung
M17 Multimodales RAG Bild- + Textantworten: Synthese-Qualität wichtig

Upgrade auf gpt-4o: Multimodaler Input erforderlich

Module Thema Begründung
M16 Multimodal Bild Bildanalyse und -beschreibung
M17 Multimodales RAG Bild- und Text-Retrieval kombiniert
M18 Multimodal Audio Audio-Transkription + LLM-Analyse
M19 Multimodal Video Frame-Analyse mit multimodalem Modell

Sonderfall: Lokale Modelle (M14)

Modul Thema Modell
M14 Lokale Open-Source-Modelle Ollama (z. B. llama3, mistral)
# M14: Lokales Modell via Ollama
from langchain.chat_models import init_chat_model
local_llm = init_chat_model("ollama:llama3")

Code-Muster

Standard-Chain (gpt-4o-mini)

from langchain.chat_models import init_chat_model
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser

llm = init_chat_model("openai:gpt-4o-mini", temperature=0.0)

chain = ChatPromptTemplate.from_template("{frage}") | llm | StrOutputParser()
antwort = chain.invoke({"frage": "Was ist RAG?"})

RAG-Synthese (gpt-5.1)

# Retriever: Dokument-Chunks holen
# Generator: Chunks zu qualitativ hochwertiger Antwort synthetisieren
rag_llm = init_chat_model("openai:gpt-5.1")

rag_chain = retriever | rag_llm | StrOutputParser()

Multimodal — Bildanalyse (gpt-4o)

from langchain.chat_models import init_chat_model
from langchain_core.messages import HumanMessage

multimodal_llm = init_chat_model("openai:gpt-4o")

message = HumanMessage(content=[
    {"type": "text",  "text": "Was zeigt dieses Bild?"},
    {"type": "image_url", "image_url": {"url": bild_url}},
])
antwort = multimodal_llm.invoke([message])

Kosten-Orientierung

Kursteilnehmer arbeiten mit einem begrenzten API-Budget. gpt-4o-mini ist die kosteneffiziente Standardwahl für alle Lernschritte.

Setup Relatives Kostenniveau Empfehlung
Alles gpt-4o-mini ⭐ (Baseline) Standard für alle Konzept-Module
gpt-5.1 für RAG-Synthese ⭐⭐⭐ Nur für RAG-Module (M08, M09, M17)
gpt-4o für Multimodal ⭐⭐ Nur für Multimodal-Module (M16–M19)

Empfohlenes Vorgehen:

  1. Konzept mit gpt-4o-mini verstehen und ausprobieren
  2. Upgrade nur bei nachgewiesenem Qualitätsbedarf
  3. Optionale Vergleichszellen mit # Optional: Upgrade-Modell markieren

Abgrenzung zu verwandten Dokumenten

Dokument Inhalt
Modellauswahl (Konzept) Theoretische Grundlagen: Modell-Landschaft, Benchmarks, Evaluierungskriterien
LangChain Einsteiger LangChain-Grundlagen: Chains, Tools, Agents
ChromaDB Einsteiger Vektordatenbanken für RAG-Systeme

Version: 1.0
Stand: März 2026
Kurs: Generative KI. Verstehen. Anwenden. Gestalten.