Modell-Auswahl Guide
Welches Modell für welche Aufgabe? Praktische Designregeln und Modul-Mapping für den GenAI-Kurs.
Inhaltsverzeichnis
- Modelle im Kurs
- Designregeln
- Entscheidungsbaum
- Modul-Mapping
- Code-Muster
- Kosten-Orientierung
- Abgrenzung zu verwandten Dokumenten
Modelle im Kurs
| Modell | Stärke | Typischer Einsatz im Kurs |
|---|---|---|
gpt-4o-mini | Schnell, günstig, zuverlässig | Grundlagen, Demos, einfache Chains, Standard-RAG |
gpt-5.1 | Coding, Inhalts-Generierung, konfigurierbare Reasoning-Tiefe | RAG-Synthese, komplexe Outputs, strukturierte Generierung |
gpt-4o | Multimodal (Text + Bild + Audio) | Bildanalyse, multimodales RAG, Audio-Verarbeitung |
[!TIP] Faustregel Modellwahl
Nicht das stärkste Modell wählen — das passende für die Aufgabe. Mitgpt-4o-ministarten, nur bei echtem Bedarf upgraden.
Designregeln
Regel 1 — Grundlagen und Demos: gpt-4o-mini
Alle Module, in denen das Konzept im Vordergrund steht (nicht die Ausgabequalität), verwenden gpt-4o-mini. Begründung: Didaktik, Kosteneffizienz, schnelle Iteration im Kurs.
from langchain.chat_models import init_chat_model
llm = init_chat_model("openai:gpt-4o-mini", temperature=0.0)
Regel 2 — RAG-Synthese und komplexe Inhalts-Generierung: gpt-5.1
Wenn die Ausgabequalität entscheidend ist — z. B. bei der Synthese von Dokumenten-Chunks oder der Generierung strukturierter Berichte — kommt gpt-5.1 zum Einsatz.
# Korrekt: ohne temperature (API-Kompatibilität)
rag_llm = init_chat_model("openai:gpt-5.1")
[!DANGER] temperature-Parameter führt zu API-Fehler
temperatureführt beigpt-5.1zu einem API-Fehler, außer wennreasoning_effort="none"gesetzt ist. Empfehlung:temperatureweglassen undreasoning_effortzur Qualitätssteuerung nutzen.
Regel 3 — Multimodale Aufgaben: gpt-4o
Aufgaben mit Bildanalyse, Audio oder kombiniertem Text-Bild-Input erfordern ein multimodales Modell.
multimodal_llm = init_chat_model("openai:gpt-4o")
Regel 4 — Einfache Extraktion und Klassifikation: immer gpt-4o-mini
Strukturierte Datenextraktion aus klar definierten Texten, einfache Klassifikation, Formatierung: Premium-Modelle bringen hier keinen Mehrwert, kosten aber deutlich mehr.
Regel 5 — Baseline immer zuerst
Jedes neue Notebook startet mit gpt-4o-mini als Baseline. Upgrade auf gpt-5.1 oder gpt-4o nur, wenn die Baseline-Qualität nachweislich unzureichend ist.
Entscheidungsbaum
flowchart TD
START(["Welche Aufgabe
hat der LLM-Aufruf?"])
START --> D{"Demo / Grundlagen /
Konzept im Fokus?"}
START --> R{"RAG-Synthese /
komplexe Textgenerierung?"}
START --> M{"Multimodal:
Bild, Audio, Video?"}
START --> U{"Unklar /
neues Notebook?"}
D -->|Ja| MINI["⚪ gpt-4o-mini
temperature=0.0"]
R -->|Ja| GP["🟢 gpt-5.1
ohne temperature"]
M -->|Ja| GO["🔵 gpt-4o
Multimodal"]
U -->|Ja| BASE["⚪ gpt-4o-mini
als Baseline starten"]
style MINI fill:#546E7A,color:#fff
style GP fill:#2E7D32,color:#fff
style GO fill:#1565C0,color:#fff
style BASE fill:#546E7A,color:#fff
style START fill:#E65100,color:#fff
Modul-Mapping
Standard: gpt-4o-mini (Fokus Konzept, nicht Modellqualität)
| Module | Thema | Begründung |
|---|---|---|
| M00–M05 | Kurs-Intro, GenAI-Grundlagen, Modellsteuerung, Transformer | Konzept > Qualität |
| M06 | OutputParser, strukturierte Ausgaben | Struktur lernen, nicht Qualität optimieren |
| M07 | Chat-Memory-Patterns | Architektur-Verständnis im Vordergrund |
| M10 | Agenten mit LangChain | Erste Agenten-Schritte — Konzept zählt |
| M11 | Middleware | Sicherheits- und Steuerungskonzepte |
| M12 | MCP LangChain Agent | Tool-Integration verstehen |
| M13 | Gradio Web-UI | Interface-Design > Modellqualität |
| M20 | OpenAI Agent Builder | No-Code-Plattform — Plattform gibt Modell vor |
Upgrade auf gpt-5.1: Qualität der Ausgabe entscheidend
| Module | Thema | Begründung |
|---|---|---|
| M08 | RAG mit LangChain | Synthese von Dokumenten-Chunks: Qualität zählt |
| M09 | SQL-RAG | Komplexe natürlichsprachliche SQL-Generierung |
| M17 | Multimodales RAG | Bild- + Textantworten: Synthese-Qualität wichtig |
Upgrade auf gpt-4o: Multimodaler Input erforderlich
| Module | Thema | Begründung |
|---|---|---|
| M16 | Multimodal Bild | Bildanalyse und -beschreibung |
| M17 | Multimodales RAG | Bild- und Text-Retrieval kombiniert |
| M18 | Multimodal Audio | Audio-Transkription + LLM-Analyse |
| M19 | Multimodal Video | Frame-Analyse mit multimodalem Modell |
Sonderfall: Lokale Modelle (M14)
| Modul | Thema | Modell |
|---|---|---|
| M14 | Lokale Open-Source-Modelle | Ollama (z. B. llama3, mistral) |
# M14: Lokales Modell via Ollama
from langchain.chat_models import init_chat_model
local_llm = init_chat_model("ollama:llama3")
Code-Muster
Standard-Chain (gpt-4o-mini)
from langchain.chat_models import init_chat_model
from langchain_core.prompts import ChatPromptTemplate
from langchain_core.output_parsers import StrOutputParser
llm = init_chat_model("openai:gpt-4o-mini", temperature=0.0)
chain = ChatPromptTemplate.from_template("{frage}") | llm | StrOutputParser()
antwort = chain.invoke({"frage": "Was ist RAG?"})
RAG-Synthese (gpt-5.1)
# Retriever: Dokument-Chunks holen
# Generator: Chunks zu qualitativ hochwertiger Antwort synthetisieren
rag_llm = init_chat_model("openai:gpt-5.1")
rag_chain = retriever | rag_llm | StrOutputParser()
Multimodal — Bildanalyse (gpt-4o)
from langchain.chat_models import init_chat_model
from langchain_core.messages import HumanMessage
multimodal_llm = init_chat_model("openai:gpt-4o")
message = HumanMessage(content=[
{"type": "text", "text": "Was zeigt dieses Bild?"},
{"type": "image_url", "image_url": {"url": bild_url}},
])
antwort = multimodal_llm.invoke([message])
Kosten-Orientierung
Kursteilnehmer arbeiten mit einem begrenzten API-Budget.
gpt-4o-miniist die kosteneffiziente Standardwahl für alle Lernschritte.
| Setup | Relatives Kostenniveau | Empfehlung |
|---|---|---|
Alles gpt-4o-mini | ⭐ (Baseline) | Standard für alle Konzept-Module |
gpt-5.1 für RAG-Synthese | ⭐⭐⭐ | Nur für RAG-Module (M08, M09, M17) |
gpt-4o für Multimodal | ⭐⭐ | Nur für Multimodal-Module (M16–M19) |
Empfohlenes Vorgehen:
- Konzept mit
gpt-4o-miniverstehen und ausprobieren - Upgrade nur bei nachgewiesenem Qualitätsbedarf
- Optionale Vergleichszellen mit
# Optional: Upgrade-Modellmarkieren
Abgrenzung zu verwandten Dokumenten
| Dokument | Inhalt |
|---|---|
| Modellauswahl (Konzept) | Theoretische Grundlagen: Modell-Landschaft, Benchmarks, Evaluierungskriterien |
| LangChain Einsteiger | LangChain-Grundlagen: Chains, Tools, Agents |
| ChromaDB Einsteiger | Vektordatenbanken für RAG-Systeme |
Version: 1.0
Stand: März 2026
Kurs: Generative KI. Verstehen. Anwenden. Gestalten.