Fine-Tuning mit LoRA/QLoRA ist eine effiziente Methode, ein Large Language Model an einen konkreten Use Case anzupassen, ohne ein vollständiges Modelltraining. In diesem Beitrag zeigen wir am Beispiel einer binären Ja/Nein-Entscheidung, wie wir Qwen3-8B mit Unsloth fine-tunen, Trainingsdaten ins Chat-Format überführen und das Training über Supervised Fine-Tuning samt Hyperparametern stabil steuern. Abschließend bewerten wir die Ergebnisse mit F1-Score und Wahrheitsmatrix und leiten ab, welches Fehlerprofil (FN vs. FP) in welchem Kontext sinnvoll ist.