LLM-Reflexion

LLM-Reflexionsvorlage

Leitfaden, Struktur und Bewertungskriterien für Ihre Reflexion über den Einsatz von Large Language Models im Entwicklungsprozess.

Warum eine LLM-Reflexion?

In dieser Lehrveranstaltung nutzen Sie Large Language Models (LLMs) aktiv als Coding-Assistenten. Die Reflexion ist kein bürokratischer Zusatz, sondern ein zentrales Lernwerkzeug: Sie zwingt Sie dazu, über Ihren eigenen Lernprozess nachzudenken, Ihre Prompt-Strategien zu analysieren und ein kritisches Bewusstsein für die Möglichkeiten und Grenzen von LLM-gestütztem Coding zu entwickeln.

Eine gute Reflexion zeigt, dass Sie nicht nur Code produziert haben, sondern verstehen, wie und warum dieser Code funktioniert — und wo die Grenzen der automatischen Generierung liegen.

1. Eingesetzte Werkzeuge

Beschreiben Sie, welche LLM-Tools Sie für dieses Assignment verwendet haben. Gehen Sie dabei auf folgende Punkte ein:

  • Welche Tools haben Sie eingesetzt? (z. B. ChatGPT, Claude, GitHub Copilot, Cursor, andere)
  • In welcher Form haben Sie das LLM genutzt? (Chat-Interface, IDE-Integration, CLI-Tool)
  • Warum haben Sie sich für diese(s) Tool(s) entschieden?
  • Haben Sie verschiedene Tools verglichen? Wenn ja, was waren die Unterschiede?

Schreibtipp

Seien Sie konkret. Statt "Ich habe ChatGPT benutzt" schreiben Sie z. B.: "Ich habe Claude (claude.ai) als Chat-Interface für konzeptionelle Fragen und GitHub Copilot in VS Code für Code-Vervollständigung genutzt. Für CSS-Layout-Probleme war das Chat-Interface hilfreicher, weil ich den Kontext besser beschreiben konnte."

2. Prompt-Dokumentation

Dokumentieren Sie konkrete Prompt-Interaktionen. Zeigen Sie den Prompt, das Ergebnis und — wo nötig — Ihre Iterationen. Je nach Assignment werden unterschiedlich viele Beispiele erwartet:

Assignment Anzahl Prompt-Beispiele Schwerpunkt
Assignment 1 Mindestens 1 gelungenes + 1 problematisches Erste Erfahrungen
Assignment 2 Mindestens 3 Prompt-Dialoge mit Iterationen Iterativer Prozess, Debugging
Assignment 3 Erste vs. letzte Interaktion + freie Auswahl Entwicklung über das Semester

Format für die Prompt-Dokumentation

Verwenden Sie das folgende Format, um Ihre Prompt-Interaktionen zu dokumentieren. Sie können die Darstellung anpassen, aber die wesentlichen Elemente sollten enthalten sein:

Prompt-Beispiel: [Kurze Beschreibung des Ziels]

Kontext: [Was haben Sie versucht zu erreichen? In welcher Situation waren Sie?]

Prompt:

[Ihr Prompt-Text hier]

LLM-Antwort (Zusammenfassung): [Was hat das LLM geantwortet? Ggf. gekürzt.]

Bewertung: [Hat es funktioniert? Was war gut/schlecht?]

Iteration (falls nötig): [Wie haben Sie den Prompt verbessert?]

Schreibtipp

Sie müssen nicht die gesamte LLM-Antwort kopieren. Fassen Sie zusammen und zitieren Sie nur relevante Codeausschnitte. Wichtiger als die vollständige Dokumentation ist Ihre Analyse: Was hat funktioniert und warum? Was nicht und warum nicht?

3. Analyse: Was hat funktioniert?

Beschreiben Sie Situationen, in denen die LLM-Unterstützung besonders hilfreich war. Nutzen Sie die folgenden Leitfragen:

  • Bei welchen Aufgaben war das LLM am hilfreichsten?
  • Welche Art von Prompts hat die besten Ergebnisse geliefert?
  • Gab es Situationen, in denen das LLM schneller oder besser war als Sie selbst?
  • Hat das LLM Ihnen Konzepte erklärt, die Sie vorher nicht verstanden haben?
  • Konnten Sie durch das LLM Techniken einsetzen, die Sie ohne Hilfe nicht angewendet hätten?

Schreibtipp

Vermeiden Sie pauschale Aussagen wie "Das LLM war sehr hilfreich". Schreiben Sie stattdessen: "Das LLM war besonders hilfreich beim Erstellen des CSS-Grid-Layouts. Mein Prompt 'Erstelle ein responsives Grid mit 3 Spalten, das auf Mobilgeräten zu einer Spalte wird' lieferte auf Anhieb funktionierenden Code. Ohne das LLM hätte ich die grid-template-columns-Syntax erst nachschlagen müssen."

4. Analyse: Was hat nicht funktioniert?

Ebenso wichtig sind die Fälle, in denen das LLM keine guten Ergebnisse geliefert hat. Analysieren Sie:

  • Welche Prompts haben nicht das gewünschte Ergebnis geliefert? Warum nicht?
  • Hat das LLM fehlerhaften Code generiert? Was war der Fehler?
  • Gab es "Halluzinationen" — hat das LLM APIs oder Funktionen erfunden, die nicht existieren?
  • Hat das LLM den Kontext Ihres Projekts nicht verstanden? Wie haben Sie das gelöst?
  • Gab es Fälle, in denen Sie schneller gewesen wären, wenn Sie selbst recherchiert hätten?

Schreibtipp

Probleme zu dokumentieren ist kein Zeichen von Schwäche, sondern von Reflexionsfähigkeit. Beschreiben Sie genau, was schiefgelaufen ist und wie Sie das Problem letztlich gelöst haben. Gute Reflexionen zeigen den Debugging-Prozess: "Der generierte Code verwendete document.querySelector auf ein Element, das zum Zeitpunkt der Ausführung noch nicht existierte. Ich musste den Code in einen DOMContentLoaded-Listener verschieben."

5. Lerneffekte

Reflektieren Sie, was Sie durch die Arbeit mit dem LLM gelernt haben. Unterscheiden Sie zwischen verschiedenen Arten des Lernens:

Technische Lerneffekte

  • Welche HTML/CSS/JavaScript-Konzepte haben Sie durch die LLM-Ausgaben besser verstanden?
  • Welche Techniken oder Patterns haben Sie entdeckt, die Sie vorher nicht kannten?
  • Können Sie den generierten Code inzwischen besser lesen und verstehen als zu Beginn?

Methodische Lerneffekte

  • Wie hat sich Ihre Prompt-Strategie verändert?
  • Haben Sie gelernt, Probleme anders zu zerlegen oder zu beschreiben?
  • Können Sie besser einschätzen, wann ein LLM hilft und wann nicht?

Kritische Lerneffekte

  • Haben Sie gelernt, LLM-Ausgaben kritischer zu hinterfragen?
  • Können Sie Fehler im generierten Code schneller erkennen?
  • Sind Sie sich der Grenzen von LLMs bewusster als zu Beginn?

Schreibtipp

Benennen Sie konkrete Lernmomente. Statt "Ich habe viel über CSS gelernt" schreiben Sie: "Durch die LLM-Ausgabe habe ich verstanden, dass position: sticky nur funktioniert, wenn das Elternelement eine definierte Höhe hat. Das LLM hatte Code generiert, der nicht funktionierte, und erst beim Debugging habe ich diese Zusammenhänge verstanden."

6. Bewertungskriterien für die Reflexion

Die folgende Tabelle zeigt, was eine Reflexion auf verschiedenen Qualitätsstufen auszeichnet. Orientieren Sie sich an den Kriterien für "Gut" und "Sehr gut".

Kriterium Ausreichend Gut Sehr gut
Konkretheit Allgemeine Aussagen ohne Beispiele Einzelne konkrete Beispiele mit Prompts Mehrere detaillierte Beispiele mit Iterationen und Code-Ausschnitten
Analyse-Tiefe Beschreibung des Ablaufs Analyse von Ursachen und Wirkungen Kritische Reflexion mit Vergleich, Einordnung und Transferwissen
Ehrlichkeit Nur positive Aspekte Probleme werden benannt Offene Analyse von Fehlern und Grenzen, eigene Verantwortung reflektiert
Lernfortschritt Nicht erkennbar Allgemeiner Fortschritt beschrieben Konkrete Vorher-Nachher-Vergleiche mit Belegen
Sprache Verständlich, aber unpräzise Klar und strukturiert Präzise, gut strukturiert, fachlich korrekt

Wichtiger Hinweis

Die Reflexion wird auf Eigenständigkeit geprüft. Eine Reflexion, die offensichtlich vollständig von einem LLM generiert wurde, kann nicht positiv bewertet werden. Nutzen Sie das LLM gerne als Schreibhilfe (Formulierung, Struktur), aber die Inhalte — Ihre Erfahrungen, Ihre Beispiele, Ihre Analyse — müssen authentisch sein.

7. Beispiel: Guter Reflexionsabsatz

Das folgende Beispiel zeigt, wie ein Abschnitt einer gelungenen Reflexion aussehen kann. Beachten Sie die Konkretheit, die Einbettung von Code-Beispielen und die kritische Analyse.

Prompt-Beispiel: Responsive Navigation

Beim Erstellen der responsiven Navigation bin ich auf ein Problem gestoßen, das mir die Grenzen meines ersten Prompt-Ansatzes gezeigt hat. Mein erster Prompt lautete: "Mache die Navigation responsive." Die Antwort enthielt eine vollständige Hamburger-Menu-Implementierung mit JavaScript, die allerdings einen classList.toggle verwendete, den ich zu diesem Zeitpunkt noch nicht kannte und daher nicht debuggen konnte, als das Menü nicht korrekt schloss.

In meinem zweiten Anlauf war ich spezifischer: "Ich habe eine horizontale Navigation mit 5 Links. Auf Bildschirmen unter 768px soll die Navigation vertikal untereinander angezeigt werden. Verwende nur CSS mit einem Media Query, kein JavaScript." Das Ergebnis war ein einfacheres, funktionierendes CSS-Only-Layout, das ich vollständig verstanden habe.

Dieser Fall hat mir zwei Dinge gezeigt: Erstens, dass spezifischere Prompts einfacheren und verständlicheren Code liefern. Zweitens, dass es sinnvoll ist, Anforderungen zu formulieren, die meinem aktuellen Kenntnisstand entsprechen, damit ich den generierten Code auch nachvollziehen und anpassen kann.

Was macht dieses Beispiel gut?

  • Konkret: Es nennt den genauen Prompt-Text und das Problem.
  • Iterativ: Es zeigt den Lernprozess vom ersten zum zweiten Prompt.
  • Analytisch: Es formuliert zwei konkrete Erkenntnisse.
  • Ehrlich: Es beschreibt ein Problem, nicht nur Erfolge.
  • Transferfähig: Die Erkenntnisse sind auf andere Situationen übertragbar.

Checkliste vor der Abgabe

Prüfen Sie vor der Abgabe, ob Ihre Reflexion die folgenden Punkte erfüllt:

  • Die Reflexion hat den geforderten Umfang (je nach Assignment: 500-800 / 800-1200 / 1500-2000 Wörter).
  • Die eingesetzten LLM-Werkzeuge sind benannt und beschrieben.
  • Mindestens ein konkretes Prompt-Beispiel ist dokumentiert (mit Prompt-Text).
  • Sowohl gelungene als auch problematische Erfahrungen sind beschrieben.
  • Konkrete Lerneffekte sind formuliert (nicht nur "Ich habe viel gelernt").
  • Die Reflexion ist eigenständig verfasst (nicht vollständig LLM-generiert).
  • Die Reflexion ist als Datei im GitHub-Repository enthalten.
  • Rechtschreibung und Formatierung sind geprüft.

Zusätzlich für Assignment 2

  • Mindestens 3 Prompt-Dialoge sind dokumentiert (inkl. Iterationen).
  • Der Debugging-Prozess mit LLM-Unterstützung ist beschrieben.
  • Die Prompt-Qualität wird verglichen: Anfang des Semesters vs. jetzt.

Zusätzlich für Assignment 3

  • Der gesamte Agentic-Coding-Workflow ist beschrieben.
  • Die 7 AI-Coding-Literacy-Dimensionen sind analysiert (CT, RE, CE, PE, CL, RV, EW).
  • Erste vs. letzte LLM-Interaktion des Semesters werden verglichen.
  • Eine ethische Reflexion über Grenzen von LLM-gestütztem Coding ist enthalten.
  • Die Entwicklung der Prompt-Kompetenz über das gesamte Semester wird reflektiert.

Umfang nach Assignment

Assignment 1 500 - 800 Wörter Erste Erfahrungen dokumentieren. Welche Tools? Welche Prompts? Was hat funktioniert, was nicht? Was haben Sie gelernt? Mindestens ein gelungenes und ein problematisches Prompt-Beispiel.
Assignment 2 800 - 1200 Wörter Vertiefte Analyse mit 3 Prompt-Dialogen. Debugging-Prozess beschreiben. Prompt-Qualität vergleichen: Anfang vs. jetzt. Wie hat sich Ihre Strategie verändert?
Assignment 3 1500 - 2000 Wörter Gesamtreflexion über das Semester. 7 AI-Coding-Literacy-Dimensionen. Erste vs. letzte Interaktion. Ethische Reflexion. Entwicklung der Prompt-Kompetenz mit Belegen.