LLM – Prompt Workshop

Sprogmodeller fylder mere og mere i undervisning og hverdag. Pointen er ikke at lære “magiske” prompts udenad, men at forstå hvad der virker, hvorfor det virker – og hvordan vi bruger GenAI sikkert i praksis.


Hvad er en sprogmodel – kort fortalt

En sprogmodel laver tekst via sandsynligheder. Den oversætter din prompt til tokens (tal), vurderer hvilke token-mønstre der statistisk passer sammen og oversætter tilbage til tekst. Der er ingen moral, intention eller “sandhedssans” indeni – kun matematik og træningsdata. Derfor kan modellen lyde overbevisende og alligevel tage fejl. Du har ansvaret for at vurdere svaret.

“Sprogmodeller lyver ikke og tænker ikke – de producerer sandsynlige svar.”

Men husk Bias findes altid. Både datasættet og firmaernes eftertræning (reinforcement/instrukser) påvirker outputtet – på tværs af sprog og domæner.


Den uigennemsigtige “black box”

Når teknologien virker, fokuserer vi på input og output og glemmer kompleksiteten i midten – den bliver “sort boks”. (jf. Latour). I praksis ser du kun prompt → svar, men under motorhjelmen påvirker parametre som temperatur, top-k, tokens og forstærkning svaret. Det gør gennemsigtighed, dokumentation og faglig dømmekraft endnu vigtigere.


Prompt engineering: hype eller håndværk?

Der er uenighed i feltet: Nogle mener, at “prompt engineering” er en døgnflue, fordi modellerne bliver bedre til at forstå almindeligt sprog. Andre – bl.a. Ethan Mollick – peger på, at god prompting stadig kan fordoble værdien, mens naiv prompting giver dårlige resultater og får brugeren til at opgive for tidligt. Sandheden er pragmatisk: Lær et lille sæt robuste teknikker, og øv dem i din egen kontekst.


Tre teknikker der dokumenteret virker

  1. Few-shot eksempler
    Vis modellen korte, gode eksempler på det output, du ønsker (format, niveau, kriterier). Brug også curriculum-/studieordningsuddrag som “ground truth”.
  2. Rolle og kontekst
    Beskriv modtager, formål og din ønskede rolle (fx “du er en gymnasielærer i matematik” eller “skriv til 9. klasse – specialspor”). Det styrer tone og valg af forklaringer.
  3. Trin-for-trin (Chain-of-Thought)
    Bed modellen tænke højt i faser: skitse → udkast → revision → endeligt produkt. Det reducerer spring og fejl.

“Bare ved at bruge AI lærer du at bruge AI.” – (Mollick-parafrase)


Gratis vs. betalte modeller (og hvorfor “AUTO” kan drille)

  • Gratis modeller er ofte én generation bagud og har kortere kontekstvindue (glemmer hurtigere).
  • Nogle platforme vælger automatisk en simplere model for at spare ressourcer (“AUTO-mode”) – hurtigere, men ofte ringere kvalitet.
  • Det er ikke altid tydeligt, hvilken model du faktisk bruger. Notér værktøj, modelnavn og version, når du dokumenterer arbejde.

“Sikker” AI i skolen: SkoleGPT som sandkasse ude i praksis

SkoleGPT er tænkt som en GDPR-tryg, gratis sandkasse til undervisning, hvor data ikke gemmes. Brug den til at lave opgaver og tage kritiske dialoger med eleverne. Men: Sikker betyder her datasikker – ikke at elever kan bruge modellen uden pædagogisk rammesætning. Lærerens etiske og didaktiske stilladsering er stadig afgørende.


Tjekliste: sådan får du bedre svar i morgen

  • Skriv målgruppe, formål og rolle eksplicit i din prompt. LLM Prompt Workshop AU 2025
  • Tilføj 2–3 korte eksempler (few-shot). LLM Prompt Workshop AU 2025
  • Bed om trin-for-trin og en kort selvevaluering (“hvor er du usikker?”). LLM Prompt Workshop AU 2025
  • Gem modelnavn/version i din note. Sammenlign svar på tværs af værktøjer. LLM Prompt Workshop AU 2025
  • Brug GDPR-trygge løsninger med elever – og rammesæt etisk. LLM Prompt Workshop AU 2025