LLM – Prompt Workshop
Sprogmodeller fylder mere og mere i undervisning og hverdag. Pointen er ikke at lære “magiske” prompts udenad, men at forstå hvad der virker, hvorfor det virker – og hvordan vi bruger GenAI sikkert i praksis.
Hvad er en sprogmodel – kort fortalt
En sprogmodel laver tekst via sandsynligheder. Den oversætter din prompt til tokens (tal), vurderer hvilke token-mønstre der statistisk passer sammen og oversætter tilbage til tekst. Der er ingen moral, intention eller “sandhedssans” indeni – kun matematik og træningsdata. Derfor kan modellen lyde overbevisende og alligevel tage fejl. Du har ansvaret for at vurdere svaret.
“Sprogmodeller lyver ikke og tænker ikke – de producerer sandsynlige svar.”
Men husk Bias findes altid. Både datasættet og firmaernes eftertræning (reinforcement/instrukser) påvirker outputtet – på tværs af sprog og domæner.
Den uigennemsigtige “black box”
Når teknologien virker, fokuserer vi på input og output og glemmer kompleksiteten i midten – den bliver “sort boks”. (jf. Latour). I praksis ser du kun prompt → svar, men under motorhjelmen påvirker parametre som temperatur, top-k, tokens og forstærkning svaret. Det gør gennemsigtighed, dokumentation og faglig dømmekraft endnu vigtigere.
Prompt engineering: hype eller håndværk?
Der er uenighed i feltet: Nogle mener, at “prompt engineering” er en døgnflue, fordi modellerne bliver bedre til at forstå almindeligt sprog. Andre – bl.a. Ethan Mollick – peger på, at god prompting stadig kan fordoble værdien, mens naiv prompting giver dårlige resultater og får brugeren til at opgive for tidligt. Sandheden er pragmatisk: Lær et lille sæt robuste teknikker, og øv dem i din egen kontekst.
Tre teknikker der dokumenteret virker
- Few-shot eksempler
Vis modellen korte, gode eksempler på det output, du ønsker (format, niveau, kriterier). Brug også curriculum-/studieordningsuddrag som “ground truth”. - Rolle og kontekst
Beskriv modtager, formål og din ønskede rolle (fx “du er en gymnasielærer i matematik” eller “skriv til 9. klasse – specialspor”). Det styrer tone og valg af forklaringer. - Trin-for-trin (Chain-of-Thought)
Bed modellen tænke højt i faser: skitse → udkast → revision → endeligt produkt. Det reducerer spring og fejl.
“Bare ved at bruge AI lærer du at bruge AI.” – (Mollick-parafrase)
Gratis vs. betalte modeller (og hvorfor “AUTO” kan drille)
- Gratis modeller er ofte én generation bagud og har kortere kontekstvindue (glemmer hurtigere).
- Nogle platforme vælger automatisk en simplere model for at spare ressourcer (“AUTO-mode”) – hurtigere, men ofte ringere kvalitet.
- Det er ikke altid tydeligt, hvilken model du faktisk bruger. Notér værktøj, modelnavn og version, når du dokumenterer arbejde.
“Sikker” AI i skolen: SkoleGPT som sandkasse ude i praksis
SkoleGPT er tænkt som en GDPR-tryg, gratis sandkasse til undervisning, hvor data ikke gemmes. Brug den til at lave opgaver og tage kritiske dialoger med eleverne. Men: Sikker betyder her datasikker – ikke at elever kan bruge modellen uden pædagogisk rammesætning. Lærerens etiske og didaktiske stilladsering er stadig afgørende.
Tjekliste: sådan får du bedre svar i morgen
- Skriv målgruppe, formål og rolle eksplicit i din prompt. LLM Prompt Workshop AU 2025
- Tilføj 2–3 korte eksempler (few-shot). LLM Prompt Workshop AU 2025
- Bed om trin-for-trin og en kort selvevaluering (“hvor er du usikker?”). LLM Prompt Workshop AU 2025
- Gem modelnavn/version i din note. Sammenlign svar på tværs af værktøjer. LLM Prompt Workshop AU 2025
- Brug GDPR-trygge løsninger med elever – og rammesæt etisk. LLM Prompt Workshop AU 2025
