1. Semester – Introduktion til Generativ AI og LLM Prompt Workshops
1. Definition
Hvad er et Prompt? Ordet “prompt” stammer fra latin promptus (parat/rede) og bruges i it-sammenhæng om at give stikord eller instrukser. Prompt Engineering er processen med at designe og forfine disse instruktioner for at få de bedst mulige resultater fra generative AI-modeller (LLM’er).
Selvom nogle eksperter, som Ethan Mollick, påpeger, at teknisk “prompt engineering” bliver mindre vigtigt i fremtiden, fordi modellerne bliver bedre til at gætte vores intentioner, er det stadig en essentiel kompetence at kunne guide modellerne præcist.
2. Beskrivelse og Formål
Hvorfor arbejder vi med det? Formålet er at forstå mekanikken bag chatbots, så vi ikke blot bruger dem blindt. En sprogmodel tænker ikke; den beregner sandsynligheden for det næste ord baseret på enorme mængder tekst (korpus).
Vi fokuserer på de indbyggede begrænsninger og risici:
- Bias: Modellerne afspejler de data, de er trænet på, hvilket kan føre til skævvredne eller politisk farvede svar.
- Ingen sandhed: Sprogmodeller har ingen moral eller evne til at vurdere sandhed. De er trænet til at lyde overbevisende, hvilket betyder, at brugeren alene har ansvaret for at faktatjekke.
3. Hvordan gør vi på studiet?
Vi arbejder praktisk med at “prompte” generative AI-værktøjer ved at afprøve forskningsbaserede metoder på konkrete opgaver, såsom eksamenssynopser eller blogindlæg. Vi benytter særligt tre tilgange:
- Few Shot Learning: Vi giver modellen eksempler på korrekte løsninger eller det ønskede layout, før vi stiller opgaven.
- Adding Context: Vi tildeler modellen en rolle (fx “du er ekspert i undervisning”) og definerer målgruppen for at skærpe svaret.
- Chain of Thought: Vi beder modellen løse opgaven trin-for-trin (fx først skitsere, så skrive, så revidere) i stedet for at levere hele svaret på én gang.
4. Teoretiske begreber
Workshoppen dykker ned i de tekniske og sociotekniske begreber bag AI:
- Black Box: Vi ser kun input og output, men den interne kompleksitet (parametre, system prompts) er ofte skjult for brugeren.
- Hallucinering: Når modellen opfinder fakta for at opfylde sandsynlighedskriterier.
- Tokens: Måden modellen nedbryder tekst til talværdier på.
- Bias & Guardrails: Hvordan firmaerne bag modellerne forsøger at styre (eller overkorrigere) modellens svar gennem “System Prompts”.
5. Litteraturliste
- Latour, B. (1999). Pandora’s hope: Essays on the reality of science studies. Harvard University Press.
- A primer on the inner workings of transformer-based language models. (2024). arXiv. https://arxiv.org/abs/2405.00208
- Language models are few-shot learners. (2020). arXiv. https://doi.org/10.48550/arXiv.2005.14165
- Chain-of-thought prompting elicits reasoning in large language models. (2022). arXiv. https://arxiv.org/abs/2201.11903
- Mollick, E. (n.d.). Captain’s log: The irreducible weirdness … One Useful Thing. https://www.oneusefulthing.org/p/captains-log-the-irreducible-weirdness
- Mollick, E. (n.d.). On working with wizards. One Useful Thing. https://www.oneusefulthing.org/p/on-working-with-wizards
- Prompt engineering is dead. (n.d.). IEEE Spectrum. https://spectrum.ieee.org/prompt-engineering-is-dead
- IDA. (n.d.). Du kommer til at bruge AI – men glem hypen om prompt engineering. https://ida.dk/raad-og-karriere/ai-kunstig-intelligens/forsker-du-kommer-til-at-bruge-ai-men-glem-hypen-om-prompt-engineering
- The unreasonable effectiveness of eccentric automatic prompts. (2024). arXiv. https://arxiv.org/pdf/2402.10949
- Large language models understand and can be enhanced by emotional stimuli. (2023). arXiv. https://arxiv.org/abs/2307.11760
- Stevens, I. W. (n.d.). Motivating multimodal models: Balancing threats and rewards for enhanced performance. Medium. https://medium.com/@ingridwickstevens/motivating-multimodal-models-balancing-threats-and-rewards-for-enhanced-performance-2126e419dac4
- Anthropic’s Claude vulnerable to emotional … (2024, October 12). The Register. https://www.theregister.com/2024/10/12/anthropics_claude_vulnerable_to_emotional/
- How Google tells you what you want to hear. (2024, October 31). BBC Future. https://www.bbc.com/future/article/20241031-how-google-tells-you-what-you-want-to-hear
- xAI. (n.d.). grok4_system_turn_prompt_v8.j2 [Source code]. GitHub. https://github.com/xai-org/grok-prompts/blob/main/grok4_system_turn_prompt_v8.j2
- Ordbog over det danske sprog. (n.d.). prompt [Ordbogsopslag]. https://ordnet.dk/ddo/ordbog?query=prompt
- CFU. (2025, March 5). SkoleGPT skærmer nu bedre elever for problematiske emner. https://cfu.dk/2025/03/05/skolegpt-skaermer-nu-bedre-elever-for-problematiske-emner
- Promptfoo. (n.d.). Gemma-3-27B: Model report. https://www.promptfoo.dev/models/reports/gemma-3-27b
- SkoleGPT. (n.d.). SkoleGPT [Website]. https://skolegpt.dk
6. Værktøjer + Links til vejledninger
Vi diskuterer forskellen på betalte og gratis modeller, samt sikker brug:
Sikkerhed: Vi tester grænserne for modellernes sikkerhedsfiltre (Jailbreaking) for at forstå, hvordan “Guardrails” fungerer.
SkoleGPT: En “sandkasse”-model udviklet til undervisningsbrug, der er GDPR-sikker og ikke gemmer data. Kan i teorien bruges til at eksperimentere trygt sammen med børn.
Betalte vs. Gratis modeller: Gratis modeller har ofte mindre hukommelse og er en generation bagud, hvilket påvirker kvaliteten af svarene.
