1. Semester – Introduktion til Generativ AI og LLM Prompt Workshops

1. Definition

Hvad er et Prompt? Ordet “prompt” stammer fra latin promptus (parat/rede) og bruges i it-sammenhæng om at give stikord eller instrukser. Prompt Engineering er processen med at designe og forfine disse instruktioner for at få de bedst mulige resultater fra generative AI-modeller (LLM’er).

Selvom nogle eksperter, som Ethan Mollick, påpeger, at teknisk “prompt engineering” bliver mindre vigtigt i fremtiden, fordi modellerne bliver bedre til at gætte vores intentioner, er det stadig en essentiel kompetence at kunne guide modellerne præcist.

2. Beskrivelse og Formål

Hvorfor arbejder vi med det? Formålet er at forstå mekanikken bag chatbots, så vi ikke blot bruger dem blindt. En sprogmodel tænker ikke; den beregner sandsynligheden for det næste ord baseret på enorme mængder tekst (korpus).

Vi fokuserer på de indbyggede begrænsninger og risici:

  • Bias: Modellerne afspejler de data, de er trænet på, hvilket kan føre til skævvredne eller politisk farvede svar.
  • Ingen sandhed: Sprogmodeller har ingen moral eller evne til at vurdere sandhed. De er trænet til at lyde overbevisende, hvilket betyder, at brugeren alene har ansvaret for at faktatjekke.

3. Hvordan gør vi på studiet?

Vi arbejder praktisk med at “prompte” generative AI-værktøjer ved at afprøve forskningsbaserede metoder på konkrete opgaver, såsom eksamenssynopser eller blogindlæg. Vi benytter særligt tre tilgange:

  • Few Shot Learning: Vi giver modellen eksempler på korrekte løsninger eller det ønskede layout, før vi stiller opgaven.
  • Adding Context: Vi tildeler modellen en rolle (fx “du er ekspert i undervisning”) og definerer målgruppen for at skærpe svaret.
  • Chain of Thought: Vi beder modellen løse opgaven trin-for-trin (fx først skitsere, så skrive, så revidere) i stedet for at levere hele svaret på én gang.

4. Teoretiske begreber

Workshoppen dykker ned i de tekniske og sociotekniske begreber bag AI:

  • Black Box: Vi ser kun input og output, men den interne kompleksitet (parametre, system prompts) er ofte skjult for brugeren.
  • Hallucinering: Når modellen opfinder fakta for at opfylde sandsynlighedskriterier.
  • Tokens: Måden modellen nedbryder tekst til talværdier på.
  • Bias & Guardrails: Hvordan firmaerne bag modellerne forsøger at styre (eller overkorrigere) modellens svar gennem “System Prompts”.

5. Litteraturliste

6. Værktøjer + Links til vejledninger

Vi diskuterer forskellen på betalte og gratis modeller, samt sikker brug:

Sikkerhed: Vi tester grænserne for modellernes sikkerhedsfiltre (Jailbreaking) for at forstå, hvordan “Guardrails” fungerer.

SkoleGPT: En “sandkasse”-model udviklet til undervisningsbrug, der er GDPR-sikker og ikke gemmer data. Kan i teorien bruges til at eksperimentere trygt sammen med børn.

Betalte vs. Gratis modeller: Gratis modeller har ofte mindre hukommelse og er en generation bagud, hvilket påvirker kvaliteten af svarene.

Vejledninger: