zero-shot prompting

Sværhedsgrad

Store sprogmodeller som GPT-3.5 Turbo, GPT-4 og Claude 3 er i dag trænet til at følge instruktioner og er blevet trænet på store mængder data.

Denne store trænings mængde gør modellerne i stand til at udføre visse opgaver uden forudgående eksempler – det kaldes "zero-shot" prompting.

Hvad er Zero-Shot

Zero-shot prompting betyder, at prompten, du bruger til at interagere med modellen, ikke indeholder eksempler eller demonstrationer. Den giver simpelthen instruktionen om, hvad modellen skal gøre, uden at der er brugt yderligere eksempler til at lede modellen.

Vi prøvede et par zero-shot eksempler i den forrige sektion. Her er et af de eksempler, vi brugte (tekstklassifikation):

eksempel

Prompt:
Klassificer teksten som neutral, negativ eller positiv.
Tekst: "Frodo og hans venner begiver sig ud på en lang rejse for at ødelægge ringen i Mordor."
Sentiment:
Output:
Positiv

Bemærk, at vi i prompten ovenfor ikke gav modellen eksempler på tekst og deres klassifikationer. LLM'en forstår allerede, hvad "sentiment" betyder – det er zero-shot funktionaliteten i spil.

Når zero-shot ikke fungerer godt, anbefales det at give modellen demonstrationer eller eksempler i prompten, hvilket fører til "few-shot" prompting.

Øvelse 1: Enkelt formål og outputformat

Mål: Forstå vigtigheden af klart defineret output.


Øvelse 2: Ingen kontekst, men præcision

Mål: Lær at fokusere på præcise svar uden at give yderligere kontekst.


Øvelse 3: Optimering af ufuldstændige prompts

Mål: Lær at identificere svage punkter i zero-shot prompts og optimere dem.


Øvelse 4: Skift perspektiv eller rolle

Mål: Forstå hvordan specifikke roller kan påvirke output.


Øvelse 5: Test af flertydige prompts

Mål: Lær hvordan modellen håndterer flertydige eller åbne prompts, og hvordan man kan gøre dem tydeligere.