Problem zero-shot learning polega na tym, że uczymy model na jakimś podproblemie, ale później chcemy, żeby rozwiązywał też inny podproblem, na którym nigdy nie był trenowany.

Przykładem może być generowanie tekstu - jeśli model było uczony rozpoznawać obrazki zwierząt na podstawie opisu jak wyglądają i nigdy nie widział zebry, to zero-shot learningiem będzie gdy spytamy go o rozpoznanie zebry, mówiąc że zebra to koń w paski.

Innym przykładem są Large-Language Models (np. GPT) uczonych na przewidywaniu następnego słowa. Jeśli zapytamy model o sentyment danego zdania, np. Text: i’ll bet the video game is a lot more fun than the film. Sentiment: to to jest zero-shot learning, bo model nie był uczony na tym typie zadań. Źródło: Prompt engineering