Fine-tuning er processen, hvor man tager en allerede trænet AI-model – typisk en stor foundation model som GPT, Llama eller BERT – og justerer dens parametre baseret på et mindre, domænespecifikt datasæt. Idéen er at udnytte den generelle viden, modellen allerede har tilegnet sig gennem pre-training, og tilpasse den til en specifik opgave eller et specifikt sprog, domæne eller brug. På den måde kan virksomheder opnå avancerede AI-løsninger uden at skulle træne en model fra bunden – en proces, der ville kræve enorme datamængder og computerkraft. Fine-tuning er særligt udbredt inden for naturlig sprogbehandling og computer vision. Et klassisk eksempel er at tage en generel sprogmodel og fine-tune den på juridiske dokumenter, så den bliver ekspert i juridisk sprogbrug. Eller at tage en billedklassifikationsmodel og fine-tune den på medicinske scanninger for at lave specialiserede AI-løsninger til diagnostik. Fordelen er tydelig: man sparer tid, ressourcer og penge, samtidig med at man opnår en model, der er skræddersyet til virksomhedens behov. Det er en central teknik i moderne AI-strategi, hvor maskinlæring kombineres med domæneviden for at skabe målrettet værdi.