En Large Language Model (LLM) er en type stor, neural sprogmodel inden for kunstig intelligens, der er trænet på milliarder eller billioner af ord. Den lærer at forstå sammenhænge, grammatik, fakta og endda nuancer i sprog ved at forudsige det næste ord i en tekst. Selvom princippet lyder simpelt, er resultatet forbløffende: moderne LLM’er kan skrive essays, løse matematiske problemer, oversætte sprog, skrive kode og føre nuancerede samtaler – alt sammen med en kvalitet, der i mange tilfælde nærmer sig menneskelig ydeevne. LLM’er bygger næsten udelukkende på transformer-arkitekturen, som introducerede attention-mekanismer, der lader modellen fokusere på relevante dele af input, uanset hvor i teksten de befinder sig. Denne arkitektur har gjort det muligt at skalere sprogmodeller til hundreder af milliarder af parametre, hvilket har drevet gennembruddene vi ser i dag. Kendte eksempler på LLM’er inkluderer OpenAI’s GPT-serie, Anthropic’s Claude, Google’s Gemini og Meta’s Llama. Disse modeller udgør rygraden i en stor del af moderne AI-løsninger og har fundamentalt ændret, hvordan virksomheder og forbrugere interagerer med kunstig intelligens – fra kundesupport til indholdsproduktion.