AI-ordbog

Transformer

En AI-arkitektur der kan parallelt behandle lange sekvenser af data meget effektivt. Transformers er grundlaget for alle moderne LLMs som ChatGPT fordi de kan håndtere lange tekster uden at glemme tidligere ord. Teknologien revolutionerede naturlig sprogbehandling omkring 2017.

Om Transformer

Transformerens kerne er “self-attention”-mekanismen, der lader modellen fokusere på de mest relevante dele af inputtet, uanset afstand i teksten. Når modellen læser “banken ved floden”, forstår attention at “banken” refererer til en flodbred og ikke en finansiel institution. Denne evne til at behandle hele sekvenser parallelt gjorde transformere langt hurtigere end tidligere arkitekturer.

Hvordan fungerer en transformer?

Googles forskningsartikel “Attention Is All You Need” fra 2017 introducerede transformeren og revolutionerede AI. I dag er alle store sprogmodeller – GPT-4, Claude, Gemini, Llama – baseret på transformer-arkitekturen. Virksomheder bruger transformere indirekte hver gang de interagerer med en sprogmodel.

Hvorfor er transformere vigtige?

Transformeren er den mest indflydelsesrige AI-arkitektur i historien. At forstå grundprincippet hjælper virksomheder med at vurdere AI-modellers muligheder og begrænsninger og tage informerede beslutninger om AI-investeringer.

Book et møde