AI-ordbog

Adversarial Training

Adversarial Training er en teknik, hvor AI-modeller trænes ved at udsætte dem for bevidst manipulerede input – for at gøre dem mere robuste og modstandsdygtige over for angreb og fejlinput.
I Adversarial Training udsættes modellen for eksempler, der er skabt til at narre den – fx billeder med umærkelig støj, der får AI til at fejlklassificere. Ved at træne på disse eksempler lærer modellen at genkende og modstå sådanne angreb, hvilket øger robusthed i sikkerhedskritiske anvendelser.
Virksomheder der anvender AI i sikkerhedskritiske eller regulerede miljøer – fx inden for finans, sundhed eller infrastruktur – bør overveje robusthed som et krav. Adversarial Training reducerer risikoen for, at AI-systemer manipuleres eller fejler, når de møder uforudsete eller fjendtlige input.

Klar til at komme i gang?

Lad os tage det første skridt sammen

Hos AIgentur møder vi jer dér, hvor I er, og hjælper jer med at omsætte jeres mål og udfordringer til konkrete løsninger.

Måske har I allerede en idé eller et konkret behov. Måske er I bare nysgerrige på, hvordan AI kan bruges i jeres forretning.


Uanset hvad, tager vi gerne en uforpligtende snak, og viser jer, hvordan en struktureret og fleksibel tilgang kan skabe resultater.

Book et møde

Book et møde