Explainable AI, også forkortet XAI, er disciplinen inden for kunstig intelligens, der arbejder med at gøre AI-modellers beslutninger forståelige for mennesker. Mange moderne AI-løsninger – især dem baseret på deep learning – fungerer som ‘black boxes’, hvor selv udviklerne har svært ved at forklare præcis, hvorfor modellen kom frem til en bestemt beslutning. Det er et voksende problem, efterhånden som AI bruges i stadig flere kritiske beslutninger. XAI adresserer dette ved at udvikle metoder, der gør AI-modeller mere gennemsigtige. Det kan være gennem modeldesign, der er fortolkelig fra start (som decision trees eller logistisk regression), eller gennem post-hoc teknikker, der forklarer sorte modeller efter de er bygget. Populære XAI-metoder inkluderer LIME, SHAP og attention visualisering, som giver indsigt i, hvilke features der har haft størst indflydelse på modellens forudsigelse. For virksomheder, der implementerer AI-løsninger, er XAI en forudsætning for tillid, compliance og ansvarlig brug. Det gælder især i regulerede brancher som finans, sundhed og jura, hvor beslutninger skal kunne dokumenteres og forsvares over for brugere, kunder og myndigheder.