‘Explainable’ og transparent AI

Vores system, Mentor, træffer afgørelser med tilhørende forklaringer. Systemet benytter umiddelbart læsbare regler og er transparent helt ind til kernen. Det er deterministisk og dets afgørelser baserer sig på eksakt viden fremfor sandsynligheder.

Explainable

Der stilles i stigende grad krav til at AI skal kunne forklare sine beslutninger, således at dem der påvirkes af beslutningerne forstår på hvilket grundlag de er blevet til, men også for at vi kan lære af dem. Vores system giver præcise forklaringer for dets beslutninger. Forklaringen er detaljeret, forståelig for ikke tekniske brugere og kan bruges som formel dokumentation for beslutningen.

Viden som håndgribeligt aktiv

Mentor lærer efterhånden som nye sager bliver behandlet og videnbasen udbygges. Videnbasen kan læses, og således kontrolleres for bias og brugt som grundlag for analyse af viden og hvordan den anvendes. 

Kontrol for bias

I modsætning til machine learning baserede systemer giver Mentor brugeren kontrol over beslutningsprocessen. Det er brugerne og deres governance board, som beslutter hvilke regler der skal bruges. Systemet kan med andre ord ikke selv introducere bias.

Se eksempel – check om du har ret til varemærke