De uitlegbaarheid van AI-uitspraken

31 augustus 2017

Steeds meer legal tech diensten maken gebruik van kunstmatige intelligentie oftewel AI. Dit is een belangrijke ontwikkeling: hiermee kunnen machines zelf beslissingen nemen of analyses uitvoeren die voorheen alleen door mensen gedaan konden worden. Denk aan dossiers doorspitten op zoek naar belastend materiaal, of juist oude afspraken terugvinden in een berg correspondentie. Maar steeds vaker wordt AI ook gebruikt om besluiten te nemen. En dat is juridisch toch wat riskant. 

AI is in de praktijk meestal machine learning, een analysemodel waarbij een computer informatie leert te herkennen aan de hand van inhoudelijke kenmerken. In eerste instantie krijgt hij een berg vooraf gelabelde informatie aangedragen: deze clausule is oké, deze is problematisch. Daaruit destilleert de AI dan de verschillen, waarna hij vervolgens nieuwe informatie kan labelen. Deze clausule lijkt meer op de oké clausules dan op de problematische, dus is hij ook oké. 

Dit klinkt heel simpel, maar de praktijk is behoorlijk ingewikkeld. Machines leren niet zoals mensen. Ze kijken niet naar betekenis maar naar woorden. Een AI zou zomaar kunnen denken dat een clausule oké is omdat hij "Leverancier" zegt - toevallig gebruikten de aangedragen oké trainingsvoorbeelden allemaal die term, en de problematische clausules spraken van "Opdrachtnemer". Een goede dataset met labels is dus lastiger dan je zou denken.

Nog lastiger wordt het wanneer de analyse wordt gebruikt om uitspraken te doen over concrete zaken. Deze aanvraag moet worden afgewezen want hij bevat geen steekhoudende argumenten. Of: het profiel van deze verdachte lijkt erg op dat van veroordeelden uit vergelijkbare zaken, dus zal hij schuldig zijn. 

AI of machine learning kan op deze manier worden ingezet, maar een belangrijk probleem daarbij is dan wel dat deze uitspraken moeten kunnen worden onderbouwd. En daar schort het nogal eens aan. De analyses van AI's zijn normaliter niet direct naar redeneringen om te zetten. Een juridische AI moet dat wel kunnen. 

Nieuwe ontwikkelingen op dit gebied focussen dan ook op het onderwerp van "white box" machine learning, lerende systemen die wél kunnen uitleggen hoe zij tot hun uitspraken komen. Dat zal helpen bij dit soort uitspraken. Maar fundamenteel blijft het issue dat AI's uitspraken doen op basis van gelijkenis met eerdere zaken. Een novum hoeven we daar dus niet van te verwachten.

Auteur: Niels Winters

Niels Winters is business manager bij JuriBlox B.V. Als jurist met een technische achtergrond is hij op zoek naar de juiste ICT-oplossing in de juridische branche. Met de kennis van de twee verschillende kennisgebieden is Niels bij JuriBlox verantwoordelijk voor de (door)ontwikkeling van de software evenals de technische implementatie bij klanten.

Niels heeft gestudeerd aan de Rijksuniversiteit in Groningen, hij volgde daar de master Recht & ICT. Tijdens zijn studie is Niels werkzaam geweest als zelfstandig ondernemer in de IT-sector. Hij heeft ondermeer websystemen ontwikkeld voor verschillende bedrijven en gaf advies op het gebied van automatisering.

Naast zijn werk is hij actief geweest bij studievereniging LISA (studievereniging voor Recht & ICT studenten) als bestuurs- en commissielid.

Meer nieuws

NDA tekenen? Laat Lynn u automatisch adviseren!
Contracteren voor software
Op naar het slimme contract?