Oplossing van Human Inference scoort goed op zoek naar “true positives”

06 juli 2017

Marc Pierar & Michel Klompmaker
De presentatie van Human Inference begint met een onderzoek van PwC naar de mate waarin de kwaliteit van data van een bedrijf voldoet aan de regelgeving. Uit dat onderzoek bleek dat een derde van de bedrijven zich vragen stelde bij de kwaliteit van hun data, dat 50% van incidenten betreffende witwassen en terrorismefinanciering slechts handmatig werden ontdekt en dat 19% van de bedrijven het inhuren van gekwalificeerde compliance functionarissen als de grootste uitdaging ziet.

Holger Wandt (zie foto) en François Ruiter * melden dat Human Inference een oplossing ontwikkeld heeft voor alle aspecten van datakwaliteit en zij noemen daarom hun aanpak holistisch. Volgens Gartner is Human Inference een ‘visionary with deep experience’. De eerste pijler van de aanpak daarbij is datakwaliteit. Daarbij begint men bij Human Inference om eerst alle bedrijfsdata te aggreren naar een “golden record”. Vaak blijkt dan dat er data-doublures zijn en dat deze ook nog eens conflicterend kunnen zijn. Matching is in dat geval cruciaal. Naast het opschonen van deze data is ook verrijking (de tweede pijler) van belang: het toevoegen van data die de oorspronkelijke data verrijkt en/of eenduidiger maakt. De derde pijler is compliance, waarbij het gaat om het navolgen van wet- en regelgeving met betrekking tot datamanagement (bijvoorbeeld door data te matchen tegen tal van sanctie- en fraudelijsten).
Oplossing maakt gebruikt van “natural language processing”
De oplossing maakt extensief gebruik van ‘natural language processing’. Wij mensen interpreteren data vanuit een bepaald perspectief of referentiekader. Wat is wat? Wie is wie? Zo is het voor mensen relatief eenvoudig om in een stuk tekst een adres te herkennen maar voor een computer is dat veel lastiger. Echter, door de ontwikkelingen op het gebied van ‘natural language processing’ zijn we vandaag de dag in staat om computerprogramma’s zo te maken dat zij hiertoe ook in staat zijn. Deze oplossingen maken enerzijds gebruik van zogenaamde woordenboeken waarin allerlei kenmerken en attributen van woorden en begrippen zijn opgeslagen, en anderzijds van wiskundige en linguïstische methodieken zoals bijvoorbeeld contextanalyse en patroonherkenning.
De getoonde oplossing van Human Inference is ‘out-of-the-box’ te implementeren door elk bedrijf en behoeft dus vrijwel geen inzet of ondersteuning van de in-house IT-afdeling. Daarnaast is het een oplossing die zeer nauwkeurige matches levert. Dat betekent dat zogenaamde “false positives” (de software vindt te veel matches die niet relevant zijn) en de handmatige nabewerkingen die hiervan het gevolg zijn, tot het een minimum worden beperkt. Een bedrijf dat gebruik maakt van deze oplossing, kan zich dus vooral richten op het onderzoek van de “true positives”: signalen die terecht zouden kunnen wijzen op bijvoorbeeld fraude. In die zin is de oplossing, genaamd DataHub dan ook erg efficiënt in het gebruik.
In een onafhankelijk onderzoek door een Engelse organisatie naar soortgelijke oplossingen bleek de oplossing van Human Inference extreem goed te scoren, niet alleen op het vinden van exacte matches maar vooral ook op het vrijwel niet optreden van “false positives”.
* Het video interview met François Ruiter van Human Inference vindt u binnenkort elders op onze site.
 

Plaats uw reactie

Your email address will not be published. Required fields are marked *