NFI gebruikte “deep learning”-techniek bij scannen EncroChat-berichten

NFI gebruikte “deep learning”-techniek bij scannen EncroChat-berichten

Het Nederlands Forensisch Instituut (NFI) heeft de 25 miljoen onderschepte EncroChat-berichten gescand met software die in staat was te leren om dreigende chatberichten te onderscheiden van onschuldige zinnen. Het NFI bracht dat woensdag zelf naar buiten. Tussen 1 april en 14 juni van vorig jaar kon de politie alle berichten die gebruikers van de encryptiedienst verstuurden lezen.

Door @Wim van de Pol

Op de servers van EncroChat in Frankrijk werd malware geïnstalleerd. Dat gebeurde (waarschijnlijk)  door alle Encro-telefoons zich opnieuw te laten aanmelden voor een software update. Vervolgens zorgde de malware ervoor dat berichten die gebruikers opstelden werden verzonden naar de server voordat ze gecodeerd werden. De Franse Gendarmerie zette die stroom berichten door naar Europol in Den Haag. Vervolgens maakte een team een rechercheurs direct een selectie van berichten die onmiddellijke actie vereisten in de diverse Europol-landen. Deze teams heetten Threat To Life-teams (TTL). Dringende berichten waren bijvoorbeeld berichten waarin een liquidatie werd uitgewerkt of in gang gezet.

Bloed zien

Het NFI ontwikkelde een methode waardoor zinnen als ‘Ik wil bloed zien’ of: ‘Doe een kogel in zijn hoofd’ direct uit de 25 miljoen chats naar boven kwamen. Het NFI heeft een model ontwikkeld om de politie te helpen voorspellen welke berichten een serieuze bedreiging bevatten. Want miljoenen berichten handmatig doorspitten gaat veel te langzaam.

Het team voor Forensische Big Data Analyse (FBDA) van het NFI bouwde eerder een computermodel om drugs-gerelateerde berichten te herkennen in grote hoeveelheden berichten die verdachten aan elkaar stuurden. Vervolgens begon het team met vergelijkbare technieken aan een model om levensbedreigende berichten te herkennen. Dat model was klaar toen per 1 april de chats van Encrochat bij de politie in Driebergen binnenstroomden.

Deep Learning

De methode is een vorm van kunstmatige intelligentie die “deep learning” wordt genoemd. Het is een verzameling van technieken waarmee je computers taal kunt leren herkennen. Zulke modellen zijn qua structuur geïnspireerd op het menselijk brein. Ze worden daarom ook wel ‘neurale netwerken’ genoemd. De modellen leren op een vergelijkbare manier als  mensen. Namelijk door heel veel voorbeelden te bekijken. Zulke modellen worden eerst getraind door ze krantenartikelen of Wikipedia te laten lezen. Het taalgebruik in kranten en op Wikipedia is natuurlijk  anders dan de manier waarop criminelen met elkaar communiceren. Om ook dat specifieke taalgebruik te leren begrijpen, moeten de deep learning-modellen nog even doorleren. Dit kan door ze specifiek taalgebruik te laten zien. (tekst gaat verder onder reclame)

‘Afknallen’

Medewerkers van het NFI hebben samen met politierechercheurs woordenlijsten gemaakt met  ‘signaalwoorden’. Dat zijn woorden die criminelen kunnen gebruiken om te wensen of organiseren dat iemand mishandeld, ontvoerd of vermoord wordt. Ze gebruiken bijvoorbeeld de woorden ‘dood’, ‘slapen’, ‘poppen,’ ‘afknallen’, ‘verdwijnen’, etc. Voor het maken van de woordenlijsten is ook historisch materiaal gebruikt. Europol heeft geholpen om een lijst met vergelijkbare woorden in het Frans en Engels te maken.  Met deze zoekwoorden kon een eerste zoekslag worden gedaan in de trainingsberichten.

Bedreigend

De politierechercheurs gaven de gevonden resultaten vervolgens het label ‘bedreigend’ mee of het label ‘niet-bedreigend’. Bijvoorbeeld het woord ‘slapen’ kan heel goed in een niet bedreigende context zijn gebruikt. De software leerde ook die context te herkennen.

Medewerkers van het NFI hebben zo tienduizenden bedreigende en niet-bedreigende zinnen ingevoerd om het model te trainen. De politie zette het model vervolgens in om de berichten met een hoge kans op een levensbedreigende inhoud te herkennen. De resultaten werden gecheckt en dat materiaal kon ook weer gelabeld worden en opnieuw ingeladen. Zo werd de computer steeds slimmer.

Een model als dit geeft nooit volledig juiste analyse omdat een algoritme een blinde vlek kan hebben en steeds dingen mist. De software maakt daarom zelf een inschatting van de juistheid in een coëfficiënt tussen 0 en 1. Hoe dichter bij de 1, hoe groter de kans dat het om een bedreigend bericht gaat. Vervolgens beslist de recherche of er actie geboden is of niet.

Zie meer over de EncroChat-hack:

‘EncroChat-hack was volgens Franse wetgeving illegaal’ (UPDATE)

‘OM is boos op Britten over openheid over EncroChat’

Brits document laat zien hoe EncroChat werd gehackt

Sommige Encro-gebruikers verwijderden oude berichten niet

EncroChat: de reconstructie van de hack (UPDATE)