Kijkt, luistert en leest AI straks mee bij autisme-diagnoses?

Wie in Nederland of België een diagnose-traject voor autisme wil starten, komt al snel in een doolhof terecht. Wachtlijsten. Formulieren. Intakes. Gesprekken. Observaties. En dan nog de conclusie: het blijft een inschatting van mensen, met al hun ervaring – maar ook met hun blinde vlekken.

Niet zo gek dus dat onderzoekers zich afvragen: kan kunstmatige intelligentie (AI) helpen om autisme eerder, sneller of eerlijker op te sporen? In een recente scoping review keken onderzoekers naar drie opvallende richtingen:

  • AI die naar gezichten kijkt
  • AI die naar stemgeluid luistert
  • AI die teksten analyseert (van ouders, professionals of autistische mensen zelf)

Het klinkt als sciencefiction: een app die op basis van een foto of stemfragment zegt: “Dit kind heeft mogelijk autisme.” Maar hoe ver zijn we daar echt vanaf? En willen we dat eigenlijk wel?Laten we eerst kijken wat de brontekst precies onderzocht – en daarna wat wij daar kritisch van kunnen vinden.

Hoe is dit onderzocht? De brontekst in het kort

De review waar dit artikel op is gebaseerd, is een scoping review. Dat is een soort grote verkenning van het onderzoekslandschap: welke studies zijn er, wat hebben ze gedaan, en waar zitten de gaten? In tegenstelling tot een meta-analyse probeert een scoping review niet alle cijfers op één hoop te gooien, maar brengt die het veld in kaart.

De onderzoekers zochten in vier grote wetenschappelijke databanken en vonden 979 artikelen over AI en autisme. Na het verwijderen van doublures, oppervlakkige of ongeschikte artikelen bleven er uiteindelijk 23 studies over die voldeden aan hun criteria:

  • het ging om kinderen en jongeren van 2 tot 18 jaar
  • de studie gebruikte AI als hulpmiddel om autisme te herkennen of voorspellen
  • de AI werkte op basis van gezicht, stem of tekst
  • artikelen waren in het Engels
  • het ging niet om volwassenen of om andere vormen van data (zoals hersenscans of EEG)

Ze volgden de bekende PRISMA-stappen (systematisch zoeken, selecteren, stap voor stap uitsluiten) en beschreven de resultaten kwalitatief. De studies waren namelijk zó verschillend (andere soorten data, andere algoritmes, andere uitkomstmaten) dat je ze niet netjes in één rekensom kunt proppen. Kort samengevat:

  • het grootste deel van de studies keek naar gezichten
  • een kleinere groep keek naar stem
  • vier studies analyseerden tekst

En dan nu de spannende vraag: wat “ziet” of “hoort” AI eigenlijk?

Gezichten lezen: Kan een algoritme ‘autisme zien’?

Een opvallend deel van het onderzoek draait om foto’s van gezichten. Veel studies gebruikten een openbare dataset van Kaggle: duizenden foto’s van kinderen, gelabeld als “autistisch” of “niet-autistisch”. Computers kregen die foto’s te zien en leerden het verschil.

Daarbij gebruikten onderzoekers vaak zogeheten deep-learning-modellen, vooral convolutionele neurale netwerken (CNN’s). Je kunt die zien als een soort digitale gezichtsherkenners: ze kijken naar allerlei kleine patronen in het gezicht – verhoudingen, afstanden, vormen – en combineren die tot een voorspelling.

De review vat samen welke gezichtskenmerken bij autistische kinderen in deze studies vaker opvallen. Bijvoorbeeld:

  • Bovenkant van het gezicht
    • vaak een wat groter voorhoofd
    • soms wijder uit elkaar staande ogen
  • Midden van het gezicht
    • een kortere zone rond neus en wangen
  • Onderkant van het gezicht
    • vaker een bredere mond
    • soms een kortere afstand tussen neus en bovenlip

Daarnaast vonden sommige studies subtiele verschillen in exacte afstanden tussen bepaalde punten rond de ogen en neus.

Belangrijk om meteen te benadrukken: dit zijn gemiddelde patronen, gevonden in geselecteerde groepen kinderen, gemeten met specialistische software. Het is absoluut geen checklist om thuis voor de spiegel af te vinken. Veel autistische kinderen voldoen níet aan dit “profiel”, en veel niet-autistische kinderen juist wél.

Het is absoluut geen checklist om thuis voor de spiegel af te vinken.

Toch rapporteren de gebruikte AI-modellen indrukwekkende cijfers. Sommige deep-learning-modellen halen in deze datasets een nauwkeurigheid van boven de 90%, soms zelfs richting de 98%. Dat betekent: in die specifieke testset labelt het model de meeste foto’s “goed”.

Maar… dat zegt nog niet zoveel over de echte wereld. Stel je voor: een ouder in Antwerpen uploadt een vakantiefoto van hun kind in een willekeurige app die belooft “autisme te herkennen”. Andere camera, andere belichting, andere achtergrond, andere etnische groep dan in de trainingsdata. Het model kan dan totaal anders presteren dan in het lab.

Daar komt nog bij:

  • Veel studies gebruiken dezelfde Kaggle-dataset. AI leert dan misschien vooral “hoe deze dataset eruitziet”, niet “hoe autisme eruitziet”.
  • De herkomst van de foto’s (regio, etniciteit, socio-economische achtergrond) is meestal niet representatief voor alle kinderen.
  • Kleine verschillen in hoe je een foto maakt (hoek, glimlach, bril, kapsel) kunnen grote impact hebben op wat het model denkt te zien.

Zelfs de auteurs van de review zeggen daarom duidelijk: gezichtskenmerken alleen zijn nooit genoeg voor een diagnose. Het zijn hooguit één van vele puzzelstukjes.

Luisteren naar autisme: Wat je stem verraadt (en wat niet)

Naast gezichten keken onderzoekers ook naar stemgeluid. In de review zijn drie studies opgenomen die AI gebruiken om autisme te herkennen via spraak.

De spraak kwam uit drie heel verschillende situaties:

  1. Een mobiel spelletje (“Guess What?”) waarbij een ouder een smartphone op het voorhoofd houdt en het kind woorden beschrijft die op het scherm verschijnen.
  2. Een taak waarin kinderen 25 alledaagse woorden moeten uitspreken, opgenomen met een draagbare recorder.
  3. Een opdracht waarbij kinderen plaatjes benoemen zonder hulp, zodat hun spontane spraak wordt vastgelegd.

De AI-modellen kregen geen “gevoel” voor inhoud (“waar heeft het kind het over?”), maar voor hoe het kind spreekt. In de review zie je een lijst van spraakkenmerken die bij autistische kinderen vaker anders zijn, onder andere:

  • Toonhoogte (pitch): gemiddeld hoger dan bij niet-autistische kinderen.
  • Intonatie: vaker monotoon, minder variatie in hoogte en nadruk.
  • Contrastieve klemtoon: anders gebruik van nadruk, wat invloed heeft op hoe duidelijk of emotioneel iets klinkt.
  • Emotionele kleur van de stem: vaker afwijkend of minder makkelijk te “lezen”.
  • Uitspraak van klinkers: subtiele verschillen in hoe klanken gevormd worden.
  • Echolalie: zinnen of woorden herhalen.

Met die kenmerken trainen onderzoekers machine-learning-modellen en neurale netwerken. Sommige studies rapporteren opnieuw indrukwekkende cijfers, met nauwkeurigheden tot rond de 98% – in hun eigen kleine, zorgvuldig geselecteerde onderzoeksgroep.

Maar ook hier zitten flinke haken en ogen aan:

  • Het gaat alleen om kinderen die al (goed) spreken. Niet-sprekende of weinig sprekende kinderen vallen buiten beeld.
  • De gebruikte data zijn vaak ééntalig (bijvoorbeeld Engelstalig). Hoe werkt zo’n model bij een kind dat thuis Turks én Nederlands spreekt, of het Vlaams dialect?
  • De opnames zijn meestal gemaakt in rustige, gecontroleerde omstandigheden. In het echte leven praat een kind op een druk schoolplein, aan tafel, in de woonkamer met de tv aan.

Stel je een jongetje in Gent voor dat thuis zachtjes en monotoon praat, maar bij zijn vrienden juist luid en druk is. Welk “stemprofiel” is dan het echte? En wat doet een algoritme met die variatie?

De review is zelf ook duidelijk: stem-analyses hebben potentieel, maar er is nog heel weinig onderzoek. De groepen zijn klein, niet divers, en de uitkomsten zijn voorlopig te fragiel voor gebruik in de dagelijkse diagnostiek.

Tekst als signaal

De derde lijn in de review gaat niet over hoe we eruitzien of klinken, maar over wat we schrijven. Vier studies gebruikten tekst als bron om autisme te herkennen of in te schatten. Ze deden dat op vier heel verschillende manieren:

  1. Een studie verzamelde ruim 8.600 vragen en antwoorden van ouders op Yahoo Answers die zich zorgen maakten over hun kind. De AI probeerde te voorspellen of er sprake was van een hoog of lager risico op autisme, op basis van hoe die ouders hun zorgen verwoordden.
  2. Een andere studie gebruikte door organisaties verzamelde gespreksfragmenten en dialogen van ouders van autistische kinderen.
  3. Een derde studie zette een online vragenlijst uit via een platform (Instant.ly) en keek hoe ouders hun zorgen over sociale communicatie en gedrag omschreven.
  4. De vierde studie dook in meer dan 3 miljoen tweets met de hashtag #ActuallyAutistic en maakte zo een dataset van mensen die zichzelf als autistisch identificeren – plus een controlegroep.

Om die teksten te analyseren gebruikten de onderzoekers zowel klassieke algoritmes (zoals decision trees, support vector machines, logistic regression, XGBoost) als moderne taalmodellen zoals BERT en zelfs een ChatGPT-achtig model. Wat zoekt zo’n model dan? Niet één “magisch autisme-woord”, maar patronen in:

  • Woordkeuze: (veel details, concrete voorbeelden, specifieker of juist vager taalgebruik)
  • Zinsbouw: (langere of kortere zinnen, veel bijzinnen, herhalingen)
  • Thema’s: (sociale problemen, overprikkeling, obsessieve interesses, vermoeidheid, schoolproblemen)
  • Perspectief: (spreekt iemand over “we”, “ik”, “mijn kind”, “deze mensen”, enz.)

De beste modellen in deze studies kwamen uit op een nauwkeurigheid rond de 80–83% bij het onderscheiden van “waarschijnlijk autistisch” en “waarschijnlijk niet-autistisch”. Dat is interessant, maar verre van perfect. Bij 83% zit je er in bijna 1 op de 5 gevallen naast. Dat is prima voor een spamfilter zoals gebruikt op dit blog, maar veel te riskant als we het over diagnoses hebben.

Toch kunnen we hier al goed zien waar het heen kan gaan. Je zou je een toekomst kunnen voorstellen waarin een tool de tekst van een ouder op een forum (ook hier in het Nederlands) “leest” en terugkoppelt: “Dit klinkt als iets waar een kinderpsychiater naar moet kijken.” Dat kan helpend zijn – of juist enorm schrik aanjagen.

Hoe goed is ‘98% nauwkeurig’ echt?

In de review vliegen de prachtige cijfers je om de oren: accuracy, sensitivity, specificity, AUC… Allemaal maten voor hoe goed een model presteert. Maar wat betekenen die in gewone mensentaal? Heel kort:

  • Nauwkeurigheid (accuracy): in hoeveel gevallen had het model het goed, van alle kinderen samen.
  • Sensitiviteit: van alle kinderen met autisme, hoeveel worden er terecht positief herkend?
  • Specificiteit: van alle kinderen zonder autisme, hoeveel krijgen terecht geen autisme-label?

Een voorbeeld: stel je 100 kinderen voor, waarvan 20 autistisch zijn.
Een model met 95% sensitiviteit en 95% specificiteit doet dan ongeveer dit:

  • 19 van de 20 autistische kinderen worden terecht herkend
  • 1 autistisch kind wordt gemist
  • 76 van de 80 niet-autistische kinderen worden terecht niet gediagnosticeerd
  • 4 kinderen zonder autisme krijgen toch een “ass”-signaal

En dat is nog een optimistisch, netjes afgerond voorbeeld. In de praktijk verschillen die cijfers per model en per dataset. De review laat ook zien dat onderzoekers soms selectief rapporteren:

  • Sommige studies melden alleen de mooiste maat (bijvoorbeeld een hoge AUC), maar niet dat de nauwkeurigheid tegenvalt.
  • In één studie wordt voor een zwak presterend algoritme alleen de AUC genoemd, niet de accuracy – een subtiele manier om de minder mooie cijfers te verstoppen.
  • Veel studies gebruiken dezelfde dataset (bijvoorbeeld dezelfde Kaggle-foto’s), waardoor modellen elkaar vooral napraten.

Daar komt nog een groter probleem bij: bias.

  • Als bijna alle foto’s in een dataset witte kinderen laten zien, leert AI vooral “hoe autisme eruitziet bij witte kinderen”.
  • Als de data vooral uit een bepaald land of een bepaalde sociale klasse komen, merk je dat pas als het model slecht gaat presteren bij andere groepen.
  • De review verwijst ook naar eerdere voorbeelden uit de zorg, waar een AI-systeem structureel zwarte patiënten lager inschatte qua zorgbehoefte – simpelweg omdat het was getraind op scheve historische data.

Kortom: “98% nauwkeurig” in een zorgvuldig opgepoetste dataset is iets heel anders dan 98% betrouwbaar in een willekeurige klas in Almere, Sint Biggenklooster of Kortrijk. Moerdijk desnoods.

We hebben vaak het idee dat een computer eerlijker is dan een mens. Een algoritme heeft geen humeur, geen vooroordelen, geen slechte dag. Toch kan AI stevig discriminerende uitkomsten geven. Hoe kan dat?

Een algoritme leert van voorbeelden. Als je een AI traint om autisme te herkennen op basis van foto’s, voer je er heel veel foto’s in van kinderen mét en zonder autisme. Het model zoekt patronen en leert: zó zien de groepen er gemiddeld uit.

Gaat er ergens in die voorbeelden iets scheef, dan wordt het model óók scheef. Dat noemen we algoritmische bias. Een paar manieren waarop dat kan gebeuren:

  • De dataset bevat vooral witte kinderen. Het model leert dan vooral hoe autisme er bij die groep uitziet. Kinderen met een andere huidskleur worden dan vaker verkeerd ingeschat.
  • De foto’s zijn gemaakt in gestyleerde studio-omstandigheden. In de echte wereld – op school, thuis, met slechte belichting – presteert het model ineens veel slechter.
  • In de historische data kregen bepaalde groepen (bijvoorbeeld armere gezinnen) minder vaak een diagnose. Het model leert dan onbewust: “bij deze groep is het vast geen autisme”.

Bias is extra riskant omdat AI een aura van objectiviteit heeft: “De computer zegt het, dus het zal wel kloppen.” Terwijl het algoritme eigenlijk alleen de (mogelijk scheve) wereld weerspiegelt waar het mee getraind is.

Daarom is het zo belangrijk dat datasets divers zijn, dat onderzoekers hun keuzes transparant maken en dat onafhankelijke partijen testen of een model bepaalde groepen systematisch benadeelt. AI is nooit vanzelf neutraal – dat moet je er actief inbouwen én bewaken.

Wat betekent dit voor Nederland en België?

In Nederland en België kampen veel gezinnen met lange wachtlijsten voor diagnostiek. Huisartsen, CLB’s en GGZ-instellingen geven zelf toe dat de vraag veel groter is dan de capaciteit. In theorie kan AI daar op verschillende manieren een rol in spelen:

  • Als voorselectie-tool bij de huisarts of het CLB: een korte online vragenlijst die helpt bepalen of verwijzing naar specialistische zorg zinvol is.
  • Als screening binnen telezorg: kinderen die ver weg wonen of moeilijk naar een centrum kunnen reizen, zouden via video en online tests gescreend kunnen worden.
  • Als extra signaal in complexe dossiers: bijvoorbeeld als iemand al meerdere diagnoses heeft en professionals twijfelen over autisme.

Maar… de stap van onderzoeksartikel naar praktijk is in de Benelux extra groot:

  • Gezondheidsapps en diagnostische hulpmiddelen vallen onder strenge regelgeving (medische hulpmiddelen, CE-markering, toezicht van IGJ/overheid).
  • De AVG/GDPR stelt zware eisen aan wat je met gezichts- en stemdata mag doen, zeker als het om kinderen gaat.
  • Ziekenhuizen en GGZ-instellingen zijn (terecht) voorzichtig met “black box”-systemen die wel een label geven, maar niet uitleggen waaróm.

En dan is er nog een heel belangrijk punt: wie mag dit gebruiken? Het is één ding als een goedgekeurde, transparante tool een kinderpsychiater helpt. Het is iets heel anders als:

  • een school selfies van leerlingen laat analyseren,
  • een verzekeraar social media scant op risico’s,
  • of een werkgever tijdens een sollicitatie “stiekem” een autisme-algoritme meedraait op videobeelden.

De review laat zien dat de techniek snel gaat. De vraag is nu vooral: welke kant willen we er mee op?

Ethiek en macht: Wie mag er meekijken met jouw gezicht en stem?

AI die in gezichten en stemmen naar “afwijkingen” zoekt, roept een lange en pijnlijke geschiedenis op. Denk aan oude ideeën over fysiognomie (het idee dat je karakter aan je gezicht is af te lezen) en nog donkerdere hoofdstukken rondom eugenetica. Als we niet oppassen, lopen we het risico dat we:

  • weer doen alsof je iemands waarde of “normaliteit” kunt zien aan de vorm van hun gezicht,
  • kinderen labelen op basis van uiterlijke kenmerken waar ze zelf geen enkele invloed op hebben,
  • systemen bouwen die vooral mensen met een bepaald uiterlijk of accent eruit pikken.

Daarnaast is er de machtsvraag: wie controleert de algoritmes? Wie mag beslissen:

  • welke foto’s en opnames we verzamelen,
  • welke groepen in de trainingsdata zitten (en welke niet),
  • en wat we doen met de uitkomsten?

In een neurodiverse samenleving is het niet genoeg om te zeggen: “De computer zegt het, dus het zal wel kloppen.” Autistische mensen en andere neurodivergente groepen moeten mee aan tafel zitten bij het ontwerp van dit soort systemen.

Eugenetica is het idee dat je de “kwaliteit” van de mensheid kunt verbeteren door te sturen wie er wel en niet kinderen krijgt. Het woord komt uit het Grieks en betekent zoiets als “goed geboren”. Klinkt onschuldig, maar in de praktijk gaat het al snel over macht, uitsluiting en geweld.

Vanaf het eind van de 19e eeuw bedachten sommige artsen, politici en wetenschappers plannen om “ongewenste” eigenschappen uit de bevolking te halen. Ze zagen armoede, psychische problemen, verstandelijke beperking, epilepsie of “asociaal gedrag” niet als gevolg van omstandigheden, maar als iets dat “in het bloed” zat. Hun oplossing: voorkomen dat mensen met zulke eigenschappen zich voortplanten.

In verschillende landen voerden overheden wetten in voor gedwongen sterilisatie. Mensen met een psychiatrische diagnose, een verstandelijke beperking, mensen in instellingen, arme vrouwen of minderheden verloren het recht om kinderen te krijgen. In nazi-Duitsland ging dit nog veel verder: daar gebruikte men eugenetica als rechtvaardiging voor massamoord op Joden, Roma, mensen met een beperking en andere groepen.

Eugenetica gaat dus niet alleen over biologie, maar vooral over wie bepaalt wat een “goed” of “waardig” leven is. Meestal zijn het mensen met macht en privileges die beslissen dat anderen “te veel kosten”, “te lastig” zijn of “niet in de samenleving passen”.

Veel neurodivergente mensen zijn daarom alert: ze willen wél goede zorg en keuzevrijheid, maar geen samenleving waarin iemand anders bepaalt dat hun bestaan eigenlijk een fout is.

De review sluit zelf ook af met een duidelijke waarschuwing: AI kan nuttig zijn als aanvulling, maar mag nooit de menselijke klinische blik vervangen. Autisme is meer dan een gezicht, een stem of een tekst. Het gaat ook over ervaringen, omgeving, geschiedenis, specifieke talenten, coping, maskeren – dingen die je niet zomaar uit een foto vist.

Wat kun je hier zelf mee als neurodivergent persoon of ouder?

Misschien lees je dit omdat je zelf autistisch bent, of omdat je je zorgen maakt over je kind. En misschien kom je in de nabije toekomst online apps tegen die met veel bombarie zeggen: “Upload een selfie en wij zeggen of je autisme hebt.” Een paar nuchtere, maar hopelijk ook geruststellende gedachten:

  • Zie AI-diagnoseapps als marketing, niet als medische waarheid: De meeste van die tools zijn nog nooit onafhankelijk getest, zeker niet in Nederland of België. Ze gebruiken vaak precies de soort datasets waar de review kritisch over is.
  • Geen enkel algoritme kent jou beter dan jij zelf: AI kan patronen vinden in grote hoeveelheden data, maar het kent jouw leven, context, maskergedrag, trauma’s en copingstrategieën niet.
  • Gebruik AI liever als hulpmiddel vóór je de zorg instapt: Bijvoorbeeld om:
    • je gedachten te ordenen (“Welke situaties vind ik lastig? Welke patronen zie ik in mijn leven?”),
    • een overzicht te maken voor je huisarts of psycholoog,
    • informatie op te zoeken over wat autisme voor volwassenen of kinderen kan betekenen.
  • Twijfel je serieus over autisme? Begin bij je huisarts, een CLB-arts, een psychiater of psycholoog. Ja, de wachtlijsten zijn vaak lang, maar een AI-uitslag vervangt geen zorgvuldig onderzoek.
  • Wees kritisch op AI-claims: Vraag je bij elke tool of studie af:
    • Is dit in een echte zorgsetting getest, of alleen in het lab?
    • Hoe groot en divers was de groep?
    • Is dit vooral in Engelstalige landen onderzocht, of ook in contexten zoals Nederland en België?

Tot slot: AI kan een nuttige bondgenoot worden in de zorg rond autisme – als we er nuchter, kritisch en mét respect voor neurodiversiteit mee omgaan. Je bent niet je gezicht, je stem of je Twitter-geschiedenis. Je bent een mens, geen datapunt.

Mohammadi F, Shahrokhi H, Asadzadeh A, Pirmoradi S, Moghtader A, Rezaei-Hachesu P. Artificial Intelligence in Autism Spectrum Disorder Diagnosis: A Scoping Review of Face, Voice, and Text Analysis Methods. Health Sci Rep. 2025 Nov 17;8(11):e71476. doi: 10.1002/hsr2.71476. PMID: 41255386; PMCID: PMC12620671.

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *