NWO-subsidie voor AI-onderzoek naar privacybescherming in kankerstudies en intimidatie in virtual reality
Twee projecten van Utrechtse onderzoekers krijgen een subsidie vanuit het Nationaal Groeifonds-programma AINed. Met dit geld kunnen ze veelbelovende, vernieuwende en grensverleggende initiatieven uitwerken die maatschappelijke uitdagingen in de zorg en virtual reality aanpakken met behulp van kunstmatige intelligentie.
Afbeelding: Unsplash
Julian Frommel, universitair docent bij de Interaction/Multimedia groep van de Bètafaculteit, gaat onderzoek doen naar grensoverschrijdend gedrag in virtual reality omgevingen. Zijn collega, Wilson dos Santos Silva, recent aangesteld bij dezelfde faculteit, gaat zich richten op het verbeteren van AI-modellen die kunnen leren van patiëntgegevens van verschillende ziekenhuizen, zonder privacyregels te schenden.
Robuuste AI-modellen voor kankeronderzoek
Dos Santos Silva is nog maar kort werkzaam bij de Universiteit Utrecht. Dat maakt de toekenning extra bijzonder, aldus de universitair docent Explainable AI for Life bij de groep van hoogleraar Sanne Abeln. “Het voelt geweldig om al in de eerste zes maanden van mijn aanstelling als universitair docent een Nederlandse subsidie binnen te halen,” aldus Dos Santos Silva, die eveneens werkt bij het Nederlands KankerInstituut.
Met de subsidie van 80.000 euro gaat hij zich richten op het robuuster maken van AI-modellen die gebruikt worden bij kankeronderzoek in Nederland. Momenteel is dit onderzoek afhankelijk van het verzamelen van medische gegevens - zoals MRI-scans - van verschillende ziekenhuizen, waarmee op een centrale locatie de AI-algoritmen worden getraind.
Geweldig om al in de eerste zes maanden van mijn aanstelling als universitair docent een Nederlandse subsidie binnen te halen"
Wilson dos Santos Silva, universitair docent
“Het lastige daarbij is dat, hoewel de data wel gepseudonimiseerd wordt, je uit de biometrische kenmerken in de beelden nog steeds informatie over de patiënt kunt herleiden”, aldus Dos Santos Silva. Daarom verschuift de focus naar decentrale leermethoden, waarbij AI-modellen lokaal in elk ziekenhuis worden getraind. Ziekenhuizen delen vervolgens alleen de informatie over de modellen en niet de gegevens zelf.
Een uitdaging die daarbij optreedt, is dat de data per ziekenhuis erg verschilt. Hierdoor verschillen ook de lokale modellen die bijdragen aan het uiteindelijke gecombineerde model. Dit leidt tot onzekerheid in de voorspellingen die het model doet.
Onzekerheid in voorspellingen
Dos Santos Silva: “Als een AI-model bijvoorbeeld uitsluitend is getraind op gegevens van het Nederlands Kanker Instituut, zal het voornamelijk ernstige kankergevallen tegenkomen en geen gegevens over gezonde en milde gevallen hebben. Bij het samenvoegen van modellen krijgt dit model met zijn onzekerheid over mildere gevallen echter evenveel gewicht als een model dat is getraind op een uitgebreidere dataset met het volledige spectrum van patiënten. Dit laatste model vertegenwoordigt de algehele verspreiding van de ziekte veel nauwkeuriger.”
Dos Santos Silva wil met zijn onderzoek de AI-algoritmen robuuster maken, zodat ze wel rekening houden met de verschillende soorten data die ze hebben gezien. Uiteindelijk zal dit leiden tot verbeterde kankerbehandelingen omdat artsen beter ondersteund worden bij het nemen van nauwkeurigere klinische beslissingen.
Grensoverschrijdend gedrag in de virtuele wereld
Ook Julian Frommel krijgt 80.000 euro voor zijn AI-onderzoek. Frommel en zijn collega’s duiken in de wereld van social extended reality (XR). Deze immersieve, virtuele omgevingen worden steeds populairder, bijvoorbeeld in gaming, maar ook voor vergaderingen en sociaal contacten. Gebruikers hebben echter ook steeds vaker te maken met intimidatie. Frommel: “Mensen kunnen te maken krijgen met scheldpartijen, discriminatie of bedreiging, maar ook met het binnendringen van iemands persoonlijke ruimte of ongewenste seksuele aanrakingen. Dat is een nieuw fenomeen en heel specifiek voor deze virtuele omgevingen.”
Momenteel zijn er menselijke ‘moderators’ bij wie je dergelijk gedrag kunt aankaarten. Deze moderators beoordelen of de klacht terecht is en kunnen straffen opleggen, zoals verwijdering van het platform. “Wij willen onze AI-modellen sociale interacties tussen mensen leren begrijpen. Als we weten hoe dat werkt, kunnen de AI-modellen kunnen deze moderators helpen door mogelijk onaangepast gedrag te detecteren en door een prioritering aan te brengen in wat te beoordelen als er veel klachten zijn ingediend.”
Virtuele omgevingen moeten veilig en inclusief zijn voor iedereen"
Julian Frommel, universitair docent
Het uiteindelijke doel van het project is om dit soort gevaarlijk gedrag te beperken. “Dat is enorm belangrijk want dergelijk gedrag is in de virtuele wereld ook schadelijk. Gebruikers kunnen angst ervaren, een laag zelfbeeld krijgen en stress voelen. Virtuele omgevingen moeten veilig en inclusief zijn voor iedereen.”
Frommel voert zijn onderzoek in het AI & Media Lab, onderdeel van de AI Labs van de Universiteit Utrecht. In deze Labs ontwikkelen onderzoekers uit verschillende disciplines nieuwe kennis en toepassingen op het gebied van kunstmatige intelligentie, samen met experts uit publieke en private organisaties, overheden en andere kennisinstellingen.
Over de NWO-subsidie
De NGF AiNed XS Europa subsidie van NWO maakt deel uit van de nationale AI-onderzoeksagenda AIREA-NL. Een sterke AI kennis- en innovatiebasis is voor Nederland van groot belang. Een belangrijk aspect daarvan is de verbondenheid van Nederlandse onderzoekers wereldwijd, en in het bijzonder in Europa. Alle tien gehonoreerde projecten zijn dan ook samenwerkingen tussen minimaal twee Europese partnerorganisaties.
Het project van Julian Frommel verloopt in samenwerking met de Technische Universiteit Darmstadt (Duitsland). Wilson dos Santos Silva zal samenwerken met de private non-profit onderzoeksassociatie INESC TEC in Portugal.
Bron: Universiteit Utrecht