Door de jaren heen hebben wij gewerkt met veel verschillende typen organisaties. De overeenkomst? De wens om beter en slimmer hun werk te kunnen doen. Met data, machine learning en AI.
Lees hier hoe wij organisaties in de Gezondheid en Zorg hielpen!
Lees verder!keyboard_arrow_rightTerug naar alle projectenkeyboard_arrow_rightHet eerste waar veel mensen aan denken bij ondersteuning door AI in de zorg, is het robotje aan het bed. De machines die helpen met verschonen, thee brengen, metingen doen, etc. Maar dat zijn nou juist de gebieden waar de patiënt menselijk contact waardeert.
De taken waar AI juist heel goed bij kan helpen, en waar de gemiddelde zorgmedewerker niet op zit te wachten, zijn de administratieve taken. Hier gaat het namelijk vaak om herhaling én is er sprake van enige standaardisatie. Daarbij zijn er ook nog eens ontzettend veel patiënten die ontzettend veel data genereren. Ideaal voor AI dus.
Computers zijn veel beter dan mensen in het snel (ver)werken en het herkennen van patronen in grote hoeveelheden data. Deze krachten kan je inzetten om je eigen domeinexpertise schaalbaarder te maken en aan te vullen.
Of dit nu gaat om het afleiden van een diagnose uit teksten, het vinden van de juiste aanpak voor een patiënt of om het voorspellenvan pieken in de werkdruk: AI kan je hierbij helpen.
En ja, dit kan ook met de gevoelige data in patiëntendossiers. Zo hebben we een pseudonimisatie-tool ontwikkeld die gespecialiseerd is in Nederlandse zorgteksten en zetten we Federated Learning in om van data van verschillende ziekenhuizen te werken zonder deze data te verplaatsen.
Ziekenhuizen in Nederland zijn bij wet verplicht om universele diagnosecodes toe te wijzen aan patiëntdossiers (en dit te rapporteren aan de NZa en het CBS). Ziekenhuizen hebben hier specifiek getrainde mensen voor in dienst, die deze codetoekenning handmatig doen. Dit – vaak saaie – mensenwerk kost veel tijd en is (daardoor) ook nog eens vatbaar voor fouten.
DHD wilde een manier vinden om de ziekenhuizen en deze codeurs te ondersteunen bij deze bewerkelijke taak. Bijvoorbeeld in de vorm van een tool die 'makkelijke gevallen' automatisch verwerkt en codeurs ondersteunt bij lastigere gevallen.
Dit kan met AI. Er bestaan namelijk al miljoenen gelabelde patiëntendossiers (voorbeelden) waarvan geleerd kan worden. Deze voorbeelden:
Daarom hebben we gebruik gemaakt van:
om een tool te ontwikkelen die uit de vrije tekst van patiëntendossiers (bijv. ontslagbrieven en OK-verslagen) kan herkennen welke ICD-10-codes van toepassing zijn en deze toekent.
Bij het ontwikkelen van een AI-model moet je altijd oppassen dat het de juiste dingen leert. Zeker als het om gevoelige toepassingen gaat, moet je ervoor zorgen dat het zo min mogelijk fouten maakt. En dat je snapt waarom een model bepaalde beslissingen maakt. Pas dan kan je taken volledig automatiseren. Als je dat überhaupt al zou willen.
Met de voorwaarde dat het model 80% zeker moet zijn, kon ons AI-model al snel meer dan 30% van de codes volledig automatisch toekennen. Dat klinkt misschien laag, maar stel je voor dat je een derde van je werktijd zou kunnen besparen!
Voor gevallen waar de zekerheid van de AI onder de gewenste drempel valt, wordt de gebruiker een top 5 van waarschijnlijkste codes voorgelegd (met uitleg!), zodat de juiste gemakkelijk handmatig gekozen kan worden. Dit bespaart nog steeds veel tijd t.o.v. het met de hand opzoeken van het juiste label zonder voorselectie.
Hoe kunnen we wearables inzetten in klinisch onderzoek? Onze klant doet veel medisch onderzoek bij proefpersonen en wil graag sensordata voor studies kunnen gebruiken en de grote hoeveelheden data die dat oplevert effectief kunnen verwerken.
Gebaseerd op onze resultaten is een klinische studie gestart waarin het doel is om patiënten te onderscheiden van gezonde proefpersonen.
Samen met de klant ontwikkelen we AI-modellen om op basis van biometrische sensoren patiënten direct te kunnen diagnosticeren.
Data of bestanden delen, kan niet altijd zomaar. Vaak bevat deze namelijk persoonsgegevens of overige privacyschendende informatie. Als je aan de AVG wilt voldoen, moet je dus eerst wat werk steken in het anonimiseren of pseudonimiseren van de data, voordat je er iets mee mag doen.
Tot nu wordt het meeste anonimiseringswerk met de hand gedaan. Dit is een hoop werk, kost veel tijd en is – net als elke langdurige rotklus – gevoelig voor fouten. Zeker als het gaat om vrije tekst!
Pseuduck is een door ons ontwikkelde pseudonimiseringstool die het gemakkelijker maakt om jouw vrije teksten – van kleine tekstvelden tot grote (collecties van) documenten – AVG-proof te maken.
Het mooie van Pseuduck is dat we het kunnen bijtrainen in verschillende vakgebieden én in het Nederlands, om jouw teksten, in jouw vakjargon en naar jouw behoeften te kunnen pseudonimiseren of anonimiseren.
Onderzoekers die (systematisch) literatuuronderzoek doen, moeten vaak véle duizenden artikelen screenen om die artikelen te vinden die relevant zijn voor hun onderzoek. Daarbij moeten ze grondig zijn, omdat er vaak niets gemist mag worden. Echter zijn van die duizenden papers vaak slechts een paar honderd relevant. Deze selectie handmatig doen kost ontzettend veel nuttige tijd en is simpelweg niet leuk.
Normaal gesproken train je een AI-model op basis van gelabelde data. Op basis van voorbeelden. Maar dat kan in dit geval niet! De uitdaging is namelijk dat gezien elke literatuurstudie anders is, er geen voorbeelden zijn. Dat labelen van die voorbeelden is eigenlijk precies je werk. Maar dat betekent niet dat je dan geen AI kunt trainen!
Hiervoor hebben we Active Learning gebruikt: een type AI dat leert van menselijke input en zich continu verbetert tijdens het werken. Zo kan de onderzoeker op dezelfde manier aan de slag met hun werk, terwijl de AI meeleert. Op het moment dat de AI zeker genoeg is dat het de juiste patronen heeft opgepikt, neemt deze het labelen van de artikelen over en hoeft de onderzoeker dit alleen nog te valideren of corrigeren. Scheelt een hoop werk!
Lees meer over Selecticalkeyboard_arrow_rightVraag direct een demo aankeyboard_arrow_right