De COVID-19-pandemie gewezen op verschillen in de gezondheidszorg in de VS in de afgelopen jaren. Nu, met de opkomst van kunstmatige intelligentie, waarschuwen experts ontwikkelaars om voorzichtig te zijn bij het implementeren van modellen om ervoor te zorgen dat deze ongelijkheden niet erger worden.
dr. Jay Bhatt, geriater en algemeen directeur van Deloitte’s Center for Health Solutions en Health Equity Institute, sprak met MobiHealthNieuws hem inzicht geven in de mogelijke voor- en nadelen van kunstmatige intelligentie in de zorg.
MobiHealthNieuws: Wat vindt u van het gebruik van kunstmatige intelligentie door bedrijven die ongelijkheid op gezondheidsgebied proberen op te lossen?
Jay Bhatt: Ik denk dat de ongelijkheden die we proberen op te lossen aanzienlijk zijn, ze zijn hardnekkig. Ik zeg vaak dat gezondheidsverschillen een chronische aandoening van Amerika zijn. We hebben geprobeerd het te repareren met pleisters of andere middelen, maar we gaan niet genoeg stroomopwaarts. We moeten nadenken over de structurele systemische problemen die van invloed zijn op de verstrekking van gezondheidszorg en die leiden tot ongelijkheid op gezondheidsgebied – racisme en vooroordelen. En onderzoekers op het gebied van machine learning ontdekken enkele van de reeds bestaande vooroordelen in het gezondheidszorgsysteem. Ze moeten ook, zoals u aangeeft, zwakke punten in de algoritmen aanpakken. En er zijn vragen die in alle stadia rijzen, van het idee tot wat de technologie probeert op te lossen, tot het kijken naar de real-world implementatie.
Ik denk na over het probleem in meerdere vakken. Ten eerste de beperkte gegevens over ras en etniciteit die van invloed zijn, dus daar worden we uitgedaagd. De tweede is oneerlijke infrastructuur. Dus het gebrek aan, weet je, toegang tot het soort tools, je denkt aan breedband en de digitale kloof, maar ook hiaten in digitale geletterdheid en betrokkenheid. De verschillen in digitale geletterdheid zijn dus groot onder bevolkingsgroepen die al te maken hebben met bijzonder slechte gezondheidsresultaten, zoals diverse etnische groepen, personen met een laag inkomen en oudere volwassenen. En dan uitdagingen voor patiëntbetrokkenheid met betrekking tot culturele taal- en vertrouwensbarrières. Technologie-analyse heeft dus het potentieel om echt nuttig te zijn en problemen op het gebied van gezondheidsgelijkheid aan te pakken.
Maar technologie en analyse hebben ook het potentieel om ongelijkheid en discriminatie te verergeren als ze niet met die lens in gedachten zijn ontworpen. Dus we zien deze vooringenomenheid ingebouwd in AI voor spraak- en gezichtsherkenning, de keuze van surrogaten voor de gezondheidszorg. Voorspellingsalgoritmen kunnen leiden tot onnauwkeurige voorspellingen die de uitkomsten beïnvloeden.
MHN: Hoe denkt u dat kunstmatige intelligentie een positieve en negatieve invloed kan hebben op gezondheidsgelijkheid?
Bhatt: Een van de positieve manieren is dus dat AI ons kan helpen bepalen waar prioriteit moet worden gegeven aan actie en waar we middelen moeten investeren en vervolgens actie kunnen ondernemen om ongelijkheden op gezondheidsgebied aan te pakken. Het kan perspectieven onthullen die we misschien niet kunnen zien.
Ik denk dat een ander probleem algoritmen zijn die een positief effect hebben op hoe ziekenhuizen middelen toewijzen aan patiënten, maar die ook een negatief effect kunnen hebben. Weet je, we zien klinische algoritmen gebaseerd op ras, vooral rond nierziekte, niertransplantatie. Het is een van de vele voorbeelden die naar voren zijn gekomen waar sprake is van vooringenomenheid in klinische algoritmen.
Dus gooiden we een artikel hierover dat echt interessant was en enkele van de plaatsen laat zien waar dit gebeurt en wat organisaties kunnen doen om het aan te pakken. Dus ten eerste is er vertekening in statistische zin. Misschien werkt het geteste model niet voor de onderzoeksvraag die je probeert te beantwoorden. Ten tweede is er variantie. Je hebt dus niet genoeg steekproefomvang om een echt goed resultaat te krijgen. En dan is het laatste het lawaai. Dat er iets is gebeurd tijdens het gegevensverzamelingsproces, lang voordat het model is ontwikkeld en getest, dat het model en de uitkomsten beïnvloedt.
Ik denk dat we meer data moeten creëren om divers te zijn. De hoogwaardige algoritmen die we proberen te trainen, hebben de juiste gegevens nodig, en vervolgens systematisch en grondig nadenken en beslissingen nemen bij het selecteren van de te gebruiken datasets en algoritmen. En dan moeten we investeren in talenten die verschillen in afkomst en ervaring.
MHN: Wat zijn uw angsten als bedrijven deze noodzakelijke wijzigingen in hun aanbod niet aanbrengen naarmate AI vordert?
Bhatt: Ik denk dat het goed zou zijn als organisaties en individuen beslissingen nemen op basis van gegevens die mogelijk onnauwkeurig, onderbelicht en onvoldoende doordacht zijn met betrekking tot mogelijke vooringenomenheid.
Een andere angst is hoe het wantrouwen en verkeerde informatie verder aanwakkert in een wereld die er echt mee worstelt. We zeggen vaak dat gezondheidsgelijkheid kan worden beïnvloed door hoe snel u vertrouwen opbouwt, maar ook, wat nog belangrijker is, door hoe u vertrouwen behoudt. Wanneer we het resultaat niet doordenken en testen, en blijkt dat het ongewenste gevolgen kan hebben, moeten we er toch verantwoordelijk voor zijn. En daarom willen we deze problemen minimaliseren.
De tweede is dat we ons nog in de beginfase bevinden om erachter te komen hoe generatieve AI werkt, toch? Dus generatieve AI is nu echt uit de schijnwerpers gekomen, en de vraag zal zijn hoe de verschillende AI-tools met elkaar communiceren, en wat is dan onze relatie met AI? En wat is de relatie tussen verschillende AI-tools, omdat bepaalde AI-tools in bepaalde omstandigheden beter kunnen zijn – een voor de wetenschap versus het toewijzen van middelen versus het geven van interactieve feedback.
Maar weet u, generatieve AI-tools kunnen lastige vragen oproepen, maar ze kunnen ook nuttig zijn. Als u bijvoorbeeld op zoek bent naar ondersteuning, zoals wij op zoek zijn naar telegezondheid voor geestelijke gezondheid, en individuen berichten ontvangen die mogelijk zijn samengesteld door kunstmatige intelligentie, bevatten die berichten niet het soort empathie en begrip. Dit kan ongewenste gevolgen hebben en de aandoening verergeren of iemands vermogen om zorg te willen verlenen beïnvloeden.
Ik denk dat betrouwbare kunstmatige intelligentie en ethische technologie van het grootste belang zijn – een van de belangrijkste kwesties waarmee het gezondheidszorgsysteem en life science-bedrijven moeten worstelen en waarover strategieën moeten worden ontwikkeld. AI heeft gewoon een exponentieel groeipatroon, toch? Het verandert zo snel. Dus ik denk dat het erg belangrijk zal zijn voor organisaties om hun aanpak te begrijpen, snel te leren en de flexibiliteit te hebben om enkele van hun strategische en operationele benaderingen van AI aan te pakken, en vervolgens te helpen de geletterdheid te bieden en clinici en zorgteams te helpen deze effectief te gebruiken .