Kunstmatige intelligentie en lhbti+ emancipatie

Een verkenning van kansen en risico’s, stakeholders en mogelijke interventies in vier maatschappelijke deelgebieden

Het doel van dit onderzoeksrapport is achterhalen op welke wijze kansen en risico's van kunstmatige intelligentie voor de lhbti+ (on)gelijkheid kunnen worden benut c.q. beperkt. Dit wordt in kaart gebracht voor de deelgebieden onderwijs, arbeidsmarkt, gezondheidszorg en (online) veiligheid.

Het onderzoek is een eerste verkenning over hoe lhbti+ en kunstmatige intelligentie zich tot elkaar verhouden, en is daarom beperkt tot deze vier deelgebieden. Per deelgebied worden de belangrijkste verantwoordelijke actoren (stakeholders) in beeld gebracht, evenals aanknopingspunten voor beleid die kunnen bijdragen aan gelijke behandeling van lhbti+ personen in en door kunstmatige intelligentie. Om de onderzoeksvraag te beantwoorden, is een literatuurstudie verricht, een interview afgenomen en een expertmeeting georganiseerd met experts op het gebied van kunstmatige intelligentie en/of lhbti+ vraagstukken.

Impact en risico's

Er is relatief weinig bekend over de impact van kunstmatige intelligentie op de lhbti+ gemeenschap. Wel wijst onderzoek uit dat er problemen zijn met gezichtsdetectie van transgender personen, met name tijdens de transitie. Daarbij blijken kunstmatige neurale netwerken de seksuele oriëntatie van personen met veel grotere accuraatheid te kunnen detecteren dan mensen, wat belangrijke risico’s oplevert rondom privacy en (online) veiligheid van lhbti+ personen, bijvoorbeeld als het in gezichtsherkenningssoftware zou worden toegepast. De Leidse onderzoeker Fosch-Villaronga wijst daarnaast op ongewenste effecten van het gebruik van filters door digitale platformen als Twitter en Facebook zonder oog te hebben voor de sociale context.

Een voorbeeld is het onderling geaccepteerd taalgebruik van drag queens. Binnen de gemeenschap van drag queens is de term ‘bitch’ bijvoorbeeld normaal en wordt plagerig en/of positief gebruikt. Het algoritme van Facebook en Twitter ziet dit woord echter als ordinair of beledigend (‘toxic’) taalgebruik en verwijdert de content. Dit leidt onbedoeld tot een inperking van de uitingsvrijheid voor deze groep (Fosch-Villaronga, 2020).

Noodzaak en zorgen

Geconcludeerd kan worden dat er nog maar weinig onderzoek naar en kennis is van de crosssectie tussen kunstmatige intelligentie en lhbti+ emancipatie. De experts onderstreepten dan ook de noodzaak van onderzoek en een multi-stakeholder aanpak, waarbij de betrokkenheid van de lhbti+ gemeenschappen als noodzakelijke randvoorwaarde werd gezien om tot de ontwikkeling van inclusieve kunstmatige intelligentie te komen. Experts spraken hun zorgen uit over de opslag, vertrouwelijkheid, transparantie, representativiteit, heteronormativiteit en de mensenrechtentoets van bestaande datasets. Middels bewustwording en regelgeving moet het mogelijk worden om meer grip op te krijgen op deze terechte zorgen.

Inclusief beleid

Deze verkenning onderstreept het belang van het betrekken van stakeholders vanaf het begin én in samenspraak om tot beleid, innovaties en handelingsperspectieven te komen die inclusief zijn en niet (on)bedoeld lbhti+ personen uitsluiten. Belangrijke stakeholders zijn investeerders en bedrijven, ministeries, wetenschap en kennisinstituten, de nationale AI-coalitie en bovenal lhbti+ gemeenschappen en -belangenorganisaties. Daarbij is het van belang om continu oog te hebben voor de kwetsbare positie van lhbti+ personen bij het ontwerp en de uitvoering van kunstmatige intelligentiesystemen. Zeker gezien de kwetsbare positie van lhbti+ personen, is het belangrijk de waarde van kunstmatige intelligentie niet zomaar voor lief te nemen. Uit zowel de literatuurstudie als uit de gesprekken met de experts blijkt dat het belangrijk is om de inzet van kunstmatige intelligentie kritisch langs de meetlat te leggen, samen met alle betrokken partijen, om na te gaan hoe het kan bijdragen aan de inclusie en, idealiter, de emancipatie van lhbti+ personen, zonder onbedoelde effecten en schadeberokkening.

Bekijk en download de publicatie hieronder