Het gebruik van asielverzoeken voor kunstmatige intelligentie

Illustration of artificial intelligence (Photo by Google DeepMind / Unsplash)

Vertaalsystemen op basis van kunstmatige intelligentie ( AI ) komen steeds vaker voor in professionele aanvragen, waaronder asielprocessen waar ze meer problemen veroorzaken dan wat ze kunnen oplossen.

De taalbarrière is een van de moeilijkste uitdagingen in zijn zoektocht naar toevlucht in de VS. Veel asielzoekers spreken ofwel niet voldoende Engels ( of Spaans ), of ze spreken deze talen helemaal niet, wat betekent dat er een soort vertaling nodig is. ( Asielzoekers hebben ook recht op vertaling. ) Machinevertaling, hoewel een noodzaak vanwege het stijgende aantal aankomsten, kan nadelig zijn voor toepassingen, volgens de rapportage door het Britse dagblad The Guardian.

Het Amerikaanse immigratiesysteem heeft gezegd dat het migranten indien nodig een menselijke tolk zal bieden. Vluchtelingenorganisaties zeggen dat velen er vaak geen toegang toe hebben. In plaats daarvan vertrouwen de verschillende agentschappen die deel uitmaken van het Amerikaanse immigratiesysteem en zelfs sommige vluchtelingenorganisaties steeds meer op door AI aangedreven vertaaltools zoals Google Translate en Microsoft Translator om die kloof te dichten.

Maar het Amerikaanse immigratiesysteem is gaan vertrouwen op deze vertaaltools zonder hun grenzen volledig te begrijpen, zei de Guardian Ariel Koren, de oprichter van Respond Crisis Translation, een netwerk van 2.500 mensen die dringende tolkdiensten aanbieden.

AI-aangedreven vertaaltools zijn echter onbetrouwbaar voor talen die aanzienlijk verschillen van het Engels of minder volledig gedocumenteerd zijn, citeert The Guardian Damian Harris-Hernandez, de uitvoerend directeur van het Refugee Translation Project, een andere groep die vluchtelingen helpt met vertalingen.

Problemen met de vertaalhulpmiddelen vinden plaats tijdens het hele asielproces, van grensstations tot detentiecentra tot immigratierechtbanken, zeiden verschillende vrijwilligers bij Respond Crisis Translation.

Vrijwilligers van Respond Crisis Translation zeggen dat ze hebben gezien dat gevallen van asielaanvragen werden afgewezen omdat de vertaaltool een “ I ” interpreteerde in de verklaring van een vluchteling als “ we ”, waardoor het lijkt alsof het een aanvraag is voor meer dan één persoon. Ze herinnerden zich ook het geval van een asielzoeker vanwege huiselijk geweld die haar misbruiker in haar aanvraag beschreef als “ mi jefe ”. De vrouw gebruikte de term in de volksmond om haar vader te beschrijven, maar de vertaaldienst vertaalde het letterlijk naar “ mijn baas ”. Haar asielaanvraag werd afgewezen.

De mislukkingen van machinevertalingen die de vrijwilligers tegenkwamen en het onvermogen van AI om de talen van de wereld te vertalen, is een systemisch probleem, betoogde Paula Helm, een assistent-professor in data science en ethiek aan de Universiteit van Amsterdam, en Gábor Bella, een assistent-professor aan de afdeling informatietechniek en informatica van de Universiteit van Trento.

Net als andere AI-tools weerspiegelen en bestendigen machinevertalingsdiensten bestaande vooroordelen in de samenleving en mondiale macht en economische onevenwichtigheden, aldus de onderzoekers. Vanwege de koloniale en imperiale geschiedenis is er geen tekort aan Engelstalige gegevens die in AI-systemen moeten worden ingevoerd. Maar als het gaat om een taal als Swahili, die door meer dan 80 miljoen mensen in heel Afrika wordt gesproken, zijn digitale bronnen volgens de onderzoekers veel schaarser.

Daarnaast zijn er culturele nuances die niet altijd in het Engels kunnen worden gecommuniceerd, zeiden ze. “ Als je door het filter van de Engelse taal gaat en wat wel en niet kan worden uitgedrukt in de Engelse taal ”, kan er kennisverlies tussen talen zijn, zei Bella.

Geef een reactie

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *