ALBA ASENJO. BUSINESS INSIDER.- Un estudio de la Universidad George Washington apunta que Uber y otras aplicaciones de vehículos con conductor podrían estar cobrando más a los usuarios de barrios mayoritariamente negros de Chicago.
La investigación ha analizado más de 100 millones de viajes realizados entre noviembre del 2018 y diciembre de 2019 y ha encontrado discriminación racial en el algoritmo de Uber y otras aplicaciones similares, principalmente basada en el barrio en que se deja al pasajero.
Otros datos por los que el algoritmo podría estar subiendo el precio son «la edad, el precio de las viviendas, la educación y la etnia». El estudio se define como «el primer trabajo a gran escala» de los algoritmos que determinan los precios de las aplicaciones de vehículos con conductor.
«El análisis muestra que los usuarios de aplicaciones de ridehailing [plataformas de vehículos con conductor] en la ciudad de Chicago podrían estar experimentando un sesgo social en relación a las tarifas de precios según sean recogidos o llevados a barrios con un porcentaje bajo de individuos por encima de los 40 o con un porcentaje bajo de individuos con el graduado escolar o menos», reza la investigación.
«Además, los usuarios podrían estar experimentando un sesgo social si son recogidos en un vecindario con un bajo porcentaje de casas con un precio menor que la media de Chicago, o llevados a un barrio con un bajo porcentaje de personas blancas», recoge el informe en sus conclusiones.
«Esto implica que los usuarios en barrios con un porcentaje más bajo de estos parámetros demográficos podrían estar experimentando un impacto dispar y tener que pagar más por carreras que usuarios en otros barrios».
«Nuestro estudio de datos del censo (…) también sugiere que la diferencia en las tarifas de precios según barrios también podría extenderse a atributos individuales como la edad, la educación, precios de las viviendas y etnia».
La idea de que algunos algoritmos o que la inteligencia artificial a veces afecta de forma desproporcionada —intencionada o desintencionadamente— y ciertos grupos no es nueva.
En 2015, la compañía de servicios de preparación para la entrada en la universidad The Princeton Review diseñó un modelo que, se descubrió, era el doble de probable que cobrase más a los estadounidenses con ascendencia asiática que a otros clientes.
Los investigadores apuntan que es vital que se identifiquen sesgos de este tipo y se les ponga freno.
«Los algoritmos aprenden de injusticias históricas»
«Cuando se aplica el machine learning a datos sociales, los algoritmos aprenden de las regularidades estadísticas de injusticias históricas y sesgos sociales que hay embebidos en esos conjuntos de datos», ha apuntado el coautor del paper y profesor Aylin Caliskan y el doctorando Akshat Pandey a VentureBeat en un email.
«Partiendo de que los modelos de machine learning están entrenados en datos que contienen sesgos, queríamos explorar si los conjuntos de datos en los que se basan los algoritmos de las aplicaciones de vehículos con conductor mostraban algún tipo de sesgos sociales».
Los investigadores escogieron la ciudad de Chicago porque una reciente ley exige que las aplicaciones de vehículos con conductor revelen sus tarifas de precios, así como datos como localización de la recogida y destino de los usuarios.