Alejandro Huergo, Jesús Mercader y María Emilia Casas en la Fundación Ramón Areces

La inteligencia artificial y sus algoritmos ya señalan qué contribuyente es sospechoso de estar cometiendo fraude a la Hacienda pública, qué recluso merece disfrutar de un permiso penitenciario, qué paciente puede desarrollar un tumor… Expertos reunidos en la Fundación Ramón Areces para analizar ‘La regulación de los algoritmos’ se han mostrado a favor de fomentar una mayor transparencia en torno al uso que se viene haciendo de estas herramientas tecnológicas para tomar determinadas decisiones. María Emilia Casas, miembro del Consejo de Ciencias Sociales de la Fundación Ramón Areces, ha moderado un encuentro con los juristas Jesús Mercader, catedrático de Derecho del Trabajo y de la Seguridad Social en la Universidad Carlos III, y Alejandro Huergo, catedrático de Derecho Administrativo en la Universidad de Oviedo. Todos ellos han coincidido a la hora de reclamar un mayor control y sobre todo un mejor conocimiento por parte de la ciudadanía de cómo funcionan los algoritmos.

Para Alejandro Huergo, “hay obligaciones de transparencia, aunque la frontera es ver hasta dónde llegan”. “Hay miedo a mostrar cómo funcionan los algoritmos. Por ejemplo, la Administración no quiere mostrar los que utiliza para identificar a presuntos infractores. Se teme que, si se conoce el algoritmo, se le intente engañar, pero eso mismo pasa con los servicios de posicionamiento web, cuyo objetivo es engañar a su vez al algoritmo de Google para aparecer mejor en el buscador”. También ha destacado que “la justicia va a tener que empezar a conocer los procesos que utilizan los algoritmos y se va a encontrar con situaciones en las que acabarán juzgando al propio algoritmo”. “El primer reto va a ser enjuiciar el uso de los algoritmos”, ha añadido. En su opinión, la administración de justicia también podría “paliar su falta de recursos y personal con herramientas de este tipo que ayudaran en tareas repetitivas o automáticas”.

Huergo ha recordado cómo en estos momentos las empresas con mayor capitalización bursátil son aquellas compañías que se basan en el análisis de datos y en la inteligencia artificial, mencionando, entre otras, a Facebook, Amazon, Netflix o Google. “La automatización facilita a las empresas reducir costes y ser más eficientes, por ejemplo, con el análisis automático de datos para conocer las conductas de los usuarios de Internet, anticiparse a sus deseos, enviarles publicidad personalizada… En el mundo de los seguros también se ha avanzado mucho en este campo”. Y también ha destacado sus logros en investigación y medicina: “En la interpretación de pruebas diagnósticas, el algoritmo ha demostrado que puede predecir enfermedades importantes con mayor precisión que el ojo clínico del profesional por tener registradas millones de resonancias o radiografías previas. Es un claro ejemplo de cómo los algoritmos pueden mejorar la vida de las personas, pero tampoco podemos pensar que la inteligencia artificial es perfecta. De hecho, no ha sido capaz de prevenir una pandemia como la que estamos sufriendo”, ha afirmado.

Ambos juristas han coincidido no solo en esa necesidad de una mayor transparencia sobre el uso y funcionamiento de los algoritmos, sino que han insistido sobre sus posibles sesgos en la toma de decisiones. Para Mercader, “el aire que respiran los algoritmos son los datos y, al respirar, también pueden contraer virus. Los algoritmos, en principio, son neutros y no tienen imaginación ni emociones, pero si nosotros les entregamos datos sesgados, el resultado tendrá ese sesgo discriminatorio que luego podemos descubrir en procesos de selección de personal, en la concesión de ayudas…”. Para este catedrático de la Universidad Carlos III, los tribunales están empezando a reconocer como discriminatorios algunos algoritmos. Hay que dar un paso más en la protección de datos, por ejemplo, a través de la anonimización de los datos, de un mayor control sobre esas informaciones, de una mayor transparencia… “no es que haya que conocer el algoritmo, pero sí su lógica. No hay que olvidar que en algunos casos el algoritmo puede ser el corazón de la empresa y que puede ser secreto, pero su lógica no debería serlo”, ha afirmado.

También se ha abordado en este debate sobre ‘La regulación de los algoritmos’ quién es el responsable en cada caso. Al respecto, Mercader ha señalado que “una empresa que delega parte de sus decisiones sobre un algoritmo sigue siendo la responsable”. “Aún no podemos decir que el jefe sea un algoritmo, pero sí es cierto que cada vez está delegando muchas facultades en un algoritmo”.

Sobre la aplicación de la inteligencia artificial en otros campos, Mercader ha mencionado las aportaciones de sistema Watson, de IBM, en el campo de la abogacía. “Es un algoritmo predictivo que acierta en un 70% de casos en qué dirección va a ir la sentencia del juez, pero aún no es todo lo efectivo que sería deseable si tenemos en cuenta que de partida tenemos un 50% de posibilidades de acertar”, ha concluido. •••