José García Montalvo durante su conferencia en la Fundación Ramón Areces

El último premio Jaime I de Economía cuestiona el escaso desarrollo de estas tecnologías con fines sociales en nuestro país

El profesor José García Montalvo, reciente Premio Jaime I de Economía, considera que existe un enorme desequilibrio en el uso de la inteligencia artificial y del big data para resolver problemas de mercado y su utilización para atajar problemas sociales a través de la investigación y la evaluación de políticas públicas. Así lo ha expresado en una conferencia pronunciada en la Fundación Ramón Areces con el lema ‘Big data y economía en la era de las fake news y las verdades imprecisas: datos administrativos para la investigación social y la evaluación de políticas públicas’.

El catedrático de la Universidad Pompeu Fabra ha puesto numerosos ejemplos de aplicaciones reales de estas herramientas en el mundo financiero y corporativo. “La inteligencia artificial y la enorme cantidad de datos disponibles abren una cantidad inmensa de posibilidades de mejorar los procesos productivos, empresariales y de conocimiento de los problemas sociales y propuesta de soluciones”, ha explicado.

García Montalvo ha mostrado distintos ejemplos de cómo el sector financiero está utilizando estas técnicas. Tal es el caso de Neo Finance, compañía de Palo Alto, en California, especializada en créditos para la adquisición de vehículos para solicitantes jóvenes con poco historial laboral que tendría que pagar unos tipos altos en una financiera clásica. Esta empresa utiliza el número y la calidad de las conexiones en Linkedin del solicitante con los trabajadores de su empresa, para predecir la estabilidad del empleo en el futuro y la evolución de sus ingresos. “También tiene en cuenta sus contactos en otras empresas para estimar la probabilidad de encontrar un empleo en caso de perderlo con ese objetivo de medir la estabilidad en el empleo”, añade García Montalvo. También ha explicado la técnica empleada por Keditech, que se sirve del lugar de residencia de los amigos y sus trabajos para obtener un crédito: si quien solicita el préstamo tiene amigos con créditos impagados, esa persona tiene menor probabilidad de conseguir el crédito. “Lo curioso de este algoritmo es que toma una decisión en una media de ocho segundos y consigue una tasa de morosidad menor del 10%”. “La desintermediación está afectando a las cuentas de resultados de las entidades financieras. Aunque en el pasado reciente este fenómeno se ha concentrado fundamentalmente en medios de pago (modelas criptográficas, pagos vía móvil, monedas complementarias…), la competencia hacia otras partes de la cadena de valor se está moviendo rápidamente con los préstamos ‘peer to peer’, préstamos al consumo…”, ha añadido García Montalvo.

En el caso de la distribución, este economista ha puesto el ejemplo de Amazon, donde “una tercera parte de las ventas son resultado del sistema personalizado de recomendación”. “Compararon las recomendaciones de críticos profesionales con las proporcionadas por algoritmos, a partir de los datos que iban recogiendo y el segundo sistema ganó por goleada, de manera que echaron a todos los críticos”, ha explicado.

Para este experto, el problema fundamental en la actualidad no es la capacidad de computación sino la creación de información a un ritmo más rápido que la capacidad de almacenarla y la energía necesaria para mover la información entre el procesador y el dispositivo de almacenaje de la información. “El big data y, en particular los datos administrativos, son ingentes, permiten trabajar con toda la población, alcanzan un nivel de detalle extraordinario y no tienen los problemas de los datos tradicionales en economía”, ha añadido.

“Si bien es cierto que el big data proporciona herramientas muy útiles, no es menos cierto que la transformación de un proyecto de big data en un programa de éxito no está garantizada porque los datos no proporcionan ventaja si no se analizan correctamente”. Para García Montalvo, también hay que tener en cuenta el coste- beneficio (ROI). Y ha apuntado que, además del conocimiento técnico, hace falta estar dispuestos a analizar constantemente la capacidad predictiva de los modelos y hacer ajustes a medida que el sistema pierde potencia explicativa. Además, el “big data” también presenta una serie de peligros (injerencias en la privacidad, discriminación implícita de algunos algoritmos, etc.) que deben ser afrontados con realismo.

Para finalizar, García Montalvo ha subrayado el contraste del enorme desarrollo del big data para resolver problemas empresariales y el limitado alcance que todavía tiene para abordar problemas sociales a través de la investigación y la evaluación de políticas públicas. Ciertamente, este problema es más acuciante en algunos países que en otros. En el caso español nos encontramos en un nivel significativamente atrasado y con fuertes desequilibrios: mientras que la Agencia Tributaria dispone de ingentes cantidades de datos y algoritmos muy potentes para descubrir el fraude fiscal, prácticamente no sabemos nada de la efectividad del gasto público y, en muchos casos, ni siquiera de los montos precisos de políticas públicas muy importantes. •••