Resumen Ejecutivo

Desde las finanzas y los seguros hasta la agricultura y el transporte, la inteligencia artificial (IA) se está difundiendo a gran velocidad en todos los sectores, creando oportunidades, pero también planteando nuevos problemas de política pública. En el sector público, la IA promete generar ganancias de productividad y mejorar la calidad de los servicios públicos. Al analizar la actividad de las redes sociales en tiempo real, los responsables de política pública pueden, por ejemplo, aprovechar los sistemas de IA para obtener una evaluación más precisa y basada en pruebas de los problemas y necesidades sociales más acuciantes. Los resultados y predicciones de los sistemas de IA pueden servir como base para la formulación, aplicación y evaluación de políticas.

En este contexto, los gobiernos de todo el mundo se están dotando de los conocimientos técnicos necesarios para aprovechar el poder de la IA en apoyo del desarrollo de las políticas públicas. Sin embargo, dado que estas políticas basadas en la IA pueden tener un impacto significativo en la vida y el bienestar de las personas, se necesita un enfoque sistémico que garantice la existencia de las salvaguardias adecuadas para aprovechar las oportunidades que ofrece el uso de estos sistemas por parte de los equipos de políticas públicas y hacer frente a los retos que plantea.

Utilizando el ciclo de vida de los sistemas de IA como marco de análisis, este conjunto de herramientas ofrece orientación técnica a los equipos de políticas públicas que deseen utilizar las tecnologías de IA para mejorar sus procesos de toma de decisiones y sus resultados. Para cada fase del ciclo de vida del sistema de IA –“conceptualización y diseño”, “recolección y procesamiento de datos”, “desarrollo y validación de modelos”, y “uso y monitoreo”–, el conjunto de herramientas identifica los retos más comunes del uso de la IA en contextos de políticas públicas y esboza mecanismos prácticos para detectar y mitigar estos retos.

Los responsables políticos y sus equipos técnicos deben responsabilizarse del buen funcionamiento de un sistema de IA en cada fase de su ciclo de vida. En este sentido, uno de los capítulos de la caja de herramientas está dedicado a analizar los problemas relacionados con la responsabilidad en el uso de la IA para las políticas públicas y a esbozar mecanismos prácticos para abordarlos.

Fiel a su objetivo de promover el uso responsable de la IA para la elaboración de políticas públicas, cada sección del conjunto de herramientas incluye listas de comprobación para ayudar a orientar la aplicación práctica. También se ofrece una herramienta de “perfil de datos” y una “ficha del modelo” para ayudar a evaluar los problemas de datos y documentar las características de un sistema de IA, las suposiciones realizadas y las medidas de mitigación de riesgos aplicadas a lo largo del ciclo de vida. Además, el conjunto de herramientas ofrece una sección con un cuaderno de trabajo que contiene ejemplos prácticos de algunos de los retos y estrategias de mitigación tratados en el informe, así como el código pertinente para aplicarlos utilizando R u otros lenguajes de programación.

A través de la iniciativa fAIr LAC y el Observatorio de Políticas de IA de la OECD, el BID y la OECD se han asociado para ayudar a que el debate sobre políticas de IA pase de los principios de alto nivel a la práctica y la implementación. Este conjunto de herramientas es un paso concreto en esta dirección.

¿Por qué este manual?

A pesar de que existe un número importante de principios que buscan una IA ética, solo proporcionan una orientación de alto nivel sobre lo que debe o no hacerse en su desarrollo y existe muy poca claridad sobre cuáles son las mejores prácticas para ponerlas en funcionamiento (Jobin, Ienca, and Vayena 2019). El objetivo de este manual es proveer esas recomendaciones y bue - nas prácticas técnicas con el fin de evitar resultados contrarios (muchas veces inesperados) a los objetivos de los tomadores de decisiones. Esos fines son variados: pueden referirse a consecuencias no deseables desde el punto de vista de los tomadores de decisiones, desap- rovechamiento de recursos debido a focalizaciones inadecuadas o cualquier otro objetivo que el tomador de decisiones esté buscando lograr. 1

¿Para quién es este manual?

Este manual está pensado para equipos técnicos que trabajan en la aplicación de algoritmos de aprendizaje automático para políticas públicas. Sin embargo, todos los retos que cubre son comunes a cualquier aplicación de esta tecnología. Se asume que el lector cuenta con conocimientos básicos de estadística y programación, aunque cuando se nombran conceptos se incluyen descripciones breves y se comparte bibliografía adicional. El manual incluye cuadernillos de trabajo con varios ejemplos de los retos y soluciones explicadas. Se usan distintos tipos de modelos (lineales, basados en árboles y otros) y distintas implementaciones (R, Keras, Xgboost) para mostrar que estos problemas se presentan independientemente de la elección de herramientas particulares. Aunque los códigos y ejemplos se desarrollaron en R, todos los temas y metodologías aplicadas y descritas en este manual pueden implementarse en cualquier otro lenguaje de programación. 2


  1. Este manual no pretende reglamentar o explicar cuáles deben ser los fines y objetivos de organismos y actores que toman las decisiones.↩︎

  2. Todo el material de este documento es reproducible según instrucciones en el repositorio https://github.com/EL-BID/Manual-IA-Responsable, que contiene un archivo Dockerfile describiendo las dependencias de infraestructura para su replicación. Se utiliza el lenguaje de programación R, y los siguientes paquetes: tidyverse, recipes, themis, rsample, parsnip, yardstick, workflows, tune, knitr, patchwork.↩︎