La política de la Inteligencia Artificial: sus usos en el sector público y sus implicancias regulatorias


Publicado en octubre de 2019

Los algoritmos son utilizados cada vez más en la sociedad para tomar decisiones que afectan nuestras vidas, desde la selección de las publicidades a las que nos exponemos en las redes sociales hasta los pilotos automáticos de los aviones en que viajamos. En muchos lugares del mundo, los gobiernos también los están comenzando a utilizar para proveer servicios públicos. Ya sea para definir la asignación de recursos (por ejemplo, decidir dónde se ubicarán cámaras de seguridad), agilizar procedimientos gubernamentales (como la elegibilidad de ciudadanos para recibir beneficios públicos), o para colaborar en la toma decisiones (por ejemplo, si una persona recibirá una fianza), la IA llegó para quedarse.

A pesar de la importancia de sus usos y decisiones, por el impacto directo que tiene en la vida de las personas y en sus derechos, las agencias gubernamentales que los utilizan suelen desarrollar e implementar sistemas de algoritmos con bajos niveles de transparencia, conocimiento público, y medidas de supervisión o responsabilidad.

Los algoritmos son creaciones humanas falibles. Potencialmente tienen tantos errores y sesgos como los procesos humanos y no siempre su procesamiento es transparente o auditable. Sin embargo, pocos países han manifestado la voluntad de regular, un número aún menor ha efectivamente aprobado alguna regulación, y su contenido difiere sustancialmente entre casos. Para la gran cantidad de países que aún no tienen regulaciones específicas (e incluso para quienes ya tienen alguna), la discusión es amplia y los modelos propuestos son variados, aunque se distinguen principalmente en dos grupos: aquellos que impulsan una regulación horizontal – por tipo de tecnología – de aquellos que impulsan una regulación vertical por sector.

Las líneas que siguen presentan cuatro temas claves para tomar en cuenta a la hora de analizar el uso, funcionamiento y regulación de la inteligencia artificial: la caja negra o apertura del procesamiento de la información, los sesgos de los algoritmos, la ética de la selección, y el manejo de la información, con especial énfasis en la protección de los derechos de privacidad y de datos personales. Para analizar estos aspectos de la política de inteligencia artificial, en el mundo en general y para países en desarrollo en particular, se toma a la inteligencia artificial (IA) desde dos perspectivas complementarias. Por un lado, aborda el rol de esta tecnología como sujeto de política pública, en tanto es una tecnología plausible de ser alcanzada por un andamiaje regulatorio particular, diseñado tanto para resguardar como para potenciar sus posibles usos. Por otro lado, identifica los usos de la IA como insumo de las políticas públicas, en tanto herramienta utilizada para llevar adelante políticas en materia de salud, educación, defensa y seguridad, y administración interna del Estado.

Para contribuir a un desarrollo sostenido, con equidad, es indispensable comenzar a discutir las implicancias que la IA trae para los países latinoamericanos: las oportunidades para potenciar la eficiencia del sector público y mejorar las capacidades estatales, los riesgos a tener en cuenta a la hora de utilizar estos algoritmos, y las posibilidades existentes en materia regulatoria.

Para analizar el uso, funcionamiento y regulación de la inteligencia artificial se deben tomar en cuenta la apertura del procesamiento de la información, los sesgos de los algoritmos, la ética de la selección, y el manejo de la información con énfasis en la protección de los derechos de privacidad y de datos personales.

    Recibí novedades