UNO Diciembre 2021

Gobernanza e Inteligencia Artificial: cuestión de Estado

En la próxima década, la innovación en materia de Inteligencia Artificial (IA) aplicada será exponencial, registrando un crecimiento anual del mercado global de IA de más de un 40 %. El crecimiento es posible al sumar la disponibilidad de grandes cantidades de datos con mejoras en la capacidad de computación, almacenamiento y latencia y el creciente uso empresarial de herramientas de IA.

La aplicación de la IA a la toma de decisiones de negocio, la provisión de servicios o la optimización de procesos y cadenas de suministro, tendrá implicaciones enormes: desde la composición del empleo a la gestión del transporte, la prestación de servicios básicos (como la seguridad o la salud) o la competencia empresarial y entre países, entre otras.

Por su potencial, sus implicaciones sociales y su carácter disruptivo e imposible de anticipar por completo, la IA es demasiado importante para ser gobernada sin intervención, tratando de atajar ex post sus implicaciones.

Es urgente pasar de la etapa actual, marcada por el vacío regulatorio y algunos esfuerzos (dispares e insuficientes) de “autorregulación” por parte de empresas líderes, a una construcción proactiva de un modelo de gobernanza de la IA que sirva para gestionar su potencial, pero también sus efectos no deseados dentro de un marco común de objetivos y valores. El objetivo: crear una estructura de principios y normas que puedan proteger al ciudadano y generar un crecimiento inclusivo, sin limitar la innovación y sus aplicaciones empresariales.

Es urgente pasar de la etapa actual, marcada por el vacío regulatorio y algunos esfuerzos de “autorregulación” por parte de empresas líderes, a una construcción proactiva de un modelo de gobernanza de la IA que sirva para gestionar su potencial y también sus impactos

Pero, ¿qué significa la gobernanza y cómo construirla en el contexto de la IA? La gobernanza, en su sentido más clásico, busca ordenar y garantizar un equilibrio entre Estado, sociedad civil y sector privado. Es decir, organizar y distribuir el poder y sus consecuencias.

En el contexto que nos ocupa, la gobernanza de la IA debe sentar las bases para el desarrollo de esta nueva tecnología y sus aplicaciones, velando por su integridad, su equidad y su alineación con valores compartidos (como son el respecto a la libertad individual y el Estado de derecho) y minimizando sus riesgos y efectos indeseados.

Existen ejemplos concretos que pueden orientar el desarrollo de un marco de gobernanza de la IA. A nivel de visión, objetivos de largo plazo y valores, hay una ola de países que está avanzando estrategias nacionales de IA, incluyendo Islandia, Noruega, Chile, Nueva Zelanda, Francia o España y también, desde hace tiempo, China.

La gobernanza de la IA debe sentar las bases para el desarrollo de esta nueva tecnología y sus aplicaciones, velando por su integridad, su equidad y su alineación con valores compartidos, y minimizando sus riesgos y efectos indeseados a nivel económico y social

Otros están avanzando en regular algunos de los ámbitos de consecuencias de la AI (caso del Reino Unido con el Online Safety Bill) o en trazar un marco de actuación para el regulador a la hora de enfrentarse a los retos derivados de la IA (caso de Estados Unidos que pide a sus agencias “considerar formas promover la aplicación innovadora de IA al tiempo que se protegen las libertades civiles, la privacidad, los valores estadounidenses y la seguridad económica y nacional”).

Un modelo interesante es el planteado por Nueva Zelanda. En este caso, en vez de crear una regulación “marco” única y específica sobre IA, se pretende integrar la regulación de IA de forma transversal y progresiva en cada norma, a medida que actualiza y modifica el marco normativo.

La gobernanza IA puede gestarse también a través de mecanismos informales -al igual que ha sucedido en el contexto de inversión ESG-. De hecho, este enfoque es una parte importante de la propuesta de Digital Services Act de la UE que busca con la autorregulación incentivar el cumplimiento de las obligaciones de mitigación de riesgo sobre contenido “ilícito” o la futura actualización del European Code of Practice of Disinformation, que ampliará su foco a contenido “dañino”.

En cualquier caso, la regulación en la era de IA debe cambiar y adaptarse para llegar a un modelo de regulación inteligente, proactiva y flexible. Para ello será necesario el desarrollo de nuevas capacidades regulatorias centradas en tres pilares:

  1. Anticipación: cualquier intento de regular la IA de forma ex post fracasará. Hemos visto, por ejemplo, consecuencias reales y dramáticas derivadas del vacío regulatorio sobre las grandes plataformas. Tenemos datos suficientes respecto a posibles impactos sociales e incluso institucionales como para tratar de orientar desde ya las actividades de desarrollo y, sobre todo, aplicación de la IA hacia los impactos deseados, minimizando sus riesgos.
  2. Adaptación: los reguladores deben tener a su disposición nuevas herramientas para poder identificar y anticipar escenarios y esbozar alternativas regulatorias. El uso de datos para el diseño de políticas públicas debe normalizarse, con toda la inversión en capacidad que ello implica. Otras herramientas, como el “sandbox” regulatorio (que permite realizar experimentos en modelos de negocio no regulados bajo supervisión) y el uso de estándares y principios orientadores, deben favorecerse cuanto antes. En suma, el ciclo completo de evaluación ex ante, durante y ex post debe por fin integrarse plenamente en el proceso regulatorio si queremos que sea flexible y adaptativo de cara a la ola de innovación que viene.
  3. Colaboración: los retos estructurales derivados de la IA aplicada no serán únicos a un país y tampoco privativos de un único sector de actividad. La regulación, acostumbrada a trabajar en silos sectoriales deberá trabajar de forma completamente transversal, como en el caso de Nueva Zelanda. Para ello, será necesario un diálogo permanente (no solo en ciertas etapas regulatorias) con el sector privado. Del mismo modo, deben crearse los foros adecuados para el intercambio de prácticas e iniciativas regulatorias, en etapas tempranas, entre países. La OECD y la UNESCO han avanzado ya en esa dirección a nivel macro.

La clave que inclinará el futuro hacia un escenario u otro se encuentra precisamente en si la gobernanza de la AI se trata como una verdadera cuestión de Estado

El desarrollo de la IA y sus implicaciones sociales, económicas e institucionales, pueden evolucionar en varias direcciones, algunas de ellas opuestas. La clave que inclinará el futuro hacia un escenario u otro se encuentra precisamente en si la gobernanza de la AI se trata como una verdadera cuestión de Estado, que permita desplegar innovación y crecimiento sin poner en riesgo nuestros valores y derechos fundamentales.

Paloma Baena
Directora Senior de la Unidad de Proyectos Next Generation EU en LLYC
Es experta en sostenibilidad, digitalización y políticas públicas. Máster en Administración pública y desarrollo internacional por Harvard University. Licenciada en Derecho Internacional por l’Université d’Aix-Marseille III. Exdirectiva en organismos internacionales (OECD, Banco Interamericano de Desarrollo y Banco Mundial) durante más de 15 años. Ha sido directora global de gobernanza en Save the Children International y VP de Alianzas Estratégicas y Policy de Clarity AI. Es miembro del consejo asesor de ADEVINTA Spain y patrona de la fundación Robert F. Kennedy Human Rights. Es profesora adjunta en IE School of Global and Public Affairs.

Queremos colaborar contigo.

¿Buscas ayuda para gestionar un desafío?

¿Quieres trabajar con nosotros?

¿Quieres que participemos en tu próximo evento?