China revela su agenda de IA al mundo y ofrece valiosas lecciones para EE UU

Tres días después de que la administración Trump publicara su esperado plan de acción sobre IA, el gobierno chino presentó su propio proyecto de política en la materia. ¿Fue una coincidencia? Lo dudo.

El \»Plan de Acción para la Gobernanza Global de la IA\» de China se publicó el 26 de julio, coincidiendo con el primer día de la Conferencia Mundial sobre Inteligencia Artificial (WAIC), el mayor evento anual sobre IA en China. Geoffrey Hinton y Eric Schmidt fueron algunas de las muchas figuras occidentales de la industria tecnológica que asistieron a los festejos en Shanghái.

Dos visiones muy diferentes

El ambiente en la WAIC era el polo opuesto a la visión de Trump de \»Estados Unidos primero\» y \»regulación ligera\» para la IA. En su discurso de apertura, el primer ministro chino, Li Qiang, defendió la importancia de la cooperación mundial en materia de IA. Le siguieron una serie de destacados investigadores chinos en el área, quienes ofrecieron charlas técnicas en las que destacaron cuestiones urgentes que la administración Trump parece estar ignorando en gran medida.

Zhou Bowen, director del Laboratorio de Inteligencia Artificial de Shanghái, una de las principales instituciones chinas de investigación sobre IA, destacó el trabajo de su equipo en torno a la seguridad de la IA durante el WAIC. También sugirió que el gobierno podría desempeñar un papel en la supervisión de los modelos comerciales de inteligencia artificial para detectar vulnerabilidades.

Colaboración internacional en IA

En una entrevista, Yi Zeng, profesor de la Academia China de Ciencias y una de las voces más destacadas del país en el ámbito de la IA, afirmó que espera que las organizaciones de seguridad en IA de todo el mundo encuentren formas de colaborar: \»Lo mejor sería que se unieran el Reino Unido, Estados Unidos, China, Singapur y otros institutos\».

La conferencia también incluyó reuniones a puerta cerrada sobre cuestiones de política en seguridad de la IA. Paul Triolo, socio de la empresa de asesoría DGA-Albright Stonebridge Group, declaró que los debates habían sido productivos, a pesar de la notable ausencia de liderazgo estadounidense. Con Estados Unidos fuera de juego, \»una coalición de los principales actores de la seguridad de la IA, codirigida por China, Singapur, el Reino Unido y la Unión Europea, dirigirá ahora los esfuerzos para construir barreras de protección en torno al desarrollo de modelos de IA en las fronteras\», afirmó Triolo.

Cambio de posiciones

Si comparamos el proyecto de IA de China con el plan de acción de Trump, parece que los dos países han cambiado de posición. Cuando las empresas chinas empezaron a desarrollar modelos avanzados de IA, muchos observadores pensaron que se verían frenadas por los requisitos de censura impuestos por el gobierno. Ahora, los líderes estadounidenses dicen que quieren asegurarse de que los modelos de IA de cosecha propia \»persiguen la verdad objetiva\», un empeño que es \»un ejercicio flagrante de sesgo ideológico descendente\». Por su parte, el plan de acción chino sobre IA parece un manifiesto globalista: recomienda que las Naciones Unidas ayuden a liderar los esfuerzos internacionales en la materia y sugiere que los gobiernos tienen un papel importante que desempeñar en la regulación de la tecnología.

Aunque sus gobiernos son muy diferentes, en lo que respecta a la seguridad de la IA, a los ciudadanos de China y Estados Unidos les preocupan muchas de las mismas cosas: las alucinaciones de los modelos, la discriminación, los riesgos existenciales, las vulnerabilidades de ciberseguridad, etc. Dado que EE UU y China están desarrollando modelos de IA de vanguardia, \»entrenados en la misma arquitectura y utilizando los mismos métodos de escalado de leyes, los tipos de impacto social y los riesgos que plantean son muy, muy similares\». Esto también significa que la investigación académica sobre seguridad de IA está convergiendo en ambos países, incluso en áreas como la supervisión escalable y el desarrollo de normas de pruebas de seguridad interoperables.