El desarrollo y regulación de la inteligencia artificial (IA) se encuentran en un contexto político en constante evolución. Las políticas sobre IA son formuladas por gobiernos a distintos niveles—intergubernamental, internacional, nacional y regional—y también pueden estar orientadas a sectores específicos en colaboración con industrias y empresas. Más allá de las políticas formales y las regulaciones legales, existen acuerdos voluntarios impulsados por la industria, estándares y otros instrumentos que buscan fomentar la autorregulación del sector tecnológico.

A nivel institucional, universidades, bibliotecas y asociaciones del sector han desarrollado políticas para definir sus obligaciones legales y establecer cómo ofrecerán sus servicios en el marco de la regulación de IA. En este sentido, las políticas gubernamentales, industriales e institucionales juegan un papel clave en la estructuración del ecosistema de la IA, ya que influyen en el flujo de información, en la asignación de financiamiento y en la definición de obligaciones legales para las instituciones.

Políticas gubernamentales sobre inteligencia artificial

Las políticas gubernamentales en torno a la IA suelen combinar objetivos de investigación, inversiones en desarrollo tecnológico, establecimiento de estándares y consideraciones geopolíticas. La evolución de la IA en ámbitos como el procesamiento de lenguaje natural (NLP), el aprendizaje automático (ML), los algoritmos de recomendación y la generación de contenido han impulsado diversos marcos normativos.

Sin embargo, el uso inadecuado de la IA ha generado preocupaciones, particularmente en casos de violaciones a la privacidad, sesgos algorítmicos y errores en la gestión de datos en áreas sensibles como el reconocimiento facial, la selección automatizada de candidatos laborales y la administración de pagos de asistencia social. Estos problemas han llevado a un mayor escrutinio y a la formulación de políticas enfocadas en la seguridad y responsabilidad de la IA.

Diferentes gobiernos han adoptado enfoques para mitigar estos riesgos. En la Unión Europea, se han establecido políticas bajo el concepto de IA confiable (Trustworthy AI), mientras que en Canadá se enfatiza el uso responsable de la IA. A nivel global, la UNESCO ha emitido recomendaciones en favor de una IA centrada en el ser humano, con principios que promueven la privacidad, la sostenibilidad, la transparencia y la explicabilidad de los sistemas de IA.

Otras organizaciones, como las Naciones Unidas, han advertido sobre los riesgos de la IA para los derechos humanos, mientras que la Agencia Espacial Europea (ESA) ha explorado el uso de la IA en el ámbito aeroespacial. En Estados Unidos, la comunidad de inteligencia ha señalado que el desarrollo acelerado de la IA podría tener implicaciones significativas para la seguridad nacional y la estabilidad global.

Desafíos en la formulación de políticas sobre IA

Uno de los principales desafíos en la regulación de la IA es cerrar la brecha entre la investigación, la industria y la formulación de políticas públicas. A pesar de los avances en la regulación de la IA en múltiples niveles gubernamentales, aún persisten vacíos normativos. Uno de estos problemas radica en la diversidad de definiciones de IA, ya que los investigadores la conceptualizan desde una perspectiva técnica, mientras que los legisladores suelen abordarla en función de su semejanza con el pensamiento o comportamiento humano.

Dichos vacíos en la formulación de políticas pueden representar una oportunidad para que bibliotecas, organizaciones de la sociedad civil y el sector industrial contribuyan en el desarrollo de marcos regulatorios más integrales. No obstante, determinar cuándo y cómo incidir en la formulación de políticas resulta complejo debido a múltiples factores, como la competencia entre temas en la agenda política, la influencia de grupos de interés y la tendencia a la toma de decisiones incrementales, a menudo impulsadas por crisis o eventos disruptivos.

Además, los legisladores enfrentan el dilema de regular la IA en el momento adecuado: una intervención demasiado temprana podría sofocar la innovación, mientras que una regulación tardía podría generar situaciones en las que los gobiernos se vean obligados a reaccionar ante crisis ya establecidas. En términos de regulación comparativa, no existe un enfoque único que funcione en todos los países, ya que el contexto político, social y económico juega un papel fundamental en la implementación de políticas efectivas.

Autorregulación de la industria

En el ámbito empresarial, los códigos de conducta voluntarios y los estándares técnicos han sido utilizados para fomentar la autorregulación de la IA. Sin embargo, su efectividad es cuestionable. Un ejemplo destacado fue la carta abierta firmada en 2023 por figuras prominentes del sector tecnológico en Estados Unidos, que pedía una pausa en el desarrollo de modelos de lenguaje de gran escala (LLMs). Sin embargo, esta iniciativa fue criticada por ignorar los daños ya existentes derivados de la IA y por citar de manera inexacta investigaciones previas.

Algunas empresas han sido acusadas de restringir la libertad de expresión al imponer mecanismos de censura preventiva en ciertos contenidos generados por IA, como imágenes de políticos. La falta de estándares sólidos en ética, sesgo y precisión, así como el avance acelerado de la tecnología, han superado la capacidad de la industria y los gobiernos para establecer marcos regulatorios adecuados.

Los problemas derivados de datos de entrenamiento sesgados, prácticas laborales no éticas y la proliferación de intermediarios de datos han sido documentados en la literatura académica, lo que ha llevado a algunos gobiernos a considerar una mayor regulación del sector. En Australia, por ejemplo, se han promovido redes de IA responsable dentro de la industria, con la advertencia de que si la autorregulación no resulta efectiva, el gobierno intervendrá con regulaciones más estrictas.

El papel de las bibliotecas en la formulación de políticas de IA

Las bibliotecas han asumido un rol activo en la formulación de políticas sobre IA en distintos países y sectores. A nivel global, la Federación Internacional de Asociaciones de Bibliotecarios y Bibliotecas (IFLA) ha señalado que la IA continúa siendo una prioridad en su agenda, destacando aspectos éticos y técnicos que deben ser considerados en el ámbito bibliotecario.

En Estados Unidos, la Asociación de Bibliotecas Americanas adoptó una resolución en 2021 para oponerse al uso del reconocimiento facial en bibliotecas. En Canadá, la Asociación de Bibliotecas de Investigación ha participado en consultas gubernamentales sobre la regulación de la IA y su relación con las leyes de privacidad. En Australia, diversas organizaciones bibliotecarias han presentado informes en consultas parlamentarias sobre el uso de IA generativa en educación.

A nivel institucional, las bibliotecas académicas y escolares han desarrollado directrices sobre el uso de IA en investigaciones y trabajos académicos. Estas normativas suelen estar alineadas con políticas gubernamentales más amplias. Por ejemplo, en Australia, el gobierno prohibió temporalmente el uso de ChatGPT en aulas, pero posteriormente emitió un marco de referencia para su uso responsable en el ámbito educativo.

Las bibliotecas han desempeñado un papel clave en la alfabetización algorítmica, ayudando a los usuarios a comprender cómo funcionan los algoritmos y sus implicaciones en la sociedad. Este rol ha cobrado aún mayor relevancia con la expansión de herramientas de IA generativa y la creciente integración de la IA en servicios bibliotecarios.

El futuro de la regulación de la inteligencia artificial

La política de IA continúa evolucionando a un ritmo acelerado en diversas áreas, regiones y sectores. Es fundamental que las bibliotecas y otras instituciones comprometidas con el acceso a la información participen activamente en la formulación de políticas para garantizar que los principios de equidad, privacidad y transparencia sean preservados.

A medida que la IA se integra cada vez más en herramientas cotidianas y procesos de gestión de la información, el reto para el sector bibliotecario será encontrar nuevas oportunidades para defender el acceso abierto a la información y proteger los derechos individuales. En este sentido, el desarrollo de políticas de IA debe orientarse hacia un enfoque confiable, responsable y centrado en las personas.

Share This