En el panorama actual del desarrollo de la inteligencia artificial (IA), las preocupaciones sobre la seguridad y la alineación de estos sistemas con los valores humanos están emergiendo como cuestiones de suma relevancia, superando incluso la importancia de reducir costes o limitar recursos computacionales. A medida que la IA se integra más en la vida cotidiana, se hacen más evidentes los riesgos asociados a su mal uso, como la proliferación de deepfakes, el uso indebido de voces simuladas para fraudes y los crecientes riesgos de ciberseguridad. La falta de respuestas claras a estos desafíos y la escasa base técnica en las exploraciones regulatorias agravan la situación.
En el artículo “AI Is Too Unpredictable to Behave According to Human Goals” publicado en Scientific American, se argumenta que la alineación de la IA —es decir, la capacidad de estas tecnologías para comportarse según las metas humanas— es más un concepto de moda que un objetivo realista de seguridad. Para garantizar que los modelos de lenguaje de gran escala (LLM) actúen de manera segura y alineada con los valores humanos, sería necesario prever un número incalculable de situaciones futuras, algo que los métodos actuales de prueba de IA no pueden abarcar. En lugar de depender únicamente de métodos técnicos, se sugiere que la alineación podría lograrse, al igual que con los humanos, mediante la aplicación de prácticas sociales, policiales y militares que fomenten comportamientos alineados, desalienten los desviados y corrijan a quienes se desvíen.
Sin embargo, descartar la posibilidad de una IA segura e interpretable sería un error. Es crucial explorar investigaciones que permitan prever y controlar algunas de las consecuencias adversas de estos modelos. Por ejemplo, la implementación de una función de coste penalizada en la regularización de redes neuronales podría restringir a los modelos el acceso a ciertos datos o parámetros cuando exista el riesgo de producir resultados incorrectos. Esta estrategia iría más allá de las prácticas actuales de detectar y bloquear salidas problemáticas, permitiendo una autocorrección del modelo basada en el reconocimiento interno de errores.
Otro enfoque interesante sería desarrollar un parámetro instantáneo para que la IA reconozca sus propios errores en tiempo real y actúe para evitar cometerlos nuevamente. Además, la creación de tensores específicos para tipos de salida maliciosos podría permitir que modelos de IA duplicados o de monitoreo comparen resultados con aquellos disponibles públicamente en redes sociales o tiendas de aplicaciones, para así prevenir el uso indebido de información generada por IA.
Las posibilidades para mejorar la seguridad de la IA son vastas y podrían inspirarse en conceptos de la neurociencia. Un artículo reciente en The Transmitter, titulado “The brain holds no exclusive rights on how to create intelligence”, destaca que la inteligencia natural ha servido de plantilla para la inteligencia artificial, y que principios neurocientíficos como la plasticidad homeostática, la inhibición lateral y el aprendizaje por refuerzo ya están integrados en redes neuronales artificiales. Si bien el cerebro humano ofrece un modelo de inteligencia segura gracias a la uniformidad de señales eléctricas y químicas en sus procesos, es posible que los modelos de IA puedan incorporar la seguridad como un componente intrínseco para enfrentar riesgos conocidos y desconocidos.
Por otro lado, el coste de entrenar modelos sigue siendo un aspecto relevante, aunque, según un artículo de WIRED titulado “How Chinese AI Startup DeepSeek Made a Model that Rivals OpenAI”, la compañía china DeepSeek ha logrado avances significativos mediante la optimización del uso de recursos software. A diferencia de otras firmas que dependen de acceso a hardware avanzado, DeepSeek ha adoptado métodos de código abierto y ha potenciado la colaboración para sortear limitaciones de recursos. A través de estrategias como esquemas de comunicación personalizados entre chips y el uso innovador del enfoque de mezcla de modelos, DeepSeek ha conseguido que su modelo más reciente requiera solo una décima parte de la potencia computacional necesaria para entrenar el modelo Llama 3.1 de Meta.
Este ejemplo ilustra que, aunque la reducción de recursos computacionales es un logro destacable, no debe distraernos de la necesidad de abordar problemas más complejos como la alineación y la seguridad en la IA. Al considerar la seguridad desde una perspectiva más integral, que combine medidas técnicas con marcos sociales y regulatorios, podríamos estar mejor preparados para enfrentar los desafíos que plantea la IA a medida que sigue evolucionando.
La conversación sobre la IA debe centrarse menos en la reducción de costes y más en cómo garantizar que estos sistemas se alineen con los valores humanos y operen de manera segura. Si bien las innovaciones en eficiencia computacional son importantes, el verdadero reto es asegurar que la IA no solo sea poderosa, sino también segura y ética. Esto requerirá un enfoque multidisciplinario que combine avances técnicos con políticas efectivas y una supervisión continua para asegurar que la IA realmente sirva al bien común.