En los últimos años, Gary Marcus se ha consolidado como una de las voces más críticas en el debate sobre la inteligencia artificial (IA). Su postura ha sido especialmente clara en relación con los peligros inmediatos que, según él, plantea la IA generativa, ejemplificada por herramientas como ChatGPT. Marcus, reconocido por su testimonio ante el Senado de los Estados Unidos en mayo de 2023, donde se sentó junto a Sam Altman, CEO de OpenAI, ha hecho reiterados llamados a una regulación estricta de las empresas tecnológicas involucradas en el desarrollo de la IA generativa. En sus intervenciones, ha señalado riesgos como la desinformación masiva, la creación de deepfakes y el uso no autorizado de propiedad intelectual para entrenar modelos de IA.

A lo largo de su trayectoria, Marcus ha sido un influyente académico y emprendedor en el campo de la IA y las ciencias cognitivas. Estudió bajo la tutela de Steven Pinker, uno de los más destacados psicólogos cognitivos contemporáneos, y fue profesor en la Universidad de Nueva York durante muchos años. También cofundó dos empresas de IA, Geometric Intelligence y Robust.AI, lo que le otorgó una perspectiva privilegiada sobre el desarrollo y las limitaciones de la inteligencia artificial.

Orígenes de su interés en la IA

Marcus comenzó a programar desde una edad muy temprana, con solo ocho años ya estaba creando programas en su Commodore 64, entre ellos un traductor de latín a inglés. Esta precocidad en la programación lo llevó a interesarse por la IA y la ciencia cognitiva, con el objetivo de entender cómo piensan los humanos y cómo este conocimiento podría aplicarse para desarrollar una inteligencia artificial avanzada. Sin embargo, desde sus primeros pasos en el campo, Marcus ha mantenido una postura crítica hacia los enfoques dominantes en IA, especialmente los que dependen de modelos estadísticos a gran escala.

Según Marcus, el problema central con los modelos actuales de IA generativa es que, a pesar de la enorme inversión de recursos (se estima que se han gastado alrededor de 75 mil millones de dólares en IA generativa y otros 100 mil millones en coches autónomos), no se ha logrado crear sistemas de IA confiables. Para Marcus, simplemente aumentar la escala de estos modelos no resolverá sus problemas fundamentales, y sus limitaciones se siguen repitiendo una y otra vez.

Las principales fallas de la IA generativa

Entre las deficiencias más notables de los sistemas actuales de IA, Marcus destaca dos problemas clave: las alucinaciones y la falta de razonamiento robusto. Las alucinaciones son errores que cometen los modelos de lenguaje cuando generan información falsa o incorrecta, como inventar hechos o casos legales inexistentes, como ha ocurrido en algunos casos en los que abogados han utilizado IA para escribir informes judiciales. Estas imprecisiones son frecuentes y peligrosas, especialmente cuando se trata de cuestiones serias o legales.

El segundo gran problema es la falta de habilidades de razonamiento en estos sistemas. Marcus ha citado ejemplos de problemas de lógica simples en los que los modelos de IA fracasan, como en los típicos problemas de cruzar el río con animales y objetos, donde la IA genera respuestas que carecen de sentido lógico. Estos "errores absurdos de razonamiento" demuestran, según Marcus, que los modelos actuales de IA, aunque impresionantes en su capacidad de generar texto, no comprenden realmente el mundo ni pueden razonar de manera confiable.

Evolución de su escepticismo

El camino de Marcus hacia el escepticismo respecto a la IA generativa no fue inmediato. En 2014, cuando fundó su primera empresa de IA, Geometric Intelligence, todavía era optimista sobre el potencial de la inteligencia artificial. No solo creía en la viabilidad técnica de la IA, sino también en su capacidad para mejorar el mundo. Sin embargo, en 2018, comenzó a expresar sus primeras dudas sobre la dirección que estaba tomando el campo de la IA, especialmente con el enfoque en el aprendizaje profundo (deep learning). En su artículo "Deep Learning, una evaluación crítica", Marcus cuestionó la exageración en torno a este enfoque, lo que generó fricciones con figuras prominentes de la IA, como Yann LeCun.

A partir de 2019, con el auge de los modelos de lenguaje a gran escala, Marcus se convenció de que este enfoque era incorrecto, tanto desde un punto de vista técnico como filosófico. En 2020, publicó varios artículos criticando a GPT-3, calificándolo como un "artista del engaño". Para Marcus, el problema no era solo que estos modelos fueran incapaces de ofrecer respuestas confiables, sino que la exageración mediática y el entusiasmo en la comunidad científica estaban llevando al público a tener expectativas poco realistas sobre las capacidades de la IA.

La llegada de ChatGPT en 2022 marcó un punto de inflexión en su escepticismo. Marcus se alarmó al ver cómo el mundo perdía la perspectiva y comenzaba a depositar una confianza desmesurada en estas herramientas, sin prestar atención a los riesgos que implicaban.

Preocupaciones sobre las grandes empresas tecnológicas

El auge de la IA generativa no solo ha sido impulsado por startups, sino también por grandes empresas tecnológicas como Microsoft, que se asoció con OpenAI. Para Marcus, el cambio de actitud de Microsoft ha sido uno de los factores que lo llevaron a dejar la investigación en IA y centrarse en la política. Recuerda con preocupación cómo, en 2016, Microsoft retiró su chatbot Tay después de solo 12 horas debido a problemas con su comportamiento, pero en 2023, a pesar de incidentes problemáticos con su chatbot Sydney, la empresa no mostró la misma disposición a actuar rápidamente. Según Marcus, esto refleja un cambio preocupante en los valores y la mentalidad de Silicon Valley, donde el deseo de avanzar rápidamente ha superado la responsabilidad ética.

Además de su desilusión con Silicon Valley, Marcus también ha expresado frustración con el gobierno de los Estados Unidos. Aunque el gobierno de Biden emitió una orden ejecutiva para abordar algunos de los riesgos de la IA, Marcus sostiene que el Congreso no ha tomado medidas suficientes para regular el sector. A pesar de haber testificado ante el Senado en 2023, Marcus ha perdido la fe en que los legisladores actuarán con la rapidez y contundencia necesarias para proteger al público de los peligros de la IA generativa.

¿Es la IA generativa peligrosa e ineficaz a la vez?

Uno de los puntos más controvertidos en las críticas de Marcus es su afirmación de que la IA generativa es tanto peligrosa como ineficaz. A primera vista, estas dos ideas parecen contradictorias: ¿cómo puede algo que no funciona bien representar un peligro? Sin embargo, Marcus argumenta que precisamente la falta de robustez de estos sistemas es lo que los hace peligrosos. Su incapacidad para razonar adecuadamente y su tendencia a generar información errónea los convierte en herramientas fácilmente manipulables por actores malintencionados. Aunque no descarta que, en el futuro, pueda surgir una IA más avanzada y potencialmente peligrosa por su inteligencia, Marcus sostiene que el peligro actual proviene de la incapacidad de estos sistemas para operar de manera confiable.

¿Un estallido de la burbuja de la IA generativa?

Marcus también ha advertido sobre la posibilidad de que la IA generativa sea parte de una burbuja financiera que está destinada a estallar. Aunque reconoce que la IA generativa tiene aplicaciones útiles, como en los sistemas de autocompletado, considera que la valoración inflada de las empresas de IA no es sostenible. En su opinión, gran parte del entusiasmo en torno a la IA generativa proviene de la creencia errónea de que estamos cerca de desarrollar una inteligencia artificial general (AGI). Sin embargo, Marcus no cree que estemos ni remotamente cerca de alcanzar ese objetivo, y señala que las empresas que han invertido grandes sumas de dinero en IA generativa están empezando a enfrentarse a la realidad de que sus productos no funcionan tan bien como esperaban.

Un ejemplo de esto es OpenAI, que tuvo una pérdida operativa de aproximadamente 5 mil millones de dólares el año pasado. A menos que las empresas logren que los usuarios adopten sus productos de manera permanente y estén dispuestos a pagar mucho más por ellos, Marcus prevé que el modelo financiero actual no será sostenible.

Posibilidad de estar equivocado

A pesar de su fuerte escepticismo, Marcus admite que podría estar equivocado en varios aspectos. Si se lograra que los modelos de lenguaje grandes dejaran de alucinar y razonaran de manera confiable en todo momento, estaría dispuesto a reconsiderar sus críticas. Asimismo, en el plano financiero, reconoce que la naturaleza de las burbujas es principalmente psicológica, lo que significa que, aunque las empresas de IA no sean rentables en los próximos años, los inversores podrían seguir invirtiendo en ellas por un tiempo.

Finalmente, Marcus expresa su deseo de ser refutado por el gobierno de los Estados Unidos. Si el Senado aprobara una legislación que abordara todos los riesgos que él identifica en su libro, Marcus estaría encantado de admitir que su escepticismo era infundado y que las instituciones estaban a la altura del desafío que representa la IA generativa.

Share This