El estado actual de la ética en la inteligencia artificial (IA) es un tema de creciente interés y debate en el ámbito tecnológico y filosófico. En una reciente conversación con Laura Miller, fundadora de NextGen Ethics, una consultora especializada en la incorporación de la ética a lo largo del ciclo de vida del desarrollo de la IA, se abordaron una serie de desafíos y oportunidades que este campo presenta. Laura Miller, además de ser una destacada filósofa y ganadora de premios en ética, es una defensora apasionada de la creación de tecnología alineada con el bienestar común de la sociedad. Durante la entrevista, se trataron cuestiones relacionadas con la moderación de contenido en redes sociales, el impacto de la IA en los objetivos de desarrollo sostenible (ODS) y la creciente preocupación por la propiedad de los datos en la era digital. Este artículo resume los principales puntos de la conversación y ofrece una reflexión sobre el estado actual y futuro de la ética en la IA.

La próxima frontera en la moderación de contenido

Uno de los temas iniciales que se discutió fue el de la moderación de contenido en redes sociales, un ámbito en el que la empresa de Laura, NextGen Ethics, está trabajando intensamente para desarrollar soluciones personalizadas. Laura subrayó que las grandes empresas tecnológicas han fracasado en asumir la responsabilidad adecuada en la moderación del contenido, lo que ha llevado a su empresa a tomar la iniciativa. En lugar de esperar a que se establezcan regulaciones gubernamentales o que las empresas actúen por su cuenta, Laura propuso la creación de soluciones éticas que sean guiadas por las comunidades que utilizan estas plataformas.

Un aspecto particularmente relevante fue el uso problemático del término "usuarios", que a menudo se asocia con comportamientos adictivos, especialmente entre la generación Z. Laura destacó que esta generación, que representa casi la mitad de la población mundial, enfrenta una crisis de salud mental sin precedentes, exacerbada por las dinámicas de consumo en las redes sociales. Su enfoque busca crear entornos digitales más saludables, en los que se prioricen las necesidades de las personas por encima de los intereses comerciales.

Ética en la IA: Preguntas que debemos plantear

Una parte significativa de la conversación se centró en las responsabilidades de los desarrolladores y las empresas a la hora de implementar IA. Laura dejó claro que la IA no es simplemente un software que se desarrolla y se lanza al mercado sin más, sino que conlleva implicaciones éticas profundas. Para ella, el desarrollo de IA debe ser un proceso continuo que incluya una relación entre los desarrolladores, los usuarios y la sociedad en general.

Subrayó que no se puede permitir que los desarrolladores trabajen de manera aislada, lanzando productos al mercado sin preocuparse por los efectos a largo plazo. Los desarrolladores deben estar constantemente comprometidos con el impacto que su tecnología tendrá en las personas y en la sociedad en su conjunto. Esta reflexión resalta la necesidad de fomentar una conciencia ética en el proceso de creación tecnológica, lo que implica una formación integral tanto para el público como para los propios desarrolladores.

Impacto de la IA en el desarrollo global y la desigualdad

Uno de los momentos más impactantes de la conversación fue cuando Laura vinculó el desarrollo de la IA con los esfuerzos globales para alcanzar los objetivos de desarrollo sostenible (ODS). Según ella, el mundo está en vías de no cumplir ninguno de los ODS para 2030, y la IA jugará un papel crucial tanto en agravar como en aliviar estos desafíos. La IA tiene el potencial de contribuir a la lucha contra el cambio climático, mejorar la educación y distribuir recursos de manera más equitativa, pero para que esto sea una realidad, es necesario que la ética sea una prioridad desde el principio.

Laura destacó que las leyes, aunque necesarias, no son suficientes para guiar el desarrollo de la IA de manera ética, ya que solo establecen el mínimo legal. En este sentido, hizo un llamado a una reflexión más profunda sobre los valores que deben guiar la tecnología, insistiendo en que, en algún momento, la sociedad se enfrentará a una crisis en la que la ética será la brújula que nos permita superarla.

La batalla por la propiedad de los datos

Otro tema clave abordado fue el de la propiedad de los datos en la era de la IA. Laura expresó su preocupación por la pérdida de control que las personas tienen sobre sus datos una vez que los publican en línea. Esta situación es especialmente problemática en el ámbito de las obras creativas, donde los artistas y escritores pueden ver cómo sus creaciones son utilizadas sin su consentimiento para entrenar modelos de IA que generan nuevos contenidos.

Laura compartió su experiencia personal de mantener su propio contenido protegido, evitando que sea absorbido por las herramientas de IA que rastrean y recopilan todo lo que se publica en línea. Este debate sobre la propiedad de los datos resalta la necesidad urgente de encontrar soluciones que permitan a los individuos retomar el control de su información y proteger sus derechos intelectuales en un entorno cada vez más dominado por la IA.

La ética en el desarrollo de la IA: Responsabilidades y desafíos

En cuanto al desarrollo de la IA, tanto Laura como otros expertos como Reza Rassool, un veterano del sector tecnológico que también participó en la conversación, coincidieron en la importancia de que los desarrolladores asuman una responsabilidad ética. Laura argumentó que los desarrolladores de IA ahora tienen obligaciones y deberes que antes no tenían, ya que la IA tiene la capacidad de transformar radicalmente la sociedad. Esta transformación debe ser gestionada con un enfoque ético, teniendo en cuenta no solo las consecuencias inmediatas, sino también las implicaciones a largo plazo.

Reza complementó esta visión al señalar que los modelos de IA deben ser diseñados de manera que reflejen los valores de las personas que los crean y los utilizan. Su trabajo en la creación de sistemas de IA más pequeños y especializados, entrenados en bases de datos controladas éticamente, ofrece una posible solución a los problemas de sesgo inherente en los grandes modelos de lenguaje.

El sesgo en los modelos de IA

Una de las principales preocupaciones de Laura es el sesgo que está presente en los grandes conjuntos de datos utilizados para entrenar la mayoría de los modelos de IA. Estos sesgos no solo provienen de los datos, sino también de los propios desarrolladores y de los sistemas que crean las IA. Laura destacó que la mayoría de las IA reflejan una comprensión superficial y dominante de los problemas éticos, sin abordar cuestiones más complejas como la interseccionalidad y los impactos globales.

Reza reforzó esta preocupación al señalar que los modelos de lenguaje más grandes, al estar entrenados en grandes cantidades de datos no filtrados, inevitablemente heredan estos sesgos. Su propuesta de utilizar modelos más pequeños y especializados, entrenados en datos más específicos y controlados, ofrece una posible solución para mitigar este problema.

La IA y el desarrollo global: Un enfoque ético

Tanto Laura como Reza compartieron una visión de que la IA tiene implicaciones éticas globales. Laura advirtió que la IA podría ayudar o entorpecer el progreso hacia los ODS, y destacó que la actual falta de regulación y control en la implementación de la IA es un obstáculo para alcanzar estos objetivos.

Reza, por su parte, abogó por la descentralización de la IA, permitiendo que individuos y comunidades accedan a herramientas de IA sin depender de las grandes empresas tecnológicas. Este enfoque no solo democratiza el acceso a la tecnología, sino que también ofrece una vía para que los países en desarrollo y las pequeñas empresas compitan en igualdad de condiciones en el mercado global.

IA centrada en el ser humano

Un tema recurrente en la conversación fue la importancia de mantener al ser humano en el centro del desarrollo y despliegue de la IA. Laura advirtió que la IA no puede reemplazar la empatía, el juicio o la conexión humana, especialmente en áreas como el servicio al cliente, la educación y la salud mental. Su visión subraya que, aunque la automatización puede mejorar la eficiencia, las empresas no deben perder de vista la importancia de las interacciones humanas auténticas.

Reza compartió esta perspectiva, destacando que su trabajo en IA personalizada permite a los individuos moldear la tecnología en función de sus propias necesidades, manteniendo así a las personas en el centro del proceso de desarrollo de la IA.

Reflexiones finales: La IA como reflejo de la sociedad

Al concluir la conversación, Laura ofreció una reflexión poderosa: la IA es un espejo de la sociedad que la crea. Todo lo que introducimos en la IA —nuestros sesgos, valores y defectos— se reflejará de vuelta. Si queremos que la IA refleje lo mejor de nosotros, debemos mostrarle lo mejor de nosotros mismos. Esta reflexión es un recordatorio de que la ética no es una consideración secundaria en el desarrollo de la IA, sino una necesidad fundamental para garantizar que esta tecnología sirva al bien común.

Share This