Es la primera ‘Cátedra de ética y gobernanza de la IA’ de la UNESCO. La lidera Theodore “Ted” Lechterman, doctor en filosofía, cuya carrera académica se ha desarrollado en las universidades más prestigiosas (Harvard, Princeton, Stanford …) Miembro fundador del Instituto para la Ética de la IA en la Universidad de Oxford, ejerce ahora como profesor e investigador en IE University, donde dirige la Cátedra, inaugurada en 2024. (View Highlight)
Uno de sus primeros logros es traer este otoño a Madrid la Conferencia AAAI/ACM sobre Inteligencia Artificial, Ética y Sociedad (AIES). Será la primera vez que este congreso internacional se celebre en Europa continental, coorganizado por Lechterman y su equipo. (View Highlight)
El investigador se prepara además para lanzar su nuevo libro, Recoding democracy: AI and the fight for democracy’s future. (View Highlight)
Hemos asistido a una tendencia constante de externalización en las últimas décadas. Y la digitalización refleja claramente esa trayectoria: los gobiernos delegan servicios esenciales e incluso procesos de toma de decisiones. La IA lleva esto un paso más allá, al externalizar funciones cognitivas propiamente humanas.
La pregunta es si esa externalización es coherente con los principios fundamentales de la democracia. Si las empresas privadas controlan estas tecnologías, ¿los ciudadanos y los gobiernos mantienen alguna autoridad real sobre ellas? (View Highlight)
Uno de los problemas fundamentales es su opacidad de las llamadas ‘cajas negras’. En algunos casos, es prácticamente imposible saber cómo estos sistemas llegan a determinados resultados. Eso choca con los principios democráticos, que requieren escrutabilidad para que los ciudadanos puedan evaluar si están siendo tratados con igualdad.
Algunos dicen: “bueno, las burocracias gubernamentales ya son opacas”. Es cierto. Pero eso no justifica añadir más opacidad. Ese es también uno de los aspectos fortuitos del estudio crítico de la IA: ciertas críticas que también se aplican a problemas preexistentes pueden ayudarnos a arrojar nueva luz sobre cuestiones que hemos malinterpretado o pasado por alto. (View Highlight)
El discurso público y la investigación sobre este tema se ha centrado sobre todo en la desinformación en elecciones y en la automatización de servicios públicos, pero la democracia es mucho más que votar o gestionar trámites. Pensemos en los modelos fundacionales: sistemas de IA de propósito general extremadamente potentes y caros, desarrollados por unas pocas empresas en los Estados Unidos, con alcance global. (View Highlight)
Los desarrolladores deben decidir qué datos incluir, cómo representar temas polémicos como el aborto o la evolución, qué valores reflejar… Son decisiones que están tomando empresas privadas, en lugar de instituciones democráticas. Y luego estos modelos se integran en los procesos analíticos y de toma de decisiones en todas las empresas y gobiernos del mundo.
Además, muchas personas (especialmente quienes no han recibido una educación crítica sólida) tienden a aceptar lo que dice la IA como verdad. Esto se llama sesgo de automatización: confiamos más en las máquinas que en las personas. Nos parecen más objetivas, aunque demostrablemente sean menos fiables que los expertos humanos. (View Highlight)
Un modelo nacional puede abrir la puerta a una mayor influencia ciudadana. Los ciudadanos suizos, por ejemplo, podrían tener cierta capacidad de decisión, aunque sea indirecta, sobre cómo funciona su modelo. Pero tampoco es la solución perfecta. Hay riesgos asociados al control estatal, como la censura, la vigilancia o la exclusión de minorías.
También se podría imaginar un consorcio de organizaciones sin ánimo de lucro y fundaciones uniéndose para crear diversos tipos de modelos, participativos y enfocados en proporcionar modelos de IA que respondan al interés público. Esa podría ser otra alternativa entre la nacionalización y el mercado privado competitivo. Tal vez un ecosistema mixto -una combinación de todo lo anterior- sea lo mejor que podemos esperar. (View Highlight)
Es una preocupación legítima. Pero también tenemos que definir qué significa “estar a la altura”. Tal vez un modelo catalán no genere imágenes tan realistas como DALL·E, pero sí sea más sensible a la literatura catalana o a los valores culturales locales.
Debemos pensar en términos de compensaciones. ¿Qué ganamos y qué perdemos con cada modelo? El sector público parte con desventaja, y necesita tiempo para alcanzar un rendimiento aceptable. Pero no siempre debemos juzgar por velocidad o funcionalidad: tal vez otros criterios importen más. (View Highlight)
Esta tecnología es demasiado influyente como para dejarla exclusivamente en manos del mercado. Tiene implicaciones en seguridad nacional, educación, trabajo, economía, salud mental… Pero esta misma lógica que justifica la intervención del gobierno también exige mecanismos de control para evitar el autoritarismo digital. Es una moneda de dos caras: necesitamos que el Estado esté implicado, pero con límites claros. (View Highlight)
¿Y si combinamos ambos riesgos? Corporaciones todopoderosas y gobiernos que intervienen cuando les conviene, en una especie de ‘tecnototalitarismo’, como en EE.UU…
Es un riesgo real. La falta de control estatal no significa libertad: puede significar control privado sin legitimidad democrática. En una democracia, el gobierno responde a los ciudadanos; una empresa responde a sus accionistas. Y si puede trasladarse a otro país para evitar regulaciones, el problema se agrava.
Si a esto se añade una situación en la que los líderes políticos influyen o se alían con grandes tecnológicas, el resultado es desastroso. (View Highlight)
Que cualquiera pueda usar ChatGPT no es democratización, es expansión comercial. Democratizar significa compartir el poder. Si los ciudadanos no pueden influir en cómo funciona un sistema, qué decisiones toma y qué valores refleja, no es una IA democrática. Para que sea realmente democrática, las personas afectadas por estos sistemas deben poder influir en su diseño y gobernanza. Eso puede hacerse desde gobiernos, ONGs, comités ciudadanos… Y una de las áreas más interesantes de la investigación actual es analizar con mayor precisión qué significa democratizar la IA y cuál es la mejor manera de lograrlo. (View Highlight)
Uno de los mayores enigmas en el estudio de la ética empresarial es por qué las empresas contribuyen a los problemas sociales, a pesar de las buenas intenciones de muchos directivos y empleados. Algunas empresas de inteligencia artificial ya están preocupadas por el posible “techlash” derivado de las asimetrías de poder y han financiado iniciativas de I+D para investigar cómo pueden apoyar la democracia, pero los gobiernos y la sociedad civil tendrán que ajustar las estructuras de incentivos si queremos que el interés público a largo plazo prevalezca sobre los intereses empresariales a corto plazo. (View Highlight)
El primero es la propia definición de IA, entiendo que se refiere a diversas tecnologías informáticas que participan en el procesamiento cognitivo con mayor o menor independencia de la programación humana explícita. Es un conjunto bastante amplio de diferentes tipos de tecnologías. Podemos pensar en diferentes dimensiones, diferentes parámetros para esta tecnología, desde filtros de spam, predicción meteorológica y coches autónomos, hasta la IA superinteligente, que es más inteligente que los seres humanos (algo que, por supuesto, no existe y tal vez nunca exista, pero al menos es una posibilidad conceptual). Así que realmente se trata de una amplia gama de tecnologías. No todo es ChatGPT ni generativo. (View Highlight)
Otros malentendidos surgen en torno a la ética, que no es lo mismo que responsabilidad, seguridad, alineamiento o gobernanza, aunque a veces se usen de forma indistinta. La ética es el intento de identificar las mejores razones para la acción y guiar nuestra conducta por ellas. Por tanto, la ética de la IA nos plantea: ¿Cómo podemos desarrollar, implementar y gestionar esta amplia gama de tecnologías difeirentes de acuerdo con las mejores razones para actuar? (View Highlight)
la ética (las mejores razones para actuar) implica generalmente evitar las peores formas de abuso, independientemente de si la opinión pública es plenamente consciente del daño. La ética también trata de sopesar las compensaciones entre diferentes valores que compiten por nuestra atención. Se trata de identificar las mejores acciones y no solo evitar las peores. No es un trámite ni una lista de verificación. Requiere una comprensión holística y sistemática. Si creemos que la IA va a transformar la sociedad, entonces su gobernanza ética es una prioridad estratégica, no solo legal. Las juntas directivas y los equipos ejecutivos deben tratar estos temas con la misma seriedad que cualquier otro riesgo u oportunidad empresarial. (View Highlight)
No. La Ley de IA es un buen punto de partida, pero no lo cubre todo. La tecnología avanza más rápido que la legislación. Si esperas a que haya leyes, ya será tarde. Por eso se necesitan políticas éticas proactivas, una estrategia de “cumplimiento plus” que vaya más allá de la ley. Existe un riesgo muy real de que las empresas que solo cumplen incurran en diversas formas de irregularidades, perjuicios o complicidad si no lo hacen. (View Highlight)
Al mismo tiempo, las empresas deben ser muy cautelosas a la hora de abusar de su poder para resolver por su cuenta cuestiones éticas controvertidas mientras esperan una legislación más completa. Lograr este equilibrio entre el cumplimiento normativo y la responsabilidad proactiva es realmente difícil, y normalmente no es posible conseguirlo siguiendo una lista de verificación, comprando algún software analítico o pidiendo a alguien del departamento de cumplimiento normativo que se encargue de un “proyecto especial”. Las empresas que se toman en serio la IA responsable deben invertir en conocimientos especializados en materia de ética. (View Highlight)
Nos interesan tanto la investigación básica como la aplicada, y actualmente estamos trabajando en cuatro áreas principales: IA y democracia, futuro del trabajo, IA para el bien común, y distribución de la autoridad en la gobernanza de la IA, con investigadores como Luz Rello, profesora en el departamento de Sistemas de Información, y Antonio Aloisi, profesor de Derecho laboral y de regulación digital, que están haciendo un trabajo extraordinario. También estamos trabajando en formación, elaboración de políticas y divulgación pública. (View Highlight)
La ética de la IA ha pasado de ser un tema de investigación minoritario a convertirse en un tema de investigación mayoritario. Con un poco de tiempo, es posible que se extienda al mundo empresarial y al ámbito gubernamental. (View Highlight)