El diálogo ético entre un filósofo y un experto en IA: “la IA no es inteligencia sino eficiencia”

 Rocío de Lange

En la tercera y última sesión de la segunda edición de “Mejores Empresas, Mejor Democracia”, contamos con Sergio Álvarez-Teleña, doctor en machine learning por la University College London, cofundador de SciTheWorld y co-chair en el grupo de gobernanza de IA de la OCDE, que fue pionero en demostrar a través de su tesis las virtudes del papel humano en un mundo dirigido por máquinas, y José María Lassalle, doctor en Derecho, y exsecretario de estado de cultura y de agenda digital, un académico preocupado por el tema del humanismo tecnológico.

Sergio y José María se reunieron para debatir los mitos y realidades que rodean a la inteligencia artificial, los riesgos humanos, laborales y democráticos que conlleva, y las posibles soluciones a los mismos desde la perspectiva de la ética.

En cuanto a los mitos y realidades, Sergio explicó que la IA en realidad no es inteligencia, porque su fin es sólo la eficiencia. La eficiencia, según él, podría ser definida como «hacer más con lo mismo, o hacer lo mismo con menos». Por lo tanto, la IA no debe considerarse más que una herramienta utilizada para aumentar la eficiencia. 

Explicó otros mitos, como el que implica que la IA sustituirá a los humanos, y explicó que diseñando máquinas aumentadas se puede dejar espacio para que los humanos desempeñen funciones que las máquinas no son capaces de realizar. De este modo, los humanos pueden centrarse en aumentar lo que les es natural, que es la creatividad, porque es lo que le falta a la máquina. 

Sergio explicó el peligro de estos mitos, y las narrativas utilizadas para describir la nueva tecnología,  a menudo elocuentes, como el uso del término «redes neuronales», para describir un conjunto de variables, que no es comprensible para el público en general. Esto podría llevar a la desinformación, y a la confusión, porque el público creerá que se trata de una tecnología verdaderamente inteligente, y los reguladores, que tampoco entienden la ciencia que hay detrás, crearán normativas basadas en nombres que no describen con exactitud las funciones reales de la tecnología. Por eso aboga por utilizar términos como «machine learning” en lugar de «inteligencia artificial». 

José María habló del mito de la técnica y citó ideas de John Locke y Heidegger. Afirmó que, al igual que las innovaciones anteriores que se remontan a la Revolución Industrial, el desarrollo de la IA pretende alcanzar una idea de utopía y perfección, e intenta eliminar la falibilidad humana, lo que podría provocar tensiones.

Hizo esa conexión entre la actual revolución digital y la Revolución Industrial, porque la transformación actual también podría conducir a graves efectos sociales. La Revolución Industrial creó grandes desigualdades, y la revolución digital está creando un nuevo tipo de “capitalismo cognitivo”. El capital financiero se está convirtiendo en capital algorítmico, lo que podría conducir a una civilización completamente artificial, lo que no es necesariamente malo, siempre y cuando nosotros, como sociedad, estemos preparados para gestionar la transición que se avecina.

La conversación giró en torno a las capacidades humanas para gestionar la información. José María habló de  la capacidad del ser humano para gestionar constantemente la información a través de la inteligencia colectiva que se genera en la familia, la universidad o el trabajo, donde recibe herramientas para la toma de decisiones. La amenaza surge entonces cuando hay una herramienta que es capaz de gestionar la información con mayor utilidad, disminuyendo el valor del conocimiento humano. Sergio volvió a defender la idea de las máquinas aumentadas, que se pueden utilizar a  favor del ser humano haciendo que la máquina haga una gestión más básica y rutinaria de la información, pero dejando espacio para que los humanos hagan una actividad que requiera un mayor nivel de inteligencia y creatividad. 

Tras distintas intervenciones de los participantes en el foro, José María cerró el debate hablando de la «IA-cracia» emergente. Habló del valor del ser humano que proviene tanto del sentido de límite como del valor que le da la trascendencia. Cuando el ser humano conoce la trascendencia, reconoce mejor sus propios límites, y sabe que puede cometer errores, lo que puede acarrear sufrimiento para sí mismo y para los demás, pero también puede provocar el deseo de no volver a errar. Esta idea de trascendencia, límites y falibilidad nos puede llevar a recuperar el valor de la sabiduría. Al tener este valor somos capaces de transferir conocimientos a las máquinas, pero seguir estando por encima de ellas en la cadena de la nueva civilización que estamos creando, porque los humanos son capaces de manejar lo que las máquinas no tienen, que es la sabiduría.