Inicio / Artículos / Sin categoría / Humanismo tecnológico y la batalla por la inteligencia artificial

Humanismo tecnológico y la batalla por la inteligencia artificial

22 diciembre, 2020

El pasado mes de febrero, Kai-Fu Lee, una de las figuras más prominentes en el campo de la Inteligencia Artificial, estuvo en España presentando su nuevo libro, Superpotencias de la inteligencia artificial (Deusto). Entre otros temas, Kai-Fu Lee defiende en este libro que China va a arrasar en la batalla de la Inteligencia Artificial (IA) por cuatro motivos: falta de líneas rojas en materia de privacidad y uso de datos, una generación de emprendedores que han sido criados en la ley de la jungla competitiva, el apoyo del gobierno (incluyendo una ley laboral permisiva) y la propia revolución tecnológica que está viviendo el país.

Casi al mismo tiempo, Carmen Artigas, la nueva secretaria de estado de Digitalización e Inteligencia Artificial del Gobierno de España, defendía la importancia de que Europa, en medio de la guerra económico-tecnológica que están librando Estados Unidos y China en este campo, se posicione como defensora de los derechos de las personas y de un uso ético de los datos y los algoritmos. Una posición que, en principio, debería hacernos sentir afortunados de ser ciudadanos europeos, pero que también puede provocar que la adopción de algunas soluciones de IA en nuestro continente sea más lenta que en otras partes del planeta, y eventualmente lastrar la competitividad de nuestras empresas en un mundo digital y globalizado…

Ante estas dos formas tan distintas de afrontar la eclosión de la IA, creo que merece la pena hacer un repaso de los principales dilemas que plantea la llegada de estas nuevas soluciones tecnológicas al ámbito laboral y de algunas respuestas que estamos observando y que ilustran en qué cosas concretas puede traducirse este ‘humanismo tecnológico’ al que se refiere Artigas.

Dilemas de la inteligencia artificial

Para empezar, diferentes estudios evidencian que la IA y la automatización pueden provocar la destrucción de algunos puestos de trabajo, la aparición de nuevos empleos y la transformación de muchos otros. Ante este escenario las empresas se enfrentan al dilema de o bien contratar nuevas personas que poseen las nuevas capacidades que necesitan o, por el contrario, preocuparse de la recapacitación de sus empleados (reskilling) para que se puedan adaptar a las nuevas funciones y evitar despidos masivos.

Otro de los dilemas tiene que ver con el uso de algoritmos para el control y la distribución del trabajo, una práctica que puede deshumanizar las relaciones laborales y acabar convirtiendo a los empleados en proveedores al servicio del algoritmo, de un modo parecido a como actualmente los raiders de las aplicaciones de reparto a domicilio se relacionan con sus plataformas.

Un tercer dilema tiene que ver con el impacto que la generalización del uso de soluciones de IA está teniendo en la polarización del mercado de trabajo y en el incremento de la desigualdad tanto dentro como fuera de las organizaciones. Esto se debe, por un lado, a los cambios en las capacidades que necesitan las empresas, lo que provoca desequilibrios entre oferta y demanda en el mercado de trabajo, y, por otro, a que la IA está permitiendo la automatización de muchos de los trabajos que hasta ahora conformaban los escalones intermedios de las organizaciones.

El cuarto dilema está relacionado con el potencial que tiene la IA para influir sobre el comportamiento humano mediante el establecimiento de modelos predictivos a partir del análisis e interpretación de volúmenes masivos de datos, y por las posibilidades que ofrece, si cae en malas manos, de manipular las reacciones de las personas a través de la generación de contenido fake que cada vez es más difícil de diferenciar del verdadero.

En quinto lugar, nos encontramos todo lo que tiene que ver con la forma en que aprenden y se entrenan los algoritmos. Los algoritmos no son objetivos. Los crean humanos y son entrenados por humanos y, por tanto, su actuación puede estar condicionada por los sesgos de sus creadores y entrenadores, o por los datos históricos en los que se basa ese entrenamiento. A eso se suma el funcionamiento opaco de muchos algoritmos, que hace que sea difícil identificar como el algoritmo ha generado sus resultados y, en consecuencia, determinar si esos resultados están o no sesgados.

El sexto dilema tiene que ver con la privacidad de los datos. La explotación de datos de los empleados en unos entornos laborales cada vez más cuantificados puede ayudar a las empresas a tomar mejores decisiones en materia de gestión de personas y probablemente a aumentar la productividad de sus trabajadores. Sin embargo, es necesario abordar importantes debates sobre qué datos se pueden capturar, quién puede acceder a qué datos, quienes son los propietarios de esos datos, y para qué tipo de decisiones se pueden utilizar (y para cuáles no).

Un séptimo dilema está relacionado con el concepto de singularidad y el tratamiento humano a la IA, es decir, con la creciente dificultad para distinguir si estamos conversando con una persona o una máquina, como es el caso de  Google Duplex.

Para acabar, no podemos olvidarnos de los dilemas a los que nos enfrentaremos a la hora de gestionar las consecuencias de los errores impredecibles que pueden cometer las soluciones de IA, o a la hora de decidir el criterio que deberán seguir los algoritmos ante ciertas decisiones difíciles como, por ejemplo, aquellas a las que previsiblemente tendrán que enfrentarse los vehículos autónomos en ocasiones en las que puede estar en juego la integridad física de diferentes personas.

Y seguro que hay varios dilemas más que se me quedan en el tintero…

Humanismo tecnológico

Todos esos dilemas definen el contexto en el que cobra una nueva fuerza el concepto de ‘humanismo tecnológico’ sobre el que habló por primera vez en 1958 Sir Eric Ashby, cuando en su intervención en la cuadragésima séptima conferencia anual del Instituto de Metales en Londres defendió la responsabilidad de los tecnólogos en la resolución de los problemas que generan los avances tecnológicos y la necesidad de que reflexionen sobre las implicaciones que tiene estos avances para sus conciudadanos. Una corriente que, hoy en día, en la era de la IA, se traduce en un número creciente de iniciativas de muy diversa naturaleza:

Por ejemplo, nos encontramos con la idea del denominado ‘derecho social a la explicación’ y, más concretamente, con el movimiento de la Inteligencia Artificial Explicable (conocida en inglés como Explainable AI ó XAI) que reclama el uso de métodos y técnicas que permitan que expertos humanos puedan entender de dónde proceden los resultados que ofrecen las soluciones de IA y que contrasta con el tradicional concepto de la «caja negra» de las soluciones de machine learning, donde incluso sus diseñadores no pueden explicar por qué la IA llegó a una decisión específica.

Surgen también nuevas instituciones, como el Institute for Human-Centred Artificial intelligence creado por la Universidad de Stanford con la idea de que se convierta en un hub global interdisciplinar para pensadores, estudiosos, investigadores, y desarrolladores de IA de la academia, el gobierno y la industria, así como líderes y legisladores que quieran comprender y aprovechar el impacto y el potencial de la IA, y donde investigan y educan desde la creencia que la IA debe ser colaborativa, aumentativa, y orientarse a aumentar tanto la productividad como la calidad de vida de las personas.

O el Center for Security and Emerging Technology (CSET), un think tank integrado en  la Escuela de Servicio Exterior de la Universidad de Georgetown que se dedica al análisis y elaboración de recomendaciones para el diseño de políticas en la intersección entre la seguridad nacional e internacional y las tecnologías emergentes, en particular la IA.

The Center for Humane Technology (CHT), una organización independiente sin ánimo de lucro cuyo objetivo es impulsar un cambio integral hacia una tecnología más humana cambiando la forma en que los tecnólogos piensan sobre su trabajo y fabrican sus productos a través de una combinación de thought leadership, presión e inspiración que genere una mayor demanda de productos y servicios basados en los principios de la ‘tecnología humana’.

También es de destacar la iniciativa Technological humanism and Artificial Intelligence impulsada por la Fondazione Leonardo Civiltà delle Macchine en Roma que organizó una conferencia internacional para discutir las implicaciones éticas y legales del uso creciente de la IA, y en la que se establecieron las bases de un código ético para el uso de la IA en Italia.

Asimismo, nos parecen muy interesantes declaraciones como el Vienna Manifesto on Digital Humanism o los Asilomar AI Principes que marcan enfoques éticos para la investigación y desarrollo de la Inteligencia Artificial. O iniciativas públicas como las del gobierno suecoReino Unido, la Unión Europea o la OCDE.

Sin embargo, lo que nos parece más esperanzador es comprobar como empresas que desarrollan soluciones de IA o incorporan estas tecnologías a sus productos y servicios como Workday, Google o Microsoft. empiezan a formular y hacer públicos sus compromisos para un desarrollo ético de la IA.

En todo caso, será el tiempo quien nos diga cual de los dos modelos de abordar la eclosión de la Inteligencia Artificial que planteábamos al inicio de este artículo será el que prevalezca.

* Artículo publicado originalmente en Future for Work Institute

CONTACTA CONMIGO

¿Quieres que trabajemos juntos?