Esas tres palabras citadas empiezan ya a
ser reconocibles en el análisis que Innerarity hace de la situación en la que
se encuentran hoy las posturas respecto a la inteligencia artificial. Se
pregunta muy atinadamente: “¿Es posible tener una relación menos histérica con
el mundo digital?” (28). A lo largo del libro advierte que va a plantear
ciertas cuestiones de “una manera provocadora”. Desde luego en lo que se
refiere a esta el diagnóstico es muy ajustado. Es raro encontrar libros o
intervenciones en los medios sociales en los que, hechas las oportunas
salvedades, no acaben situándose en uno u otro extremo. Hay que tenerlos en cuenta,
pero no habría que confundir los imaginarios utópicos o distópicos con la
reflexión en torno al tema, que es lo que reclama Innerarity. Son extremos,
pero el dicho común de que los extremos se tocan no solo se cumple, sino que se
invierten los papeles y los que antes eran entusiastas de las nuevas
tecnologías se han convertido ahora en Casandras que profetizan los desastres a
los que nos aboca el progreso. El autor lo resume así: “En poco tiempo hemos
pasado del ciberentusiasmo a la tecnopreocupación” (299). La palabra
“equilibrio” que él propugna cumple aquí su función moderadora. Pero no hay que
confundirla con otras.
Estando él fuera de toda sospecha
en este punto por su trayectoria resultan de mucho interés las puntualizaciones
que hace a la recomendación habitual del enfoque ético de la inteligencia
artificial. Suele consistir en la propuesta de “humanizar” las tecnologías mediante
el aumento de control y supervisión de estas para corregir los riesgos de la
automatización. Innerarity ve ahí, al menos, dos problemas. El primero, que
ello podría privarnos de los beneficios de la automatización en los
dispositivos que manejamos habitualmente, que forman parte de nuestra vida
cotidiana, y cuya utilidad consiste en su manejo inconsciente. El segundo problema
es el que está en la raíz de esa demanda ética generalizada. Innerarity lo
aborda de forma decididamente “provocadora”: “Si se me permite una ligera
exageración, quienes se ocupan de cuestiones éticas no suelen estar demasiado
preocupados de que su diagnóstico describa adecuadamente la realidad o de que
sus recomendaciones sean practicables y eficaces” (152). Y para que no haya
dudas de a qué se está refiriendo cita expresamente varias recomendaciones del
borrador Directrices éticas sobre inteligencia artificial de la Comisión
europea. Para concluir con algo que parece ser paradójico con los propósitos
del autor: “Mi propuesta es considerar que el pensamiento consciente, la
reflexión, la decisión y el control están sobrevalorados, especialmente en
entornos tecnológicos complejos. La nostalgia de la simplicidad y el control
nos lleva a creer que la conciencia y el control nos haría más dueños de la
situación en estos nuevos entornos en los que hay que negociar equilibrios
inestables con máquinas poco dóciles, renunciar a controles estrictos y
enfrentarse a escenarios de mayor incertidumbre” (153).
Hay, pues, una contraposición entre
la nostalgia de la simplicidad que subyace a esas recomendaciones éticas y la
constatación de la complejidad de las sociedades tecnológicas irreductible a
esa simplificación. Y es, precisamente, esa asimetría lo que las hace difíciles
de llevar a la práctica. Innerarity lo ha intentado evitar desde el comienzo
del libro en el epígrafe titulado “El complemento ético “: “No podemos esperar
la solución al problema de la articulación entre la inteligencia artificial y
la democracia a partir de la actual proliferación de códigos éticos porque… [Antes
que normativo, el desafío al que nos enfrentamos es conceptual]” (21). Y con
ello se llega al punto clave de divergencia entre esta teoría crítica y la “exhortación
moralizante”: “debe comprender y respetar la complejidad de lo que se critica”
(24). Todo un programa.
Se inicia con ello una navegación
apasionante y original en el libro, una auténtica guía para complejos y perplejos.
Lo iremos viendo.
No hay comentarios:
Publicar un comentario