La alusión que hacía en el post anterior a la frase de Benjamin no es exacta en el caso de Innerarity, ya que este no busca contraponer sino “compensar” la tecnologización y la politización; es decir, se trata del “equilibrio” como brújula al que aludíamos al comienzo de estas notas de lectura. Queda reducido, por mi parte, a una alusión que es una ilusión de la interpretación. ¿Habría cometido este “error” una inteligencia artificial? ¿No arrojaría el resultado de un “recuerda a” sino la predicción de un “es lo mismo”? Una de las partes más interesantes del libro es la relativa al carácter predictivo de la inteligencia artificial (que el autor pone en cuestión de cara al presente y el futuro) estableciendo relaciones de causa y efecto que no tienen en cuenta el carácter impredecible del ser humano. Son los riesgos de la tecnologización de la política. El resultado de esa “objetividad” predictiva de los datos sería según el autor equivalente a la subjetividad de la ilusión visual a la que induce la portada del libro:
“La portada de este libro muestra un ejemplo de error visual que nuestra percepción puede cometer al dejarse engañar por una apariencia. En este caso, el hecho de que la barra donde se apoya una gaviota esté doblada nos inclina a pensar que el peso de esa gaviota es la causa de que la barra esté doblada y no que la gaviota se haya apoyado casualmente donde la barra estaba rota” (114).
Lo cierto es que la imagen no engaña visualmente porque la barra de encima y sobre la que no se posa la gaviota también está doblada por lo que no se produce espontáneamente la mencionada asociación de causalidad en la segunda sobre la que se apoya. Aunque, de darse el error visual, en este como en otros casos, el “pensar” lo corrige, no lo corrobora. Es decir, que los datos no engañan y todo depende de lo que se quiera hacer (predecir) con ellos al fabricar el algoritmo para introducirlos, tratarlos y evaluarlos y decidir, con ellos, no ellos solos.
Aunque cita a Foucault como referente, la postura de Innerarity parece, en realidad, ser el reverso de aquel famoso artículo de Bill Joy publicado en 2000 en la mítica revista Wired: “¿Por qué el futuro no nos necesita?”. Si el siglo XX comenzó con la creencia de que la vida es futurición y el futuro está en nuestras manos, a su final predominaba un distopismo (tanto en la teoría crítica como el ciberpunk) cuyo origen era el determinismo tecnológico. Innerarity “compensa” esa tecnologización creciente con la reflexión sobre los límites de la “razón predictiva” para gestionar un futuro caracterizado por ser imprevisible desde los meros datos del pasado. Y es precisamente por la gestión de las incertidumbres como entiende Innerarity la política. Contando para ello con las tecnologías como complemento. Ya solventó el problema de la creatividad de estas concluyendo que facilitan la creatividad humana sin reemplazarla.
Recientemente Jean-Christophe Deslarzes y Denis Machuel, responsables de Adecco, han puntualizado muy bien que “No seremos sustituidos por la IA, sino por quienes sepan trabajar con ella”. Con ello no solo apunta a la consabida “brecha digital” sino a su raíz, la económica, que acaba incidiendo en aquella. Y eso es mucho más peligroso que todos los imaginarios distópicos de la rebelión de la IA juntos. Desde luego, Innerarity ni apunta ni se apunta a esa rebelión, pero sí a necesidad ineludible de gestionar en democracia ese futuro que es en lo que consiste la política. Porque de ello depende la supervivencia de la democracia misma.
El cómo será el contenido del último post.
No hay comentarios:
Publicar un comentario