Aunque pueda parecer
tediosa la lectura de un borrador eminentemente técnico, sin embargo, tiene
unas consideraciones previas muy interesantes para situar la discusión en torno
a la IA desde un punto de vista distinto al habitual. Me refiero a los
imaginarios estéticos, utópicos o distópicos y las consideraciones moralizantes
que suelen acompañarlos. En ese sentido, resulta significativo que la habitual y
controvertida palabra “progreso” asociada a las tecnologías haya sido
sustituida aquí por las de “velocidad” y “control”. Nada, pues, de lo binario,
progreso tecnológico y retroceso ético; ni tampoco de los imaginarios
edificantes de “viento del progreso” y acumulación de “ruinas”. Tampoco asociaciones
de la “velocidad” con la “estética de la desaparición” comunes desde la
invención del tren en las vanguardias y
retroguardias conservadoras. No se trata aquí del imaginario ligado a lo
lineal, recto o sinuoso, kantiano, pero siempre hacia adelante. Ha faltado en la
historia la imagen del progreso lateral que exige una mirada multilateral. Se
trata, más bien, de un “desarrollo”, una evolución que no prejuzga los
resultados y , por eso es preciso, no prohibir, sino controlar: “los sistemas
de alto riesgo de la IA deberán ser diseñados y desarrollados de tal modo que
personas físicas puedan supervisar su funcionamiento”. Destaca explícitamente
que la responsabilidad de la supervisión no puede ser delegada en un aparato, sino que es competencia del operador humano.
Este enfoque resulta de
gran interés cuando se trata del control al control a través de las cámaras
instaladas en las ciudades, del reconocimiento facial, que ha despertado los
fantasmas de Gran Hermano. La directiva de la UE no se mete en esos
berenjenales reduccionistas, sino que lo hace desde las tecnologías ciudadanas.
Porque replantea el tan cacareado “poder de las imágenes”, no desde ellas, no a
través de su acción o impacto, sino desde los sujetos y su responsabilidad
ciudadana, es decir, la de aquellos que actúan con ellas. Reformulado, se trata
del poder de control a través de las imágenes. Ellas no son sujetos, sino
objetos. Depende de ellos lo que se haga con ellas. Desde esta perspectiva, la
responsabilidad elimina el imaginario irresponsable de la magia y el animismo. Planteamientos
teóricos en boga como “¿qué quieren las imágenes?”, resultan, además de chocantes,
pueriles.
Han sido las aplicaciones
de la IA las que están obligando a una nueva teoría sacada de ellas y no al
revés. En este sentido, resultan especialmente interesantes las recomendaciones
de Google a la regulación de la IA: “Así, el punto de referencia operacional
para los sistemas de IA no debería ser la perfección”. Con ello se apunta directamente
al mito de “la perfección de la técnica”, título del libro del hermano de
Jünger y que este cifraba en la imperfección la señal de lo humano y germen de
lo artístico. Por el contrario, estas recomendaciones señalan que debería haber
“expectativas paritarias”, es decir, que, al igual, que se toleran los errores
humanos, debería hacerse lo mismo con las máquinas. Por otra parte, matiza otro
de los tópicos, como es el de la “transparencia”: “La transparencia no es un
fin en y por sí mismo; es un medio para permitir la responsabilidad, dar poder
al usuario y construir fiabilidad y confianza”. Esto resulta especialmente
relevante ahora en que la antigua cultura de la sospecha de las imágenes se ha
trasladado masivamente a la IA, con sus
aditamentos de los binomios apariencia-realidad, autenticidad-inautenticidad. En
las recomendaciones se precisa lo obvio: que las aplicaciones de alto riesgo
pueden ser también de alto beneficio social. Es decir, que se trata de regular
los usos para impedir los abusos, no de denunciar los abusos para impedir los
usos.