domingo, 21 de mayo de 2023

Reflexiones sobre el proyecto de normativa europea para regular el empleo de la IA (2)

 

Aunque pueda parecer tediosa la lectura de un borrador eminentemente técnico, sin embargo, tiene unas consideraciones previas muy interesantes para situar la discusión en torno a la IA desde un punto de vista distinto al habitual. Me refiero a los imaginarios estéticos, utópicos o distópicos y las consideraciones moralizantes que suelen acompañarlos. En ese sentido, resulta significativo que la habitual y controvertida palabra “progreso” asociada a las tecnologías haya sido sustituida aquí por las de “velocidad” y “control”. Nada, pues, de lo binario, progreso tecnológico y retroceso ético; ni tampoco de los imaginarios edificantes de “viento del progreso” y acumulación de “ruinas”. Tampoco asociaciones de la “velocidad” con la “estética de la desaparición” comunes desde la invención del tren en las vanguardias y retroguardias conservadoras. No se trata aquí del imaginario ligado a lo lineal, recto o sinuoso, kantiano, pero siempre hacia adelante. Ha faltado en la historia la imagen del progreso lateral que exige una mirada multilateral. Se trata, más bien, de un “desarrollo”, una evolución que no prejuzga los resultados y , por eso es preciso, no prohibir, sino controlar: “los sistemas de alto riesgo de la IA deberán ser diseñados y desarrollados de tal modo que personas físicas puedan supervisar su funcionamiento”. Destaca explícitamente que la responsabilidad de la supervisión no puede ser delegada en un aparato, sino que es competencia del operador humano.

Este enfoque resulta de gran interés cuando se trata del control al control a través de las cámaras instaladas en las ciudades, del reconocimiento facial, que ha despertado los fantasmas de Gran Hermano. La directiva de la UE no se mete en esos berenjenales reduccionistas, sino que lo hace desde las tecnologías ciudadanas. Porque replantea el tan cacareado “poder de las imágenes”, no desde ellas, no a través de su acción o impacto, sino desde los sujetos y su responsabilidad ciudadana, es decir, la de aquellos que actúan con ellas. Reformulado, se trata del poder de control a través de las imágenes. Ellas no son sujetos, sino objetos. Depende de ellos lo que se haga con ellas. Desde esta perspectiva, la responsabilidad elimina el imaginario irresponsable de la magia y el animismo. Planteamientos teóricos en boga como “¿qué quieren las imágenes?”, resultan, además de chocantes, pueriles.

 Han sido las aplicaciones de la IA las que están obligando a una nueva teoría sacada de ellas y no al revés. En este sentido, resultan especialmente interesantes las recomendaciones de Google a la regulación de la IA: “Así, el punto de referencia operacional para los sistemas de IA no debería ser la perfección”. Con ello se apunta directamente al mito de “la perfección de la técnica”, título del libro del hermano de Jünger y que este cifraba en la imperfección la señal de lo humano y germen de lo artístico. Por el contrario, estas recomendaciones señalan que debería haber “expectativas paritarias”, es decir, que, al igual, que se toleran los errores humanos, debería hacerse lo mismo con las máquinas. Por otra parte, matiza otro de los tópicos, como es el de la “transparencia”: “La transparencia no es un fin en y por sí mismo; es un medio para permitir la responsabilidad, dar poder al usuario y construir fiabilidad y confianza”. Esto resulta especialmente relevante ahora en que la antigua cultura de la sospecha de las imágenes se ha trasladado masivamente a la IA, con sus aditamentos de los binomios apariencia-realidad, autenticidad-inautenticidad. En las recomendaciones se precisa lo obvio: que las aplicaciones de alto riesgo pueden ser también de alto beneficio social. Es decir, que se trata de regular los usos para impedir los abusos, no de denunciar los abusos para impedir los usos.

 

No hay comentarios:

Publicar un comentario