martes, 30 de mayo de 2023

Camus y las imágenes

 


“Me asaltaron los recuerdos de una vida que ya no me pertenecía, pero en la que había encontrado mis alegrías más simples y más tenaces: los olores del verano, el barrio que amaba, cierto cielo de la tarde, la risa y los vestidos de Marie".

"No se piensa sino por imágenes. Si quieres ser filósofo escribe novelas"


sábado, 27 de mayo de 2023

Información visual

 

Our brains were built for visual information:

1. 90% of the information processed by the brain is visual.

2. It takes only 13 milliseconds for the human brain to process an image.

3. The human brain processes images 60,000 times faster than text.

4. People remember 65% of what they see, compared to ten percent what they hear.

5. In responses to a recent survey, 95% of B2B buyers said they wanted video content.

6. Publishers that feature visual content grow traffic 12 times faster than those who don’t.

Aquí

viernes, 26 de mayo de 2023

miércoles, 24 de mayo de 2023

Murakami

 Yo: 

“Pensé que quizá May Kasahara tuviera razón. El hombre que era yo, a fin de cuentas, había sido hecho en alguna otra parte. Y todo venía de otra parte y luego volvía a irse a otra parte. Yo no soy más que un simple camino por donde pasa el hombre que yo soy”. (Crónica del pájaro que da cuerda al mundo)

Los lectores

“Unos solitarios pedazos de metal en la negrura del espacio infinito que de repente se encontraban, se cruzaban y se separaban para siempre. Sin una palabra, sin una promesa” (Sputnik, mi amor). 

En definitiva, cada uno solo es... 

“Como un Sputnik pequeñito que se hubiera extraviado”.

domingo, 21 de mayo de 2023

Reflexiones sobre el proyecto de normativa europea para regular el empleo de la IA (2)

 

Aunque pueda parecer tediosa la lectura de un borrador eminentemente técnico, sin embargo, tiene unas consideraciones previas muy interesantes para situar la discusión en torno a la IA desde un punto de vista distinto al habitual. Me refiero a los imaginarios estéticos, utópicos o distópicos y las consideraciones moralizantes que suelen acompañarlos. En ese sentido, resulta significativo que la habitual y controvertida palabra “progreso” asociada a las tecnologías haya sido sustituida aquí por las de “velocidad” y “control”. Nada, pues, de lo binario, progreso tecnológico y retroceso ético; ni tampoco de los imaginarios edificantes de “viento del progreso” y acumulación de “ruinas”. Tampoco asociaciones de la “velocidad” con la “estética de la desaparición” comunes desde la invención del tren en las vanguardias y retroguardias conservadoras. No se trata aquí del imaginario ligado a lo lineal, recto o sinuoso, kantiano, pero siempre hacia adelante. Ha faltado en la historia la imagen del progreso lateral que exige una mirada multilateral. Se trata, más bien, de un “desarrollo”, una evolución que no prejuzga los resultados y , por eso es preciso, no prohibir, sino controlar: “los sistemas de alto riesgo de la IA deberán ser diseñados y desarrollados de tal modo que personas físicas puedan supervisar su funcionamiento”. Destaca explícitamente que la responsabilidad de la supervisión no puede ser delegada en un aparato, sino que es competencia del operador humano.

Este enfoque resulta de gran interés cuando se trata del control al control a través de las cámaras instaladas en las ciudades, del reconocimiento facial, que ha despertado los fantasmas de Gran Hermano. La directiva de la UE no se mete en esos berenjenales reduccionistas, sino que lo hace desde las tecnologías ciudadanas. Porque replantea el tan cacareado “poder de las imágenes”, no desde ellas, no a través de su acción o impacto, sino desde los sujetos y su responsabilidad ciudadana, es decir, la de aquellos que actúan con ellas. Reformulado, se trata del poder de control a través de las imágenes. Ellas no son sujetos, sino objetos. Depende de ellos lo que se haga con ellas. Desde esta perspectiva, la responsabilidad elimina el imaginario irresponsable de la magia y el animismo. Planteamientos teóricos en boga como “¿qué quieren las imágenes?”, resultan, además de chocantes, pueriles.

 Han sido las aplicaciones de la IA las que están obligando a una nueva teoría sacada de ellas y no al revés. En este sentido, resultan especialmente interesantes las recomendaciones de Google a la regulación de la IA: “Así, el punto de referencia operacional para los sistemas de IA no debería ser la perfección”. Con ello se apunta directamente al mito de “la perfección de la técnica”, título del libro del hermano de Jünger y que este cifraba en la imperfección la señal de lo humano y germen de lo artístico. Por el contrario, estas recomendaciones señalan que debería haber “expectativas paritarias”, es decir, que, al igual, que se toleran los errores humanos, debería hacerse lo mismo con las máquinas. Por otra parte, matiza otro de los tópicos, como es el de la “transparencia”: “La transparencia no es un fin en y por sí mismo; es un medio para permitir la responsabilidad, dar poder al usuario y construir fiabilidad y confianza”. Esto resulta especialmente relevante ahora en que la antigua cultura de la sospecha de las imágenes se ha trasladado masivamente a la IA, con sus aditamentos de los binomios apariencia-realidad, autenticidad-inautenticidad. En las recomendaciones se precisa lo obvio: que las aplicaciones de alto riesgo pueden ser también de alto beneficio social. Es decir, que se trata de regular los usos para impedir los abusos, no de denunciar los abusos para impedir los usos.

 

sábado, 13 de mayo de 2023

Reflexiones sobre el proyecto de normativa europea para regular el empleo de la IA (1)


El proyecto no deja de ser ambicioso, ya que aspira, no solo a liderar las iniciativas mundiales en torno a este tema, sino a que sea “tecnológicamente neutro” y sirva la regulación para el presente y el futuro. Este punto, la neutralidad, parece tocar un punto siempre en discusión y que ha despertado grandes recelos como es el relativo a “la neutralidad de la técnica”. No es el caso. Se refiere a que la regulación no pretende prohibir el uso (todo lo contrario) sino corregir el abuso de la IA, especialmente en lo relativo a la vulneración de los derechos humanos, mencionados al detalle. El primero (y esto sí que es problemático en su concreción) cuando se trata de la “dignidad humana”, pues, yendo más allá, enfatiza que todo el proyecto es “homo céntrico”, lo que no deja de tener consecuencias importantes, como veremos, respecto al sujeto de las tecnologías. Además, su intención de perdurar hace que considere a la IA como un fenómeno actual, pero no efímero, en cuyo enfoque regulatorio deben estar presentes los criterios técnicos, referidos a las aplicaciones, no los esencialistas de las definiciones tradicionales. Hay dos palabras “velocidad” y “control” que expresan la conciencia del cambio y, al mismo tiempo, la posibilidad y necesidad de regularlo en cada momento. Desde este punto de vista, una de las cosas más llamativas de este proyecto para quien viene del campo de la teoría es el lenguaje empleado, descriptivo, no universalista y de conceptos emocionales, con lo que se sabe de qué se está hablando en cada momento. El contraste con el tecnorromántico de las metáforas digitales es llamativo. Una y otra vez aparece la palabra “ciudadanas” con lo que se recuerda que se está hablando de tecnologías ciudadanas. Una novedad.