Un blog apasionado, incondicional y sobre todo inútil sobre esos objetos planos, inanimados, caros, arcaicos, sin sonido estereofónico, sin efectos especiales, y sin embargo maravillosos llamados libros.

sábado, 3 de marzo de 2018

AI ahí


¿La libertad? Sofisma de la gente sana.
E. M. Cioran, Silogismos de la amargura.

¿Vas a leer o no esta columna?

Bien, has tomado la decisión más inteligente:

 … decía que, según Daniel Dennett, los artefactos de AI (inteligencia artificial, por sus siglas en inglés), al menos mientras no tengan conciencia de su propia finitud, como nosotros, continuarán viajando en el asiento del copiloto: los seres humanos seguiremos teniendo la última palabra. La moderadora entonces tiró la pelota al más joven de los participantes en el panel “La evolución de la conciencia” —Foro Económico Mundial; 25/I/2018—, el profesor Yuval Noah Harari (Israel, 1976), quien en lugar de seguir incordiando a las máquinas y sus algoritmos más bien la tomó en contra de nosotros, los homo sapiens, los autodenominados hombres sabios… Afirmó que los humanos no somos muy buenos en materia de tomar decisiones, especialmente en el campo de la ética. Y no es porque carezcamos de valores, el problema está en una falta de comprensión cabal de las cadenas de causas y efectos en las que se involucran nuestros actos. “Si se trata de ser realmente responsables, no es suficiente tener valores y asumir responsabilidades, es necesario entender la cadena de causas y efectos”. Explicó que el sentido de la moral de los sapiens evolucionó cuando aún éramos cazadores-recolectores. A lo largo de toda aquella prolongadísima etapa, a cualquier persona le resultaba relativamente sencillo observar y entender las cadenas de causas y efectos en el mundo que lo rodeaba —el mundo se reducía casi sólo a eso, a lo que lo rodeaba—: cada quien podía saber de dónde provenía su alimento, ya fuera si lo había cazado uno mismo o alguien más del grupo; de dónde provenía las prendas con que se protegía, si uno mismo las había confeccionado o bien su familia o sus compañeros… “En cambio ahora, incluso una pregunta de lo más simple como ¿de dónde salió esto? —se cuestionó agarrándose las solapas del saco—… No lo sé. Me tomaría por lo menos un año lograr averiguar quiénes confeccionaron esto, en qué condiciones, si fue justo o no… El mundo se ha complicado en muchos ámbitos, no en todos, pero en muchos es demasiado complicado…” Refiriéndose a los instrumentos de acuerdo de los que hablaba Dennett, al acotar que los sistemas AI no pueden firmar contratos porque carecen de personalidad moral, Yuval Noah Harari apuntó: “Yo firmo contratos casi diariamente… Descargo una nueva aplicación y de inmediato aparece un contrato, páginas y páginas de paja legal, y yo, y supongo que casi toda la demás gente, no leo una sola palabra de todo aquello… Simplemente doy clic en el recuadro ‘He leído’ y listo… ¿Es esto responsable? No estoy seguro…” Conforme al autor de De animales a dioses y Homo Deus, a través de la historia hemos venido construyendo la idea de que los grandes sucesos de la vida consisten en tomar decisiones. ¿Qué es la vida humana de acuerdo a esta visión? “El drama de tomar decisiones… Y ello puede apreciarse en cualquier comedia hollywoodense, en cualquier novela de Jane Austen… Cualquier tragedia de Shakespeare se reduce al gran momento de la decisión crucial… ¿Me caso con míster Collins o con míster Darcy? —Pride and Prejudice—… ¿Ser o no ser? ¿Asesino o no al rey Duncan? —Macbeth—… Y ocurre lo mismo en la religión… ¿Seré freído durante toda la eternidad en el Infierno por tomar la decisión equivocada?… Sucede lo mismo con las ideologías modernas… La democracia es votar por tal o cual candidato, tomar decisiones. En la economía tenemos el poder del cliente, que siempre tiene la razón., es el de la elección… Así que todo se reduce a ese momento de decisión…” Es por esto que los artefactos AI pueden parecernos tan aterradores… Si en un momento dado transfiriéramos la autoridad de tomar decisiones a las AI —como en el caso del hipotético electrodo de la pregunta que la psiquiatra Jodi Halpern hace a sus alumnos semestre a semestre—, las AI tomarían el control de los momentos que consideramos más importantes de nuestras vidas; no solamente determinarían qué ruta seguirías para ir al trabajo, también votarían por nosotros, harían la lista del súper, determinarían con quién te conviene salir el sábado… ¿Con qué nos quedaríamos los tontos seres humanos? La respuesta de Yuval Noah Harari resulta provocativa: “Tal vez el error haya sido perfilar la vida como un drama de toma de decisiones. Quizá no sea eso de lo que se trata la vida humana, quizá la toma de decisiones haya sido un ingrediente necesario de nuestras vidas durante miles de años, pero tal vez no sea necesariamente eso de lo que deba tratarse…” 



No es necesario tramar una historia de ciencia ficción demasiado elaborada para proyectar el escenario al que alude Yuval Noah Harari… Basta imaginar un Waze de todo o de casi todo, digamos, un AI ahí contigo, quizá anexado al iPhone o a un reloj de pulsera… Ahora mismo, tengo ganas de dejar de escribir e ir a la cocina a prepararme un café… Siri, voy a prepararme un expreso… El mensaje vuela a los enormes servidores instalados en Silicon Valley y en menos de un par de segundos los algoritmos procesan todos los datos de que disponen sobre mi rutina diaria, la agenda para hoy y mis distintos niveles bioquímicos, en tiempo real, y determina: Mejor termina tu columna; ya has consumido demasiada cafeína el día de hoy… Por cierto, ya casi no hay café; lo voy a agregar a la lista del súper.

No hay comentarios: