El juego de la imitación moral
El experimento es muy conocido: una persona dialoga con un algo y llega un momento en el que, en el discurrir de su conversación, le es imposible discernir si su interlocutor es una inteligencia artificial o un ser humano. En ese momento, la máquina —que, sin saberlo siquiera, ha estado jugando al juego de la imitación— ha superado el conocido como “test de Turing”.
Puede que tenga razón Jordi Pigem cuando propone que la sigla IA se traduzca como invasión algorítmica en lugar de como algo que no es —una inteligencia artificial—, y es que, efectivamente, la IA, sea lo que sea, se está extendiendo como una pandemia que amenaza con reemplazar cualquier decisión humana, reducida ya a un mero cálculo matemático —o peor aún, económico— de supuestas fortalezas y debilidades; como si lo que nos interesara, de verdad y cuando nos va la vida en ello, pudiera reducirse a ceros y unos.
Pero si dejar que un algoritmo —con sus sesgos, sus alucinaciones o los intereses ocultos de sus programadores— sea el que nos diga qué debemos considerar como verdad puede resultar una temeridad, más preocupante aún se antoja que una IA se ocupe de determinar por nosotros qué se debe hacer, o no, frente a un dilema ético, o qué resulta aconsejable acordar entre diferentes opciones políticas, situaciones ambas en las que no cabe hablar en términos de verdad o falsedad, sino más bien valorar si se trata de actos buenos o inmorales, o de propuestas justas o arbitrarias.
Hay un famoso dilema moral —popularizado por la filósofa británica Philippa Foot— en el que se nos propone decidir qué hacer ante la dramática e inevitable situación en la que un tranvía descontrolado atropellará a cinco personas salvo que, si así lo estimamos justo, actuemos modificando la marcha del aparato reconduciéndolo hasta un lugar en el que solo atropellaría, insalvablemente, a un desafortunado peatón que pasaba por allí. La fría lógica racional, aritmética y utilitarista suele decantar la ecuación moral a favor de preferir la muerte de uno en lugar de la de cinco, pues de este modo salvamos a cuatro inocentes. Parece incuestionable. Sin embargo, el dilema continúa con diversas variantes, una de las cuales pone nombre y apellidos al viandante solitario: la madre del llamado a decidir qué hacer con el tranvía. Ante esta nueva circunstancia, la mayoría opta por, parafraseando a Camus, decir aquello de que “entre la lógica matemática y mi madre, elijo a mi madre”. Lo que antes parecía incuestionable se torna ahora, al menos, como discutible.
La injustamente olvidada pensadora búlgara Rachel Bespaloff afirmó en su día que “no se elige una ética como se elige un abrigo”; de hecho, normalmente el ser humano decide de antemano qué va a hacer y luego se da razones que, ante sí y ante los demás, justifiquen moralmente sus actos. Por esos y otros motivos, resulta difícil llegar a creer que una futurible IA, sea lo que sea, aunque se la programara de antemano con todas las teorías éticas que el ser humano ha ido pergeñando —intelectualismo moral socrático, ética de la virtud aristotélica, utilitarismo, deontología kantiana, etc.— pudiera algún día jugar al juego de la imitación moral; y es que decidir qué se debe hacer ante cualquier decisión moralmente difícil no se solventa, como se ha dicho ya, acudiendo a maniqueos parámetros de verdadero/falso, pero tampoco puede quedar artificiosamente reducido a aplicar, de manera automática, criterios meramente algorítmicos que tan solo traducen ocultos cálculos egoístas de qué pueda sernos más rentable en el corto plazo.
Decidir qué debemos hacer, en no pocas ocasiones, suele tener más que ver tanto con la poesía de quien se sabe colocar en el lugar del otro, acompañarlo o compadecerse de él sin imponer su visión del mundo; cuanto con la épica, nada programable en un sistema de software, de quien, como les ocurría a aquellos siete samuráis de Kurosawa, se juega la vida por algo parecido a la Justicia a cambio de tres comidas de arroz al día.
Sobre este blog
— Y bien, ¿qué tiene que decir del procesado?
— Pues poca cosa, señoría: se dice que se le puede encontrar habitualmente en el estrado, sentado en el lado de la defensa. Abogado, graduado en filosofía, profesor e investigador universitario y esforzado karateka, se le suele ver pedaleando, casi como si de un ritual se tratara, desde su despacho hasta la Ciudad de la Justicia, la Facultad de Derecho o el tatami.
Padre de dos niñas, he leído que, además de diversos artículos, ha escrito los libros La posverdad a juicio. Un caso sin resolver (Premio Catarata de Ensayo) y Leer lo correcto. El proceso como una de las bellas artes.
— ¿Y cree que debería el jurado creer lo que nos cuente?
— Eso, señoría, ya no me corresponde a mí decidirlo. Lo que sí le puedo asegurar es que se trata de alguien que no da nada por sentado, menos aún cuando la justicia o la razón están en juego.
— Está bien. Gracias por su testimonio. Visto para sentencia.
0