EL PAÍS, Madrid, 2 de julio
de 2016
Tribuna
Un robot y el piloto de Hiroshima
Irene Lozano
Una de las historias más estremecedoras de la II Guerra Mundial es
la de Claude Eatherly, piloto integrante del escuadrón que bombardeó Hiroshima,
cuya trágica experiencia nos ayuda a asomarnos a la era de la robotización. En
la madrugada del 6 de agosto de 1945, el comandante Eatherly, de 26 años, llevó
a cabo el vuelo de reconocimiento sobre la ciudad japonesa, poco antes de que
el Enola Gay descargara la mortífera bomba. Eatherly regresó a su base y
durante varios días permaneció en silencio, digiriendo su conmoción.
De regreso a EE UU, pareció adaptarse a la vida normal durante
unos años. Sin embargo, se sentía un criminal, responsable de una acción atroz
que había dejado más de 150.000 muertos y a la que debía corresponder un
castigo equivalente. Pero las leyes de la guerra exoneraban de cualquier crimen
a quienes habían tomado la decisión y a él mismo. Mientras el insomnio y la
pesadumbre le iban carcomiendo por dentro, la sociedad rendía homenajes a su
heroísmo. La imposibilidad de expiar su culpa le llevó a un primer intento de
quitarse la vida, al que sucederían varios más.
Lejos de diluir su sentimiento de responsabilidad, la impunidad lo
acrecentaba cada día hasta ocupar su vida por entero. Necesitaba ser castigado
y comenzó a cometer pequeños delitos. Asaltó gasolineras, falsificó cheques,
cometió atracos, asaltó cajeros. Nunca se llevaba el botín o lo donaba a
organizaciones benéficas, pues solo quería ser tratado como un criminal.
Mucha gente lo tomó por loco; otros achacaron su comportamiento a
la búsqueda de notoriedad. La realidad es que aquel hombre atormentado solo se
estaba comportando como una persona que quiere ser reconocida como tal, es
decir, como agente moral responsable de sus actos. Al reclamarse culpable,
ejercía su autonomía moral, y en última instancia su libertad y su
individualidad. Lo que pedía a gritos con sus pequeños delitos era justamente
no ser considerado un robot, sino un ser humano. Verse como un autómata
desprovisto de conciencia, voluntad, libre albedrío, como si simplemente
hubiera sido programado para participar en una masacre, le convertía en algo
menos que humano, una perspectiva insoportable. Su desasosiego lo llevó a
nuevos intentos de suicidio y a ser ingresado en centros psiquiátricos
militares, pero solo encontró cierto consuelo cuando empezó a cartearse con el
filósofo Gunther Anders. Él sí pudo darle una explicación, demostrando una vez
más cuánto ayuda la filosofía si se dedica a las vidas concretas de los seres
reales. Anders le explicó exactamente cómo se sentía: “Inocentemente culpable”.
El terror de ser destruidos por nuestras propias criaturas puebla
la imaginación humana
La historia de Claude Eatherly ilumina nuestra conversación sobre
la revolución robótica. O mejor dicho, la iluminaría si la estuviéramos manteniendo.
Sentimos la fascinación de ser la única especie sobre la tierra capaz de crear
la tecnología que nos permite superar nuestras limitaciones. Nos impresiona
nuestra propia capacidad, pero también nos hace recelar. Como ha señalado
Antonio Damasio, si nos pueden amenazar los robots es porque somos únicos; la
amenaza se debe a nuestra excepcionalidad, pero eso no la empequeñece: el
terror a ser destruido por nuestras propias criaturas puebla la imaginación
humana desde que Mary Shelley escribió Frankenstein.
Desde ese temor más o menos difuso, vemos el advenimiento de un
mundo que no se parece en nada al nuestro. Cuando tratamos de imaginar cómo
será, sentimos una punzada de extrañeza, pues al comparar los sentimientos que
nos provoca con los que nos son familiares no conseguimos identificarlos. Tal
vez lo encajaríamos si debatiéramos sobre cuestiones de las que es urgente
conversar. Necesitamos el punto de vista humanístico, el único que puede darnos
respuestas sobre nuestra condición en la era de la robótica. Si hoy nuestra
capacidad de hacer gracias a la tecnología supera nuestra capacidad de sentir
respecto a lo que estamos haciendo, es a causa de ese espeso silencio
humanístico.
Resulta paradójico que hace 70 años, cuando Isaac Asimov imaginó un
mundo de robots, viera enseguida la necesidad de establecer una guía para su
comportamiento, las leyes de la robótica. Aquello que él juzgó necesario en la
ficción no parece serlo hoy para la realidad. Pero lo es, si consideramos la
literatura de ciencia ficción “como vehículo de sentimientos y deseos de la
masa”, tal como la definió Hannah Arendt. Lo relevante de aquel género
literario no es lo que nos desvelaba sobre las máquinas, sino lo que nos dice
del ser humano, de sus anhelos y temores. Asimov ya nos hablaba de ese íntimo
desconcierto que necesitamos compartir urgentemente, e incorporar a cada
noticia sobre una nueva habilidad en los robots, porque afectan al núcleo de la
condición humana.
Las máquinas carecen de voluntad, intención, conciencia; pero
¿tendrán mañana esas cualidades?
Ahora que los ensueños de Asimov han cobrado realidad y ya no los
conocemos por las novelas, sino a través de los informativos, resulta pasmoso
que la necesidad de guiar moralmente a los robots no forme parte de la
conversación sobre la revolución tecnológica. Un robot (del checo robota,
trabajo forzado) carece de voluntad, intención, conciencia; por tanto, no puede
ser agente moral. Al menos, no con el desarrollo actual de la inteligencia
artificial. Pero ¿podrán tener esas cualidades mañana? Y entretanto, ¿quién
será responsable de sus actos? No se trata de un debate teórico ni abstracto,
sino de algo tan cercano como los coches sin conductor. No tardará mucho en
llegar el día en que circulen con normalidad. Si irrumpe un niño corriendo en
la calzada, ¿qué hará la máquina? Frenará bruscamente poniendo en riesgo la
vida de los ocupantes del coche —sus dueños—, o no frenará y preferirá
atropellar al niño. En cualquiera de los dos casos, ¿podríamos considerarlo
moralmente responsable de esa decisión? Y si no a él, ¿a quién? ¿Al dueño del
coche? ¿Al programador? ¿Al fabricante?
Soy de las que creen que la tecnología es neutral y quienes
tenemos la voluntad de usarla para el bien o el mal somos los humanos. Sin
embargo, esa neutralidad moral no significa en modo alguno que la tecnología no
incida sobre la naturaleza humana y la modifique. Si lo hizo el reloj mecánico,
cómo pensar que no lo harán los robots. Tampoco pienso que debamos temerlos por
defecto. Lo verdaderamente preocupante es que la robotización esté produciéndose
en un momento de depresión absoluta de las humanidades, ostracismo de la
filosofía y menosprecio de la cultura que quiere ser algo más que
entretenimiento. No porque estas disciplinas nos vayan a dar todas las
respuestas, sino porque al menos nos ayudarían a formularnos las preguntas
adecuadas. El hecho de que no nos estemos planteando ninguna no indica nada
bueno. En todo caso, si seguimos prescindiendo de las humanidades —que es como
decir de nuestra humanidad—, no podremos culpar a los robots, sino a nuestra
propia negligencia como sociedad que ha despreciado su valor. Quizá estemos
despojándonos de las más útiles y genuinas herramientas para conocer mejor
nuestro yo en la que será nuestra nueva circunstancia.
(*) Irene Lozano es escritora y exdiputada.
Fuente:
No hay comentarios:
Publicar un comentario