sábado, 2 de julio de 2016

¿HABRÁ MAÑANA PARA LA CONCIENCIA, INTENCIÓN Y VOLUNTAD?



 EL PAÍS, Madrid, 2 de julio de 2016
Tribuna
Un robot y el piloto de Hiroshima
Irene Lozano

Una de las historias más estremecedoras de la II Guerra Mundial es la de Claude Eatherly, piloto integrante del escuadrón que bombardeó Hiroshima, cuya trágica experiencia nos ayuda a asomarnos a la era de la robotización. En la madrugada del 6 de agosto de 1945, el comandante Eatherly, de 26 años, llevó a cabo el vuelo de reconocimiento sobre la ciudad japonesa, poco antes de que el Enola Gay descargara la mortífera bomba. Eatherly regresó a su base y durante varios días permaneció en silencio, digiriendo su conmoción.
De regreso a EE UU, pareció adaptarse a la vida normal durante unos años. Sin embargo, se sentía un criminal, responsable de una acción atroz que había dejado más de 150.000 muertos y a la que debía corresponder un castigo equivalente. Pero las leyes de la guerra exoneraban de cualquier crimen a quienes habían tomado la decisión y a él mismo. Mientras el insomnio y la pesadumbre le iban carcomiendo por dentro, la sociedad rendía homenajes a su heroísmo. La imposibilidad de expiar su culpa le llevó a un primer intento de quitarse la vida, al que sucederían varios más.
Lejos de diluir su sentimiento de responsabilidad, la impunidad lo acrecentaba cada día hasta ocupar su vida por entero. Necesitaba ser castigado y comenzó a cometer pequeños delitos. Asaltó gasolineras, falsificó cheques, cometió atracos, asaltó cajeros. Nunca se llevaba el botín o lo donaba a organizaciones benéficas, pues solo quería ser tratado como un criminal.
Mucha gente lo tomó por loco; otros achacaron su comportamiento a la búsqueda de notoriedad. La realidad es que aquel hombre atormentado solo se estaba comportando como una persona que quiere ser reconocida como tal, es decir, como agente moral responsable de sus actos. Al reclamarse culpable, ejercía su autonomía moral, y en última instancia su libertad y su individualidad. Lo que pedía a gritos con sus pequeños delitos era justamente no ser considerado un robot, sino un ser humano. Verse como un autómata desprovisto de conciencia, voluntad, libre albedrío, como si simplemente hubiera sido programado para participar en una masacre, le convertía en algo menos que humano, una perspectiva insoportable. Su desasosiego lo llevó a nuevos intentos de suicidio y a ser ingresado en centros psiquiátricos militares, pero solo encontró cierto consuelo cuando empezó a cartearse con el filósofo Gunther Anders. Él sí pudo darle una explicación, demostrando una vez más cuánto ayuda la filosofía si se dedica a las vidas concretas de los seres reales. Anders le explicó exactamente cómo se sentía: “Inocentemente culpable”.
El terror de ser destruidos por nuestras propias criaturas puebla la imaginación humana
La historia de Claude Eatherly ilumina nuestra conversación sobre la revolución robótica. O mejor dicho, la iluminaría si la estuviéramos manteniendo. Sentimos la fascinación de ser la única especie sobre la tierra capaz de crear la tecnología que nos permite superar nuestras limitaciones. Nos impresiona nuestra propia capacidad, pero también nos hace recelar. Como ha señalado Antonio Damasio, si nos pueden amenazar los robots es porque somos únicos; la amenaza se debe a nuestra excepcionalidad, pero eso no la empequeñece: el terror a ser destruido por nuestras propias criaturas puebla la imaginación humana desde que Mary Shelley escribió Frankenstein.
Desde ese temor más o menos difuso, vemos el advenimiento de un mundo que no se parece en nada al nuestro. Cuando tratamos de imaginar cómo será, sentimos una punzada de extrañeza, pues al comparar los sentimientos que nos provoca con los que nos son familiares no conseguimos identificarlos. Tal vez lo encajaríamos si debatiéramos sobre cuestiones de las que es urgente conversar. Necesitamos el punto de vista humanístico, el único que puede darnos respuestas sobre nuestra condición en la era de la robótica. Si hoy nuestra capacidad de hacer gracias a la tecnología supera nuestra capacidad de sentir respecto a lo que estamos haciendo, es a causa de ese espeso silencio humanístico.
Resulta paradójico que hace 70 años, cuando Isaac Asimov imaginó un mundo de robots, viera enseguida la necesidad de establecer una guía para su comportamiento, las leyes de la robótica. Aquello que él juzgó necesario en la ficción no parece serlo hoy para la realidad. Pero lo es, si consideramos la literatura de ciencia ficción “como vehículo de sentimientos y deseos de la masa”, tal como la definió Hannah Arendt. Lo relevante de aquel género literario no es lo que nos desvelaba sobre las máquinas, sino lo que nos dice del ser humano, de sus anhelos y temores. Asimov ya nos hablaba de ese íntimo desconcierto que necesitamos compartir urgentemente, e incorporar a cada noticia sobre una nueva habilidad en los robots, porque afectan al núcleo de la condición humana.
Las máquinas carecen de voluntad, intención, conciencia; pero ¿tendrán mañana esas cualidades?
Ahora que los ensueños de Asimov han cobrado realidad y ya no los conocemos por las novelas, sino a través de los informativos, resulta pasmoso que la necesidad de guiar moralmente a los robots no forme parte de la conversación sobre la revolución tecnológica. Un robot (del checo robota, trabajo forzado) carece de voluntad, intención, conciencia; por tanto, no puede ser agente moral. Al menos, no con el desarrollo actual de la inteligencia artificial. Pero ¿podrán tener esas cualidades mañana? Y entretanto, ¿quién será responsable de sus actos? No se trata de un debate teórico ni abstracto, sino de algo tan cercano como los coches sin conductor. No tardará mucho en llegar el día en que circulen con normalidad. Si irrumpe un niño corriendo en la calzada, ¿qué hará la máquina? Frenará bruscamente poniendo en riesgo la vida de los ocupantes del coche —sus dueños—, o no frenará y preferirá atropellar al niño. En cualquiera de los dos casos, ¿podríamos considerarlo moralmente responsable de esa decisión? Y si no a él, ¿a quién? ¿Al dueño del coche? ¿Al programador? ¿Al fabricante?
Soy de las que creen que la tecnología es neutral y quienes tenemos la voluntad de usarla para el bien o el mal somos los humanos. Sin embargo, esa neutralidad moral no significa en modo alguno que la tecnología no incida sobre la naturaleza humana y la modifique. Si lo hizo el reloj mecánico, cómo pensar que no lo harán los robots. Tampoco pienso que debamos temerlos por defecto. Lo verdaderamente preocupante es que la robotización esté produciéndose en un momento de depresión absoluta de las humanidades, ostracismo de la filosofía y menosprecio de la cultura que quiere ser algo más que entretenimiento. No porque estas disciplinas nos vayan a dar todas las respuestas, sino porque al menos nos ayudarían a formularnos las preguntas adecuadas. El hecho de que no nos estemos planteando ninguna no indica nada bueno. En todo caso, si seguimos prescindiendo de las humanidades —que es como decir de nuestra humanidad—, no podremos culpar a los robots, sino a nuestra propia negligencia como sociedad que ha despreciado su valor. Quizá estemos despojándonos de las más útiles y genuinas herramientas para conocer mejor nuestro yo en la que será nuestra nueva circunstancia.
(*) Irene Lozano es escritora y exdiputada.
Fuente:

No hay comentarios:

Publicar un comentario