Una ética para la inteligencia artificial

Nuestras tecnologías deben estar siempre al servicio de la dignidad de las personas

En 1968, Arthur C. Clarke publicó la novela: “2001: Una odisea en el espacio” y participó en su versión cinematográfica. En el relato, se cuenta la historia de la computadora HAL 9000, responsable de conducir una nave espacial. HAL parece enloquecer y comienza a sembrar muerte a su alrededor. En la secuela de la novela se esclarecen las razones que causan el malfuncionamiento. La computadora había sido diseñada para procesar información sin ocultamiento ni distorsión. Sin embargo, recibe órdenes de mantener un secreto por motivos de seguridad nacional. Esta contradicción crea un «bucle», que enferma a HAL de paranoia.

HAL es una computadora “heurístico-algorítmica”, es decir, es una máquina capaz de aprender de sus errores e innovar por sí misma a partir del hallazgo rápido de soluciones aproximadas. El drama de HAL en la novela resulta ser de índole moral: la importancia de decir la verdad y el alto costo de sacrificar vidas humanas. Con ello Arthur C. Clarke identificaba uno de los desafíos más grandes que poseen las nacientes inteligencias artificiales (IA): ¿cuál debe ser su ética? ¿cómo evitar que sus acciones no perjudiquen directa o indirectamente a los seres humanos? Es fácil advertir que estas preguntas conllevan implícitamente la convicción que la IA es verdadera “inteligencia”, que toman decisiones morales, y que es preciso “dotarlas” de ciertos parámetros para ello.

Estos tres implícitos en realidad son una trampa. Por una parte, la IA no es verdadera inteligencia, es decir, no es capacidad de un sujeto para descifrar el significado del mundo. Una cosa es encontrar resultados rápidamente en internet y simular lenguaje humano, y otra que exista en la máquina verdadera comprensión del sentido de lo que afirma una palabra, una oración, un párrafo complejo. En segundo lugar, una decisión moral para ser tal requiere conciencia y libertad. La conciencia es vivir “desde dentro” la experiencia del propio ser, y luego, ser capaz de reconocer como propias las acciones derivadas de las decisiones tomadas. Las decisiones para ser libres requieren auténtica auto-determinación, es decir, capacidad de generar procesos causales “por propia elección” y eventual responsabilidad.


Finalmente, la gran cuestión no es “programar” a la IA con algunas normas “éticas”. La gran cuestión, como siempre, somos nosotros. En efecto, las “inteligencias no-artificiales”, somos los que necesitamos redescubrir la importancia de una moral que no sólo evite la muerte, sino que nos haga crecer en virtud. Para tomar buenas decisiones no basta con contar con información, es preciso, ejercer la prudencia, la fortaleza, la templanza, la justicia. La moral sigue siendo asunto nuestro en primer término.

La Pontificia Academia para la Vida, hace tres años convocó a firmar un acuerdo internacional sobre ética de la IA (www.romecall.org). Los primeros signatarios – IBM, Microsoft, la FAO – advirtieron de inmediato la importancia de iniciar este camino. Hoy todos somos desafiados a madurar moralmente para que nuestras tecnologías – incluida ChatGPT – estén siempre al servicio de la dignidad de las personas y no sucumban ante sí mismas o ante los no siempre claros intereses de poder.