Jornada Mundial de la Paz 2024

«La inclusión, la transparencia, la seguridad, la equidad, la privacidad y la responsabilidad»

Resulta curioso que Francisco haya dedicado el Mensaje para la 57 Jornada Mundial de la Paz, 1º de enero de 2024 (aunque publicado el 8 de diciembre de 2023), al tema de “Inteligencia Artificial y Paz”. ¿Por qué? Pues porque, al día de hoy, la humanidad está desgarrada por innumerables conflictos bélicos, como la guerra en la Franja de Gaza o Ucrania. Pero no son los únicos lugares: en torno a Navidad 170 cristianos -nuevos “santos inocentes”- fueron asesinados en el centro de Nigeria, o en México continúan las matanzas perpetradas por grupos ligados al narcotráfico. ¿Por qué centrarse entonces en la Inteligencia Artificial y la Paz?

Además, cuando uno analiza el documento, descubre que en su brevedad -apenas 8 incisos- resulta mucho más ambicioso que un simple llamado a la paz. Obviamente destaca los riesgos para la paz que supone la IA, e invita a utilizarla para construir caminos de paz. Pero el arco de su contenido es más amplio, y supone en realidad una buena síntesis de los documentos magisteriales precedentes sobre este novedoso tema. Constituye una forma de incluir a la IA dentro de un texto magisterial de más alto grado y tradición, como puede ser el Mensaje para la celebración de la 57 Jornada Mundial de la Paz.

El documento cuida de mantener un delicado equilibrio entre las posibilidades y peligros que supone la IA. Parte de una realidad: su irrupción en la historia y el mundo no tiene vuelta atrás. Con esta premisa nos invita a utilizarla bien, y nos advierte de los peligros de su mal uso.

Sobre los peligros de usar la IA en el campo militar, Francisco señala lo siguiente:

“La posibilidad de conducir operaciones militares por medio de sistemas de control remoto ha llevado a una percepción menor de la devastación que estos han causado y de la responsabilidad en su uso, contribuyendo a un acercamiento aún más frío y distante a la inmensa tragedia de la guerra. La búsqueda de las tecnologías emergentes en el sector de los denominados «sistemas de armas autónomos letales», incluido el uso bélico de la inteligencia artificial, es un gran motivo de preocupación ética. Los sistemas de armas autónomos no podrán ser nunca sujetos moralmente responsables… Tampoco podemos ignorar la posibilidad de que armas sofisticadas terminen en las manos equivocadas facilitando, por ejemplo, ataques terroristas o acciones dirigidas a desestabilizar instituciones de gobierno legítimas”.

Entre los aspectos que vale la pena remarcar en el nuevo documento de Francisco se encuentra su insistencia en que los avances científico-tecnológicos no son “neutrales”, lo que equivale a decir que poseen una intencionalidad, están al servicio de determinados intereses culturales, económicos, políticos o ideológicos. Por ello mismo gozan de una dimensión ética.

La perspectiva ética nos dice que, a mayor poder, mayor responsabilidad. Por eso “las cuestiones éticas deberían ser tenidas en cuenta desde el inicio de la investigación, así como en las fases de experimentación, planificación, distribución y comercialización”. La seguridad, la paz, el bien común, el respeto de la dignidad humana, requieren que la ética acompañe en todo su desarrollo la elaboración de los sistemas de la IA.

Por otra parte, está el problema de determinar, ¿cuál ética? De hecho, sabemos que existen abundantes modelos morales. Indudablemente Francisco apuesta por una propuesta antropológica de corte humanista que de sustento a la ética necesaria para gestionar la IA. Por eso mismo, “los desarrollos tecnológicos que no llevan a una mejora de la calidad de vida de toda la humanidad, sino que, por el contrario, agravan las desigualdades y los conflictos, no podrán ser considerados un verdadero progreso”. Progreso y humanismo van de la mano, y son resultado de no perder de vista el fin de todo desarrollo tecnológico: la persona humana.


Algunos ejemplos de cómo la IA puede jugar en contra de la dignidad humana: “En el futuro, la fiabilidad de quien pide un préstamo, la idoneidad de un individuo para un trabajo, la posibilidad de reincidencia de un condenado o el derecho a recibir asilo político o asistencia social podrían ser determinados por sistemas de inteligencia artificial”. También son “consecuencias negativas unidas a su uso impropio, la discriminación, la interferencia en los procesos electorales, la implantación de una sociedad que vigila y controla a las personas, la exclusión digital y la intensificación de un individualismo cada vez más desvinculado de la colectividad”.

Francisco da en la diana cuando rechaza identificar la singularidad de la persona con un cúmulo de datos, y al señalar cómo el algoritmo puede hacer que modifiquemos nuestro modo de promover los derechos humanos.

El Papa nos invita a “reflexionar sobre el «sentido del límite» …  El ser humano, mortal por definición, pensando en sobrepasar todo límite gracias a la técnica, corre el riesgo, en la obsesión de querer controlarlo todo, de perder el control de sí mismo, y en la búsqueda de una libertad absoluta, de caer en la espiral de una dictadura tecnológica”.

Para enfrentar estos desafíos, el Papa ofrece dos sencillas sugerencias, no fáciles de implementar ciertamente: Ofrecer una educación que agudice el sentido crítico hacia todo lo que provenga del mundo digital y, particularmente, de la IA, por un lado y, en segundo lugar, elaborar un tratado internacional vinculante para controlarla y encauzarla, y así produzca frutos respetuosos de la dignidad y los derechos humanos.

Cabe señalar que Francisco está bien asesorado. Se nota en la redacción del documento una puesta al día respecto de los textos magisteriales anteriores, cuando habla de “inteligencias artificiales” -así, en plural- y “machine learning”, mostrando las diferencias que tienen con el auténtico conocimiento humano. El panorama es, por ahora, todo menos claro. Es algo que está naciendo en nuestras manos y plantea incógnitas que van más allá de lo estrictamente técnico, para internarse en el ámbito antropológico, por lo que requieren un acercamiento interdisciplinar: “Desarrollos como el machine learning o como el aprendizaje profundo (deep learning) plantean cuestiones que trascienden los ámbitos de la tecnología y de la ingeniería y tienen que ver con una comprensión estrictamente conectada con el significado de la vida humana, los procesos básicos del conocimiento y la capacidad de la mente de alcanzar la verdad”.

Podemos concluir la reflexión sobre este texto, planteando con claridad los retos a los que nos enfrenta esa apasionante realidad que es la IA:

“La inteligencia artificial, debe ser entendida como una galaxia de realidades distintas y no podemos presumir a priori que su desarrollo aporte una contribución benéfica al futuro de la humanidad y a la paz entre los pueblos. Tal resultado positivo sólo será posible si somos capaces de actuar de forma responsable y de respetar los valores humanos fundamentales como «la inclusión, la transparencia, la seguridad, la equidad, la privacidad y la responsabilidad»”.