El Observatorio de Bioética de la Universidad Católica de Valencia (UCV) celebró ayer el Congreso Interuniversitario Nuevas Fronteras en Neuroética en el marco de los Cursos de Verano que organiza cada año dicho centro educativo.
El encuentro, coordinado por Julio Tudela, Director del Observatorio de Bioética de la UCV, e inaugurado por el Vicerrector de Investigación, Francisco Javier Arteaga, contó con expertos de diferentes universidades nacionales e internacionales que analizaron los dilemas éticos relacionados con las posibilidades de intervención sobre el cerebro humano que ofrecen la neurociencia y la neurotecnología.
Los ponentes, de un alto nivel científico en su campo, fueron Alberto Carrara, del Ateneo Pontificio Regina Apostolorum de Roma, José María Domínguez, de la Universidad de Sevilla, Luca Valera, de la Universidad de Valladolid, Roberto Andorno, de la Universidad de Zúrich, Juan Pedro Núñez, de la Universidad Pontificia Comillas y Patrici Calvo, de la Universidad Jaume I de Castellón. Moderaron las mesas Enrique Burguete, Pilar María Estellés y Gloria Casanova, Miembros del Observatorio de Bioética y profesores de la UCV. Todas las ponencias pueden visualizarse en nuestro canal de YouTube.
Cuatro nuevos derechos humanos
Roberto Andorno, profesor de la Universidad de Zürich, subrayó la necesidad de “crear cuatro nuevos derechos humanos como respuesta a los desafíos de las neurotecnologías”.
Junto a Marcello Ienca, profesor del Instituto Suizo Federal de Tecnología, Andorno propuso en un artículo de investigación con gran eco internacional la incorporación de esos derechos, y que expuso en la jornada: “Es urgente que se puedan sumar a la Declaración Universal de 1948 los derechos a la libertad cognitiva, a la privacidad mental, a la integridad mental y a la continuidad psicológica. Además, todos los Estados deben adaptar sus normas legales para responder al desafío neurotecnológico”.
Andorno llamó también la atención acerca de la importancia del “consentimiento informado”, del reconocimiento de los datos neuronales “como datos personales sensibles” y de “impedir que las neurotecnologías se usen para influir en la libertad de autodeterminación y de pensamiento”. Así, “el ser humano tiene derecho a su identidad personal, sin que esta sea alterada por terceros a través de neurodispositivos, a no ser que exista un consentimiento informado al respecto”.
“Hemos de prevenirnos ante la neurodiscriminación y ante los sesgos algorítmicos en dispositivos basados en inteligencia artificial, que pueden aumentar el riesgo de que esa nueva discriminación se produzca. De la misma manera, los Estados deben ser cautelosos en cuanto a la autorización de neurotecnologías con fines de potenciamiento de las capacidades cognitivas de personas sanas. Podrían provocar problemas de naturaleza social, al proporcionar una ventaja injusta a las personas neuropotenciadas sobre el resto en el desempeño escolar y universitario, o en el acceso a un puesto de trabajo, por ejemplo”, ha aseverado.
Además de hacer hincapié en la necesidad de promover “el acceso equitativo a los beneficios de las neurotecnologías en el campo de la salud”, Andorno ha exhortado a las personas en puestos de responsabilidad política a “establecer mecanismos de tutela efectiva de los derechos asociados a las neurotecnologías”.
Menos libres, menos autónomos
Durante su intervención sobre neuroaprendizaje moral e inteligencia artificial, Patrici Calvo, profesor de la Universidad Jaume I de Castellón, explicó que “se está viendo un paternalismo algorítmico y están modulando con esta tecnología la agencia humana; por tanto, nos están haciendo menos libres, menos autónomos. La cultura algorítmica, la obsolescencia humana, esa idea de que el ser humano está obsoleto viene con un bombardeo de noticias constantes. Todos los días salen algunas de este tipo: Nos han superado las máquinas, y al final nos lo estamos creyendo”.
“Existe toda una cultura, sesgos que discriminan, una tiranía de los algoritmos y un despotismo tecnológico. Son las tecnológicas las que están utilizando el poder de los datos para modificar la voluntad libre, para que hagamos lo que quieren que hagamos. Todos los datos se hallan en centros que los almacenan y que están controlados por una docena de empresas en todo el mundo, una vigilancia masiva de la privacidad. Están introduciéndose en la intimidad”, indicó.
En opinión de Calvo, “la cosificación algorítmica ataca directamente a la dignidad humana. Ya no somos personas, ya no tenemos valor, volvemos a tener un precio. Ahora somos máquinas de flujo constante de datos y metadatos masivos. El valor de la persona se cuantifica según los datos que pueda generar para que se desarrolle la inteligencia artificial: distorsión algorítmica, polarización, opacidad algorítmica, daño algorítmico, aceleración algorítmica, desincronización de las leyes e irresponsabilidad algorítmica parecen ser los valores que más importan”, subrayó.
Soluciones concretas a problemas sociales de nuestro tiempo
Entre los participantes en la jornada se encontraba también el biotecnólogo y filósofo Alberto Carrara, profesor del Ateneo Pontificio Regina Apostolorum de Roma, que afirmó que la neuroética tiene como fin “comprender las implicaciones de las neurociencias y de las interpretaciones de las mismas ciencias del sistema nervioso -que incluyen las ciencias relacionadas con la mente- para la autocomprensión humana, y los peligros y perspectivas de sus aplicaciones”.
Carrara repasó en su intervención en la jornada las aportaciones a la neuroética de la neuropsiquiatra alemana Anneliese Alma Pontius (1921-2018): “El principio de neuroética desarrollado por Pontius según su modelo médico-clínico radicado en la constitución biológica es una herramienta muy valiosa. Viene en nuestra ayuda para reflexionar de manera interdisciplinar y está enraizada en la neurociencia y en sus interpretaciones. Además, puede contribuir eficazmente a aportar soluciones concretas a numerosos problemas sociales de nuestro tiempo”.
En ese sentido, el biotecnólogo italiano señaló como posibles aportaciones “desde las mejoras pseudocognitivas mediante psicofármacos en sujetos sanos hasta las aspiraciones impuestas a los modelos infantiles”.
Estructuras cerebrales implicadas en el comportamiento moral
Jose María Domínguez, Presidente de la Comisión Central de Deontología del Consejo General del Colegio de Médicos de España, médico intensivista y profesor de la Universidad de Sevilla, defendió en su ponencia que la conducta de la persona tiene una base cerebral. A su parecer, la moralidad es uno de los distintivos más complejos del juicio humano y comportamiento de la persona. «Se han realizado diversas investigaciones sobre las áreas del cerebro implicadas en la conducta moral de la persona, entre las que destacan las cortezas prefrontal, cingulada y temporal. Las actividades de los centros emocionales subcorticales son reguladas por la corteza prefrontal planificando y supervisando las decisiones morales, y cuando su funcionalidad se altera debido a un daño cerebral, se puede generar en el individuo una conducta agresiva impulsiva. El lóbulo temporal está involucrado en la teoría de la mente, y su alteración funcional ha sido asociada a conductas psicopatológicas violentas. El cortex cingular media el conflicto entre los componentes emocionales y racionales del razonamiento moral. Otras estructuras cerebrales implicadas en el comportamiento moral de la persona son los núcleos subcorticales como la amígdala, el hipocampo y los ganglios basales».
«Tras un daño cerebral sobrevenido grave, son frecuentes los cambios de personalidad y características intelecto-emocionales de la persona. El daño cerebral puede ocurrir como resultado de varios factores, como una lesión cerebral traumática o los accidentes cerebrovasculares o enfermedades neurodegenerativas. Los efectos del daño cerebral pueden ser profundos y de gran alcance, afectando el funcionamiento cognitivo, emocional y social. La evaluación de la responsabilidad moral en personas que han sufrido un daño cerebral relevante supone un campo de especial relevancia en el campo de la ética», afirmó Domínguez. Por otra parte, el experto reflexionó sobre cómo los cambios en el comportamiento moral pueden también afectar la calidad de vida del individuo, así como sus relaciones con familiares y amigos.
Integridad mental, vulnerabilidad y neuroprotección
Luca Valera, profesor del Departamento de Filosofía de la Universidad de Valladolid, recordó como en los últimos años, debido a las recientes posibilidades tecnológicas de manipulación de las actividades cerebrales (neuromodulación) y, con ellas, de la posible alteración de la identidad personal, han surgido diferentes intentos de proteger la identidad humana, a través de normativas nacionales e internacionales (por ejemplo, los recientes neuroderechos de Yuste et al.). «La cuestión de la protección jurídica de la integridad mental de la persona humana es, sin duda, un tema candente, debido al reciente aumento de las intervenciones tecnológicas en el cerebro humano (como la Deep brain stimulation o los interfaces neurales)», asertó Varela.
En su ponencia, que tuvo un enfoque más bioético que jurídico, el Doctor en Bioética aclaró el concepto de integridad mental, explicando la relación que este puede tener con la identidad humana y, por tanto, con el reconocimiento de la necesidad de su protección. «En este sentido, hay que enfocarse también en el derecho a un ambiente sano y seguro». El experto propuso el concepto de vulnerabilidad como indicador para evaluar ética y bioéticamente las posibles intervenciones en el cerebro humano (así como en el cuerpo humano), con el fin de mejorar las posibilidades cognitivas del propio sujeto humano.
Inteligencia artificial y consciencia
Juan Pedro Núñez, Profesor de la Universidad Pontificia Comillas, abordó durante su intervención, los problemas que a nivel psicológico se vislumbran en torno a lo que se conoce como transhumanismo o post humanismo. «El futuro de los humanos ciborg, con cerebros asistidos por dispositivos de Inteligencia Artificial (I.A.), podría traer algunas consecuencias indeseables. Si atendemos a cómo nos afecta la interacción con los dispositivos y aplicaciones que el mercado actual de I.A. pone a nuestra disposición, muchas de estas consecuencias parecen inevitables», alertó Núñez.
Además, el psicólogo clínico centró su discurso en torno a las ventajas e inconvenientes que lleva consigo la evolución tecnológica asociada a la interacción con la actividad cerebral. «Las ventajas son muchas pero hará riesgos y costes, muchos de ellos se pueden prever», explicó.
Otra de las grandes cuestiones que abordó el especialista, es si las máquinas podrán tener algún día consciencia, y cuál será la relevancia de este aspecto, ya que la mayoría de las máquinas inteligentes hoy carecen de consciencia pero realizan funciones inteligentes y operan de una manera en la que parece que la consciencia ya no sea relevante al menos para determinadas funciones.
En opinión de Nuñez, la IA, va a llegar muy lejos, ya que es el área de la ciencia y la tecnología que históricamente más ha evolucionado frente a otras, pero predecir hasta dónde va a llegar no es posible por su velocidad de progreso y porque no hay experiencias previas en este campo.