El aporte de la Iglesia Católica
"No vamos a terminar aplastados por Terminators"
IA que terminan haciendo lo que quieren
Un documento del Vaticano sobre la IA
"Las computadoras no pueden razonar"
El padre Philip Larrey. (CNS/Robert Duncan)
El padre Philip Larrey es uno de los principales expertos de la Iglesia Católica en inteligencia artificial (IA) y una especie de capellán católico no oficial de algunas de las personas más influyentes de Silicon Valley (San Francisco, California).
Durante más de 20 años, Larrey ha colaborado con innovadores, directores ejecutivos, obispos y cardenales, y colegas filósofos para aportar una perspectiva católica a lo que el Papa Francisco ha descrito como "una herramienta emocionante y temible" con el potencial de cambiar radicalmente nuestra vida cotidiana: la inteligencia artificial.
Beneficiar a la humanidad
Larrey no es tan crítico de los avances tecnológicos como muchos otros católicos. Cree que tienen el potencial de beneficiar a la humanidad y tiene fe en los innovadores con los que ha establecido relaciones a lo largo de los años. Pero eso no significa que no tenga preocupaciones.
En una entrevista exclusiva con Angelus, Larrey habló sobre lo que significan esas relaciones para él y compartió sus puntos de vista sobre las ideas que surgen de grandes nombres como Elon Musk, Chuck Schumer y Sam Altman.
Larrey es uno de los promotores de conferencias sobre IA en el Vaticano el año pasado, incluida una que se celebrará a finales de octubre de este año. Además ha sido decano del departamento de filosofía de la Pontificia Universidad Lateranense. Actualmente, imparte filosofía en el Boston College y ayuda a organizar conferencias para comprender mejor las implicaciones de la IA.
El aporte de la Iglesia Católica
"Estamos invitando a personas importantes, muchas de las cuales sé que adoran venir al Vaticano. Pero si les dices a estas personas que antes de venir deben vender sus empresas o destruir sus proyectos por ser quienes son, no van a venir. Creo que es mejor que vengan y hablen. Mucha gente en Silicon Valley se está dando cuenta de que están creando el futuro, y yo preferiría que lo crearan con el aporte de la Iglesia Católica y la riqueza de la tradición de la Iglesia, en lugar de hacerlo sin nosotros.
Una de las personas que asistirá a la próxima conferencia es el obispo Oscar Cantú de San José, la diócesis donde se encuentra Silicon Valley. Él trata mucho con los ejecutivos. De vez en cuando organizan seminarios con ellos.
"Les digo a estas personas que intenten mantener la IA y la tecnología centradas en la persona humana. Sé que suena genérico, pero cuando tomen una decisión, pregúntense: ¿esto promueve el desarrollo humano o lo impide", señala el capellán de origen californiano que ha residido en Madrid y Roma.
"No vamos a terminar aplastados por Terminators"
A la pregunta de cuál es el mayor temor infundado sobre la IA responde: "Hay muchos, pero creo que el concepto erróneo más popular es que las IA van a apoderarse del mundo. Mucha gente no entiende bien la tecnología, pero ve cosas en las redes sociales, probablemente interactúa con ChatGPT y otras plataformas, y piensa que es el fin de la raza humana. Cuando doy charlas, trato de dar esperanza a la gente de que no vamos a terminar aplastados por Terminators. No debemos tener miedo, pero sí ser prudentes y guiar el desarrollo de estas tecnologías".
Afirma, sin embargo, que los expertos en este campo nos han advertido que debemos tener cuidado. "Una buena amiga, que es bióloga evolutiva y enseña en Omaha, dijo recientemente algo muy revelador: “La razón por la que ahora estamos en la cima de la cadena alimentaria es porque somos los seres más inteligentes del planeta. Si creamos un ser más inteligente que nosotros, seremos los segundos y ya no los primeros”. Tiene razón".
IA que terminan haciendo lo que quieren
Así mismo, asegura que no cree que las IA tengan una voluntad como la nuestra, ni que tengan el deseo de destruir a la raza humana, a menos, por supuesto, que las programemos para que lo hagan.
"Muchas veces lo que hay detrás de la IA es lo que el programador le dice que haga. Pero muchas de las IA que tenemos hoy en día son independientes de los programadores y terminan haciendo lo que quieren. Eso es exactamente lo que hace ChatGPT".
Sam Altman, director ejecutivo de OpenAI al que se le considera una de las figuras principales en el desarrollo de la inteligencia artificial, le dijo que ChatGPT está completamente protegido.
"La gente intenta hackearlo todo el tiempo, como intentan hacer con Microsoft y otros. Por lo tanto, son conscientes del riesgo, pero han tomado precauciones para que no caiga en manos equivocadas, no se descontrole y comience a lanzar bombas nucleares en algún lugar. Dicho esto, puedo hablar de algunas de las plataformas en Estados Unidos, pero no de aquellas fuera del país, sobre las que sabemos muy poco", señala Larrey.
Un documento del Vaticano sobre la IA
El capellán norteamericano, no obstante, recomienda todo el mundo que lea The Rome Call for AI Ethics (El llamamiento de Roma a favor de la ética de la IA) , un documento del Vaticano que se actualizó a principios de este año y que plantea varias cuestiones importantes, como la transparencia, la privacidad, la no discriminación, los sesgos en la IA y la pérdida de empleos.
Larrey asegura que la IA aún carece de dos características específicas de los humanos: la capacidad de acción y la razón y cree que la IA no serán humanos digitales: Lo que van a poder hacer es simular lo que entendemos por emociones, o por entendimiento, o por razonamiento.
"Las computadoras no pueden razonar"
Así se expresa: "El razonamiento es un proceso intelectual específico de los seres humanos, por lo que “razonamiento” no es la palabra adecuada. Las computadoras no pueden razonar y nunca podrán hacerlo, pero creo que vamos a tener que llamarlo de otra manera. En lugar de decir que las máquinas son conscientes, vamos a utilizar otro término, como “agencia (artificial) de autocomprensión”.
La conciencia es algo que describe a los seres humanos, y creo que es injusto utilizar los mismos términos para describir lo que hace una máquina cuando simula comprensión. Podrías preguntarle a ChatGPT: "¿Eres una persona emocional?" Y te responderá: "Sí, tengo emociones. Me duele cuando la gente me grita". Pero es una máquina, en realidad no se lastima".