A medida que la automatización reemplaza a los humanos en más y más campos, corremos el riesgo de sacrificar la dignidad del trabajo en aras de la eficiencia y las ganancias (Cagkan saying/Alamy Stock Photo).
Commonweal La imitación no es suficiente | Revista Commonweal (commonwealmagazine.org)
Regina Munch
13 de enero de 2024
En diciembre, el Grupo de Investigación de IA del Centro Vaticano para la Cultura Digital publicó Encountering AI: Ethical and Anthropological Investigations, un estudio sobre la inteligencia artificial y su papel en la vida humana y la sociedad. El resultado es un libro destinado a guiar la conversación y el discernimiento sobre los usos éticos de la IA para católicos y no católicos. Noreen Herzfeld, profesora de Ciencia y Religión Nicholas y Bernice Reuter en la Universidad de St. John’s y el College of St. Benedict, y John P. Slattery, director del Centro Carl G. Grefenstette para la Ética en la Ciencia, la Tecnología y el Derecho de la Universidad de Duquesne, son dos de los autores del libro. Mons. Paul Tighe es secretario del Dicasterio para la Cultura y la Educación y fundador del Centro para la Cultura Digital. Hablaron recientemente con la editora asociada Regina Munch. Su conversación ha sido editada para mayor claridad y extensión.
Regina Munch: El libro se divide en dos partes: la primera es una antropología católica que aborda cuestiones de personalidad e inteligencia, y la segunda es un esbozo práctico del papel que la IA está desempeñando o podría desempeñar en el mundo. La primera sección aborda la cuestión de si la IA puede tener conciencia o vida interior. Algo como la prueba de Turing, que analiza si una IA puede imitar la comunicación humana, pone el listón bastante bajo. ¿Cuál es la diferencia entre imitar los procesos de pensamiento y realmente tener un pensamiento, y por qué es importante?
Noreen Herzfeld: Hay una gran diferencia entre la imitación y la realidad. En las últimas secciones de esta discusión antropológica, hablamos de la relación. Una de las partes más importantes de la relación es tener empatía por la otra persona. Para tener empatía de verdad, necesitas sentir algo, tener emoción, no solo imitarla. Resulta que las computadoras son bastante buenas en estos días para reconocer señales emocionales, y también pueden imitar respuestas emocionales o decir las palabras correctas. Pero piénsalo en las relaciones humanas. Hay personas que no sienten mucha empatía y, sin embargo, a menudo son bastante hábiles socialmente para reconocer las señales emocionales y devolver la respuesta adecuada. Pero a esas personas las llamamos sociópatas. Que un ordenador imite las respuestas humanas va a ser, en última instancia, igualmente deficiente.
RM: La importancia de ese encuentro interpersonal aparece en el título del libro, Encountering AI. ¿Podría decirnos algo más al respecto?
NH: Usamos la comprensión de Francisco sobre el encuentro para centrar nuestro libro porque descubrimos que era aplicable a ambas secciones. En el apartado antropológico, si establecemos el encuentro como centro de nuestra existencia relacional, entonces teníamos que preguntarnos: ¿Qué necesitamos para tener un encuentro auténtico? Por un lado, la conciencia es una condición sine qua non; Sin conciencia, no puedes tener un encuentro pleno con otro. Es por eso que nos tomamos tanto tiempo para explorar qué es realmente la conciencia y por qué las máquinas tal como las conocemos no pueden tenerla. También elegimos el tema del encuentro porque era el centro de nuestras preocupaciones éticas en la segunda mitad del libro.
John P. Slattery: Como suele decir el Papa Francisco, somos humanos a través de nuestro encuentro con los demás. Dentro de ese encuentro, se puede empezar a ver una ética más pastoral de la IA y la tecnología. En lugar de simplemente decir que es un paradigma tecnocrático que nos está convirtiendo a todos en máquinas y que tenemos que luchar contra él, podemos reconocer que todos vivimos con la tecnología todo el tiempo, y no todo es horrible. ¡Nos permite tener conversaciones entre continentes! En la parte de ética del libro, analizamos el trabajo de Francisco y la doctrina social católica de las últimas décadas para determinar los enfoques católicos y cristianos únicos para considerar la IA de manera ética. ¿A dónde nos puede llevar eso?
NH: La ética de la IA ha florecido repentinamente como un campo. Pero el enfoque es a menudo legal o algo filosófico. Lo que es único acerca de este libro es lo que Juan señaló: este es un enfoque religioso de una tradición religiosa específica. Eso agrega un nuevo ángulo al campo en crecimiento.¿Estamos poniendo las tareas de nutrir y educar a los niños en la fe en manos de la tecnología, que en realidad está en manos de cualquier desarrollador o empresa que esté produciendo esa tecnología?
Paul Tighe: Muchas personas que trabajan en IA estaban decididas a que se centrara en el ser humano. Pero la verdadera discusión surge cuando nos preguntamos qué significa “centrado en el ser humano”. ¿Qué tan inclusiva es nuestra visión de lo que es centrado en el ser humano? El libro surge de una tradición que ha reflexionado largo y tendido sobre lo que significa ser humano, y lo está haciendo de una manera que tiene la intención de invitar a otros a la mesa. Existe un peligro real en asumir que la ética de la IA tiene que ser dirigida por expertos o dejada en manos de abogados y políticos. Las personas tienen preocupaciones legítimas sobre la IA, y ofrecerles un lenguaje y un marco les permitirá aportar sus ideas a la discusión.
RM: Como señalas en el libro, todos ya usamos IA. Todos estamos involucrados en estas preguntas; Realmente no tenemos otra opción. ¿Cómo influyeron las consideraciones antropológicas en el libro en las discusiones éticas de temas particulares?
JS: Una de las secciones es sobre el trabajo, la economía y la naturaleza de la persona. Ahora se está escribiendo mucho sobre la naturaleza del trabajo y el papel de la IA generativa en el trabajo, especialmente con las huelgas de actores y escritores. Podemos hablar del papel que tiene la IA en el mercado laboral, cuando permite a las empresas presionar solo por una mayor eficiencia, lo que lleva a una mayor pérdida de la dignidad humana. Pero también existe la posibilidad de utilizar la IA para quitar el trabajo oneroso de los hombros de las personas. Que la tecnología se use en aras de la dignidad humana o en contra de ella depende de si tenemos una antropología teológica fuerte. De lo contrario, es demasiado fácil decir, bueno, ¿cuál es el límite de la dignidad humana? ¿Cuánta más eficiencia podemos obtener de las personas? ¿Realmente la gente necesita tanto sueño? Necesitamos estar anclados en una tradición antropológica para poder hacer afirmaciones éticas.
PT: Las personas de Silicon Valley con las que hablamos reconocen que los trabajadores pueden perder sus empleos debido a la IA, y quieren tener la seguridad de que habrá algún tipo de beneficio universal para compensarlos. Pero nuestra tradición respondería que el trabajo no es solo donde te ganas la vida. Es donde encontramos nuestra identidad y nuestro sentido de sociabilidad, donde damos expresión a nuestra creatividad. La dignidad del trabajo está enraizada en que estemos hechos a imagen y semejanza de Dios y en la comunión con Dios. El papa Francisco habló recientemente a personas de Silicon Valley sobre el uso de la IA predictiva para decidir las audiencias de libertad condicional para las personas que habían sido condenadas por delitos. Muy a menudo, el comportamiento pasado es el mejor predictor de cómo se comportarán las personas. Pero nuestra tradición quiere hablar del potencial de conversión, de la presencia de la gracia para el cambio en las personas. ¿Cómo nos aseguramos de mantener vivo ese sentido más rico de humanidad que se nutre de nuestras propias tradiciones teológicas y filosóficas?
RM: Una cosa que aparece a menudo en el libro es el riesgo de la descualificación, es decir, que al utilizar la IA podríamos perder la capacidad o el interés en hacer ciertos tipos de trabajo. También hay una especie de descualificación ética que puede ocurrir cuando subcontratamos decisiones éticas a la IA. ¿Podría decirnos algo más sobre ese riesgo?
JS: Uno de los lugares más obvios donde esto puede entrar en juego es el ámbito de la educación. ¿Estamos poniendo las tareas de nutrir y educar a los niños en la fe en manos de la tecnología, que en realidad está en manos de cualquier desarrollador o empresa que esté produciendo esa tecnología? Al hacerlo, ¿hemos perdido parte de la capacidad de sentarnos con los estudiantes y hablar con ellos sobre lo que significa crecer en conocimiento? Eso no significa que toda la educación guiada por la tecnología no sea valiosa. Pero hay un ímpetu para dedicar cada vez más educación a la IA generativa porque parece algo fácil de hacer. Pero lo que realmente hace es quitarnos la responsabilidad. Obviamente, esto es aún más extremo en el ejército, cuando se trata de decisiones de atacar y matar en tiempos de guerra. Pero en ambas áreas, podemos renunciar fácilmente a algo y no darnos cuenta de que se ha ido hasta que recordamos que solíamos tener más participación en estas decisiones.
NH: En educación, tenemos que ser conscientes de que especialmente los niños más pequeños son extremadamente miméticos. No solo están recibiendo información de su maestro; También están asimilando el entusiasmo y el amor de su maestro por una materia. Observarán la paciencia que exhibe el maestro mientras trabajan con otros estudiantes. A menudo pensamos en la educación como una mera transferencia de conjuntos de información, pero se trata de formar a la persona en su totalidad.
El Papa Francisco acuñó recientemente un nuevo término, al menos en inglés: rapidificación. Las computadoras funcionan a una velocidad que los humanos no lo hacen. Vimos en la caída del mercado de valores de 2008 cómo esto puede ser un problema: cuando las computadoras comienzan a hablar entre sí, pueden moverse tan rápido que los humanos no pueden mantenerse informados. En el ejército, es un temor muy claro que pronto, las computadoras lanzarán ataques cibernéticos que serán parados por otras computadoras tan rápido que un humano simplemente no puede seguir el ritmo. Esto también es cierto en la guerra convencional, ya que las decisiones estratégicas son tomadas por computadoras a un ritmo mucho más rápido de lo que hemos experimentado anteriormente.
JS: La guerra se ha vuelto cada vez menos personal a lo largo de los años, y eso ha llevado a una separación de causalidad y responsabilidad. De alguna manera, la IA simplemente continúa por ese camino, pero afortunadamente, la gente se está dando cuenta de que debemos hacer una pausa antes de eliminar por completo a todos los humanos de la ecuación. A veces se asume que cuantos menos humanos estén involucrados, menos sangrienta será la guerra. Pero si vamos a librar una guerra justa, necesitamos tener a los seres humanos al tanto como reclamantes morales de las acciones en tiempos de guerra.
RM: Existe el riesgo de hacer humanos a imagen y semejanza de la IA. En el libro hablas de cómo la IA está destinada a optimizar, por lo que prioriza la apariencia sobre la realidad. Pero eso no es lo que es ser un buen ser humano. ¿Cómo nos aseguramos de que no nos lleven a una vida de optimización?
NH: Espero que este libro ayude a la gente a reconocer cómo están poniendo la apariencia por encima de la realidad. No hace falta ser IA para hacer eso. Basta con pensar en la cultura de Instagram o TikTok y en cuánto de ella es apariencia fabricada en lugar de la realidad real de la vida de las personas. Espero que el libro ayude a las personas a reconocer que el centro de sus vidas deben ser las relaciones y los encuentros humanos. En la medida en que la tecnología pone la apariencia por encima de la realidad o aleja esos encuentros, tenemos que luchar contra ella.
JS: En el libro extrapolamos la noción de encuentro a la noción de ecología integral. El encuentro no es solo de humano a humano; También es humano para el mundo natural no humano. Este encuentro es fundamental para mantener nuestra humanidad y nuestra relación con Dios. Este encuadre del encuentro no condena toda la tecnología. La tecnología está hecha de los pedazos de la Tierra; Es un producto de la naturaleza y del trabajo humano. Es cuestión de asumir esa responsabilidad y no olvidar de dónde provienen esos recursos. Tenemos que mantener esos pequeños encuentros con animales no humanos, con plantas y naturaleza, así como con otros humanos, porque ayudan a definir quiénes somos como humanos en relación con Dios y otros seres vivos.
PT: Gran parte de nuestra tecnología la juzgamos en función de su utilidad, es decir, si funciona bien y ofrece lo que queremos y valoramos. Mi preocupación es que podríamos permitir que esos criterios contaminen nuestra capacidad de reconocer la dignidad intrínseca de las personas. Debemos recordar que la dignidad no depende del rendimiento o la utilidad. Noreen mencionó las redes sociales, donde los jóvenes, en particular, tienen que ser capaces de proyectar una imagen atractiva de sí mismos, una que no sea necesariamente cierta, pero que llame la atención de los demás. Creo que tenemos que redescubrir ese sentido del valor intrínseco de una persona que no se reduce simplemente a su funcionalidad o utilidad.