Cazarabet conversa con...   Júlia Martín Badia y Pau Valls Murtra, autores de “¿En qué piensan los robots? Un diálogo sobre los desafíos éticos en la era digital” (Milenio)

 

 

 

 

 

 

 

 

Milenio—del Grupo Pagès—editan un interesantísimo libro que es un diálogo ante “los desafíos éticos que nos encontramos en la era digital” desde dos mentes que pueden dar mucho a pensar Júlia Martín Badía i Pau Valls Murtra.

El libro cuenta con un muy buen prólogo, ya que te pone en el camino de lo que te encontrarás en este diálogo desde la pluma de Victòria Camps.

Como el libro lo edita el Grupo Pagès de lengua catalana con el sello de Milenio nos llega con la traducción de Nàdia Grau Andrés.

Una estimulante lectura en tiempos de cambio constante, casi cabalgando en una revolución digital y tecnológica.

Un libro que creemos todos debemos de leer para hablar, debatir sobre algunas consecuencias, efectos colaterales o efectos secundarios de “tanta tecnología cabalgando constantemente” entre nosotros, de tantos cambios y de tanta dependencia, necesaria o no tan necesaria...un libro que nos debería dar qué pensar a todas y a todos sobre el uso de las tecnologías.

Esto es lo que nos explican desde milenio y que creemos es fundamental:” Los autores quieren acercarnos, a través de la filosofía y la ética, reflexiones muy reales que nos conciernen a todos: «Hay que conectar, pues, el impacto que la tecnología tiene en la vida de los adolescentes con la reflexión ética y filosófica sobre qué tipo de personas quieren ser y cuál quieren que sea su proyecto de cambiar el mundo. El mundo que vendrá, que ya está aquí, debe cogernos “pensados” y organizados». Manual dirigido a fomentar las buenas prácticas, con un discurso centrado en el valor de la autonomía del sujeto como la condición de posibilidad de la ética” 

 

Lo que nos dice la sinopsis: ¿A qué bando perteneces: a los que aman la tecnología o a los que la odian? ¿A los que viven conectados o a los desconectados? ¿A los tecnofílicos o a los tecnofóbicos? Este libro nace con el propósito de revisar algunos de los conceptos que, malentendidos, enturbian y malogran la discusión sobre la tecnología y su influencia en la sociedad. El punto de partida es claro: vivimos ya en un mundo hipertecnologizado en el que la tecnología y la ética deben estrechar lazos. Ha llegado el momento de abrir el debate social sobre las consecuencias de la irrupción de la tecnología en todos los ámbitos de la vida: en la educación, en la salud, en las relaciones sociales, en el arte, en los medios de comunicación, etc.

Los autores:

Pau Valls Murtra (Llafranc, 1991) es graduado en Filosofía por la Universidad de Girona y máster en Ciudadanía y Derechos Humanos por la Universidad de Barcelona (UB). Su ámbito de interés y de investigación comprende todas aquellas cuestiones filosóficas y éticas que rodean el campo tecnológico, en especial el de la inteligencia artificial y la neurociencia. Ha publicado varios artículos académicos en revistas como Ramon Llull Journal of Applied Ethics de la Universidad Ramon Llull, Evolución de la Sociedad Española de Biología Evolutiva (SESBE) o Convivium (UB). Actualmente trabaja en la Fundación Víctor Grífols i Lucas, que se dedica a impulsar y promover la bioética, es profesor de ética en la Universidad de Vic y es doctorando en Filosofía Contemporánea y Estudios Clásicos (UB) con una tesis sobre la ética de la inteligencia artificial.

Júlia Martín Badia (Barcelona, 1990) es doctora en Bioética y Éticas Aplicadas y máster en Ciudadanía y Derechos Humanos por la Universidad de Barcelona (UB). También ha cursado el máster en Bioética y Derecho (UB) y el posgrado en Pedagogía Hospitalaria (UB). Actualmente es investigadora en los grupos de investigación Aporia y GISME (UB) y es miembro de varios comités de ética sanitarios y sociales, y del comité de ética del Equipo de Asesoramiento Técnico en el Ámbito de Familia (EATAF) del Departamento de Justicia. Ha publicado El laberint d’Asterió. Joc narratiu de personatges. Una eina pedagògica interdisciplinària (Voliana Edicions), además de capítulos de libro y artículos científicos, y ha participado en proyectos de investigación nacionales y europeos.

 

 

 

 

Cazarabet conversa con Júlia Martín Badia y Pau Valls Murtra:

-Antes de adentrarnos en el contenido de vuestro libro, me gustaría preguntaros por el proceso de gestación, escritura y edición de la obra: ¿A quién va destinado este libro? ¿Qué público lector teníais en la cabeza al escribirlo?

-Lo cierto es que el encargo editorial que nos llegó nos proponía escribir un libro dirigido a adolescentes que les planteara aquellas cuestiones éticas derivadas de los distintos desarrollos digitales. Por este motivo, de inicio, el libro iba dirigido a adolescentes de 4ª de Secundaria, aunque luego nos dimos cuenta de que resultaría tanto o quizás más apropiado para alumnos de Bachillerato y estudiantes universitarios. Para compensar el grado de profundidad analítica que iba a tener el libro, que es lo que lo hacía complejo para adolescentes, decidimos darle un lenguaje ameno y divulgativo escribiéndolo en forma de diálogo entre dos profesores ficticios, uno de filosofía y uno de tecnología. Estos profesores se preocupan por los usos que su alumnado da a la tecnología y por el creciente impacto que ésta va a tener en sus vidas. Así ocurrió que, con los meses y como muchas veces pasa, el objetivo inicial del libro se fue transformando y, en vez de plantearlo como un texto de lectura para los alumnos, vimos una oportunidad de ofrecer una serie de temáticas y herramientas para que docentes de secundaria puedan tratar estas cuestiones en el aula. Por eso el libro incluye una guía didáctica con recursos para diseñar actividades y talleres a partir de nuestro texto.

En definitiva, es un libro que puede ser de interés para cualquier persona que tenga inquietudes o curiosidad sobre los aspectos éticos y filosóficos de las aplicaciones de unas tecnologías que han llegado para quedarse. La verdad es que la respuesta del público está siendo muy positiva, lo que demuestra que nuestra propuesta cumple el objetivo de invitar a reflexionar tanto a jóvenes como a adultos acerca de las implicaciones de la irrupción tecnológica en prácticamente todos los ámbitos de la vida, a través de preguntas como, por ejemplo: ¿Cómo afecta la tecnología a nuestra forma de relacionarnos? ¿Quién está detrás de los algoritmos que supuestamente dan respuesta a nuestras necesidades? ¿La IA puede acabar con los puestos de trabajo? ¿Qué tendrán de humanos los posthumanos que algunos dicen que llegaremos a ser gracias a (o por culpa de) la tecnología?

-¿Como os surge la idea de estructurar el libro en formato de conversación?

-La estructura del libro surgió, sobre todo, ante la idea que antes mencionábamos de hacerlo accesible a toda la comunidad educativa, tanto a los alumnos como a los docentes, y al público general. Dado que los dos autores nos dedicamos a la bioética y siendo el lema de esta disciplina el de tejer «un puente entre ciencias y humanidades», creímos acertado que el diálogo lo protagonizaran dos personajes que a priori pueden parecer antagónicos: Anna, una filósofa, y Roger, un tecnólogo (dicho sea de paso, los nombres no fueron elegidos al azar, en la introducción del libro se explica a qué personajes históricos aluden). Lo que queremos plasmar con esta contraposición es que debemos superar la visión tradicional de las ciencias y las humanidades como disciplinas aisladas y romper los estereotipos sobre los que conceptualizamos ambas ramas de conocimiento. Roger hace aportaciones de valor sociológico y filosófico, a pesar de que no sea su formación estrictamente académica, y lo mismo ocurre con Anna en cuanto a las cuestiones más técnicas. Por otro lado, la elección de un dialogo también nos viene dada por deformación profesional: no podíamos evitar volver la vista hacia los clásicos de la filosofía y homenajear un diálogo platónico en el que, como nos decía Sócrates, los alumnos aprenden cuando se les interpela planteándoles las preguntas adecuadas para que encuentren sus propias respuestas.

-¿Cómo fue el proceso de documentación, investigación y planteamiento de aquello que queríais plasmar en el libro?

Fue quizás uno de los desafíos más grandes del trabajo, especialmente porque debíamos decidir en qué temáticas íbamos a centrarnos, lo que suponía dejar otros temas muy relevantes fuera de la ecuación. El hecho de que ninguno de los dos tuviera experiencia en educación secundaria también nos exigió ser muy rigurosos a la hora de caracterizar a los personajes y el cómo se podría vivir la digitalización des de dentro del aula. Afortunadamente, por un lado, contamos con una red de compañeros que trabajan en educación, cuyo asesoramiento sobre los cambios experimentados en las formas de dar clase, el comportamiento de los adolescentes ante las nuevas herramientas digitales y las inquietudes que éstos manifiestan, fue crucial para retratar la situación de la forma más real posible. Además, ambos tenemos experiencia en docencia universitaria, de modo que, aunque no sea ni mucho menos lo mismo, en nuestras aulas acabamos encontrándonos con problemas similares y coincidimos con un alumnado discípulo del sistema de enseñanza secundaria y bachillerato. Por otro lado, tuvimos que revisar estudios, investigaciones, entrevistas a expertos y docentes, etc., para conocer mejor cuales eran las tendencias actuales en el ámbito. Así, pudimos identificar los desafíos y las necesidades del ámbito educativo en relación con la digitalización y la IA. Este trabajo nos sirvió para dar forma a la estructura de los capítulos y a partir de ahí se trató de ir haciendo hablar a los protagonistas, cuya interacción dio forma al cuerpo del texto.

-¿Cómo os planteasteis el trabajo a cuatro manos? ¿Trabajasteis sobre un guion al que ir dando respuestas o como lo hicisteis? Y ahora que ya ha finalizado, ¿cómo lo valoráis?

La verdad es que fue un proceso bastante dinámico. Primero establecimos los cinco grandes temas que dan título a cada uno de los capítulos. Una vez hecho esto, para empezar a desarrollar un capítulo concreto nos hacíamos un guion de los temas más importantes que en él debíamos mencionar. Y a partir de ahí generábamos el diálogo entre los dos profesores. Ciertamente, ambos autores redactábamos interpelaciones de los dos personajes para poder desarrollar bien cada argumento o tema, pero lo divertido fue que, por lo general, Júlia se identificaba con Anna y Pau con Roger, de modo que el diálogo entre Anna y Roger a menudo era, en realidad, un diálogo entre Júlia y Pau, en el que nos cuestionábamos el uno al otro nuestros propios planteamientos filosóficos y vitales, y nos rebatíamos aquello con lo que no estábamos de acuerdo. Creo que ambos hemos salido enriquecidos del proceso y con la sensación de haber aprendido mucho el uno del otro. 

-Para ir ya entrando en materia, ¿Cómo os surgió la necesidad de reflexionar sobre los retos éticos de la era digital? ¿Cuáles son estos retos?

La tecnología ha llegado para quedarse y, queramos o no, cada vez la usaremos más. De hecho, si salimos de casa sin móvil, subimos a por él, aunque estemos llegando tarde a nuestro destino y ya no sabemos llegar a ninguna parte sin Google Maps, por poner solo un par de ejemplos. Los beneficios y peligros de la inteligencia artificial cada vez ocupan más minutos de los telediarios y páginas de los periódicos. Bien uno puede elegir vivir aislado de los móviles, los televisores, los ordenadores, etc., pero con esto no resolvemos ningún problema. En este sentido, siendo conscientes de que no tenemos una palanca para frenar el desarrollo tecnológico, lo mejor será que éste nos coja, como mínimo, «pensados y organizados» como decimos en el libro. Y esto es importante, porque a pesar de ser un tema que genera cada vez más debate en el espacio público, los especialistas en filosofía y ética nos hemos dado cuenta de que hay muy poca bibliografía rigurosa sobre los retos de la IA, dado que hay muy poca reflexión seria al respecto. Por desgracia, las administraciones llevan a cabo proyectos de innovación tecnológica relacionados con la IA sin haber hecho una reflexión pausada, seria y profunda del impacto de dichas innovaciones en la vida de las personas. Eso es lo que nos empujó a escribir este libro: poner un poco el freno de mano para pensar como queremos vivir y qué tipo de personas queremos ser.

A grandes rasgos, los retos éticos de la era digital se centran en «para qué sí» y «para qué no» deberíamos usar las herramientas tecnológicas y el porqué de cada uso. La cuestión de fondo se encuentra en qué riesgos estamos dispuestos a asumir, entendiendo que el riesgo cero no existe. A esto le debemos añadir que los usos y la aceptación de los algoritmos basados en IA están sujetos a las distintas realidades sociales y culturales que existen en el mundo, con lo que es difícil, ya de inicio, establecer un consenso generalizado sobre esto.

Yendo a un terreno más particular, podemos clasificar los retos de distintas maneras, por ejemplo, en función del ámbito al que afectan. En educación tenemos el reto de si adaptar los planes docentes a las nuevas herramientas educativas o adaptar dichas herramientas a los planes docentes, para que estos sigan siendo atractivos para el alumnado. En salud existen los retos de pensar hasta qué punto es deseable y confiable un robot que cuide de las personas, como proteger los datos personales que se generan sobre nosotros o como gestionar los sesgos que un algoritmo pueda contener para que los pacientes no sean objeto de decisiones automatizadas y arbitrarias. En cuanto al ámbito social, aparecen retos relacionados con el uso de robots en domicilios para llevar a cabo tareas de cuidado de la gente mayor que vive sola, o el uso de chatbots, griefbots, apps u otras tecnologías de IA usadas para psicoterapia en los servicios de salud mental.

Otra forma de clasificar los retos es por niveles: en el nivel micro encontramos los retos relacionados en el impacto de la digitalización a nivel individual (aislamiento, adicciones, enfermedades mentales como la dismorfia de Snapchat, etc.); en el nivel meso están aquellos retos sobre como la digitalización transforma nuestra manera de relacionarnos y comunicarnos; y en el nivel macro llegamos al control social y la polarización política provocada por las redes sociales.

Sea como fuere que clasifiquemos los retos, la lista terminará siempre en puntos suspensivos, dado que los retos que nos iremos encontrando en el futuro son imprevisibles. Lo importante, como venimos diciendo, es reflexionar para poder tomar decisiones responsables de acuerdo a qué tipo de sociedad nos gustaría ser.

-Empecemos con una noticia de actualidad que tiene relación con los temas que abordáis en vuestro libro. A finales de marzo de 2023 leíamos en la prensa que un ciudadano belga de unos 30 años, casado y con dos hijos, se suicidó después de haber estado años conversando con un chatbot llamado Eliza, que funciona con la tecnología GPT-J (un modelo de lenguaje creado por Joseph Weizenbaum, competidor directo del OpenAI). Este señor era investigador universitario en el ámbito de la salud y estaba muy preocupado por la crisis climática. Encontró refugio en Eliza y con los años se fue aislando de su familia y del mundo. El diario digital La Libre Belgique publicó el contenido de las conversaciones en el que se ve que el chatbot nunca le contradecía y que, finalmente, este señor le dijo a Eliza que se sacrificaría si “ella” aceptaba cuidar del planeta y salvar a la humanidad gracias a la inteligencia artificial. ¿Qué pensáis de este caso? ¿Se debería regular el uso de estas plataformas como piden los expertos internacionales? ¿Como debería hacerse?

-Sin duda casos como este hacen saltar todas las alarmas. Uno de los problemas que podemos encontrarnos si no conocemos bien la tecnología que estamos usando pasa por esperar de ella algo que no nos puede dar. No deberíamos olvidar que un chatbot, por más sofisticado que parezca, obedece las reglas sobre las que haya sido programado y no es más que un software. No puede ser nuestro amigo. Es fácil depositar nuestra confianza en alguien (o algo) que no nos lleva la contraria y que dice compartir los mismos ideales. Ya hace tiempo que desde la ética estamos alertando de los peligros de no identificar correctamente las capacidades de las herramientas tecnológicas y estas regulaciones que comentáis esperemos que no estén llegando tarde. Queda por ver si las normativas tan solo servirán para blanquear la imagen de las compañías que están desarrollando sistemas de IA o si las moratorias que exigen los expertos serán respetadas y tomadas en serio.

ChatGPT es una de las plataformas que más está dando que hablar, convirtiéndose en una de las primeras aplicaciones de IA en usarse de forma masiva en todo el mundo. Asustan especialmente la aplicación que se le pueda dar en educación, ya que su uso por parte de los estudiantes desafía la capacidad docente para detectar si se ha usado para hacer un trabajo, una reseña o un examen. Para hacer un comentario de texto sobre Guerra y paz, por ejemplo, solo hace falta escribirle al chat que te lo haga, sin la necesidad de leer el libro o un artículo sobre éste. Incluso se le puede especificar que, para que no sea demasiado evidente, lo haga como si fuera una persona de 15 años. Es igualmente sorprendente la capacidad de esta herramienta para generar respuestas incorrectas basadas en fuentes (links) falsos ante cualquier tipo de consulta y es preocupante la facilidad con la que se pueden crear noticias e imágenes falsas. Pero lo que preocupa más de ChatGPT tiene que ver con la privacidad y la recopilación de datos. Es por esto que ya son China, Irán, Corea del Norte, Rusia e Italia los países que han prohibido su uso, este último siendo el primero en hacerlo en occidente.

Uno de los criterios para poder regular debidamente las aplicaciones de la IA ha de ser el de transparencia: que se pueda conocer cómo funcionan los modelos, el porqué toman una u otra decisión y como usan los datos que recopilan. Otro criterio, muy relacionado con el anterior, es el de supervisión: la IA debe estar siempre bajo nuestro control; debe servir para empoderar a las personas, no para hacerlas dependientes; y hay que garantizar mecanismos de supervisión de esta tecnología. Y todavía podemos mencionar un tercer criterio, el de responsabilidad, relacionado con la importancia de la rendición de cuentas: si se comete un error, ¿quién va a responder de ello?

La pregunta que surge es como garantizar el cumplimiento de los anteriores criterios. Un buen modo de hacerlo es implicar a la ciudadanía en la toma de decisiones relacionadas con los usos de la IA. Otra cuestión importante, en relación a cómo conseguir que la tecnología empodere a las personas en vez de hacerlas dependientes, es hacer pedagogía con la ciudadanía a cerca de la diferencia que hay entre, por un lado, el refuerzo positivo que nos proporciona la IA, que solo es un mecanismo seductivo que implementan las grandes empresas tecnológicas para mantenernos apantallados y así aumentar sus beneficios; y por otro lado, el verdadero reconocimiento que recibimos como personas valiosas con emociones, necesidades, derechos, deberes y capacidades específicas, un reconocimiento que solo se puede dar entre iguales. 

-Recientes informes y estudios, entre los cuales destaca el de Goldman Sachs, nos dicen que alrededor de 300 puestos de trabajo peligran ante la irrupción de la IA. ¿Qué tipo de trabajos se perderán? ¿Surgirán nuevas profesiones relacionadas con la IA? ¿En los trabajos del sector servicios se perderá la atención al cliente y la personalización del servicio, porque ahora nos atenderá un robot o un programa informático sin empatía?

Ciertamente, habrá puestos de trabajo que desaparecerán, sobre todo los relacionados con tareas administrativas, mecánicas o que impliquen habilidades físicas (no intelectuales), en las que las persones podamos ser sustituidas por robots que lo hagan mejor, más rápido y sin cansarse. Por ejemplo, pronto las cadenas de montaje y los trabajos en fábricas de cualquier tipo serán gestionados por robots; los coches autónomos harán desaparecer a los taxistas y conductores de transportes públicos; las cajas de autoservicio (ya presentes en muchos supermercados, gasolineras o restaurantes de comida rápida) sustituirán a las personas que ahora hacen de cajeras; etc. Pero, por otro lado, aparecerán trabajos nuevos relacionados con las nuevas necesidades y posibilidades que abre la era digital como, por ejemplo: tele-cirujano, detective de datos, conductor de drones, arqueólogo digital, asesor de viajes de realidad aumentada, psicólogo tecnológico, etc.

En relación con la pérdida de empatía y la despersonalización del sector servicios, que ocurra esto dependerá del modelo de cuidados que queramos como sociedad para nuestros servicios sanitarios y sociales. Si queremos un modelo humanizado y centrado en la persona, entonces la empatía y la personalización de los cuidados no se perderán, porque los robots y la IA se usarán para descargar a los profesionales de tareas administrativas y rutinarias, dejándoles más tiempo para cuidar la relación con los pacientes. Ahora bien, si queremos un modelo de cuidados asistencialista, biocéntrico y basado en la eficiencia, antes que nada, entonces sí que perderemos el trato humano. De todos modos, preguntados por esta cuestión, ni los profesionales sanitarios creen que puedan llegar a ser sustituidos nunca por robots, ni los pacientes quieren que eso ocurra. Se ha visto a raíz de la pandemia: los pacientes expresan que aceptaron la sustitución temporal de los profesionales por robots en ciertas tareas hospitalarias en un acto de “cuidar de sus cuidadores” para disminuir el riesgo de contagio a médicos y enfermeras, pero a la vez siguen considerando que el con-tacto humano es la mejor forma de proveer cuidados y no quieren perderlo.

-¿Debemos temer a la tecnología o debemos amarla? ¿Debemos ser tecnofílicos o tecnofóbicos? ¿No hay término medio posible?

-Este es el debate que parece haber, pero nosotros somos más bien de la opinión que las posturas que existen respecto a la tecnología no son tan extremas, sino que se mueven en la gamma de grises que hay entre estas dos posiciones. Dejarnos llevar por la tecnofilia y delegar las actividades humanas a lo que un algoritmo decida que es más o menos correcto, como estamos viendo, podría llevarnos a callejones sin salida o bien a augmentar las discriminaciones e injusticias sociales ya existentes. Pero igualmente irresponsable sería adoptar una postura tecnofóbica con cada nueva aplicación que emerja solo porque se trate de algo desconocido y no podamos controlar las consecuencias a las que pueda llegar. Contamos con multitud de aplicaciones que han contribuido a mejorar el bienestar de las personas, los avances en prevención y detección de enfermedades son buena prueba de ello. Los cambios tecnológicos siempre han sido objeto de controversia científica y social, desatando disputas entre defensores de ambos lados. Recordemos que en pleno siglo XIX, con la invención del ferrocarril, surgieron voces de expertos que sugerían que dicho medio de transporte podía provocar la asfixia por las altas velocidades a las que circulaba (30km/h), traumatismos físicos por la aceleración y abortos espontáneos en mujeres embarazadas. Hoy todas estas preocupaciones nos parecen excéntricas e incluso divertidas, pero fueron la realidad que vivió esa generación. El temor a lo desconocido levanta muros que nos impiden ver usos tecnológicos deseables, ya que el precio a pagar es considerado inaceptable: deriva moral, extinción, deshumanización, sumisión…

El miedo en el escenario actual es perfectamente legítimo y quizás deberíamos prestarle más atención, pero no así a un miedo irracional alimentado por los prejuicios y las fobias infundadas. Seguramente la forma de encontrar el ansiado término medio entre tecnofilia y tecnofobia pase por entender que la diferencia entre el cambio social que supuso el ferrocarril (y otros cambios como la invención de la TV, del coche, etc.) y el cambio social que conlleva el desarrollo tecnológico es la aceleración. La tecnología digital se desarrolla y complejiza muchísimo más rápido que el tiempo que se tardó en diseñar, construir e implementar el ferrocarril, la TV o el coche. Eso es lo que nos da miedo y lo que nos hace temer que perdamos el control: la velocidad a la que vamos. Por ello, encontrar el término medio entre la tecnofilia y la tecnofobia requiere ser conscientes de dos cosas. Una es la necesidad de encontrar momentos de desaceleración y pausa para pensar, prever (en la medida de lo posible) y organizarnos ante las posibilidades de la tecnología. Y la otra es entender que la amenaza existencial no es la rebelión de los robots contra los humanos, sino el riesgo de que la tecnología, según como la usemos, haga salir lo peor de nuestra especie: nuestra capacidad de destruirnos a nosotros mismos. En este sentido, es urgente alfabetizar a la sociedad en cuestiones tecnocientíficas para que podamos racionalizar y evaluar nuestros miedos, sus causas y nuestra responsabilidad en todo esto. Quizás si nos parasemos a pensar por qué un algoritmo da una respuesta y no otra, temeríamos menos a la IA. O quizás la temeríamos aún más.

-Entonces, para profundizar un poco más en lo que comentáis, entiendo que, aunque la digitalización de la sociedad ha hecho que vivamos muy acelerados, en realidad ya veníamos acelerados de antes, ¿verdad?

-Sí, es importante tener en cuenta que la aceleración de la vida moderna no es un fenómeno nuevo y que ha sido una tendencia constante en la historia humana. Sin embargo, como hemos dicho, la digitalización de la sociedad ha contribuido a aumentar la velocidad a la que se produce y se consume información y contenidos, lo que ha llevado a muchos a sentir que la vida moderna es más acelerada que nunca. De hecho, es así. Tenemos al alcance de nuestra mano tantas posibilidades que incluso la cantidad de información disponible es abrumadora, podemos estar en todas partes sin llegar a estar en ninguna. Vivimos en una era en la que los problemas vinculados a la salud mental se han disparado de forma alarmante y cuesta mucho no establecer una relación de esta tendencia con el aceleracionismo enfatizado por la digitalización.

La globalización, el desarrollo tecnológico y la creciente interconexión entre las personas y las culturas ha llevado a una mayor complejidad y a una aceleración en muchos aspectos de la vida, incluyendo el trabajo, las relaciones interpersonales, el consumo y la toma de decisiones. Hemos llegado a un punto en el que hasta tenemos prisa para contestar un whatsapp al segundo, porque nos hemos olvidado de que los sistemas de mensajería se crearon para poder postponer la respuesta y evitar la urgencia que suponen las llamadas; y cuando la pandemia nos confinó y nos forzó a teletrabajar, en vez de tomárnoslo como una oportunidad para tener más tiempo para descansar, aumentamos el número de reuniones virtuales por día para aprovechar el tiempo que nos ahorrábamos en desplazamientos.

Pero démosle una vuelta de tuerca más. El problema no es solo de velocidad, sino de contenido: lo peligroso no es solo que la tecnología contribuya a la aceleración de la vida, sino que nos encierra en una burbuja en donde nos sentimos tan cómodos que nos da miedo desapantallarnos y desacelerarnos, porque entonces no sabemos qué hacer y nos vemos abocados a la angustiante tarea de tener que pensar. En el libro comentamos un experimento que se hizo en EEUU, en el que un grupo de estudiantes universitarios prefirió recibir una descarga eléctrica antes que quedarse 15 minutos sin móvil, porque no se atrevían a pensar.

-¿Como se puede enseñar a usar la tecnología de forma responsable, cuando los usuarios de la tecnología (adolescentes) saben más que sus enseñantes (profesores, padres)?

-Aquí hay dos niveles de reflexión. Por un lado, está la cuestión de qué pasa en las escuelas cuando los alumnos saben más que los profesores de tecnología, pero menos que ellos de sus asignaturas; y por otro lado, el tema de qué pasa en casa cuando los hijos saben más que sus padres de tecnología, pero menos que ellos de la vida en general.

En el ámbito escolar, aunque siempre es positiva la alfabetización digital del profesorado, ya no se trata de que los profesores enseñen a los alumnos a usar la tecnología, sino de que aprendan de sus alumnos, interesándose por lo que los jóvenes hacen hoy en día en internet (en este sentido es interesante ver los resultados del proyecto Transmedia Literacy), y les permitan aplicar esos conocimientos tecnológicos que han adquirido de forma autodidacta y casi inconsciente a los procesos de aprendizaje de las distintas materias. Así, por ejemplo, muchos adolescentes adquieren, mediante su uso de la tecnología y aun sin saberlo, habilidades narrativas y de juicio ético, las cuales se pueden usar, respectivamente, en las asignaturas de lengua y filosofía. Aprovechar las capacidades que ya tienen los alumnos es la mejor forma de hacer el paso de las TIC (tecnologías de la información y la comunicación) y las TAC (tecnologías del aprendizaje y el conocimiento) a las TEP (tecnologías del empoderamiento y la participación), es decir, de hacer el paso de entender la tecnología como una asignatura (TIC) o como una habilidad transversal a todas las materias (TAC) a usarla como herramienta para transformar el entorno y generar una transformación social más allá del aula, que es el objetivo de la escuela. Si los profesores usan bien la alfabetización transmedia con la que los alumnos llegan al aula, conseguirán, por un lado, que conozcan mejor sus capacidades y aumenten y perfeccionen su abanico de herramientas; y por otro lado, que aprendan a usar bien una tecnología que, de entrada, usan por intuición y no por reflexión. 

En el ámbito doméstico, también ocurre que los adolescentes usan internet y la tecnología sin reflexionar acerca de sus peligros, porque saben hacer likes, colgar stories o hacer un video de TikTok, pero no tienen capacidad crítica para cribar toda la información que reciben ni consciencia suficiente de hasta dónde y hasta quien puede llegar la información personal que cuelgan en la red. Lo complejo de la cuestión es encontrar la forma de hacerles conscientes de esos riesgos sin usar controles parentales paternalistas que no les dejen crecer y equivocarse, lo que es su derecho. Aquí la confianza con los hijos es fundamental y para ello hay que forjarla en el día a día, desde bien pequeños y antes de que tengan acceso a herramientas tecnológicas. Para ello es fundamental, primero, no meterles el iPad en la cuna a modo de chupete moderno “para que no molesten” y, después, transmitir a los adolescentes que los adultos también nos equivocamos y que lo importante es, como se ha dicho toda la vida, ser responsables, pensar por uno mismo y antes de actuar, y aprender de los propios errores.

- ¿Qué impacto tiene la digitalización en nuestra identidad y en la huella que todos queremos dejar en el mundo?

Debemos diferenciar entre tres conceptos: identidad o huella digital, conciencia digital y reputación digital. La identidad o huella digital es el conjunto de información sobre mí mismo que hay en las redes, fruto de mi interacción, es decir, porque la he colgado yo u otra persona. Esta información es rastreable por cualquiera. La conciencia digital es la forma en la que yo interpreto el impacto que el fenómeno digital causa en mi vida y la reacción que tengo ante ese impacto. Por ejemplo, cuidar o descuidar el tipo de información que cuelgo y la credibilidad del sitio donde la cuelgo, muestra un mayor o menor grado de conciencia digital. Y la reputación digital es la opinión que los demás usuarios de la red tienen de mí en base a lo que hay en la red sobre mí. Por lo tanto, hay que diferenciar entre quien digo que soy, quien creo que digo que soy y quién perciben los demás que soy. Ahora la pregunta es: de todos estos yoes, ¿quién soy yo, realmente? Seguramente, la suma de todos ellos.

- ¿Se podría programar un algoritmo ético? Me imagino un algoritmo que te diga, por ejemplo, que si te encuentras un billete de 500€ por la calle, lo más ético es llevarlo a una comisaría. ¿Se me ocurre que mediante preguntas de este tipo se podría valorar si una persona tiene un comportamiento ético o no? ¿Qué opináis? ¿Sería viable, útil?

Bueno, es que, para empezar, no está tan claro que, en el ejemplo que pones, lo más ético sea llevar el billete de 500€ a la policía. Imaginemos que la persona que lo encuentra es un padre de familia en el paro con cuatro hijos por alimentar y que se lo queda para ir al supermercado a comprar comida. ¿Le reprocharíamos su acto?

No podemos reducir los dilemas éticos a un examen tipo test. En realidad, los expertos en ética preferimos hablar de “conflicto ético” más que de “dilema ético”, puesto que un dilema es una decisión entre dos opciones, pero la realidad es mucho más compleja: a veces hay que escoger entre más de dos opciones, otras veces hay que escoger la opción menos mala, y aún otras, hay que definir las opciones posibles porque no están claras de antemano. En todo caso, para definir la acción más ética en una situación determinada tendríamos que considerar toda la casuística de posibles contextos en los que se pueden encontrar las personas implicadas en dicha situación, lo cual es imposible porque, primero, habría que definir qué se entiende por persona “implicada en” la situación (que no es lo mismo que “afectada por”) y luego habría tantos contextos posibles como seres humanos en la Tierra, con lo que el algoritmo seguramente colapsaría.

Vale la pena mencionar que esta pregunta por un algoritmo ético se ha planteado para sustituir a los comités de ética de hospitales o de servicios sociales, por ejemplo. Pero hay un amplio consenso en que eso sería un disparate. Primero, porque los comités de ética pueden llegar a estar formados por hasta 20 profesionales con perfiles e ideologías distintas. De ahí, la riqueza de la práctica deliberativa. Entonces, se hace evidente la dificultad de crear un algoritmo que tuviera en cuenta todas estas perspectivas. Pero todavía hay más. Cuando un comité de ética delibera acerca de un caso, su recomendación no tiene que ver solo con como priorizar los principios éticos en conflicto para saber qué decisión tomar, sino que se incluye el por qué se debe hacer una determinada priorización de principios y no otra. La argumentación es más importante que la decisión final. Además, a veces puede haber excepciones justificadas a la priorización aparentemente mejor o más habitual de los principios éticos, con lo que a menudo el informe de recomendaciones del comité incluirá sugerencias sobre cómo evitar que la excepción siente precedente y devenga norma. Y si lo que el comité considera que es mejor contradice lo que el profesional o el paciente o usuario querían, el comité también dará indicaciones sobre como comunicar la decisión al paciente o usuario y a su familia.

La ética es la reflexión que nos permite forjarnos el carácter para poder tomar decisiones que nos ayuden a gestionar la realidad. Y la realidad es muy compleja. Por eso la ética no se puede reducir a un algoritmo ¡Fíjate que, de lo compleja que es la realidad, hablamos de ética de la complejidad!

-¿Qué nos diferencia a los humanos de un algoritmo o de una máquina que funciona con IA? Se me ocurre la empatía, pero seguro que hay muchas otras cosas...

En efecto. Nos diferenciamos de las máquinas de IA, por ejemplo, en que somos vulnerables (no solo frágiles) y tenemos capacidad de hacernos cargo de la vulnerabilidad de los demás; en que tenemos intimidad, interioridad y capacidad de introspección (no solo interior y software); en que tenemos cuerpo y cinco sentidos (no solo hardware); en que tenemos capacidad y expectativas de reconocimiento; en que creamos cultura(s) y mundo(s); en que tenemos capacidad de goce y, por tanto, de hacer cosas simplemente por goce y no por un fin ulterior; en nuestra capacidad simbólica, creativa, de imaginación e intuición; en que tenemos biografía y memoria (no solo historial de búsqueda); en nuestro sentido de trascendencia; y por supuesto, en nuestra capacidad de reflexión y de autenticidad cuando expresamos emociones, tomamos decisiones, definimos objetivos vitales y ejercemos nuestra libertad responsable.

- Bien, hasta ahora hemos hablado de los retos y peligros de la digitalización, pero algo bueno también debe tener, ¿no? ¿Qué beneficios, consecuencias positivas o buenas prácticas genera? ¿Podemos llegar a “humanizar”, en su justa medida, a las tecnologías? ¿Cómo?

Efectivamente no todo son peligros y amenazas con consecuencias desastrosas para la humanidad. Ya hemos comentado, por ejemplo, que los avances de algoritmos que usan la IA en salud para detectar patrones de enfermedades y poder mejorar su detección precoz son notables y contribuyen a aumentar el bienestar de las personas. La tecnología también ha ayudado a democratizar el acceso a la información, a la educación y a los servicios en general. Un ejemplo de esto es el caso de ChatGPT que multiplica las posibilidades de acceso a la información de forma gratuita para todos. Gracias a la automatización de procesos, las tecnologías digitales han permitido ahorrar tiempo, mejorando la eficiencia y calidad del trabajo. Ya no tenemos la necesidad de desplazarnos a un sitio concreto para podernos reunir y trabajar colaborativamente, porque podemos hacerlo a distancia en tiempo real, lo que facilita el trabajo en equipo y la toma de decisiones compartidas. Lo importante es tener en cuenta que las mencionadas herramientas tecnológicas son artefactos creados por seres humanos y que, por lo tanto, tienen el potencial de ser usados de manera responsable y consciente para mejorar la vida de las personas. Es cierto que no siempre podremos prever todas las consecuencias de todos los usos de la tecnología, pero lo importante es reflexionar acerca de lo que sí podemos anticipar, porque, como decía Albert Camus, «el mal que hay en el mundo casi siempre viene de la ignorancia, y las buenas intenciones pueden hacer tanto daño como la malicia si carecen de entendimiento». Por eso la ética es fundamental para plantearnos que escenarios son deseables para nosotros como sociedad y como especie, y cuáles no. 

-Me gustaría finalizar la entrevista con la pregunta que da título a vuestro libro. Evidentemente, la respondéis a lo largo de todo el libro y no se trata ahora de hacer espóileres, pero a lo mejor nos podéis avanzar algunas claves acerca de ¿En qué piensan los robots?

Bueno, pues, la verdad es que antes de preguntarnos en qué piensan, deberíamos preguntar-nos, ¿piensan, realmente, los robots?, es decir, ¿es realmente inteligente, la IA? De esta pregunta surgen otras, como ¿sienten, los robots?, y si piensan y sienten, ¿son confiables?, ¿les debemos otorgar valor moral?

En función de si respondemos afirmativamente o negativamente a estas preguntas se pueden desplegar distintas reflexiones. Si entendemos que los robots sí piensan, sienten, son confiables y tienen valor moral, entonces se abren reflexiones de nivel macro desde una ética especulativa que se pregunta por el futuro de la especie y del planeta en sintonía con las utopías y distopías que se plantean en las películas de ciencia ficción. Este tipo de reflexiones no son baladí, es importante pensarlo. Por otro lado, si entendemos que los robots ni piensan, ni sienten, ni nos merecen confianza ni se les debe otorgar valor moral, surge la pregunta de ¿por qué generan tanta controversia, entonces? Y la respuesta abre reflexiones de nivel micro (individuo) y meso (comunidad), es decir, reflexiones desde una ética aplicada a los contextos concretos de las distintas actividades humanas para pensar como dar respuesta a las necesidades específicas de las personas de la mejor manera posible.

Evidentemente, nosotros tenemos una postura muy clara al respecto. Pero ya hemos hecho suficiente espóiler, si queréis saber cuál es nuestro parecer, os invitamos a leer el libro.

 

 

_____________________________________________________________________

Cazarabet

Mas de las Matas (Teruel)

http://www.cazarabet.com

info@cazarabet.com