Conciencia e inteligencia artificial, a propósito de LaMDA

inteligencia artificial, LaMDA, tecnología

No hay nada de conciencia en el sistema de inteligencia artificial LaMDA, solo un poco de matemática y estadística. Pero es fácil entender cómo alguien puede ser engañado, ya que los humanos siempre hemos querido jugar a ser dioses.

Hace unas semanas (junio de 2022), Blake Lamoine, ingeniero de Google, aseguró que un programa de inteligencia artificial llamado LaMDA había cobrado vida y tenía conciencia. Es decir, era capaz de pensar, sentir y mantener una conversación fluida como si fuera una persona.

LaMDA es un acrónimo para Language Model for Dialogue Applications. Es un sistema capaz de imitar el lenguaje humano ya que ha sido “entrenado” con miles de millones de palabras y frases que están en internet.
Rápidamente, la noticia dio la vuelta al mundo y no faltaron los agoreros que aseguraron que el ser humano, tal como lo conocemos, puede estar terminando.

El temor atávico al progreso tecnológico y la capacidad de sentir empatía

Hay dos aspectos humanos que son interesantes de destacar de esta noticia. El primero, es ese temor atávico sobre el progreso tecnológico y sus consecuencias. El segundo, es nuestra capacidad de sentir empatía por cosas que asemejan cualidades humanas. Ambos aspectos determinan la evolución del desarrollo tecnológico y los riesgos y beneficios de este.

Es natural sentir ansiedad ante un cambio tecnológico acelerado. Este progreso tecnológico ha sido fuente de mitos y leyendas desde tiempos inmemoriales. En la mitología griega, por ejemplo, Zeus condenó a Prometeo a ser devorado por un águila todos los días, como castigo por darle una tecnología a la humanidad: el fuego.

Más recientemente, abundan las películas de Hollywood como Terminator donde un sistema de inteligencia artificial llamado Skynet lanza una guerra nuclear contra la humanidad. O la película Her en que un hombre se enamora de su asistente virtual llamada Samantha. A pesar de estos futuros distópicos, la historia es clara: el progreso tecnológico ha sido fuente de mayor bienestar y calidad de vida para la humanidad.

Tecnología: ¿una fuerza determinista?

Por lo mismo, es importante dudar de aquellas visiones que ponen a la tecnología como una fuerza determinista de la cual la humanidad no tiene control. Lo cierto es que coevolucionamos con la tecnología y la moldeamos, para bien o para mal, tanto como ella nos cambia a nosotros.

Esto no significa que la tecnología esté ausente de riesgos, como lo son los desafíos asociados al cambio climático, el plástico en nuestros océanos, o las amenazas a la democracia a través de las noticias falsas en redes sociales, por nombrar algunos. La pregunta de fondo es cuál es la visión antropológica que tenemos de nuestra sociedad.

Aquí es importante ser optimistas sobre la humanidad, y de cómo, en conjunto con nuestra inteligencia y progreso tecnológico, seremos capaces de crear un mundo mejor.

¿Tiene conciencia LaMDA?

La discusión sobre si los sistemas de inteligencia artificial pueden tener conciencia no es nueva, y se remonta a los años sesenta con Eliza, un chatbot primitivo. Con el avance tecnológico, la creación de internet y la gran cantidad de datos que hemos ido generando, estos chatbot se han hecho más efectivos en simular una conversación humana.

Más que “vivo”, LaMDA es capaz de reconocer patrones y componer oraciones en base a estadística, pero no significa que el modelo entienda el sentido de las oraciones que compone.

Menos aún que posea ciertas características humanas, como el ingenio o la intención. Al ser entrenados sobre grandes volúmenes de datos, sistemas como LaMDA son capaces de generar texto que se lee de manera coherente; y eso hace que las personas perciban que existe una “mente” detrás del texto. Y aquí radica precisamente el riesgo de esta tecnología: el que intencionalmente se utilicen estos sistemas para hacerse pasar por una persona.

Nuestra capacidad humana de generar empatía puede explotarse como una vulnerabilidad. Pensemos en un chatbot que se haga pasar por un psicólogo o un sacerdote al que le compartimos información privada o personal.

¿Cuánto valdrían esos datos? O, peor aún ¿pudiese esa conversación ser utilizada en nuestra contra? Si las fake news campean hoy, imaginen cuánto más lo harán si ahora esos bots son capaces de componer mensajes por sí mismos, de empatizar con nosotros y de hacernos creer que detrás hay una persona humana.

La antropomorfización de la tecnología

Las personas tendemos a adscribirle características humanas a cosas que no lo son. Por ejemplo, solemos ver caras o formas conocidas en nubes, lo que se llama pareidolia. Si a esta característica basal le sumamos que durante las últimas décadas hemos utilizado metáforas y nombres de actividades humanas para explicar el desarrollo de la inteligencia artificial (ej. redes neuronales, aprendizaje profundo), es comprensible que nos confundamos —o queramos creer— que sistemas como LaMDA tienen conciencia.

Pero la discusión sobre si la inteligencia artificial tiene conciencia propia es errónea y distrae de las verdaderas preguntas que nos deberíamos estar haciendo. Por ejemplo, cómo prevenimos o evitamos perjuicios por un mal uso de esta tecnología. En otras palabras, corremos el riesgo de centrar la discusión en cuáles serían los derechos de estos supuestos seres sintientes —como los robots— y no de cómo mejorar nuestra condición humana.

Evitar estos riesgos requiere un enfoque ético en el desarrollo de la inteligencia artificial, que incluya a la sociedad en el proceso. Al desarrollar y desplegar sistemas de inteligencia artificial nos encontramos con valores que entran en conflicto dependiendo del contexto de aplicación. Por ejemplo, transparencia vs. privacidad, o explicabilidad vs. eficacia. Debemos ser capaces de construir estos sistemas a través de procesos deliberativos que incorporen los valores sociales en ellos.

Tensiones valóricas

Junto a las tensiones valóricas, debemos asegurar que el desarrollo de los sistemas ponga a los humanos en el centro. Para esto se debe buscar que exista mayor transparencia en el desarrollo de estos sistemas, que se puedan auditar en su funcionamiento y resultados, que se explique en lenguaje humano cómo el input que recibe el programa se vincula a su output, entre otras cosas. Se requiere de generar (auto) regulaciones y estándares que protejan tanto a las personas que aportan sus datos (previo consentimiento informado) y quienes son participantes directos e indirectos de los sistemas.

También es esencial reconocer que la inteligencia —o la conciencia— no determina las fronteras de quién (o qué) es merecedor de respeto. Además, que un sistema sea tildado como consciente o inteligente no exculpa —necesariamente— a quien lo programó, sea una persona individual o una empresa, de las consecuencias de sus actos o decisiones.

De hecho, la discusión sobre las responsabilidades de los actos de sistemas autónomos es compleja y está lejos de ser resuelta. Este es el principal desafío ético: cómo trabajar en conjunto con estas máquinas sin perder de vista que estas pueden eventualmente utilizarse para mal por personas o instituciones poco escrupulosas.

Carrera desatada por una “inteligencia general artificial”

La carrera por generar una “inteligencia general artificial” está desatada. Varias empresas y organizaciones compiten por crear un sistema más inteligente que los humanos, que sea capaz de hacer cualquier actividad humana. Por cierto, sin cansarse y sin requerir un pago de por medio.

Algunos han predicho que tal “singularidad” ocurrirá el año 2045, otros son más optimistas y dicen que está a la vuelta de la esquina. Sea cual sea el devenir tecnológico, vale la pena recordar la frase de Albert Einstein dicha en 1931: “La preocupación por el hombre y su destino debe constituir siempre el interés principal de todos los esfuerzos técnicos”.

Este artículo originalmente se publicó en la página de Clase Ejecutiva UC en el diario El Mercurio. Descarga sin costo el PDF aquí, luego de completar unos datos.

 

Actualízate con el curso sobre dirección de empresas (online) de Clase Ejecutiva UC. 





Julio Pertuzé

¿Te gustó? Inscríbete a nuestro newsletter

Artículos más recientes del autor