Lo que nos hace humanos


Estamos en noviembre de 2022. Una empresa openAI era conocida entre los más fanáticos de la IA porque habían hecho un entorno para trabajar con aprendizaje por refuerzo y algunso modelos preentrenados de lenguaje, saca una cosa que llaman "chatGPT" y rompe internet. Rompe internet o mejor dicho rompe el mundo con consecuencias que aún ni siquiera sabemos. Sociales, tecnológicos, e incluso éticas.

¿Qué nos hace entes biológicos? Somos productos azarosos de la presión ecológica que favoreció una especie tremendamente adaptable. No sé si lo he hablado en alguna ocasión, pero si miramos la memética de Dawkins, las unidades de información que buscan preservarse son las más exitosas a largo plazo y cuanta más flexibilidad y mejor capacidad de comunicarse, mejor. Siempre pienso en lo estúpido del uso de la corbata como meme, igual que las canciones de Leticia Sabater. El éxito de la evolución humana es que somos máquinas cognitivas capaces de transmitir información mucho más allá de lo que podamos escribir en nuestro ADN. Nuestra cultura es nuestro valor como especie, y todas las invenciones que hacemos que permiten mejorar nuestra capacidad de comunicación son, en cierta forma, una forma de evolución: la rueda, la escritura, la navegación, la imprenta, los sistemas gubernamentales, la electricidad y el motor de vapor, el teléfono, internet... Todos favorecen una mayor o una mejor comunicación, nos guste o no. Los otros grandes descubrimientos de la humanidad serían ya orientados a la salud, como los antibióticos.

El reto es ver dónde colocamos a la invención (¿o descubrimiento?) llamada "Inteligencia Artificial Generativa". Favorece la comunicación, sí, ¿pero con qué? ¿Con un ente abstracto llamado conocimiento? ¿Dónde queda la ética de que una máquina sea capaz de universalizar el acceso a arte que parezca realizado por un artista en concreto? E incluso si extendemos el concepto a la hipotética Inteligencia Artificial General, IAG o comúnmente la veo escrita como AGI por las siglas en inglés, quedaría ver hasta qué punto queda humanidad cuando tenemos que tipificar de alguna forma nuestras propias reglas morales.  


Hace ya un tiempo hablaba del tema. En 2016, en una entrada llamada La racionalización de la moral hablé de cómo la conducción autónoma nos forzaba a dejar programado el instinto humano de preservar la especie y cómo la solución más óptima podría ser la menos intuitiva y cómo nos deberíamos enfrentar a ello. Ser humanos es ser imperfectos, pero en cierta forma identificamos el concepto de ser entes biológicos pensantes y colectivos con la bondad. 

Se habla a menudo de que la IAG debería seguir las Leyes de la Robótica de Isaac Asimov. Pero son leyes sencillas que no responden a realidades complejas. En la entrada que mencionaba, hablaba de la posibilidad de que un autobús escolar cargado con 100 niños podría llegar a encontrarse en la tesitura de decidir si tratar de evitar un atropello a un niño cruzando sin mirar si eso implica un 2% de accidente mortal entre los niños que llega. La probabilística parece que favorecería el atropello, ¿qué nos dirían las leyes de la robótica? 

La realidad es compleja, y es probable que lo que nos haga humanos en realidad sea la capacidad de vivir en un entorno complejo y responder de forma aceptable a los retos del día a día. ¿Os imagináis a un chófer con máster en probabilística decidiendo arrollar al niño que cruza sin mirar? ¡Qué inhumano!, diríamos.

 Quizá lo que nos hace humanos es pensar que nuestras decisiones como especie han de ser universales. 


Comentarios

Entradas populares