En un reciente artículo publicado en The Well escrito por el neuropsicólogo Chris Niebauer titulado “Eastern philosophy say there is no self. Science Agrees” se habla de la diferencia de perspectiva de occidente y oriente respecto al Ego o al Yo, diciendo que en occidente lo consideramos como una suerte de piloto que controla al cuerpo, mientras que en oriente lo ven como una ilusión producto de narrativas generadas por el pensamiento.
Luego explica que estudios neurocientíficos, en pacientes donde se ha suprimido la conexión entre los dos hemisferios del cerebro, han dado como resultado que el hemisferio izquierdo en muchas ocasiones tenga que crear explicaciones para interpretar lo que le sucede, sin contar con los datos que suele proporcionar el hemisferio derecho.
En estas condiciones, este intérprete de la realidad a menudo se equivoca e inventa explicaciones totalmente alejadas de la misma, como se pudo comprobar en innumerables ejemplos.
El objetivo del artículo citado era hablar de la felicidad. Lo que a mí me interesó del mismo es la demostración científica de esa capacidad de nuestro cerebro de armar relatos o narrativas sea cual sea la cantidad de datos objetivos que tenga y, sobre todo, la similitud que existe con muchas de las críticas que se le hace a la Inteligencia Artificial, y más concretamente a ChatGPT3 que es la herramienta que el común de los mortales podemos utilizar.
Leo por todos lados personas que se quejan de que las respuestas del Chat no son precisas, que sus datos están equivocados, que la Inteligencia Artificial se inventa cosas. También leo a muchos argumentar, orgullosa y soberbiamente, que la Inteligencia Artificial no es una competencia para el ser humano porque se equivoca y no da las respuestas adecuadas, que nunca se comparará a un experto en el tema.
Hace un par de años publiqué un breve texto titulado Relatos Peligrosos, en el que buscaba reflexionar sobre las narrativas alejadas de la realidad que pueden convertirse en peligrosas, tanto para nosotros mismos como para la sociedad, si no éramos conscientes de que todo lo que conocemos y pensamos se produce a través de relatos que nos inventamos.
Siempre que leía esas críticas a la Inteligencia Artificial me acordaba de mi librito, pero al leer en este artículo que:
“La verdad es que el hemisferio izquierdo de tu cerebro ha venido interpretando la realidad durante toda tu vida y nunca has entendido las implicaciones que esto ocasiona… y que el cerebro es experto en crear explicaciones sobre lo que ocurre, aun cuando no sean correctas”, me di cuenta de que la IA es muy humana en su imperfección.
No hay nada más humano que armar narrativas con los datos que tenemos a disposición. Cuando la Inteligencia Artificial tiene buenos datos, responde con buenas respuestas. Lo mismo sucede en contabilidad y estadística con la famosa frase Garbage in, garbage out (si los datos son basura, la conclusión será basura).
Cuando los modelos de las herramientas informáticas no tienen buenos datos, hacen lo más humano que existe: inventarse un relato para tratar de dar una explicación que parezca coherente.
En este sentido, ChatGPT ha demostrado ser muy creativo ya que conecta cosas en forma asombrosa, aun cuando la conclusión a la que llegue sea ridícula.
Como especie hemos evolucionado durante siglos gracias a los relatos útiles, y a pesar de los relatos peligrosos, que hemos creado. La Inteligencia Artificial está lejos de ser perfecta, pero tengamos la suficiente humildad para darnos cuenta de que nosotros también. No creamos a pie juntillas lo que nos dice ChatGPT, pero tampoco lo que nos dicen los expertos, gurús, “conspiranoicos” y cantamañanas varios.
Todo son relatos sobre la realidad, y solo la humildad y el pensamiento crítico nos pueden ayudar a diferenciar unos de otros, y la IA puede ser una gran herramienta en esa continua lucha narrativa del ser humano.