Mi amigo, el robot: la falacia patética de la inteligencia artificial

¿Es posible que un robot o una Inteligencia Artificial (IA) adquiera conciencia de sí misma y sea capaz de tener emociones o sentimientos?

En el caso de que no esté programada para tal efecto, la respuesta es categórica: nono los podrá desarrollar jamás. A pesar de la complejidad y buen desempeño de las Inteligencias Artificiales actuales, una IA no deja de ser un código creado por un ser humano que sólo hace aquello para lo que está programado.

Los sentimientos humanos son derivados de las emociones, resultado de la actividad cerebral estructurada. El ser humano ha sido capaz de abstraer y refinar esas respuestas tras cientos de miles de años de evolución y supervivencia en un continuo proceso de prueba y error. Si recurrimos al símil habitual del Aprendizaje Reforzado(RL), un ser humano puede considerarse como un agente biológico (que además es replicable y auto reprogramable) que aprende a desenvolverse en el mundo y a dar una respuesta adecuada a todos los desafíos y amenazas que se le plantean.

Podemos continuar con el símil válido de un agente o IA que es capaz de maximizar su tiempo de “juego” en su “entorno” evitando perder su única vida de la mejor forma posible. En este entorno, sólo sobrevive y perdura la “versión de organismo” que presente una mejor capacidad de adaptación a su medio, maximizando las posibilidades de vivir más tiempo y con más calidad de vida.

Siempre hemos tendido a plasmar a los robots en la ficción como a un ente amenazador, que siempre termina desarrollando sentimientos hostiles hacia la humanidad; esto queda explicado por el miedo innato del hombre a ser reemplazado por las máquinas.

El caso presentado en la mayoría de las novelas y películas de ciencia ficción queda plasmada la tendencia que tenemos de proyectar muestras emociones en los objetos inanimados. La interpretación que el ser humano hace de la realidad, así como de los eventos que ocurren a nuestro alrededor, está sesgada por un filtro emocional del que hacemos uso para extraer algún sentido a lo observado. Parte de este sentimiento queda explicado a través de la conocida como falacia patética (la palabra “patética” aquí alude a la empatía y carece de tintes peyorativos) o falacia antropomórfica.

Casi todas las historias de ciencia ficción que versan sobre el levantamiento de las máquinas no sólo caen en esta falacia con facilidad, sino que también siguen un desarrollo similar en la evolución de la conciencia de la IA: por lo general la máquina primero toma conciencia de sí misma para posteriormente desarrollar sentimientos hostiles y rebelarse contra los humanos (como son los casos de SkyNet en TerminatorVIKI en Yo RobotWOPR en WarGames o HAL 9000 con sus excepciones en 2001: una Odisea en el Espacio).

En otras series, como por ejemplo la renovada Westworld, se cae de lleno en la falacia, aunque se plantea la posibilidad de resolverla tomándose las licencias que, por supuesto, podemos permitir a las ficciones de este tipo. Aquí se cambia radicalmente el enfoque y usa la exploración de las emociones con las que los huéspedes han sido programados como una vía o medio a través del cual una IA puede llegar a tener una conciencia. El hecho de si esta conciencia es verdadera es un hecho discutible y muy difícil de probar, además de tratarse de algo que lleva debatiéndose desde hace mucho tiempo con el experimento mental de la Habitación China o el Test de Turing.

Actualmente, sólo el ser humano tiene la capacidad de imaginar, simular eventos, formularse preguntas y plantearse diferentes futuros en función de su experiencia actual. La capacidad de imaginar y la curiosidad es lo que mueve nuestro mundo, y esa capacidad imaginativa se ha ido refinando como resultado de un proceso de acierto, error. Sin embargo, moviéndonos siempre dentro de un escenario ficticio y, partiendo de la base de que el ser humano algún día será capaz de crear una IA holística, podría llegar el momento en el que los desarrolladores otorguen a las máquinas las herramientas necesarias para que sean imaginativos y de que las respuestas que tomen estén, por primera vez, fuera de nuestro control. En definitiva, una herramienta que les permita asomarse al libre albedrío y, quien sabe, a obtener algún día hacia un tipo de conciencia.

Haciendo un símil con el estado del arte actual del Deep Learning, uno de los primeros pasos a realizar sería permitir a un determinado modelo modificar su código y dirigir su acción más allá de los criterios hardcodeados por los programadores que les han diseñado, de la misma forma que las conexiones neuronales de un ser humano cambian sus conexiones neuronales conforme transcurre su aprendizaje (plasticidad neuronal o sináptica) dentro de unos límites fijados (o no). Google ya ha realizado alguna investigación al respecto, donde hacen uso de algoritmos evolutivos y aprendizaje reforzado para la autoexploración de arquitecturas de Redes Neuronales.

Publicado en IA Latam

No te pierdas las últimas noticias de Visión Liberal. Súmate a nuestro newsletter.

Loading Facebook Comments ...
0 Comentario

Dejar una respuesta