¿Podrán las máquinas pensar como nosotros?

¿Podrán las máquinas pensar como nosotros?
¿De verdad las máquinas van a poder pensar como nosotros?

En la tecnología, como en la vida, hay modas innovadoras y modas recurrentes. 

Se habla mucho de pronto de bitcoins y derivados, igual que de pronto blockchain es la palabra talismán en el mundo de la seguridad. 

Pero pocas ramas del desarrollo tecnológico con una vida tan dilatada como la realidad virtual, solo comparable a la forma en que la realidad virtual o aumentada van yendo y viniendo de los titulares cada cierto tiempo. 

Y así desde hace décadas.

Porque posiblemente la idea de la inteligencia artificial sea la madre del cordero del desarrollo tecnológico. 

La capacidad de crear una máquina que pueda no ya ejecutar órdenes, sino directamente pensar y desarrollar estrategias de actuación autónomas respecto a los humanos.

La posibilidad de que las máquinas piensen no es, ni mucho menos, una ocurrencia reciente. 

La legendaria Metrópolis de Fritz Lang en 1927 ya planteaba una idea a la que Isaac Asimov daría desarrollo no solo literario, sino también teórico. 

Y claro, fue pensar que quizá algún día podríamos crear representaciones de nosotros mismos en una versión mejorada y echarnos a temblar.





Quizá por eso el propio Asimov enumeró sus conocidas leyes de la robótica para prevenir males mayores. A saber (y ojo porque el orden es importante): no atacar a los humanos, obedecer sus órdenes y protegerse a sí mismos. 

Cuando lo hizo estábamos en 1942, muy lejos siquiera de imaginar un robot parecido a los humanos y muy cerca de perpetrar la barbaridad menos humana de la historia de la humanidad.

Ahora, según nos dicen, la cosa es bien distinta.

Seguro que en estos días has visto el último vídeo de Boston Dynamics, la empresa de desarrollo robótico que en su día compró Google y que suele fascinar al mundo con sus progresos. 

En él un robot pide ayuda a otro para abrir una puerta. La reacción de muchos al verlo ha sido similar: vamos a morir.


Inteligencias poco inteligentes

Sin embargo, la realidad actual de la inteligencia artificial no da para tanto. Actualmente se trabaja en el desarrollo de algoritmos complejos que ayuden en la resolución de problemas sencillos. 

No se trata, por tanto, de un pensamiento creativo como pueda ser el humano, sino de análisis de parámetros, registro de tendencias y aplicación de respuestas. 

Una especie de ayuda proactiva, como cuando Google te da opciones en función de dónde estés o qué momento sea, pero a gran escala.

En la tecnología más inmediata a nuestro alrededor las aplicaciones son diversas. Una visión muy rudimentaria sería precisamente la de los asistentes personales, ya sean a través del teléfono móvil o de los altavoces inteligentes que la industria tecnológica quiere instalar en tu casa. 

Algo más avanzado sería la ¿inminente? comercialización de sistemas de conducción autónomos para los coches.

Ambas expresiones no constituyen el desarrollo de una inteligencia artificial al uso, ya que no se han creado entes pensantes. 

De hecho, primero habría que definir exactamente qué es ser inteligente. Sin embargo, sí empiezan a visibilizar algunas de las limitaciones y problemas que esta tecnología puede conllevar.

Los ensayos con inteligencias semánticas en redes sociales, por ejemplo, han dado como resultado que se acaben adoptando posturas antisociales, como por ejemplo el racismo. 

Eso probaría, de hecho, que esas inteligencias no son realmente inteligentes. 

El motivo: si el maestro (nosotros) tiene un mal hábito y el alumno lo copia, implica que no tiene capacidad crítica o de aprendizaje. 

El contexto influye –baste ver la educación y los valores que se transmiten por el entorno–, pero en la capacidad de trascender eso y optar por otras direcciones reside una de las manifestaciones del pensamiento.

En el otro extremo, los sistemas autónomos de conducción han revelado la paradoja a la que se enfrentarán las máquinas. Porque ¿qué pasaría si para evitar un accidente debe provocar otro? 

Es decir, ¿cómo actuar si se debe tomar una decisión que implique dañar a un humano o a otro de forma inevitable? 

Por eso los investigadores entienden que, aunque conlleve contradecir a Asimov, hay que enseñar a las máquinas a matar. Y eso da miedo.

Descartar la idea de que una inteligencia artificial sea inocua para la sociedad abre ante nosotros un escenario terrible que tantas veces han tratado las ficciones literarias y cinematográficas: la opción de que una máquina pensante acabe entendiendo que su propia supervivencia depende de liberarse del yugo opresor de su creador. 

Un creador, por cierto, que le relegaría a las peores labores de producción mecánica… y que en realidad es inferior.
La huella del cine: del control a los sentimientos

Por eso es recurrente la idea del control en el cine. Aparecía, por ejemplo, en la época 2001: Odisea en el espacio, donde el sistema que controlaba la nave tomaba decisiones en contra de la tripulación para –supuestamente– cumplir con su cometido, encomendado precisamente por humanos.

Mucho más moderna era la (malísima) Trascendence, que apuntaba en una dirección innovadora: la traducción de una inteligencia humana a un sistema computacional que, partiendo de esa base, se ampliaba y organizaba para subsistir. 

De la cinta se desprenden dos ideas interesantes en lo filosófico: una, que la inteligencia pura siempre se entiende como desprendida de los rasgos de humanidad –la máquina se come al humano–; dos, que las máquinas, disciplinadas y prácticas, siempre se organizarían en una sociedad de colmena, coordinada y eficiente, donde la clave reside en la capacidad de replicarse a sí misma.

Las cintas más clásicas de la ciencia-ficción, sin embargo, ahondan en la visión más negativa de lo que la inteligencia artificial pudiera suponer. 

Es el caso de Terminator o Matrix, que arrojan un futuro en el que las máquinas controlan todo y atacan a los humanos como forma de defenderse.

En ambas, sin embargo, se otorga cierta humanidad a las máquinas. En Terminator, por ejemplo, hay máquinas programadas para defender a los humanos que actúan contra los intereses de su propia –digamos– especie. 

Esa dialéctica de bandos supone en sí misma cierta inteligencia, ya que la capacidad de discrepar de visiones únicas es un rasgo necesario a nivel evolutivo –y si no, que se lo digan a las hormigas–. Una visión más amable de la misma dicotomía aparecía, por ejemplo, en la clásica Cortocircuito.

En Matrix, por su parte, hubo un intento de acuerdo y convivencia antes de la guerra, según se narra en Animatrix. Solo el miedo y la violencia humanas habrían provocado el exterminio final. No es solo que los humanos fuéramos una amenaza, sino que pasaríamos a ser una forma de energía para su propia subsistencia.


La visión ‘buenista’

El debate sobre el futuro de la inteligencia artificial tiene, como casi todo, dos lados. También en lo científico. Stephen Hawking es la voz del miedo a lo que percibe como el mayor riesgo jamás imaginado de extinguir la raza humana. 

Junto a él, voces como la de Bill Gates o Elon Musk, el hombre del momento, observan con temor la posibilidad de que llegue el día en que las máquinas aprendan a pensar por sí mismas.

En el lado contrario, autores como Ray Kurzweil, que ven en la futura ayuda de las máquinas un garante para un futuro mejor en el que la enfermedad o los problemas de producción desaparezcan para siempre.

En el cine esa doble visión también existe. Basta ver cómo en Wall-E los robots –de nuevo representados como sirvientes– acaban siendo protagonistas de una rebelión –de nuevo contra otra máquina– para ayudar a los humanos a sobrevivir.

En Star Wars, por poner otro ejemplo, las máquinas constituyen en sí mismas una civilización, con una jerarquía interna y unos intereses propios diferenciados de otras máquinas. 

Son, en cualquier caso, usadas en el complot de la primera trilogía por una élite humana para la consecución de sus objetivos políticos. Pero, a su manera, también muestran pensamiento complejo, lealtades y hasta sentimientos.

Esa es precisamente otra de las claves del dilema. ¿Es posible una inteligencia avanzada en convivencia con los sentimientos? 

En la forma en la que se ha representado la inteligencia absoluta que podría conllevar la aparición de máquinas pensantes, se suele priorizar un pensamiento práctico, liberado de las posibles rémoras que suponga el actuar de una forma emocional (esto es, poco racional).

Sin embargo, otras cintas han abordado ese tema con notable solidez provocando, si cabe, mayor incomodidad que cuando se plantea la idea del exterminio. 

En AI, por ejemplo, se plantea que un niño robot quiera ser querido y tratado con normalidad, mientras que en Her se aborda la posibilidad de enamorarse de un programa creado, precisamente, para satisfacer necesidades.
Los instintos y los errores

Con todo, hay dos últimas barreras de humanidad que una inteligencia artificial debería abordar para ser completa. La otra, en la línea de la tercera ley de la robótica, se basaría en la propia supervivencia. 

No solo en tanto en cuanto implique aniquilar a la raza humana para eliminar amenazas, sino como forma de pensamiento complejo a través de la conciencia de sí mismo.

Es, por ejemplo, lo que se plantea en el épico diálogo final de Blade Runner, en la trama de fondo de Yo Robot o en la brillante estrategia de Ex Machina. 

En esa cinta, de corte mucho más humilde que las superproducciones citadas hasta ahora, una máquina analiza y explota las debilidades de su interlocutor humano para lograr escapar de su prisión. 

Lo hace, claro, superando antes el llamado test de Turing, la prueba experimental que se plantea para determinar dónde desdibujar la frontera entre máquinas y humanos. Algo que, por cierto, ya ha pasado (más o menos)

La última frontera para evaluar si realmente una inteligencia robótica es homologable a la nuestra es, sin embargo, la falibilidad. Sirva un ejemplo: pocas cosas son más aburridas que jugar a algo contra una máquina que falla solo de forma aleatoria y siempre programada. 

Lo emocionante del juego es, precisamente, que no haya nada absolutamente imposible.

Y quizá esa sea la clave. Los humanos somos inteligentes e imperfectos. 

Tomamos decisiones erróneas, incluso autodestructivas. 

Comemos demasiado, fumamos, bebemos y hacemos cosas que atacan nuestra propia ley humana, dañándonos a nosotros mismos. 

Y tal vez eso sea lo que nos asusta de las máquinas: ellas, si algún día logran ser inteligentes, posiblemente no sean capaces de emular nuestra falta de inteligencia.

Publicado por / Fuente : http://www.yorokobu.es
 Link a http://vidacotidianitica.blogspot.com Creative Commons