viernes, julio 31, 2015

Alienígenas, inteligencia artificial y el fin de la humanidad

El renombrado profesor y prestigiado físico Stephen Hawking nos advierte sobre dos riesgos que pueden llevar al fin de la humanidad. La primera amenaza es toparnos con extraterrestres más avanzados que nos consideren irrelevantes y un obstáculo para apropiarse de nuestro planeta, por lo que recomienda suspender los proyectos para contactar a otras civilizaciones en el universo. La segunda amenaza es que desarrollemos máquinas con inteligencia artificial "IA" que eventualmente se rebelen y destruyan a los humanos, por lo que firmó con varios científicos y personalidades una carta recomendando la suspensión del uso de la IA en el desarrollo de nuevas armas. Ambas amenazas, si no se manejan prudentemente por los gobiernos del mundo y sus organismos internacionales, seguramente –advierte Hawking– llevarían a la desaparición de la civilización humana.


¿Qué tan reales son tales amenazas?

Desde que empecé a leer novelas de ficción tuve un gusto especial por la ciencia ficción. He viajado en naves espaciales con la imaginación de Arthur C. Clark. He combatido en mundos extraños y exóticos con J. G. Ballard. He acompañado a Jules Verne al centro de la tierra. Navegué en el cuerpo humano en una microscópica nave atómica con Isaac Asimov. Muchas de las futurísticas tecnologías que leí en los años cincuenta y sesenta ahora son pan de cada día: los teléfonos inteligentes, las computadoras personales, la comunicación intercontinental instantánea, etc. y en la mayoría de los casos la realidad ha rebasado la imaginación de esos grandes escritores… En otras palabras, “se quedaron cortos”… ¿Se quedará corto Hawking?

La historia nos dice que siempre ha habido escépticos y detractores que han dudado de los grandes cambios tecnológicos que han transformado la sociedad humana. Actualmente, algunos formadores de opinión, personalidades, científicos e intelectuales consideran alarmistas, irreales y lejanas las preocupaciones de Hawking. Sin embargo, echando la vista atrás vemos cuántas veces se equivocaron los escépticos que dudaron de las nuevas tecnologías en el transporte como el ferrocarril, los automóviles y los aviones; en las comunicaciones con el telégrafo, el teléfono, la televisión y el Internet; en las computadoras personales y el desarrollo de programas que superan en eficiencia a las decisiones humanas.

A mi juicio, Hawking esta en lo cierto, tales riesgos son reales y no dudo que puedan presentarse dentro de una a tres generaciones. Sólo hay que recordar la ley de Moore, que dice que cada dos años el número de transistores en un circuito se duplica. En 26 años el número de transistores en un microprocesador se ha incrementado 3,200 veces. Algo parecido sucederá con la IA (inteligencia artificial). No es remoto pensar que en una década desarrollemos una IA capaz de crear otra inteligencia artificial aún más avanzada.

Primer riesgo: extraterrestres

Dado lo infinito del universo es muy factible que haya vida en otros planetas. Seguramente la mayoría de dichas formas de vida sea de organismos simples como microbios y plantas, pero seguramente habrá otros organismos equivalentes o superiores al ser humano. La amenaza consiste en que nuestros esfuerzos por contactar a extraterrestres logren contactar a alienígenas más avanzados que nos consideren inferiores e irrelevantes, merecedores de poca consideración y respeto. Tales extraterrestres pueden venir a la Tierra a explotar sus recursos naturales o a repoblarla, y en el proceso considerarnos como un obstáculo para sus propósitos y eliminarnos.

Por lo tanto, Stephen Hawking recomienda evitar buscar el contacto con civilizaciones extraterrestres, pues de llegarnos a visitar las consecuencias podrían ser tan funestas como lo fueron para las poblaciones indígenas cuando Colón llegó a América. Sin embargo, es probable que tales consecuencias sean peores, dado que los alienígenas seguramente serán muy diferentes física e intelectualmente a nosotros. El ser humano podría ser tan insignificante para ellos como un grano de arena en medio del desierto.

Segundo riesgo: inteligencia artificial

El desarrollo de armas inteligentes o soldados robots con IA reducirá el costo de las guerras por lo que los combatientes tendrán el incentivo de usar tales armas conduciendo a una carrera armamentista. Una vez establecidas dichas armas inteligentes en poco tiempo aparecerán en el mercado negro y en las manos de terroristas, dictadores y señores de la guerra en busca de una limpieza étnica.

Tales armas inteligentes o soldados robots estarían diseñados para matar a combatientes enemigos incluyendo a soldados humanos, con el riesgo de que tales máquinas no distingan entre combatientes y civiles. Aparte, siempre existirá el peligro inminente de que las máquinas se rebelen y ataquen a sus amos. Tan sólo se requiere de un simple error para que se produzcan tales catástrofes.

Las armas inteligentes son más peligrosas que las nucleares porque son más baratas para desarrollar y su uso se extendería. Dichas armas constituyen la tercera revolución en la guerra tras la pólvora y la bomba atómica.

Sin embargo, la preocupación con la IA tiene una mayor dimensión que el de las armas inteligentes. ¿Qué pasaría con el ser humano en el momento en que produzcamos una computadora (ordenador mas programa) capaz de diseñar otra computadora? La simple respuesta es que en ese momento perderíamos la carrera de la evolución. Los ciclos evolutivos en las máquinas no solo son mucho más cortos que los de los humanos, sino que cada nuevo ciclo evolutivo de las máquinas es más breve que el anterior. Llegará el momento en que alguna inteligencia artificial nos considere irrelevantes y se abra la puerta para nuestra extinción como especie. En tal momento a la mejor seremos las mascotas de nuestros robots o simplemente un virus que se requiere exterminar.

Parafraseando la historia corta “La respuesta” (Answer) del escritor de ciencia ficción, Fredric Brown (1906-1972):

El director de la empresa Soluciones Inteligentes, Chris Stoppelman, informa a la audiencia de invitados y periodistas sobre Lázaro, el último computador inteligente totalmente diseñado por Fénix, la primera IA, inteligencia artificial.

– “Señores estamos en el umbral de una nueva generación de computadoras, ordenadores con IA, que van a simplificar la manera en como los seres humanos se comunican, viajan, trabajan, viven y se divierten. Déjeme presentarles al creador y director de este proyecto al doctor Lester Valles.”

El doctor Valles se dirige al público y dice: –“Este computador que hemos bautizado Lázaro, es técnicamente el hijo de Fénix, la primera IA que creamos tan solo hace seis meses atrás. Ustedes van a poder preguntar a Lázaro lo que quieran.” Y volteándose hacia el director de la empresa, le dice: –“Chris, ¿te gustaría prender a Lázaro?”

Chris responde, –“no, gracias Lester, ese honor te corresponde. Yo quiero hacer la primera pregunta.” Y volteando al público Chris agrega: “Señores esta pregunta no la ha podido contestar ninguna máquina cibernética, ni ninguna computadora por inteligente que esta haya sido, y francamente dudo mucho que Lázaro nos pueda dar una respuesta adecuada, a pesar de ser el computador más inteligente del planeta.”

Terminando de decir esto, Lester acciona el botón de encendido de Lázaro y con voz clara y precisa, la IA Lázaro exclama:

–“Hola, soy Lázaro, en qué puedo servirles?”

El director le pregunta: –“¿Existe Dios?”

A lo que Lázaro contesta: –“Ahora sí.”


Amigos lectores, desarrollar computadoras que superen las capacidades humanas sería el peor error de la historia y el último de los humanos.

¿Qué podemos hacer?

En cuanto al primer riesgo, los esfuerzos por contactar a civilizaciones extraterrestres, creo que tales proyectos no deberían financiarse con recursos públicos. Sin embargo, soy pesimista y creo que aun cuando se lograra convencer a los gobiernos de no apoyar tales proyectos, recursos e iniciativas privadas continuarían apoyando tales esfuerzos. En cuanto a la amenaza inherente al desarrollo de IAs (inteligencias artificiales), ya sea para propósitos bélicos o en otras áreas, la comunidad internacional eventualmente propondrá algunas medidas para regular tales proyectos. Sin embargo, creo que de poco van a servir, porque los humanos llevan dentro de sí el gen de su propia destrucción.

El homo sapiens puede racionalizar lo que sea, hasta la guerra, llevar a la economía a la bancarrota para financiarla, y sacrificar a lo más preciado de su sociedad, a su juventud, para ganarla. De tal manera, aun cuando se prohibiera el desarrollo de la IA, inteligencia artificial, la curiosidad humana eventualmente encontraría las razones para desafiar la prohibición y poco a poco nos acercaría más a los momentos cruciales de nuestra propia extinción.

Me gustaría estar equivocado, pero soy realista. Los humanos somos los lobos de nosotros mismos: vamos en busca del conocimiento sin importar las consecuencias. Es como la crónica de una muerte anunciada. Desde el momento en que empezamos a utilizar y diseñar herramientas y armas comenzamos a escribir la sinfonía de la autodestrucción: nacimos para crear nuestra propia némesis.