7
Jul 15

¿Donde queda la ciencia de las Ciencias Económicas?

Desde que empezó la crisis no es raro ver economistas defendiendo doctrinas completamente opuestas para un mismo contexto, movidos por las doctrinas políticas que fundamentan esos sistemas económicos. Con esto del Referéndum de Grecia, de nuevo cada corriente política se saca del bolsillo a su Premio Nobel de Economía favorito para defender una determinada doctrina. Podemos ver economistas como Joseph Stiglitz que defienden el NO y otros como Christopher Pissarides defendiendo el SI. Y la gente, claro está, no entiende nada. ¿No deberían coincidir al ser la economía una ciencia?

economia-verde-paliar-efectos-del-calentamien-l-1

Por ejemplo, cuando uno ve hablar a un Premio Nobel de Economía piensa en Física, Medicina, Química...en Ciencias Puras como se conocen popularmente. Lo que no saben muchos es que el Premio Nobel de Economía ni siquiera existe. Alfred Nobel no tuvo en mente a la economía como ciencia, igual que no tuvo a las matemáticas tampoco en consideración (para el eran una herramienta sin más). Realmente el premio de economía es un premio que da el Banco de Suecia llamado "Premio del Banco de Suecia de Ciencias Económicas en Memoria de Alfred Nobel". ¿Es entonces la Economía una Ciencia?

De toda la vida hemos entendido como ciencia al proceso de adquisición de conocimiento mediante la observación de patrones regulares, de razonamientos y de experimentación en ámbitos específicos, a partir de los cuales se generan preguntas, se construyen hipótesis, se deducen principios y se elaboran leyes generales y sistemas organizados por medio del método científico. Es decir, en la ciencia una hipótesis se convierte en teoría cuando somos capaces de reproducir una y otra vez los mismos resultados en diferentes entornos de pruebas. Al menos, esta es la explicación que nos plantean desde primaria pero, ¿pasa esto en Economía? Sí y no.

Hay que tener claro que las Ciencias Económicas y el resto de Ciencias Sociales no son como las Ciencias Puras que normalmente conocemos, aunque apliquemos gran parte del método científico a la hora de hacer nuestros análisis. En estas ciencias nos falta la fase más importante, validar la teoría reproduciendo el experimento múltiples veces. La gente no es igual en diferentes contextos sociales, culturales, históricos, etc. (y otra multitud de variables de estudio desconocidas) ni mucho menos teniendo conocimiento de ser partícipes de un experimento. Además, si extrapolamos a otros entornos pueden darse, o no, dichos resultados, sin que además sea en sí mismo concluyentes. Esto en la parte científica, si nos movemos en el campo de la ética y la moral, hacer granjas humanas de pruebas con las que validar o refutar diferentes hipótesis, no es muy decente ni humano que digamos.

Por tanto, la economía se basa fundamentalmente en la estadística, la cual nos da probabilidades y tendencias, pero nunca un resultado exacto. Yo puedo afirmar que si A crece, B crece, debido a los datos que he analizado, pero no podemos saber que haya causalidad al no poder replicar el experimento. Puede ocurrir que, efectivamente, si A crece B crezca, pero también que A crezca debido a B, que exista una variable C que sea la que hace aumentar a A y B o, simplemente, que ocurra por pura casualidad. Por tanto, no podemos validar las teorías económicas.

Esto no sólo ocurre en las Ciencias Sociales, sino que ocurre, en general, en aquellos campos de estudio de los que no tenemos todo el conocimiento del problema. Por ejemplo, La Ley de Gravitación Universal enunciada por Newton es una Ley porque siempre da el resultado correcto cuando uno hace cálculos con masas grandes y velocidades muy inferiores a la de la luz, pero en otros casos falla estrepitosamente. Albert Einstein y su Teoría de la Relatividad General consiguen abordar el problema de las velocidades cercanas a la luz afirmando que el tiempo es relativo, estando éste entrelazado en un plano con el propio espacio y de nuevo, se puede constatar que sólo funciona en objetos grandes. La mecánica cuántica, por el contrario, surge para analizar las fuerzas en elementos con masas ínfimas. Esta ciencia se basa en probabilidades también. Uno estima donde estará un electrón, pero realmente ni sabemos que está ahí, es más, que un observador intente constatar el estado de dicho electrón variará el propio resultado. Estas tres teorías explican el movimiento y equilibrio de los cuerpos y las fuerzas que los producen, pero cada cual en contexto y campos muy específicos.

Para un físico el hecho de tener dos teorías para explicar el mismo fenómeno es indicativo de que no conocemos la verdad completa y hay que seguir buscando. Es por ello que han surgido nuevas teorías, como la Teoría de Cuerdas, que ve la materia independiente del espacio y tiempo, o La Teoría Gravitatoria cuántica de bucles, que borra la idea de que el plano espacio-tiempo sea liso, para dar una respuesta a esta dualidad. Ambas teorías intentan reconciliar la problemática antes expuesta y dar una solución general para ambos problemas. Si una de estas teorías, además, se demuestra que directamente es errónea en este proceso de búsqueda de la verdad, nadie se dedicará a seguir defendiéndola fanáticamente, ni siquiera sus propios descubridores: Habrá críticas iniciales, ciertas resistencias, pero el método científico es la piedra angular para todos, tengan o no en juego sus propios intereses, por lo que al final siempre se impone la razón.

Esto en cambio no pasa en Economía. Los economistas sistemáticamente niegan los resultados de ciertos experimentos si estos no cuadran con sus dogmatismos. Para los economistas de la escuela de Chicago, que hoy en día son prácticamente todos aunque ni hayan pisado dicha universidad, un sistema con un estado intervencionista no tiene ni un sólo punto bueno, aunque analíticamente se demuestre que en determinados aspectos se consigue una distribución más equitativa. Tampoco importa si históricamente se ve una pauta clara - tan clara que una profana como yo la ve - de que el capitalismo tiene crisis cíclicas, cada vez más cercanas en el tiempo, y estrechamente relacionadas con el nivel de liberalización de los mercados. Del mismo modo, aquellos amantes del intervencionismo jamás serán capaces de ver los puntos negativos de su sistema predilecto, aunque se constate que puede crear problemas de productividad o corrupción.

Sin embargo, como en todos sitios hay excepciones que confirman la regla, uno puede encontrarse en determinados medios a economistas con cierto amor por la ciencia capaces de tirar abajo sus creencias más absolutas si ven pruebas claras de su error. Por desgracia, estas figuras son rara vez tenidas en cuenta, mucho menos en nuestro país, donde el valor a la ciencia brilla por su ausencia. Buena muestra es que tengamos solamente dos nobel (uno de ellos, Severo Ochoa, robado a USA), la inversión más baja de I+D+i, y que figuras como Margarita Salas, una de nuestras científicas más ilustres, ni siquiera sean conocidas, mientras nadie tiene dudas de quienes son Belén Esteban o Cristiano Ronaldo.

Para conseguir solventar un problema sistemático como el que tenemos es necesario ese espíritu crítico que da el método científico, que hace posible que personas de corrientes opuestas se sienten en la misma mesa a idear un nuevo modelo que tome lo mejor de cada teoría, creando así un modelo nuevo sólido, que tenga en cuenta nuestros contextos ecológicos, sociales y culturales, y que sea lo más beneficio posible para todo el conjunto de la población. Sin ese espíritu, ni se podrá mejorar la situación a la larga, ni los economistas tendrán derecho alguno de llamar a su materia Ciencias Económicas, ni mucho autoproclamarse Ingenieros económicos.

Artículo publicado en El Boletin:

¿Donde queda la ciencia de las Ciencias Económicas?

Share
2
Jul 15

Google Fotos y el racismo: Crónica de un error anunciado

Ayer salió a la palestra una noticia de actualidad sobre Google Fotos y el hecho de que ésta aplicación etiquetara como "gorilas" a algunas personas negras. Durante estos días han corrido ríos de tinta en la red sobre el supuesto racismo de Google a la hora de hacer sus aplicaciones, pero hay que tener en consideración algunos temas sobre IA para entender el error, que nada tiene que ver con el racismo.

Lo primero y fundamental es aclarar a la gente que la IA tiene poco de inteligente y mucho de artificial. Si algo enseña este campo es que los seres vivos somos máquinas increibles, capaces de realizar cálculos a velocidades vertiginosas y sin casi errores, algo que una máquina es incapaz hoy por hoy. Para que esto sea posible, muy probablemente tendremos que esperar a que otros campos como la neurociencia nos alumbren sobre como funciona nuestra "CPU biológica", el cerebro.

Por otra parte, la IA es un campo que aunque se lleva investigando desde los 60 sigue en pañales, ya que hasta hace menos de una década siquiera teníamos equipos para ejecutar estos algoritmos en unos tiempos aceptables (cuando digo aceptables, me refiero a bajar de las horas y semanas incluso que podían tardar ciertos procesamientos). Aún hoy muchos algoritmos siguen sin poderse ejecutar en tiempos asumibles. Por tanto, la IA es un campo aún en investigación y aunque las empresas intenten sacar productos comercializables, hay que tener en cuenta que no tendremos tasas de acierto del 100%, es más, es algo que dificilmente podremos tener a corto y medio plazo.

googlevil

El error racial de Google Fotos no es el único, además. Hace unos meses Flickr tuvo el mismo problema: etiquetar a un negro como un mono. ¿Por qué ocurre esto? Empecemos por el principio.

¿Qué es un clasificador?

Un clasificador es un algoritmo que, dado un dato de entrada, nos devuelve como salida una etiqueta o clase de pertenencia. Para que este algoritmo asigne una etiqueta a un determinado dato, necesita de un entrenamiento previo con unos datos suficientemente robustos para ser capaz de identificar esa clase en todos los casos (datos ya etiquetados). Por ejemplo, para un ordenador una cara de frente y otra de perfil, o una cara de una persona blanca o asiática, con una negra, nada tienen que ver. Igual ocurre con cosas tan nímias como la iluminación: no es igual una cara iluminada con el sol de mediodía, que una cara iluminada con fluorescentes. ¿Por qué? Porque para el ordenador esa foto a clasificar no es más que una matriz numérica, en donde cada campo indica la intensidad de un píxel, nada más. El no sabe de temas raciales y culturales.

La elección de los datos de entrenamiento sigue siendo una temática ampliamente investigada en el campo, ya que por norma general no se puede contar con muchos datos que tengan las variaciones suficientes para que un clasificador tenga tasas de acierto perfectas, ni tampocos somos capaces de encontrar descriptores (vectores numéricos que representan cierta característica discriminante del dato, los bordes de una imagen, por ejemplo) robustos para que los clasificadores sean tan óptimos como el cerebro humano.

Por tanto, ¿qué ha pasado con Google Fotos? Sinceramente no tengo ni idea como será el clasificador de Google internamente (ojalá :P), pero sí se que es una red neuronal convolucional, por lo que me puedo imaginar a grandes rasgos los problemas que han causado que una máquina sin ética ni moral pueda ser "racista".

Para empezar, imagino que uno de sus descriptores pueda ser el color, más que nada porque el color es algo casi inherente a la visión artificial. Aunque Google use fotos de todo tipo de razas, hay que de nuevo recordar que el ordenador lo único que ve son celdas (píxeles) con valores numéricos del 0 al 255. Los asiáticos y blancos tendremos umbrales de color similares, mientras que las personas negras no están comprendidas dentro de estos umbrales. Por tanto, habrá muchos más ejemplos de caras que tengan umbrales similares (asiáticas, europeas, etc.) y otro grupo que no, por lo que si no se asigna un peso pequeño a este descriptor, el algoritmo lo utilizará como indicativo de una cara humana, rechazando a una gran parte de la población por motivos de color. Es un tema de proporción de imágenes colgadas en Google, quién tiene más población con acceso a internet, etc. Nos guste o no, por desgracia la mayoría de población negra no tiene acceso a un ordenador, al menos no en la misma proporción que europeos y asiáticos. No obstante, estoy segura que aquí Google ha sabido muy bien compensar los datos y pesos para que el color no fuera muy discriminante.

Por otra parte, se habrán tenido en cuentas descriptores de forma, ya sean con bordes, esquinas, etc. Nos guste o no, los seres humanos somos una especie de primate, por lo que nuestros rasgos son muy similares a los de nuestros parientes los monos. Por su parte, como sabéis, los gorilas son de un predominante color negro.

Los clasificadores están basados en probabilidades. Este mira la probabilidad / peso de un dato para cada etiqueta, y se queda con el valor más alto. Por tanto, ¿es raro que en determinadas circunstancias de gestos, iluminación, etc. el clasificador "monos" de valores más altos que el de "humanos"? Por supuesto que no. Como ya contestó Yonatan Zunger, arquitecto jefe de Google+, también tienen problemas con caras blancas, que son etiquetadas a veces como perros y focas. Si el algoritmo es tan "tonto" de confundirnos con una foca, ¿cómo no va a fallar con un primate?

Por tanto, el problema en el algoritmo de reconocimiento facial de Google no es que no se tuvieran en cuenta todas las razas y sexos posibles, sino el hecho de sacar un producto al público de un campo que sigue hoy en día en desarrollo, y del que no podemos asegurar tasas de acierto perfectas. Como afirmaba antes, el ordenador no sabe de temas éticos y culturales, por lo que igual que puede fallar etiquetando blancos como focas sin que nadie se sienta insultado, puede también dar resultados que sí afecten a cierto colectivo, como el caso de los primates, sin que nosotros podamos saberlo a priori.

La pregunta por tanto es, ¿debemos limitar la investigación de estos productos al campo académico porque a veces puedan fallar y darnos resultados incorrectos?

Artículo publicado en El Boletin:

Google Fotos y el racismo: crónica de un error anunciado

Share
11
Nov 14

Interstellar: Una odisea espacial 2.0

interstellar-poster

Últimamente ir al cine es francamente difícil, ya no por los precios, que también, sino por las pésimas producciones a las que nos tienen acostumbrados. Es por eso que cuando te encuentras con una película como Interstellar no puedes más que lagrimear ante tal obra maestra. No hay película de Nolan que no dure mínimo 3 horas y después de El Caballero Oscuro me temía lo peor, pero nada más lejos de la realidad: El carácter relativo del tiempo no sólo es parte del argumento, sino que es inherente a la película, ya que las 3 horas de película pasan en un suspiro.

Aviso antes de nada que este post está plagado de spoilers. Intento pasar de puntillas y dar pocos datos generales de la historia, pero para el análisis no me queda más remedio que entrar en algunas partes, incluido el final, que os pueden fastidiar los mayores hype de la película. Avisados quedáis 😛

Mi adoración hacia 2001: Una odisea en el espacio resulta a veces enfermiza. Siempre que veo películas de Ciencia Ficción no puedo evitar ver similitudes con ella y hacer todo tipo de comparaciones, en las cuales siempre gana la película de Kubrick. En el caso de Interstellar las similitudes con 2001 son constantes y es obvio que Nolan quería hacer su propia versión de 2001 revisada, pero, aunque resulte sorprendente mi aseveración, creo que la obra de Nolan supera con creces a la de Kubrick, aun teniendo en cuenta la época de cada una y su contexto.

Interstellar es la película hasta la fecha más fiel a la física que he visto jamás, rallando incluso la divulgación científica. El funcionamiento de los agujeros negros, del horizonte de sucesos, de la relatividad general, de la teoría de cuerdas...todos estos conceptos tan difíciles de entender se tienen en cuenta y se le explican al espectador de manera que pueda entenderlo, aunque, eso sí, requiera de más de un diálogo entre los protagonistas que se darían por supuestos entre astronautas.

interstellar-2

Es tal el grado de fidelidad con la astrofísica que me pasé parte de la película preguntándome quien asesoraría a Nolán en la materia, porque era obvio que había tirado de lo mejorcito en el campo. Al llegar a casa y googlear vi que la tarea de asesoramiento corría a cargo Kip Thorne, uno de los mayores expertos mundiales en las aplicaciones a la astrofísica de la Teoría de la Relatividad General. Se nota.

Como decía, Interstellar es una revisión mejorada de 2001: Las señales y el agujero de gusano son los monolitos puestos no se sabe bien por quién para que evolucionemos. El viaje a Júpiter de 2001 es la parte que Interstellar desarrolla en el sistema planetario al que lleva el agujero de gusano. Y el final de la película, a su vez, también tiene lugar en una habitación que representa el interior del agujero negro y donde se desarrolla todo el desenlace de la historia principal.

Pero hay notables diferencias que hacen que esta película no sea un refrito y la conviertan en una de las mejores obras, bajo mi humilde opinión, del género de la ciencia ficción.

worm-hole

Para empezar la sociedad de la película es más cercana a la realidad: Una especie agónica que ha esquilmado los recursos de su planeta y ve que su futuro próximo tiene fecha de caducidad. En este caso viajar hacia el punto origen de la señal se convierte en una cuestión de extrema urgencia y en todo momento el futuro de la especie pende de un hilo. Esto no ocurre en 2001: La especie humana parece haber llegado a un estado de equilibrio y avance idílicos.

Nolan también tira de las tomas del espacio pausadas con música clásica para recalcar el caracter armonioso, inalterable y basto del universo, pero sin llegar a que te plantees cortarte las venas. La OST son versiones casi en su totalidad de la misma melodía, la cual recuerda muy mucho el final atronador del tema principal de 2001.

interstellar-bts-2

También tenemos IAs en Interstellar pero poco tienen que ver con HAL 9000. Una de las pocas cosas que siempre me ha desagradado de 2001 es que Kubrick no tuviera ya en cuenta las leyes de la robótica que enunció en 1940 Isaac Asimov. Tampoco seré dura. Kubrick hizo a HAL como lo hizo para incidir en las ideas de "¿Puede una máquina tener conciencia de sí misma? ¿Puede sentir? ¿Puede temer a la muerte?" Estas preguntas tan innovadoras en la época hoy en día ya están bastante trilladas, así que Nolan le ha dado una revisión a sus IA's y a quien de verdad superpone siempre el espíritu de autoconservación por encima del interés general: el ser humano, encarnado en la figura Dr. Mann (Matt Damon), que protagoniza una de las mejores partes de la película, donde, entrelazando la historia de éste con la que tiene lugar en ese mismo instante en La Tierra, se anteponen la fuerza del egoísmo y espíritu de autoconservación que tanto rige al ser humano, con la búsqueda del bien general.

La parte de la habitación final, que esperaba desde mitad de película debido a las obvias similitudes con 2001, es otra obra de arte. Es increíble como se traducen las diferentes dimensiones y la teoría de cuerdas en una habitación de Tesseract de forma comprensible. También se utiliza el carácter de señal de la fuerza gravitacional sin que te explote la cabeza, sino todo lo contrario, ameno y de gran trascendencia en la historia. El carácter del tiempo como una dimensión más también es llevado de forma que un crío pueda entenderlo y se generan dos paradojas temporales que, de nuevo, resultan comprensibles, y lo más importante, sólidas. Cooper (Matthew McConaughey) crea la primera paradoja al enviar señales a su hija a su yo pasado, pero gracias a ésta se crea otra aún mayor, que el ser humano avance lo suficiente para que seamos nosotros mismos, en un futuro muy lejano, los que creemos el agujero negro que nos llevó a tal avance en el pasado.

bowman mid room

Es tal el grado de "frikismo" científico que hasta el mensaje binario con las coordenadas de la NASA que envía el propio Cooper quedaba aposentado en el suelo, mostrándonos el funcionamiento de la transformada de Fourier de forma muy intuitiva (ya podrían haberme explicado hace un mes en el master la transformada de fourier así).

Eso sí, la película no llega al 10 por un detalle que ni a mis conocidos ni a mí nos gustó una pizca: La licencia de Nolan de decirnos que el Amor es una dimensión propia con sus propias leyes físicas, y que estas también mueven el mundo.

Que sí, que es aceptable y le da un punto ñoño moral muy bonito, pero cuando uno lleva casi 3 horas visionando una película que, como digo, ralla la divulgación científica, que de repente te vengan con esta patochada tan poco fundamentada te descoloca cuanto menos. Se hace tan artificial en la historia que esta es una de las razones por las que en el minuto uno de los créditos me sintiera tan desencantada. Eso sí, sólo me duró unos minutos, hasta que empecé a reflexionar un poco sobre lo que había visto. No sólo le quité importancia a esta licencia, sino que ha llegado a parecerme un puntito de fantasía muy agradable.

Creo que Nolan se ha catapultado con Interstellar al top de las películas de Ciencia Ficción. Yo por mi parte, cosa que desde hace muchos años no hacía con una película, esta semana volveré a ir al cine para visionarla de nuevo, porque seguro que, como es también tradición con las películas de Nolan, cada visionado desvelará mil y un detalles que se te pasan la primera vez por alto y que no harán más que reafirmar la calidad de la obra.

Si sois aficionados a la Sci-Fi, Interstellar es un MUST en toda regla.

Artículo publicado en El Boletin:

Interstellar: Una odisea espacial 2.0 (El Boletin)

Share
7
Apr 14

Alan Turing: El genio maltratado del siglo XX

Con la reciente legalización del matrimonio homosexual en Reino Unido, no pude, aparte de alegrarme, dedicar unos segundos para recordar a Alan Turing.

Mi formación en informática hace imposible no conocer su nombre, ya que es uno de los padres de la computación, pero todavía no tiene el reconocimiento general que se merece. ¿El motivo? Ser homosexual, motivo por el cual hasta hace muy poco ni siquiera su propio país, Reino Unido, reconoció sus méritos.

Alan_Turing_Aged_16Alan Turing nació en 1912 en Londres, en el seno de una familia acomodada. Ya desde pequeño demostró su gran inteligencia memorizando con gran facilidad palabras a los tres años, o construyéndose el mismo un laboratorio a los ocho.

Con 14 años ingresó en el internado de Sherborne, en Dorset. El primer día de clase coincidió con una huelga de transportes, pero eran tales las ganas de Turing de asistir al colegio que recorrió 60 millas en bicicleta. Tal hazaña se recogió en la prensa local.

Pese a que el Sherborne daba mucha importancia en las materias clásicas en detrimento de la ciencia, Turing siguió destacando en las materias que le gustaban. Llegó a realizar cálculos muy avanzados para su edad sin conocimiento alguno en cálculo elemental, y con 16 años leyó los trabajos de Einstein y no sólo los comprendió, sino que supo inferir la relación de con la física newtoniana por sí mismo.

Fue en Sherborne donde Turing conoció a su primer amor, un chico algo mayor que él llamado Christopher Morcom. Fue él quien aumentó el optimismo y afán de superación de Turing. Desgraciadamente, pocos meses después de que Turing acabara su último año en el Sherborne, Morcon falleció repentinamente por tuberculosis bovina. Turing cayó en una fuerte depresión y se hizo ateo. Para Turing el funcionamiento de todo, incluyendo el del cerebro humano, debía de ser materialista, es decir, se podía explicar su funcionamiento de forma matemática.

Después de una infancia repleta de muestras claras de una asombrosa inteligencia, Alan Turing ingresó en la King’s Collegue de Cambridge con un “distinguished degree”, la mayor calificación posible. Consiguió años después una beca y un premio Smith por su trabajo en la teoría de la probabilidad.

Turing era además un científico muy poco convencional para los estándares de la época. Realizaba actividades deportivas como el remo o las carreras a distancia y disfrutaba de una vida social muy activa.

alanturing

Durante sus estudios universitarios siempre se había interesado por las teorías de Russell, Gödel y Whitehead sobre la lógica de proposiciones, lo que le llevó a responder al conocido como Problema de la decisión o Entscheidungs Problem y que hasta ese momento no tenía respuesta. La pregunta en cuestión era la siguiente ¿Podría existir, al menos en principio, un método definido o proceso a través del cual pudiera decidirse si una afirmación matemática es demostrable?

Para su resolución Turing ideó una máquina teórica, la máquina de Turing, que se ajustaba perfectamente a esta definición. Es más, demostró que dicha máquina era capaz de implementar cualquier problema matemático que pudiera representarse por medio de un Algoritmo.

Con esta máquina, a su vez, llegó a probar que no había ninguna solución para el Entscheidungs Problem, demostrando primero el problema de parada para las máquinas de Turing, es decir, que no es posible decidir algorítmicamente si una máquina de Turing dada llegará a pararse.

Aunque puede parecer en principio una frikada, la teórica de la máquina de Turing es en la que se basa prácticamente toda la Ciencia de la Computación. La máquina de Turing no es más que un ordenador expresado de la forma más simple posible.

Después de esta gran aportación Turing trabajó varios años en la Universidad de Princeton, USA, donde se encontraba uno de los mayores centros de lógica formal del mundo. La dirección de esta área corría a cargo de Alonzo Church, quien llegó a las mismas conclusiones que Turing mucho antes, no obstante, la publicación de Turing ha sido la más extendida, por su visión más intuitiva y fácil de comprender.

Gracias tanto a Turing como a Church surgió la Tésis Church-Turing, uno de los grandes pilares de los lenguajes formales: Todo algoritmo es equivalente a la máquina de Turing.

El artículo de Turing atrajo también a otro de los padres de la informática, John von Neumann, quien le ofreció una beca en Estudios Avanzados. Cuando Turing consiguió su doctorado, von Neumann le ofreció una plaza como asistente, pero Turing, quien no conseguía adaptarse del todo a la vida en Estados Unidos, decidió volver a Inglaterra.

Allí estuvo dos años becado estudiando sobre la filosofía de las matemáticas, hasta que estalló la Segunda Guerra Mundial y fue reclutado por el Ejército Británico para trabajar en el descifrado de los códigos enviados por la máquina Enigma del ejército Nazi.

Para esta tarea Turing se encargó de construir una máquina capaz de descifrar estos códigos llamada Colossus, la cual sería la primera computadora electrónica jamás creada. Por esta aportación Alan Turing recibió la Orden del Imperio Británico. Es de sobra aceptado que gracias a la labor de Turing se consiguió en gran parte la victoria ante los alemanes.

Una vez terminada la guerra, trabajó para el Laboratorio Nacional de Física para competir con el proyecto americano del EDVAC de von Neumann. Los americanos presentaron antes un diseño del primer ordenador automatizado, pero Turing presentó uno mucho más detallado que el de su homólogo yankee. Turing también habló por primera vez de conceptos tan avanzados para aquella época como las redes de cómputo, las subrutinas o las librerías software.

Pese a que construir el ACE (Automatic Computing Engine) era factible, el retraso que ocasionaba el secretismo tan instaurado tras la Guerra Mundial, hizo que se retrasara su construcción, lo cual desanimó mucho a Turing.

Durante esa época volvió de nuevo a retomar su interés por las carreras e incluso se estuvo entrenando para participar en los Juegos Olímpicos, aunque una lesión de cadera finalmente lo impidió.

Se tomó un año “sabático” en Cambridge, donde aprovechó para crear las bases de la Inteligencia Artificial, mientras el ACE era construido en su ausencia, aunque jamás llegó a terminarse del todo.

Durante este periodo se comenzó a hacer pública la homosexualidad de Alan Turing, lo cual estaba perseguido en Inglaterra como delito y estaba muy mal visto por la sociedad. El matemático sufrió a partir de entonces una etapa muy dura.

Alan TuringNo obstante, Turing pudo participar en la creación de uno de los primeros ordenadores de la historia, el Mark I, implementado por la Universidad de Manchester. Alan Turing fue nombrado director delegado del laboratorio de computación y se encargó del software. El Mark I se adelantó a la creación del EDVAC americano, el que para muchos es, erróneamente, el primer ordenador de la historia.

Durante ese tiempo Turing aún tuvo tiempo para seguir ahondando en la Inteligencia Artificial y creó el famoso Test de Turing, que determina la capacidad de las máquinas de poder pensar. Turing defendía la posibilidad de crear una máquina capaz de tener una inteligencia que no se diferenciara en nada de la de un ser humano. Así que también inició el que es actualmente uno de los debates más interesantes de la computación. También realizó aportes en los campos de la cibernética y los interfaces de usuario. Por todas sus contribuciones científicas fue nombrado miembro de la Sociedad Real de Londres en 1951.

Alan Turing, como todo genio, tenía interés por infinidad de campos, por lo que en 1952 dio otro nuevo giro a su carrera y, debido a su interés desde pequeño por la Biología, comienza a trabajar en la morfogénesis, es decir, los patrones matemáticos que están detrás muchos procesos biológicos. El trabajo en concreto de Alan Turing era entender la existencia de los números de Fibonacci en las estructuras vegetales. Fue entonces, cuando su carrera se vio trágicamente truncada por culpa de la intolerancia.

El que era en aquel momento pareja de Alan Turing, ayudó a un ladrón a entrar en su casa. Durante la investigación policial, Turing tuvo que reconocer su homosexualidad, motivo por el que le imputaron los cargos de “indecencia grave y perversión sexual”.

Alan Turing, que no sólo era avanzado a su época en el campo científico, sino también en el moral, consideraba que no debía de disculparse ni arrepentirse por su homosexualidad. Fue por tanto declarado culpable y la justicia británica le dió dos opciones como castigo: ir a prisión, o someterse a la castración química por medio de un tratamiento supresor de libido.

Turing escogió finalmente la segunda opción y durante un año sufrió un tratamiento de estrógenos que le ocasionó aumento de peso, aparición de pechos, y finalmente disfunción eréctil.

Dos años después del juicio, en 1954, Alan Turing decidió poner fin a tanto tormento suicidándose por medio de una manzana envenenada (aunque muchos señalan a una posible conspiración y/o asesinato).

No fue hasta 2009 cuando el primer ministro de Reino Unido, en aquel momento Gordon Brown, pidió públicamente perdón por el trato atroz al que sometieron a uno de sus mayores genios contemporáneos, aunque este reconocimiento no vino de forma espontánea, sino a través de una petición pública que exigía dichas disculpas.

En 2012 se denegó el indulto al científico, argumentando que las leyes de la época tachaban la homosexualidad como un delito. Finalmente, en la nochebuena del 2013, la Reina Isabel II le concedió el indulto de todo tipo de culpa.

Aunque la ACM (Association for Computing Machinery) bautizó su premio más importante como el Premio Turing (tiene la consideración de Nobel de la Computación), nunca podremos reparar el daño ocasionado a Turing. Es más, por culpa de la intolerancia de la época de seguro se ha privado al mundo de los grandes avances que hubiera seguido realizando Turing de no haber tenido que acabar con su vida.

EDIT:

De nuevo El Boletín ha publicado un post mío. Ójala siga la racha 😀

Alan Turing: El genio maltratado del siglo XX (El Boletín)

Share