domingo, 28 de junio de 2020

Alan Turing, el padre de la inteligencia artificial


Alan Turing, el padre de la inteligencia artificial

Fue famoso por descifrar el código nazi en la Segunda Guerra Mundial y pionero en otras ramas como la biología y la inteligencia artificial, cuya contribución es imprescindible en el desarrollo de las tecnologías actuales.

Lo recordamos a 108 años de su nacimiento.

Alan Mathison Turing nació el 23 de junio de 1912 en el barrio de Paddington, Londres.

Su familia era de clase media alta.

Fue el segundo hijo de Julius y Sara, que permanecieron en la India durante varios años, por lo que pasó la infancia con su hermano mayor John.


The Guardian

En 1928, en la escuela Sherborne conoció a su amigo Christopher Morcom, quien fallecería dos años después.

Por este motivo es que Turing se interesa por el estudio de la mente humana a través de la física y la mecánica cuántica, buscando la solución a la relación entre mente y materia.

Al año siguiente en Cambridge, en el King's College, encontró un método de estudio que permitía ideas más abiertas y allí consiguió distinguirse en lógica y matemática.

En 1936 le otorgaron un premio por sus investigaciones en la teoría de la probabilidad.

Sus investigaciones

A los 26 años Turing comenzó a trabajar para el servicio oficial británico de cifrado.

Obtuvo el doctorado por la Universidad de Princeton, especializándose en criptología.

En 1936, imaginaba una computadora que resolviera cualquier problema traducido a expresiones matemáticas y luego reducido a una cadena de operaciones lógicas con números binarios, en las que sólo cabían dos decisiones: verdadero o falso.

Se trataba de reducir cifras, letras, imágenes, sonidos a unos y ceros y usar un programa para resolver los problemas en pasos muy simples.


National Geographic

Enigma era la máquina alemana que encriptaba mensajes durante la Segunda Guerra Mundial.

Bombe fue creada en 1939 por Turing para poder desencriptar dichos mensajes del ejército alemán y poder localizarlos, adelantándose a su estrategia.

Era una versión mejorada de un dispositivo diseñado en 1938 por el criptologista polaco Marian Rejewski.

Además, Bombe fue la precursora de la computadora programable electrónica digital.



Techrepublic

Bletchley Park era una base militar en la cual se interceptaban mensajes del ejército nazi y se realizaba un ejercicio de traducción intersemiótica e interlingüística.

La utilización de esta práctica mediante el dispositivo de análisis criptográfico creado por Turing permitió a los aliados tener una ventaja durante la Segunda Guerra Mundial.

Allí trabajaron diez mil personas: matemáticos, ingenieros, lingüistas, docentes universitarios, oficinistas.

Dos tercios de los trabajadores de Bletchley eran mujeres.

El trabajo realizado allí fue mantenido en secreto hasta 1970.



Bletchley Park

La inteligencia artificial

En 1950 Turing inició su artículo Computing machinery and intelligence formulando la siguiente pregunta: ¿las máquinas pueden pensar?.

Fue el primer científico en cuestionarse esto, aunque no acuñó el término que hoy conocemos como inteligencia artificial.

La Inteligencia Artificial es la disciplina científica y tecnológica cuyo objetivo es crear procesos de la mente y su conexión con el cuerpo a través de la metáfora computacional.

La metáfora computacional es un concepto utilizado por la psicología cognitiva.

Dicha disciplina sostiene que el cerebro posee un sistema de procesos de datos, similar al de una computadora digital.

A su vez, el concepto es utilizado en el estudio de la neurociencia y también en la neurofilosofía (filosofía de la mente).

Mediante el test de Turing se medía la capacidad de una máquina para hacerse pasar por ser humano mediante una prueba de conversación entre ambos.

Si el humano no logra identificar que se trata de una máquina, esta última sería considerada inteligente.

Turing contribuyó además a la biología matemática. 

Publicó un artículo en 1952 que derivó en un campo de investigación matemática basada en la formación de patrones, utilizada en la actualidad.

Su lucha

En 1952, en la cumbre de su carrera, Turing fue juzgado y condenado por el gobierno británico debido a su homosexualidad y tuvo que elegir entre ser encarcelado o someterse a la castración química.

Eligió la segunda opción.

Se le denegó acceso a las instalaciones de Bletchley Park.

 La situación lo llevó a una profunda depresión.

Alan Turing falleció el 7 de junio de 1954, envenenado al morder una manzana con cianuro en su laboratorio.

Los forenses determinaron que fue un suicidio, teoría confirmada recién en 2012 por Jack Copeland, historiador y director del Archivo Turing de Historia de la Computación.

En el cine

Descifrando el código (1996) fue protagonizada por Derek Jacoby y dirigida por Herbert Wise, fue una película para televisión del programa estadounidense Masterpiece.

Enigma (2001), una película protagonizada por Dugray Scott y Kate Winslet, fue dirigida por Tom Stoppard, que se basó en la novela de Robert Harris.

Decodificando a Alan Turing, de 2009, es un cortometraje de Christopher Racster, centrado en la reivindicación de su figura más allá de su condición sexual.

Codebreaker es un documental de 2011 dirigido por Clare Beavan y Nic Stacey, protagonizado por Ed Stoppard.

Basado en los diarios del psiquiatra de Turing, la historia se centra en sus conversaciones luego de ser juzgado por el gobierno británico.

El código enigma (2014), fue protagonizada por Benedict Cumberbatch y dirigida por Morten Tyldum.


Código enigma. Hipertextual

En 1966 se creó un premio de ciencias computacionales en su honor, el Premio Alan Turing, equivalente al Nobel en esa rama de estudio.

En la ciudad de Manchester se puede encontrar una estatua de Turing; había perdido su puesto de trabajo en aquella universidad tras ser acusado por el gobierno.

En 2017 se publicó Más que un enigma, la biografía que su madre, Sara Stoney Turing, escribió poco tiempo después del fallecimiento de Turing, sobre su infancia y juventud.

Escrito por Jim Ottaviani e ilustrado por Leland Purvis, la novela gráfica Descifrando Enigma es la traducción del original inglés The imitation game: Alan Turing decoded, publicada en 2016 por Abraham Comics Arts, en Nueva York.

La historia, dividida en tres partes, abarca la infancia y juventud, sus primeros trabajos y la creación de Enigma.


Madridmasd


Henrik Olesen, artista danés, realizó un homenaje a la figura de Turing en 2018 mediante intervenciones a fotografías del científico.


Temporada de relámpagos


"Lo que me interesa de la biografía de Turing no es solo la forma en que ilustra los límites y las historias del siglo XX, sino que también parece casi una profecía de género. 

De una manera horrorosa, el cuerpo de Turing fue herido por la violencia de la ideología moderna, de alguna manera perdió su propio cuerpo, pero también creó uno nuevo", afirma Olesen.

En honor al matemático, Steve Jobs retomó el motivo de la manzana mordida como logo para su compañía Apple.

En Manchester comenzó el movimiento de reparación pública de la figura de Turing luego de su persecución.

El ingeniero informático William Jones puso en marcha una petición de firmas para que se concediera a Turing un perdón real póstumo, que fue firmado por 37 mil personas.

2012 fue declarado el año Alan Turing por el gobierno británico.

Al año siguiente, la Reina Isabel retiró los cargos contra el matemático.


"Un hombre provisto de papel, lápiz y goma, y sujeto a estricta disciplina, es en efecto una máquina universal".

Alan Turing

Fuentes:
Universidad Abierta de Cataluña, National Geographic, Temporada de relámpagos revista de arte y cultura, Universidad Nacional de México, Universidad Internacional de Valencia, bletchleypark.org.uk

Portada:Estatua de Alan Turing en Bletchley Park. El Diario.

Cultura
http://inngeniar.blogspot.com/

Cultura

jueves, 25 de junio de 2020

La inteligencia artificial pueden hacer diagnosticos con sesgo de genero


Los autores del estudio: Agostina Larrazabal, Nicolás Nieto, Victoria Peterson, 
Diego Milone y Enzo Ferrante.

Los sistemas de inteligencia artificial pueden hacer diagnosticos con sesgo de genero si no son entrenados correctamente 

Los modelos que analizan radiografías pueden evaluar con errores determinados cuadros clínicos para hombres y mujeres si son entrenados con datos desbalanceados, según un estudio argentino.

Las instituciones médicas están adoptando en todo el mundo sistemas de inteligencia artificial (IA) para el diagnóstico y la detección asistida por computadora a partir de imágenes tales como radiografías, resonancias y tomografías.

Ahora, un estudio de investigadores  de Santa Fe demostró que esos sistemas pueden incurrir en un sesgo de género en detrimento de la salud de miles de pacientes.

Se trata de la primera investigación sobre el sesgo de género que pueden adquirir los modelos de diagnóstico asistido por computadoras al ser entrenados con datos desbalanceados.

El trabajo fue realizado por científicos del Instituto de Investigación en Señales, Sistemas e Inteligencia Computacional o “sinc(i)”, con sede en la Ciudad de Santa Fe.

“Lo que encontramos es que si un modelo de diagnóstico asistido por computadora basado en aprendizaje automático sobre imágenes de rayos X es entrenado con datos desbalanceados de hombres y mujeres (es decir, pocos datos de alguno de ellos), el modelo puede presentar un rendimiento más bajo en el grupo subrepresentado”, afirmó a la Agencia CyTA-Leloir el coordinador del estudio, Enzo Ferrante, investigador del sinc(i), que depende de la Universidad Nacional del Litoral (UNL) y del CONICET, y tiene sede en la Facultad de Ingeniería y Ciencias Hídricas (FICH-UNL) .

Hace algún tiempo, la comunidad de IA comenzó a advertir sobre distintos tipos de sesgo en modelos predictivos de inteligencia artificial, mayormente adquiridos a partir de los datos que habían sido utilizados para su entrenamiento.

Por ejemplo, algoritmos de traducción de inglés a español que amplificaban los estereotipos de género existentes en nuestra sociedad, o modelos para la clasificación de imágenes que presentaban un rendimiento más bajo en grupos minoritarios.

“Esto nos llevó a adentrarnos en el estudio de un campo emergente dentro de las ciencias de la computación: el de equidad o fairness en aprendizaje automático (machine learning)”, indicó Diego Milone, investigador del CONICET y Director del sinc(i).

En 2019 se celebró en Santa Fe el Congreso Internacional de Género en Ciencia, Tecnología e Innovación, que llevó al grupo a conocer los trabajos de Londa Schiebinger, de la Universidad de Stanford, Estados Unidos, sobre la necesidad de integrar la dimensiones sexo-género en el análisis y diseño experimental en ciencia y tecnología.

Allí participaron los primeros autores del trabajo Agostina Larrazabal y Nicolás Nieto, ambos becarios doctorales en el sinc(i), junto a Victoria Peterson, becaria postdoctoral en el Instituto de Matemática Aplicada del Litoral.

Dado que Ferrante y sus colegas se dedican al desarrollo de nuevos métodos computacionales para el análisis de imágenes biomédicas (como imágenes de rayos X, tomografía computada o resonancia magnética), comenzaron a preguntarse cuáles serían las implicancias de los sesgos de género en ese campo de aplicación y qué se podría hacer para mitigar su impacto.


Si los modelos de diagnóstico asistido por computadoras son entrenados con datos desbalanceados pueden evaluar con errores determinados cuadros clínicos al analizar radiografías 
de hombres y mujeres.

“Entrenamiento” de los sistemas de IA

¿Cómo aprenden estos sistemas?

Se utiliza un conjunto de datos (imágenes con el correspondiente diagnóstico médico) para “entrenarlos” y luego se les pide que arrojen una predicción sobre una nueva imagen médica que no habían visto.

En el nuevo estudio, publicado en Proceedings of the National Academy of Sciences (PNAS), los científicos santafesinos utilizaron bases de datos públicas: una curada por investigadores de la Universidad de Stanford, con 65.240 pacientes con un total de 224.316 imágenes, y otra publicada por el National Institutes of Health de Estados Unidos (NIH) que incluye 30.805 pacientes y un total de 112.120 imágenes.

Estas bases de datos están compuestas por radiografías de tórax de todos los pacientes, acompañadas por el correspondiente diagnóstico médico que indica si poseen o no distintas patologías comunes del tórax que pueden afectar tanto a hombres como mujeres, por ejemplo hernias, neumonía, fibrosis, enfisema, edema, engrosamiento pleural y neumotórax.

Los modelos utilizados están basados en redes “neuronales” convolucionales profundas y son entrenados para predecir si esas patologías del tórax están presentes o no en la imagen.

En sus experimentos, los científicos del CONICET y de la UNL generaron conjuntos de datos considerando distintos porcentajes de hombres y mujeres, y luego evaluaron el rendimiento de cada  modelo a la hora de predecir el diagnóstico en nuevas imágenes de hombres y mujeres por separado, cuantificando el rendimiento en ambos grupos.

En concreto, lo que hicieron fue entrenar distintos modelos usando bases de datos de entrenamiento con diferentes niveles de desbalance de género, por ejemplo, 25% de hombres y 75% de mujeres, o 0% y 100% respectivamente.

Luego evaluaron el rendimiento del modelo en nuevas imágenes de personas de ambos sexos por separado.

“Lo que encontramos es que si el desbalance de género es muy grande, el rendimiento del modelo disminuye significativamente en el género subrepresentado”, afirmó Ferrante, especialista en aprendizaje automático y visión computacional.

Y agregó: “Incluso en los casos de desbalance intermedio como 25%-75%, el rendimiento del modelo en el grupo minoritario se ve reducido”.

Si no se toman en cuenta estos desbalances, advirtieron los científicos, puede ocurrir que el sistema indique que determinadas patologías están presentes cuando en realidad no están (falso positivo), o viceversa (falso negativo).

Los investigadores santafesinos creen que su trabajo tiene implicaciones a varios niveles.

En primer lugar, respecto a las personas que diseñan las bases de datos que luego serán utilizadas para entrenar los sistemas de diagnóstico basados en IA.

“En este sentido, es importante contar con la información demográfica que nos permita luego comprobar que el rendimiento de nuestros modelos sea independiente del género, edad, etnia y otros atributos, es decir, que su desempeño no disminuya en grupos minoritarios”, afirmaron los investigadores.

En segundo lugar, el nuevo estudio es importante para que quienes se desempeñan en las ciencias de la computación desarrollen modelos que sean “justos”, insistieron.

El diseño experimental y los modelos desarrollados en este trabajo constituyen una base de referencia para futuras investigaciones en la temática.

Agencia CyTA-Fundacion Leloir