domingo, 3 de diciembre de 2017

Supercomputación preparada para un aumento de velocidad masivo


La supercomputadora K de Japón es actualmente la décima más rápida en la lista Top500, 
pero primero por una medida alternativa. 
Crédito: Jiji Press / AFP / Getty

Los planes para construir máquinas 'exascale' están avanzando, pero todavía enfrentan grandes desafíos tecnológicos.

A fines de julio, los trabajadores del Laboratorio Nacional Oak Ridge en Tennessee comenzaron a llenar una sala cavernosa con las características de un gigante computacional: fila tras fila de unidades de computación prolijamente apiladas, unos 290 kilómetros de cable de fibra óptica y un sistema de refrigeración capaz de llevar el agua de una piscina.

El Departamento de Energía de los EE. UU. (DOE) espera que cuando esta máquina de 280 millones de dólares, llamada Summit, esté lista el año próximo, le permita a Estados Unidos recuperar un título que no ha tenido desde 2012, sede del superordenador más veloz de Estados Unidos. el mundo.

Summit está diseñado para funcionar a una velocidad máxima de 200 petaflops, capaz de atravesar hasta 200 millones de millones de "operaciones de punto flotante", un tipo de cálculo aritmético, cada segundo.

Eso podría hacer que Summit sea un 60% más rápido que el actual poseedor del récord mundial en China.

Pero para muchos científicos informáticos, la finalización de Summit es simplemente una vuelta de una carrera mucho más larga.

En todo el mundo, equipos de ingenieros y científicos apuntan al siguiente salto en la capacidad de procesamiento: computadoras 'exascale', capaces de funcionar a una asombrosa cantidad de 1000 petaflops o más.

Ya, cuatro equipos nacionales o internacionales, que trabajan con las industrias de computación en sus regiones, están presionando hacia este objetivo ambicioso.

China planea tener su primera máquina de exascale funcionando para 2020. Estados Unidos, a través del Proyecto de Computación Exascameral del DOE, apunta a construir al menos uno para el 2021.

Y se espera que la Unión Europea y Japón estén muy cerca.

Los científicos anticipan que las computadoras de exascala les permitirán resolver problemas actualmente difíciles en campos tan variados como la ciencia del clima, la energía renovable, la genómica, la geofísica y la inteligencia artificial.

Eso podría incluir el emparejamiento de modelos detallados de química de combustible y motores de combustión para identificar más rápidamente las mejoras que podrían reducir las emisiones de gases de efecto invernadero.

O podría permitir simulaciones del clima global a una resolución espacial de hasta un kilómetro.

Con el software adecuado en la mano, "habrá una gran cantidad de ciencia que podemos hacer y que ahora no podemos hacer", dice Ann Almgren, científica computacional del Laboratorio Nacional Lawrence Berkeley en California.

Pero alcanzar el régimen de exascala es un tremendo desafío tecnológico.

Los incrementos exponenciales en el rendimiento de la informática y la eficiencia energética que una vez acompañaron la ley de Moore ya no están garantizados, y se necesitan cambios agresivos a los componentes de la supercomputadora para seguir obteniendo ganancias.

Además, una supercomputadora que rinde bien en una prueba de velocidad no es necesariamente una que sobresalga en aplicaciones científicas.

El esfuerzo por llevar la informática de alto rendimiento al siguiente nivel está forzando una transformación en cómo se diseñan los supercomputadores y se mide su desempeño.

"Este es uno de los problemas más difíciles que he visto en mi carrera", dice Thomas Brettin, un científico informático en el Laboratorio Nacional Argonne en Illinois, que está trabajando en software médico para máquinas exascale.

Hardware acelerado

Tendencias más amplias en la industria de la computación están dando forma a la ruta para exascale computadoras.

Durante más de una década, los transistores han estado tan empaquetados que los chips informáticos no pueden ejecutarse a velocidades más rápidas.

Para evitar esto, las supercomputadoras actuales se apoyan fuertemente en el paralelismo, usando bancos de chips para crear máquinas con millones de unidades de procesamiento llamadas 'núcleos'.

Una supercomputadora puede hacerse más poderosa al juntar más de estas fichas.

Pero a medida que estas máquinas crecen, la administración de datos se convierte en un desafío.

Mover datos dentro y fuera del almacenamiento, e incluso dentro de núcleos, requiere mucha más energía que los cálculos mismos.

Según algunas estimaciones, hasta el 90% de la energía suministrada a una computadora de alto rendimiento se utiliza para el transporte de datos.

Eso ha llevado a algunas predicciones alarmantes.

En 2008, en un informe para la Agencia de Proyectos de Investigación Avanzada de Defensa de EE. UU.,

Un equipo encabezado por el científico informático Peter Kogge concluyó que una computadora exascale construida a partir de tecnologías previsibles necesitaría gigavatios de potencia, quizás de una planta nuclear dedicada (véase go.nature. com / 2hs3x6d).

"El poder es el problema número uno, dos, tres y cuatro con la computación exascale", dice Kogge, profesor de la Universidad de Notre Dame en Indiana.

En 2015, a la luz de las mejoras tecnológicas, Kogge redujo esta estimación a entre 180 y 425 megavatios.

Pero eso todavía es mucho más poder que el que usan los supercomputadores actuales; el sistema que lidera el ranking mundial actual, el Sunway TaihuLight de China, consume alrededor de 15 megavatios.

"El informe de Peter fue importante porque elevó la alarma", dice Rick Stevens, director de laboratorio asociado para informática, medioambiente y ciencias de la vida en Argonne.

Gracias en parte a las proyecciones de Kogge, dice, "ha habido mucha fermentación intelectual en torno a la reducción del poder".

Pero en los últimos años, dice Stevens, una serie de nuevas tecnologías ha ayudado a reducir el consumo de energía.

Un avance clave ha sido acercar la memoria a los núcleos informáticos para reducir la distancia que deben atravesar los datos.

Por razones similares, los ingenieros también han construido hacia arriba, acumulando matrices de memoria de alto rendimiento en lugar de distribuirlas en dos dimensiones.

Los supercomputadores también están incorporando cada vez más memoria flash, que no requiere energía para mantener los datos, como lo hacen algunos otros tipos de memoria ampliamente utilizados.

Y los diseñadores de circuitos han hecho posible apagar circuitos en chips cuando no están en uso, o cambiar su voltaje o frecuencia, para ahorrar energía.

Cambios más fundamentales en los procesadores también han marcado la diferencia.

Un desarrollo importante ha sido la adopción de versiones de propósito general de unidades de procesamiento de gráficos, o GPU, que se destacan por el tipo de procesamiento de números intensivo en datos que se necesita para aplicaciones como la representación de videojuegos.

Las computadoras que incorporan GPU, junto con unidades de procesamiento central (CPU) para dirigir el tráfico, son particularmente competentes en simulaciones físicas.

Desde el punto de vista de la programación, dice Katherine Yelick del Laboratorio Nacional Lawrence Berkeley, los cálculos necesarios para animar las olas del océano en una película como Finding Nemo no son dramáticamente diferentes de la simulación de la dinámica atmosférica en un modelo climático.

Se han construido otros supercomputadores con procesadores 'livianos', que descartan algunas capacidades a favor de la velocidad y la eficiencia energética.

China utilizó el esquema de peso ligero para construir Sunway TaihuLight.

La máquina ocupó el primer puesto con procesadores de fabricación propia poco después de que Estados Unidos impusiera un embargo comercial (en 2015) por la venta de chips a los centros de supercomputación en China.

Los procesadores ligeros Sunway no son radicalmente diferentes de las CPU de jardín, dice Depei Qian, un científico informático de la Universidad de Beihang en Beijing, que está ayudando a gestionar los esfuerzos exascale de China.

Los núcleos individuales están simplificados, con memoria local limitada y velocidades más bajas.

Pero con muchos trabajando juntos, la máquina en general es más rápida.

El objetivo de uso de electricidad del DOE para su primer sistema de exascale, llamado Aurora, es de 40 megavatios, con margen para un máximo absoluto de 60 megavatios.

El gigante informático Intel se ha encargado de fabricar los chips para la máquina, y la compañía de supercomputación Cray, con sede en Seattle, Washington, ha sido subcontratada para ensamblar el sistema completo. Los detalles sobre cómo se alcanzará ese objetivo aún no son públicos.

Pero Al Gara, arquitecto jefe de informática de alto rendimiento y exascale en Intel en Santa Clara, California, dice que la compañía está trabajando en una nueva plataforma, que incluye una nueva microarquitectura de chips, diseñada para minimizar el uso de energía.

Otros tienen objetivos más agresivos.

Qian dice que China apuntará a tan solo 30 megavatios para su primer sistema de exascale.

Con un plazo posterior de 2022 o 2023 y por lo tanto más tiempo para trabajar en su sistema, el proyecto europeo podría llegar a 10 megavatios, dice Jean-Philippe Nominé, especialista en informática de alto rendimiento en CEA, las energías alternativas francesas y Atomic. Comisión de Energía en Saclay cerca de París.

Pero la eficiencia energética es solo un factor: también está la cuestión del rendimiento.

El significado de "exascala" se ha convertido en una cuestión de búsqueda de almas para los científicos informáticos.

La definición más simple es una computadora que puede procesar un conjunto específico de ecuaciones de álgebra lineal a una tasa de 1 exaflops, equivalente a 1.000 petaflops.

Un grupo de investigadores ha utilizado este punto de referencia, llamado LINPACK, para clasificar los supercomputadores en la lista Top500 desde 1993.

LINPACK se ha convertido en una forma abreviada de rendimiento de supercomputadora, y desde junio de 2013, las supercomputadoras construidas en China han encabezado la lista (ver 'Saltos constantes').

Pero la velocidad no es todo, dice Jack Dongarra, un científico informático de la Universidad de Tennessee en Knoxville y fundador de la lista Top500.

"Todo el mundo quiere los derechos de fanfarronear", dice Dongarra.

Pero compara las puntuaciones máximas de los supercomputadores con la velocidad más alta en el velocímetro de un automóvil.

Aunque la capacidad de golpear 300 kilómetros por hora puede parecer impresionante, lo que realmente le da valor a la mayoría de los autos es cómo se desempeñan durante las unidades diarias en el límite de velocidad.



De manera similar, la velocidad de una computadora al pasar a través de operaciones específicas de álgebra lineal no necesariamente refleja su capacidad para predecir actividad de drogas, entrenar redes neuronales o realizar simulaciones complejas.

Todos plantean diferentes demandas de potencia de procesamiento, sobre qué tipos de cálculos se pueden abordar en paralelo y sobre la cantidad de datos que se deben mover.

El Top500 "no mide qué tan bien funcionará el hardware en aplicaciones reales", dice Barbara Helland, directora asociada de investigación científica avanzada en la Oficina de Ciencia del DOE.

A pesar de eso, los mejores supercomputadores de hoy han sido "diseñados para ofrecer el rendimiento más alto de LINPACK", dice Shekhar Borkar, un científico informático que se retiró de Intel el año pasado.

Una aplicación científica del mundo real podría usar el 10% de esa velocidad, pero solo 1.5-3% es más típico, dice Borkar.

Él espera que esta limitación persista en la exascala.

En los Estados Unidos, la creciente preocupación por esta desconexión entre las velocidades máximas y la utilidad ha llevado a una definición diferente, impulsada por las aplicaciones, de la computación exascal.

El DOE busca que sus primeras computadoras exascale funcionen unas 50 veces mejor que el sistema actual más rápido de los Estados Unidos: el 17.6-petaflops (medido por LINPACK) Titan.

Eso podría significar, por ejemplo, seleccionar 50 veces más materiales solares potenciales en un momento dado, o modelar el clima global con un factor de 50 mayor resolución espacial.

Para lograr estos logros, el DOE está trabajando con cientos de investigadores de la academia, el gobierno y la industria.

Ha creado 25 equipos, cada uno encargado de diseñar un software que pueda explotar una máquina de exascala para resolver una cuestión científica o de ingeniería específica, como el diseño del motor. Stevens dice que la métrica principal de éxito para los supercomputadores de exascala de EE. UU. Será una "media geométrica" ​​de su rendimiento en las 25 aplicaciones.

En el desarrollo de tales computadoras, la agencia también está tratando de mejorar la colaboración entre las personas que usan los supercomputadores, los que escriben el software y las empresas de semiconductores responsables de la construcción de hardware.

Con el proyecto exascale del DOE, "estamos uniendo a estas comunidades.

Podemos forzar esa convergencia ", dice Doug Kothe, científico informático del Laboratorio Nacional de Oak Ridge que lidera el proyecto.

Esta estrategia de unir usuarios y constructores, llamada codiseño, no es nueva.

Pero, dice Kothe, "no se ha hecho de una manera tan amplia y profunda como se está haciendo ahora".

"He estado en estos 20 años.

Esta es la primera vez que veo este tipo de coordinación y apoyo ", dice Thuc Hoang, gerente de programa de investigación y operaciones de supercomputación en la Administración Nacional de Seguridad Nuclear (NNSA) en Washington DC.

Los Estados Unidos no están solos fomentando colaboraciones entre científicos e ingenieros en estos campos dispares.

El programa de supercomputación de China, que ha sido criticado por priorizar la velocidad bruta sobre la ciencia, también utiliza el codiseño en sus esfuerzos de exascale, con un enfoque en 15 aplicaciones de software.

"Tenemos que conectar el desarrollo de hardware y software con los científicos del dominio", dice Qian.

Prueba del futuro

Pero a Borkar y otros observadores les preocupa que los primeros sistemas de exascala en China y Estados Unidos sean máquinas de riesgo que no funcionarán bien para aplicaciones reales.

"Ofrecer un mayor rendimiento de la aplicación significa diseñar las máquinas de manera diferente y más realista", dice Borkar.

Eso, agrega, "definitivamente comprometería el rendimiento de LINPACK, haciéndolos quedar mal desde [un] punto de vista de comercialización".

(Borkar señala que, aunque todavía consulta al gobierno de EE. UU. Y a empresas privadas, estos puntos de vista son suyos).

Borkar dice que desea que los Estados Unidos, en particular, se hayan aferrado a los planes que se forjaron por primera vez en 2008, que habrían utilizado el cambio exascale como una oportunidad para repensar la informática de manera más radical.

"Los enfoques evolutivos fracasarán", dice.

"Se necesita un enfoque revolucionario".

Stevens dice que se están produciendo grandes cambios a puertas cerradas.

El DOE completará su contrato oficial con Intel alrededor de o después de Navidad, él espera.

Hasta entonces, él dice,

"No puedo decirte lo que estamos haciendo, pero es muy innovador".

Pero hay límites a la agresiva supercomputación que se puede impulsar.

Con cada nueva generación de superordenadores, los programadores deben construir sobre el software que tienen.

"Tenemos código heredado", dice Hoang.

El programa que ella opera en la NNSA depende de supercomputadoras para mantener el arsenal de los Estados Unidos en cumplimiento de la prohibición de probar armas nucleares.

"Debido a lo que mi oficina es responsable, no podemos simplemente dejar caer viejos códigos que nos llevó una década para desarrollar y validar".

Las restricciones presupuestarias también han dictado planes de exascala de los Estados Unidos.

Aurora tenía la intención de ser una máquina de petaflops de 180 peones, y comenzar a operar en Argonne en 2018. Pero la agencia no tenía suficiente dinero para comenzar a poner en servicio hardware exascale.

En lugar de emitir una solicitud pública de propuestas, el DOE cambió el contrato de Intel y Cray para Aurora a una máquina exascale, que se suministrará para el 2021.

Stevens confía en que tienen la tecnología en proceso para entregarla.

Mientras tanto, otros programas exascale están progresando.

Todavía en el objetivo para llegar a la exascala primero, en 2020, es China.

El país está evaluando tres prototipos.

Dos, que se construyen en las instalaciones de supercomputación que albergan las máquinas más rápidas de ese país, probablemente sean variaciones de la arquitectura liviana en la que el país ha sido pionero, dice Dongarra.

El tercero está siendo construido por Sugon, una empresa de computación de Pekín que tiene una relación con el desarrollador de chips de alto rendimiento AMD, y por lo tanto tiene acceso a las microarquitecturas de los caballos de batalla de AMD.

Esta máquina, piensa Dongarra, probablemente tendrá nuevas características y se diferenciará de los pesos ligeros.

Al mismo tiempo, los investigadores están considerando qué se necesitará para superar la exascala y lograr supercomputadores aún más rápidos y de mejor rendimiento en las próximas décadas.

Producir esa próxima generación de supercomputadores podría significar adoptar tecnologías que todavía están en sus primeras etapas: circuitos neuromórficos, tal vez, que se basan en el funcionamiento de las neuronas en el cerebro o la computación cuántica.

Pero la principal preocupación de muchos investigadores es asegurarse de que puedan entregar los sistemas prometidos de exascala, y que las aplicaciones científicas desarrolladas para ellos funcionen en el momento en que se enciendan.

"Haciendo que [exascale] funcione", dice Helland.

"Eso es lo que me mantiene despierto por la noche".

doi: 10.1038 / d41586-017-07523-y

Katherine Bourzac
nature.com


IA - Los líderes tecnológicos auguran una revolución social y económica gracias a la inteligencia artificial



Los líderes de los principales gigantes tecnológicos a nivel mundial como Apple, Alibaba o Google presagian una revolución económica y social con el desarrollo de la inteligencia artificial (IA) y su uso a través de internet.

Reunidos en la apertura de la cuarta edición de la Conferencia Mundial sobre Internet, los máximos ejecutivos y gurús de la tecnología global ensalzaron las inmensas posibilidades que se abren, pero advirtieron también de importantes riesgos para la seguridad y la privacidad y pidieron una mayor cooperación internacional.

La presencia en los debates de Tim Cook (Apple), Sundar Pachai (Google) o Chuck Robbins (Cisco) junto a los líderes de gigantes chinos como Jack Ma (Alibaba), Pony Ma (Tencent), Robin Lee (Baidu) o Lei Jun (Xiaomi), supuso un tanto político para el Gobierno chino, ya que las tres primeras ediciones no habían atraído a figuras de empresas o Gobiernos occidentales.

"Nunca antes el futuro había ofrecido tantas posibilidades", con tecnologías "que pueden cambiar el mundo", afirmó Cook, consejero delegado de Apple, quien consideró imprescindible "inculcar" humanidad a los futuros avances para asegurar que los efectos sean positivos.

"No me preocupa que las máquinas piensen como las personas, me preocupa que haya personas que piensen como máquinas", sentenció.

Jack Ma, fundador e inspirador del gigante del comercio electrónico Alibaba, habló claramente de una nueva "revolución" que cambiará cada aspecto de la vida.

Ma recalcó que "la cadena industrial global experimentará cambios profundos" con las máquinas asumiendo "la mayoría" de los trabajos repetitivos, aunque habrá más empleos creativos.

Hay una "gran revolución en marcha", subrayó Pachai, consejero delegado de Google, quien considera de importancia crítica la formación digital continuada en las carreras profesionales.

"La automatización y la inteligencia artificial cambiarán la naturaleza del empleo", afirmó, aunque coincidió con Jack Ma en que habrá nuevos tipos de puestos de trabajo.

Robert Kahn, que junto a Vint Cerf fue uno de los creadores de internet, afirmó que "nadie puede prever" los servicios y productos que se van a poder generar, pero sí avanzó que se va a "desencadenar una nueva generación de creatividad e innovación, igual que hizo la internet original".

Para Chuck Robbins, consejero delegado de Cisco Systems, el mayor fabricante mundial de tecnología de redes informáticas, será necesaria "una nueva era de cooperación internacional" debido a la "complejidad de las tecnologías".

Lei Jun, fundador y principal responsable de Xiaomi (el innovador fabricante de teléfonos móviles y aparatos domésticos conectados a internet), señaló que la clave estará en la "convergencia" de todos los sectores tecnológicos propiciada por el desarrollo de las comunicaciones móviles, gracias a la llegada del estándar 5G, que comenzará a operar pronto en China.

Pero las posibilidades técnicas vendrán acompañadas de peligros para la seguridad y la privacidad. El exprimer ministro francés Dominique de Villepin advirtió que hacen falta "nuevas formas" de regulación del ciberespacio, "un lugar de riesgo".

El ruso Yevgeny Kaspersky, fundador de la firma de seguridad informática Kaspersky Labs, describió un panorama que puede ser "atemorizador" a causa de "cibercriminales altamente preparados", lo que también requiere en este aspecto una mayor cooperación.

Esta cuarta Conferencia Mundial sobre Internet, que se celebra como las anteriores en la histórica ciudad de Wuzhen (este), concluirá el martes y tiene lugar mientras las autoridades chinas están incrementando su censura sobre la red a través de la llamada "gran muralla virtual".

En los últimos meses, se ha bloqueado el servicio de mensajería WhatsApp mientras que los servicios VPN que permiten sortear esa censura están bajo el acoso de las autoridades.

Además, Apple ha retirado de su catálogo de aplicaciones en China tanto a los VPN como al sistema de conversación instantánea Skype.

De hecho, la presencia de Sundar Pichai en la conferencia llamó la atención porque los servicios de la empresa que dirige (Google) siguen bloqueados en el gigante asiático.


EFECOM

eleconomista.es


lunes, 27 de noviembre de 2017

Las tecnológicas chinas ganan terreno y amenazan a las de EE.UU.



Las grandes empresas estadounidenses del sector son aún líderes mundiales, pero sus rivales avanzan a paso acelerado

Hace sesenta años, Rusia conmocionó al mundo con el lanzamiento del satélite Sputnik. Donald Trump tenía 11 años.

Esa exhibición de superioridad llevo a EEUU. a superar lo que había gastado la URSS, y ese impulso produjo la Internet y el sistema de posicionamiento global (GPS, por sus siglas en inglés).

El actual "momento Sputnik", en cambio, parece haber eludido al presidente estadounidense de 71 años.

China planea dominar abiertamente la inteligencia artificial (IA) en el año 2030.

Trump parece estar demasiado ocupado tuiteando como para haberlo notado.

Sin embargo, las ambiciones de IA de China representan una mayor amenaza para la seguridad estadounidense a largo plazo que el alcance nuclear de Corea del Norte.

Es probable que pueda contener a Pyongyang con una garantía de aniquilación.

Pero no existe una barrera obvia que obstaculice el objetivo de China de superar a Norteamérica.

"El que se convierta en el líder de la IA, se convertirá en el gobernante del mundo", dijo recientemente el presidente de Rusia, Vladimir Putin.

Su observación tuvo lugar después de que China anunciara que intentará ponerse a la par de EE.UU. antes de 2020, superarlo en 2025 y dominar el campo de la IA mundial cinco años más tarde.

Los principales expertos en tecnología estadounidenses creen que las ambiciones de China son verosímiles.

"Simplemente detenete a pensar un segundo", señaló recientemente Eric Schmidt, presidente ejecutivo de Alphabet.

A lo que agregó: "El gobierno chino dijo eso".

A diferencia del Sputnik, no hay una sola acción china que pueda comunicar la magnitud de la amenaza.

Pero las señales de que hay una tendencia son extremas para quienes quieran notarlas.

El presidente Xi Jinping ha anunciado la superioridad de la IA china como objetivo estratégico. Trump no ha dicho nada sobre las ambiciones de Norteamérica.

Pero su propuesta de presupuesto lo dice todo.

Él quiere recortar 11% el financiamiento público estadounidense de los "sistemas inteligentes" y casi 20% el gasto general en investigación y desarrollo (I+D).

El presupuesto de la NASA también se reduciría.

Del mismo modo, Trump quiere reducir a la mitad el ingreso de inmigrantes legales, lo cual afectaría la capacidad de EE.UU. de contratar a los investigadores más brillantes.

Tendría mucho más sentido ofrecerles un permiso de residencia.

Los estudiantes chinos a menudo ganan los concursos de codificación de Google.

"Si tienes algún tipo de prejuicio. . . de que, de alguna manera, su sistema educativo no va a producir el tipo de personas de las que estoy hablando, estás equivocado", comentó Schmidt.

¿Es posible que Norteamérica pueda prevalecer a pesar de la miopía de Trump?

Es bastante posible.

Las grandes compañías tecnológicas estadounidenses continúan siendo líderes mundiales. Pero la brecha se está reduciendo. China tiene dos ventajas clave.

La primera es que, en comparación con EE.UU., una mayor parte de su economía está online.

El 40% del comercio electrónico global se lleva a cabo dentro de China, principalmente a través de Alibaba, Tencent y Baidu, las tres grandes compañías tecnológicas chinas.

Su capacidad para manipular enormes cantidades de datos enfrenta escasos límites legales.

Del mismo modo, su escala es abrumadora.

Hace unos días, Tencent superó a Facebook al superar la capitalización bursátil de u$s 500.000 millones.

En algunas áreas, como en la de pagos online, el reconocimiento visual y el software de voz, China ya le lleva la delantera a sus rivales de Silicon Valley.

Y se está poniendo a la par rápidamente con la conducción autónoma. Casi todas estas tecnologías tienen aplicación militar. Pensemos en una guerra con un enjambre de drones.

La segunda ventaja es que el sector privado de China está unido al gobierno.

Eso podría parecerles una desventaja a los libertarios. Pero la gente tiene mala memoria.

Así como Dwight Eisenhower financió el ascenso de Silicon Valley, Beijing está subsidiando el dominio chino de la tecnología de aprendizaje automático profundo.

Además, su sector digital es cada vez más autosuficiente.

A excepción de los microprocesadores, campo en el que EE.UU. sigue liderando, la mayoría de las capacidades de China se desarrollan localmente.

El país es cada vez menos vulnerable a las interrupciones en la cadena de suministro global. Si surgiera una guerra comercial global, China podría seguir adelante, sin obstáculos, con su desarrollo de la inteligencia artificial.

Allí se encuentra la razón por la que China ha bloqueado a Google, a Facebook, a Twitter y a otras compañías tecnológicas.

Lo mismo se aplica a la tecnología espacial de China.

El fin de semana pasado, John Hyten, el general a cargo de las armas nucleares estadounidenses, causó revuelo cuando declaró que él rechazaría una orden "ilegal" del presidente.

Pero él simplemente estaba reiterando lo estipulado en los reglamentos.

Más inquietantes fueron sus comentarios acerca de los enormes avances chinos en materia de tecnología bélica del siglo XXI.

Cuando alguien sugirió que la amenaza espacial de China era tan exagerada como la infame "brecha de los misiles" con los soviéticos, el general.

Hyten declaró: "Lo que veo son acciones muy agresivas, tanto chinas como rusas, por construir una estructura de fuerza que podría enfrentarse a todas nuestras capacidades espaciales".

Para averiguar las prioridades de una nación, hay que mirar su presupuesto.

La ambición principal de Trump es reducir al 20% el impuesto a las sociedades estadounidense.

Durante la época del presidente Eisenhower, la alícuota del impuesto marginal estaba por encima del 90%.

Eso no impidió que la inventiva pública y privada de Estados Unidos aventajara a los soviéticos. Actualmente, Norteamérica es el líder tecnológico mundial.

Pero, con Trump en la cabina de mando, puede que mañana sea muy diferente.

por  EDWARD LUCE
cronista.com

lunes, 9 de octubre de 2017

Estado del comercio, la tecnología y el empleo mundial



El reporte de la OMC pone énfasis en el rol de las nuevas tecnologías y sus impactos.

El nuevo informe de la Organización Mundial del Comercio: “World Trade Report 2017” , examina de qué modo la tecnología, el empleo y el comercio funcionan sinérgicamente en la economía global.

En el informe se señala que el “progreso económico continuo depende de la capacidad de las sociedades para mantenerse abiertas al comercio y al progreso tecnológico, así como de su capacidad para ajustarse, adaptarse y fomentar una mayor inclusión”.

En esta línea centra el debate acerca de los efectos del progreso tecnológico para la productividad y el bienestar.

El comercio como motor y no como problema

Este informe no encuentra ninguna correlación entre la apertura comercial y el desempleo, o entre la apertura comercial y la desigualdad.

Los estudios sugieren que el comercio impulsa el empleo y, en particular, la participación de las mujeres en la fuerza de trabajo.

En el debate actual acerca del impacto de la difusión de nuevas tecnologías con una mayor potencia de automatización y, por tanto, generando tensiones en el empleo, el estudio de la OMC muestra que, en este proceso, el comercio no es una variable causal.

La reducción de empleos en la industria manufacturera y en la disminución del número de empleos con habilidades intermedias en relación con los empleos de baja y alta cualificación en los países desarrollados (“hollowing out”) es consecuencia de las nuevas tendencias tecnológicas, no de la apertura económica.

La apertura contribuye a una asignación más eficiente de recursos en las actividades más productivas y aumenta el bienestar de un país.

Mirando hacia el futuro

Las perspectivas de una mayor automatización sugieren que la tecnología puede tener un impacto aún mayor en el futuro de los puestos de trabajo.

Si bien, los autores afirman que es difícil sacar conclusiones firmes sobre lo que esto podría significar para los mercados de trabajo, afirman que el “progreso tecnológico probablemente tendrá un impacto perjudicial, haciendo que algunas habilidades sean obsoletas, pero mejorando otras y conduciendo al desarrollo de nuevas habilidades y nuevos empleos.”

Por lo tanto, los desafíos recaen nuevamente en el empoderamiento y la solidaridad social, al tiempo que observa que el mayor uso de robots e inteligencia artificial exige una revolución en la educación y la formación.

“Las habilidades que ya tenemos – la empatía, la compasión, la lectura mutua, la formación de los objetivos de cada uno al influir en el otro – son las habilidades indispensables para el futuro”, observan.

Por esto se indica equipar a los trabajadores de educación y la formación profesional.

WTO, 2017. World Trade Report 2017.

conexionintal.iadb.org


miércoles, 20 de septiembre de 2017

Un encuentro para conocer los usos de la tecnología para el bienestar humano



Participarán expositores de reconocida trayectoria, emprendedores en el área tecnológica, expertos en salud mental y representantes ministeriales.

La conferencia “Bienestar y tecnología: tecnologías que nos hacen bien”, organizada por el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET), el Ministerio de Ciencia, Tecnología e Innovación Productiva de la Nación (MINCyT) y el Ministerio de Desarrollo Social, se llevará a cabo el 3 de octubre en el Auditorio del Centro Cultural de la Ciencia (C3) del Polo Científico Tecnológico.

El objetivo del evento es brindar información acerca de los usos de las Tecnologías de la Información y Comunicación (TICs) para el bienestar humano y visibilizar los desarrollos e investigaciones realizadas en el país sobre esta temática.

Las TIC son un conjunto de recursos que nos permiten manejar información a través de las redes (telefonía, Internet y Apps asociadas a éstas) y forman parte de la cotidianidad en todos los aspectos de nuestra vida.

El campo de la salud y el bienestar ha abierto sus puertas a la incorporación de estos recursos tecnológicos que no buscan reemplazar los abordajes tradicionales, sino complementarlos y potenciar sus efectos.

Aplicaciones de realidad virtual o aumentada, dispositivos de biofeedback, videojuegos, intervenciones terapéuticas digitalizadas y aplicaciones móviles, son algunos de los nuevos recursos con los que cuenta la sociedad para optimizar sus intervenciones.

Muchas veces el uso de las tecnologías a nivel social se percibe como una imposición de efectos negativos, un mal necesario de nuestros tiempos, en los cuales la comodidad y la eficiencia nos empujan a un uso descontrolado de lo virtual en desmedro de una realidad benéfica.

Sin embargo, el beneficio de estas nuevas tecnologías trasciende el ámbito de la salud y el bienestar ya que implican un desarrollo con claro impacto económico y productivo que repercute en una mejora en la calidad de vida poblacional.

A su vez, las nuevas tecnologías posibilitan el acceso a una mayor cantidad de población, especialmente a grupos vulnerables.

El evento cuenta con el apoyo UMEWIN, Proyecto DANE, Laboratorio LIPSTIC, StarmeUp, Instituto de Neurociencia Cognitiva y Traslacional (INCYT, CONICET-Fundación INECO-Universidad Favaloro), Centro Privado de Psicoterapias, Asociación para el Avance de la Ciencia Psicológica y Fundación AIGLÉ.

“Bienestar y tecnología: tecnologías que nos hacen bien”

Fecha: 3 de octubre de 17 a 20 hs.

Acreditación: 16:30 hs

Lugar: Centro Cultural de la Ciencia – Godoy Cruz 2270 CABA

La entrada al evento es libre y gratuita pero requiere inscripción previa.

Formulario de inscripción

Programa

16:30 – Acreditación

17:00 – Palabras de bienvenida
Malena Braun. Universidad de Belgrano, Co-directora de Lipstic.

17:15 – Apertura
Jorge Aguado. Secretario de Planeamiento y Políticas del Ministerio de Ciencia, Tecnología e Innovación Productiva (MinCyT).

Parte 1 – Moderadora: Malena Braun

17:30 “Tecnologías que nos hacen bien”
Andres Roussos. Investigador del CONICET. Co-director de Lipstic que tiene como misión desarrollar productos tecnológicos que apunten a la innovación en salud mental utilizando las TIC como herramienta de trabajo.

17:45 “El futuro de las organizaciones. Métricas e insights encontrados en más de un millón de reconocimientos”
Manuel Gomez D´hers. Customer Experience Manager de StarmeUp, dentro del área de Future of Organizations en Globant.

18:00 “Tecnología para incluir (Proyecto DANE)”
Pablo Fiuza. CEO en Qservices SRL y Coordinador General en Proyecto DANE.

Coffee Break

Parte 2 – Moderadora: Malena Braun

18:30 – (Título a confirmar)
Hugo Hirsch. Socio Director del Centro Privado de Psicoterapias.

18:45 – “Umewin y el uso seguro de la Inteligencia Artificial”
Pablo Franzetti. Fundador y CEO de Umewin, start-up.
Gonzalo Aizpun. CTO de Umewin.

19:00 – “El futuro de la innovación basada en neurociencias cognitivas”
Agustin Ibañez. Investigador del CONICET y director del Instituto de Neurociencia Cognitiva y Traslacional (INCYT, CONICET-INECO-FAVALORO)

19:15 – Preguntas


CONICET


lunes, 4 de septiembre de 2017

Putin asegura que quien domine la IA dominará al mundo


Ni el tío Putin haría una jugada tan sucia

Putin es el último gran actor en entrar al debate sobre la inteligencia artificial, dejando claros pros y contras.

En su línea, Elon Musk le ha respondido alertando sobre una posible Tercera Guerra Mundial.

Vladimir Putin, actual presidente de la Federación Rusa, ha hecho unas declaraciones a unos estudiantes en las que ha sentenciado: "el país que lidere la inteligencia artificial será el que lidere el mundo", tal y como recoge Russia Today.

Putin parece apasionado por la inteligencia artificial, y afirma que "es el futuro, no sólo para Rusia, sino para toda la humanidad".

Se muestra ambicioso y a la vez cauto declarando que "llega con oportunidades colosales, pero también junto a amenazas difíciles de predecir".

Profundizando, Putin matizó que "no le gustaría que nadie monopolizara el campo. Si nosotros llegamos a ser líderes, compartiremos el conocimiento tal y como hacemos a día de hoy con nuestras tecnologías nucleares".

En un momento en el que la geopolítica atraviesa una situación tan complicada, cuesta creer las palabras del presidente ruso, pues todos sus movimientos frente a sus grandes rivales en el mundo se están basando en la pugna.

Además, estas declaraciones no llegan en un momento cualquiera, pues desde hace meses, mentes de la industria tecnológica tan importantes como Mark Zuckerberg y Elon Musk se encuentran inmersos en un debate sobre el control de la inteligencia artificial y sus posibles implicaciones futuras.

Zuckerberg defiende que no supone un problema, mientras que el CEO de SpaceX y Tesla, que tiene un perfil más futurista, sorprendió a todos afirmando que las máquinas pueden llegar a controlarnos.

Desde ese punto de vista, Musk ha respondido a Putin afirmando que "en su opinión, la competición por la superioridad a escala nacional probablemente sea la causa de la Tercera Guerra Mundial. China, Rusia, y pronto todos los países fuertes en informática".

En respuestas a algunos comentarios, Musk aclara que "si bien podría no ser iniciada por los gobiernos, sí por uno de los responsables de la inteligencia artificial, si decide que un ataque preventivo es el camino más probable a la victoria".

Si reflexionamos sobre esto a día de hoy, cuesta pensar en una inteligencia con un nivel de poder similar al descrito por los dos actores implicados.

Sin embargo, ambos coinciden: la inteligencia artificial será el mayor arma del futuro.

Un futuro que podría estar muy lejos, pero que con la inversión y el desarrollo adecuado llegará.

Es por ello que Musk y un grupo de 116 expertos en la materia han pedido a la ONU que regule con urgencia las armas autónomas.

Por Antonio Sabán
hipertextual.com

domingo, 28 de mayo de 2017

AI for Good Global Summit' is Two Weeks Away


The AI for Good Summit is fast approaching—and you're not going to want to miss this historic gathering.

The goal of the summit is to propose strategies for the development of AI applications and systems to help address the United Nations Sustainable Development Goals with focus on four central themes:

- Privacy, Ethics and Societal Challenges
- Common Good and Sustainable Living
- Capacity Building & Poverty Reduction
-Investment, Economic Aspects and Designing the Future

These strategies will ultimately feed into a comprehensive set of ‘AI guidelines and strategies’ addressing ethical, technical, standardization, societal and policy issues related to AI.



The event will be broadcast globally (in six languages) and has attracted participants from all corners of the planet including experts from organizations like ACM, IEEE, IFIP, CSTA and Digital Africa.



Director of Stanford Artificial Intelligence Lab (SAIL), and Chief Scientist of AI at Google Cloud and Assistant Director-General for Communication and Information at UNESCO Added to Distinguished List of Speakers

We are pleased to announce a list of over 60 prominent speakers in AI and Social Good from to lend their expert perspectives and drive the collaborative efforts at the AI for Good Global Summit.


xprize.org