viernes, 22 de noviembre de 2024

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

 

 Células de cáncer colorrectal resistentes a terapia teñidas para visualizar el núcleo, y el citoesqueleto

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

La investigación, con participación del CONICET, descubrió que GTPasa es la responsable de que se genere resistencia al tratamiento más utilizado contra esta patología.

Investigadores del Instituto de Inmunología Clínica y Experimental de Rosario (IDICER, CONICET-UNR) y del Centro de Investigación del Cáncer Rosario detectaron una proteína responsable de generar resistencia al 5-fluorouracilo -5 FU-, la droga más usada en Argentina contra el cáncer de colon. 

El hallazgo fue publicado en la revista Cells, un medio de vanguardia en avances de oncología y biomedicina, y abre la puerta para desarrollar terapias contra este cáncer más efectivas y con menos efectos secundarios para los pacientes.

Mauricio Menacho Márquez, investigador del CONICET en el IDICER y uno de los autores de la publicación, explicó que el cáncer de colon es uno de los más diagnosticados, no sólo en el país sino también a nivel mundial, y que junto con el cáncer de mama en mujeres y el de pulmón, es de los tres tipos tumorales más frecuentes; con la particularidad de que, si se lo detecta a tiempo, las terapias son muy efectivas. 

“Si bien los tumores responden bien inicialmente a tratamientos basados en 5-fluorouracilo, muchos tipos tumorales se vuelven resistentes a la terapia y esta deja de funcionar”, explica.

Al respecto el científico y también autor del artículo, Luciano Anselmino, detalla que hay personas con mayor predisposición a desarrollar resistencia que otras. 

El problema, apunta, es que las quimioterapias que se usan actualmente suelen ser también citotóxicas, es decir que “cuando uno está sometido a una quimioterapia, ese fármaco no sólo afecta al tumor sino que también afecta a otros tejidos del cuerpo”.  

Es lo que se conoce como efectos secundarios: caída del cabello, debilitamiento de las uñas, descamación de la piel, entre otros.

Anselmino cuenta que esos efectos son los que evitan que los médicos puedan incrementar las dosis. 

“Lo que estamos buscando nosotros son compuestos que tengan pocos efectos secundarios y que de alguna forma puedan resensibilizar a los pacientes a las terapias actuales”, señala.

“No es como la resistencia bacteriana, que por el uso indiscriminado de antibióticos aparecen cepas resistentes, sino que alguien con cáncer colorrectal puede venir respondiendo bien inicialmente porque inicialmente no es resistente, incluso el tumor puede ir desapareciendo, pero al tiempo se empiezan a seleccionar clones resistentes, clones que no responden, clones que generaron mutaciones adicionales y eso hace que el tumor vuelva a crecer y que ya no responda de la manera que respondía a la terapia y se vuelva resistente al tratamiento”, añade Menacho Márquez.

Nahuel Laluce (Izq.), Florencia Malizia, Aylén Avila, Mauricio Menacho Márquez, Lucia Zanotti, Macarena Mamberto y Luciano Anselmino. Foto: gentileza investigadores

Los orígenes del estudio y sus aportes    

Luciano Anselmino y su grupo venían estudiando fármacos con potencial para sensibilizar a algunos pacientes. 

En esta oportunidad, buscaron objetivos terapéuticos, es decir, objetivos para nuevos tratamientos o para tratamientos alternativos que resensibilizaran a pacientes que ya no respondieran a terapias con 5-FU. 

“Lo que hicimos fue aprovechar datos biológicos que se generan constantemente a partir de los avances tecnológicos de las últimas décadas”, dice.

Según indica el científico, cada vez hay más datos de secuenciación genómica -de los ADN de las personas-, y esos datos son públicos para la comunidad científica. 

“Nosotros aprovechamos esta información y desarrollamos un flujo de trabajo, una manera de organizarla que nos permita detectar potenciales objetivos, potenciales proteínas”. 

Para hacerlo, en el equipo científico se formaron en Inteligencia Artificial -IA- aplicada al área salud para desarrollar programas y algoritmos que puedan ir aprendiendo a clasificar a los pacientes entre “respondedores” y “no respondedores” a las terapias a las que estaban sometidos. 

Luego de hacer una intensa búsqueda y un análisis informático con IA durante un tiempo prolongado, aparecieron los objetivos claves en el desarrollo de resistencia en pacientes con cáncer colorrectal.

Menacho Márquez recuerda que pusieron el foco en esas proteínas para ver si existían drogas que apuntaran hacia ellas. 

Y que comenzaron a colaborar colegas de la Universidad Nacional de Quilmes, que les enviaron un compuesto inhibidor de esas proteínas que se llaman GTPasas pequeñas, en particular Rac1, y con un colaborador de Francia, que también había desarrollado un inhibidor de esas proteínas.

Anselmino agrega que el encuentro con estos otros grupos de investigación fue interesante ya que vieron que esa misma vía -GTPasas-, estaba involucrada en el desarrollo de resistencia en otros tipos de cáncer. 

“Eso nos llamó mucho la atención y nos impulsó a pensar que estos resultados realmente eran importantes”, dice, “por eso empezamos a probar en diferentes modelos, sobre células, ratones y distintos compuestos que inhibían de alguna manera esa proteína”. 

Allí encontraron el compuesto 1A-116 que, en ratones, frenaba el crecimiento de tumores resistentes. Sobre los experimentos de laboratorio, recuerda que generaban tumores resistentes exponiendo células a dosis crecientes de 5-FU y las células podían crecer a dosis muy altas. 

Sobre esas células probaban compuestos para ver si evitaban el crecimiento de las resistentes.

“La idea principal ahora, una vez encontrada esta proteína que ya vimos que es importante en la resistencia a los tratamientos, es probar estos compuestos en otros modelos, en otros tipos de cáncer para ver cómo responden”, comenta Anselmino.

Menacho Márquez resalta que parte de la investigación demostró una firma genética asociada al desarrollo de resistencias, muy clara en cáncer colorrectal y que, aparentemente, sería compartida por otros tipos tumorales en respuesta a otros tratamientos. 

“Las mismas proteínas que están confiriendo resistencia en cáncer colorrectal a tratamientos basados en 5-FU, también estarían implicadas en conferir resistencia en otros tipos tumorales, a otras drogas. Incluso, en radioterapias, por ejemplo en cáncer de cabeza y cuello o a terapias con inhibidores pequeños en cáncer de pulmón”, señala. 

“Tenemos reuniones con colegas de Francia porque están desarrollando compuestos inhibidores de estas proteínas y la idea es seguir con modelos pre clínicos para demostrar más fehacientemente la relevancia de esta vía y así pasar a ensayos clínicos, ya con personas”.

Por su parte Anselmino detalla: “Lo que están haciendo en Francia es probar un compuesto que es distinto al que nosotros probamos pero que ataca a la misma proteína”. 

De este modo, podrán ver cuál es el compuesto con mejor resultado y menos efectos secundarios. 

Estas características, asevera el científico, son las que necesitan para desarrollar una quimioterapia que no sólo cuide el avance del tumor, sino que sea paliativa y gentil con el paciente.

Referencia bibliográfica:

Anselmino, L. E., Malizia, F., Avila, A., Cesatti Laluce, N., Mamberto, M., Zanotti, L. C., … & Menacho Márquez, M. (2024). Overcoming Therapy Resistance in Colorectal Cancer: Targeting the Rac1 Signaling Pathway as a Potential Therapeutic Approach. Cells, 13(21), 1776.

DOI: https://doi.org/10.3390/cells13211776

Por Andrea G. Guereta – Comunicación Institucional CONICET Rosario

CONICET

inngeniar


jueves, 14 de noviembre de 2024

Transformación digital en el 9° Congreso de Tecnología y Justicia

 

 Expusimos las políticas nacionales de transformación digital en el 9° Congreso de Tecnología y Justicia

El secretario de Innovación, Ciencia y Tecnología de la Nación, Darío Genua, encabezó en Mendoza la inauguración de la segunda jornada del Congreso y firmó un acta de acuerdo con la Suprema Corte de Justicia provincial para promover y desarrollar políticas de transformación digital y alfabetización digital.

La Secretaría de Innovación, Ciencia y Tecnología estuvo presente en el 9° Congreso de Tecnología y Justicia en Mendoza, una oportunidad para que profesionales del derecho, la tecnología y la innovación conozcan las últimas tendencias en la digitalización del sistema de Justicia.

El evento fue organizado por el Instituto Federal de Innovación, Tecnología y Justicia (IFITEJ) de la Junta Federal de Cortes y Superiores Tribunales de Justicia (Ju.Fe.Jus.). 

Participaron representantes de empresas de tecnología y telecomunicaciones, y del sector público nacionales e internacionales. 

Se abordaron temas como la aplicación de la Inteligencia Artificialla transformación digital, la protección de datos y la gobernanza digital apuntando como eje a la Innovación Judicial al Servicio de la Ciudadanía.

En la apertura de la segunda jornada del Congreso, el secretario de Innovación, Ciencia y Tecnología, Darío Genua, repasó el plan que está llevando adelante la cartera de Innovación, Ciencia y Tecnología en materia de transformación digital: implementación de Inteligencia Artificial en los actos de Gobierno, actualización y reingeniería integral de aplicaciones y herramientas digitales que brindan servicios, entre otros desarrollos que permitan construir un Estado inteligente, que facilite el acceso y la eficiencia en las gestiones y trámites en beneficio de la ciudadanía.

“Este tipo de eventos nos permite vincularnos con buenas prácticas e iniciativas innovadoras, y es la oportunidad para promover la sinergia entre diferentes actores, incorporando además aportes y soluciones en innovación tecnológica provenientes del sector privado y del ámbito académico”, resaltó Genua.

En el Congreso también estuvo presente el subsecretario de Tecnologías de la Información y las Comunicaciones, César Gazzo Huck, en el panel “Políticas Nacionales de Transformación Digital”, donde focalizó en las soluciones y desarrollos digitales que el Gobierno Nacional está llevando adelante.

Acta acuerdo con la Suprema Corte de Justicia de Mendoza en materia de transformación digital

En el marco del evento, Genua firmó un acta acuerdo con Mario Adaro, ministro de la Suprema Corte de Justicia de Mendoza, para promover y desarrollar políticas de transformación digital y alfabetización digital.

Este convenio tiene el objetivo que la Suprema Corte de Justicia de Mendoza adopte soluciones tecnológicas que faciliten el acceso a la Justicia, mejoren la calidad de vida de sus ciudadanos, y den celeridad y seguridad jurídica a través de la innovación

Los principales ejes del convenio son:

-.- Digitalizar y disponibilizar en la app Mi Argentina las diferentes credenciales de la Suprema Corte de Justicia de Mendoza.

-.- Crear cursos para ampliar la cantidad de Autoridades de Registro para facilitar el acceso a la Firma Digital.

-.- Fomentar la colaboración por parte del Sistema de Identificación Nacional Tributario y Social (SINTYS) para la implementación del nuevo procedimiento de Beneficio de litigar sin Gastos.

-.- Expandir la red del Programa Punto Digital, creando nuevos espacios en juzgados y/o oficinas judiciales de Mendoza, priorizando aquellas áreas con baja conectividad y acceso limitado a servicios tecnológicos.

-.- Fomentar el uso de la Plataforma de Aprendizaje Virtual (PAV) en todo el poder judicial de la provincia, con especial énfasis en su integración en programas de capacitación laboral, inclusión digital y formación en derechos ciudadanos.

inngeniar


jueves, 24 de octubre de 2024

La CNEA en la OIEA sobre SMR

 

La CNEA participa en la Conferencia Internacional sobre Reactores Modulares Pequeños

El Dr. Ing. Germán Guido Lavalle, presidente de la Comisión Nacional de Energía Atómica, representa a la Argentina en el encuentro que reúne a más de 1.000 participantes de casi 100 países. 

Se trata de un foro global para intercambiar información y discutir oportunidades y desafíos de este tipo de reactores.

El presidente de la Comisión Nacional de Energía Atómica (CNEA), Dr. Ing. Germán Guido Lavalle, participa en la primera Conferencia Internacional sobre Reactores Modulares Pequeños (SMR) y sus Aplicaciones, organizada por el Organismo Internacional de Energía Atómica (OIEA) en su sede de Viena, Austria. 

Más de 1.000 representantes de casi 100 países asisten al encuentro, que empezó este lunes y se extenderá hasta el viernes. 

El objetivo de esta conferencia es funcionar como un foro global para discutir oportunidades y desafíos y establecer condiciones para el desarrollo y despliegue acelerado y seguro de este tipo de reactores.

“La apuesta por la generación nuclear de las grandes empresas tecnológicas ha cambiado el juego. 

El crecimiento nuclear pasa de ser una profecía de tecnólogos a convertirse en una realidad. 

Como venimos señalando, esto representa una oportunidad para la Argentina que debemos aprovechar a partir del importante volumen de recursos humanos muy calificados que tenemos en el sector”, expresó Guido Lavalle.

Los SMR son reactores diseñados para producir hasta 300 MW

Su construcción es más rápida que la de los reactores de mayor tamaño y, como son pequeños, resultan ideales para instalar en áreas remotas. 

Además, algunas empresas multinacionales están invirtiendo en el desarrollo de tecnología para abastecer a sus centros de inteligencia artificial.

De acuerdo a las estimaciones del OIEA, para 2050 la capacidad de generación de energía nuclear será dos veces y media mayor a la actual y un cuarto de esa capacidad provendré de los SMR-. 

“Para cubrir las necesidades de energías bajas en carbono de los países y las industrias, debemos garantizar la prueba y despliegue oportunos de SMR seguros. 

Para esto, la cooperación y la colaboración internacionales son esenciales”, afirmó el director general del OIEA, Rafael Grossi, antes del encuentro.

En el marco de la conferencia en Viena, se realizan paneles de presentación y discusión de los principales diseños de SMR, micro reactores y su ciclo de combustible; los enfoques de seguridad física, tecnológica y de salvaguardias; los marcos legislativos y regulatorios; los enfoques de financiamiento; el estado de los planes nacionales de energía nucleoeléctrica de los Estados miembros del OIEA y el intercambio de información y promoción de la cooperación internacional en la materia entre las partes interesadas, entre otros temas.

El lunes 21 por la mañana se celebró la Iniciativa de Armonización y Normalización Nuclear (NHSI, por sus siglas en inglés), una reunión plenaria convocada por el Director General del OIEA. 

La NHSI tiene como objetivo avanzar en la armonización y la normalización del diseño, la construcción y los enfoques reglamentarios e industriales de los SMR. 

Esta iniciativa consta de dos vías separadas y complementarias: la reguladora y la industrial.

Mientras tanto, este martes Women in Nuclear (WiN) IAEA realizó su evento paralelo SMRs: Women as Game Changers (SMR: mujeres que cambian las reglas del juego). 

Se trató de un debate en el que se evaluó cómo impacta la innovación nuclear en la vida de las mujeres de todo el mundo. 

También se analizó de qué manera las oportunidades profesionales que generan los proyectos de SMR contribuyen a cerrar la brecha de género en el campo nuclear.

Más tarde se celebró la “Noche de la Industria”, organizada por el OIEA y la Asociación Nuclear Mundial (WNA), donde convergieron proveedores de todo el mundo para presentar la última tecnología de reactores.

Por otra parte, este miércoles hubo un evento para la generación joven organizado conjuntamente por el Congreso Nuclear Internacional de Jóvenes (IYNC) y el OIEA. 

En este encuentro se debatió sobre cómo los SMR y los micro-reactores pueden contribuir a un futuro sostenible y equitativo.

Paralelamente a la conferencia se está realizando la Reunión Técnica sobre el Fortalecimiento de la Participación de los Actores Locales, en cuyo marco las autoridades del municipio de Zárate expresaron su interés en ser parte de la Global Partnership of Municipalities with Nuclear Facilities (Asociación Global de Municipios con Instalaciones Nucleares).

CNEA

inngeniar


martes, 8 de octubre de 2024

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

 

 Ilustración de los ganadores del Premio Nobel de Física 2024. Créditos: Niklas Elmehed © Nobel Prize Outreach

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

Gabriel Mindlin y Francisco Tamarit reflexionan sobre la importancia de sus contribuciones científicas.

La Real Academia Sueca de Ciencias otorgó el Premio Nobel de Física 2024 John J. Hopfield y Geoffrey E. Hinton, considerados los “padrinos” de la inteligencia artificial, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. 

Hopfield creó una red neuronal artificial para almacenar y recuperar memoria por asociación, lo que permite, por ejemplo, almacenar y reconstruir imágenes y otros tipos de patrones en los datos e información. 

Por su parte, Hinton inventó un algoritmo “de la retropropagación del error”, que permite que las redes neuronales artificiales “aprendan” a partir de experiencias en forma muy similar a la forma en que aprendemos los humanos y los animales. 

Estas contribuciones fueron claves para diseñar las grandes redes neuronales artificiales que se utilizan actualmente.

“Me parece excelente que los hayan premiado”, indica Gabriel Mindlin, científico del CONICET en el Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA), que incorporó las herramientas de trabajo diseñadas por los Premios Nobel para estudiar a las aves individuales a través de sus vocalizaciones para monitorear poblaciones amenazadas. 

“Tanto en sus aspectos beneficiosos como en sus aspectos más amenazantes, la teoría de redes está produciendo un cambio en la humanidad de proporciones colosales, y fueron las contribuciones de estos dos científicos los que crearon los pilares de esta nueva revolución conceptual que estamos viviendo”, advierte.

Tal como explica Mindlin, la ciencia tradicional se basó siempre en dilucidar los mecanismos de cómo funcionan las cosas. 

Hopfield diseño un dispositivo conceptual -las “redes neuronales”- capaces de expresar comportamientos interesantes emergentes, y Hinton logró entrenar a esas redes a partir de ejemplos para resolver problemas complejos, abriendo un nuevo modo de hacer ciencia. 

“Con sus luces y sus sombras, lo que hicieron fue un cambio conceptual respecto de cómo pretendíamos operar sobre el mundo desde la filosofía griega a esta parte”, asegura Mindlin.

Para Francisco Tamarit, investigador del Instituto de Física Enrique Gaviola (IFEG), el premio es “un acto de justicia, porque Hopfield es quien dio el puntapié para el auge de las redes neuronales que estamos viviendo hoy, quien tuvo la primera idea de esta revolución”. 

Tamarit conoció al propio Hopfield en vivo y en directo. 

“Fue en la Universidad de San Pablo en San Carlos, donde fui a tomar un curso con él hace muchos años, y pude comprobar que es una persona muy generosa”.

Tamarit, apenas se recibió de físico en 1987, había comenzado a trabajar con el modelo de redes neuronales publicados por Hopfield en 1982. 

“Yo siempre digo en mis conferencias y cursos, que sin dudas todo lo que tenemos hoy en inteligencia artificial se lo debemos a él, porque nos sacó del llamado ´invierno´ de la inteligencia artificial, donde se habían estancado las investigaciones en la materia”, dice el científico.

“Hopfield trabajaba en el modelado de vidrios, y se dio cuenta, en 1982, que estos materiales tan baratos y comunes podían llevarlo a modelar un cerebro humano para almacenar memoria, como almacenan los animales. 

Su trabajo quedó escondido hasta que otros científicos italianos e israelitas lo retomaron en el año 1985. 

No descubrió algo, lo inventó. 

Y sus ideas, como las de Hinton, son las que ahora usamos en todas las redes neuronales artificiales que dan lugar a la inteligencia artificial más sofisticada, como la que vemos por ejemplo en el Chat GPT”.

Los laureados

Tal como difundió en un comunicado la Academia Sueca, “cuando hablamos de inteligencia artificial, a menudo nos referimos al aprendizaje automático mediante redes neuronales artificiales. 

Esta tecnología se inspiró originalmente en la estructura del cerebro. 

En una red neuronal artificial, las neuronas del cerebro están representadas por nodos que tienen valores diferentes. 

Estos nodos se influyen entre sí a través de conexiones que pueden compararse con sinapsis y que pueden fortalecerse o debilitarse. 

La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos con valores simultáneamente altos. 

Los galardonados de este año han realizado importantes trabajos con redes neuronales artificiales desde los años 80 en adelante”.

Hopfield inventó una red que utiliza un método para guardar y recrear patrones. 

“Podemos imaginar los nodos como píxeles. 

La red Hopfield utiliza la física que describe las características de un material debido a su giro atómico, una propiedad que convierte a cada átomo en un imán diminuto. 

La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y se entrena encontrando valores para las conexiones entre los nodos para que las imágenes guardadas tengan baja energía. 

Cuando la red Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores para que la energía de la red disminuya. 

Así, la red trabaja paso a paso para encontrar la imagen guardada que más se parezca a la imperfecta con la que fue alimentada”, explicaron desde la organización de los Premios Nobel.

Geoffrey Hinton, por su parte, utilizó la red Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann. 

“Este puede aprender a reconocer elementos característicos en un determinado tipo de datos. 

Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares. 

La máquina se entrena dándole ejemplos que es muy probable que surjan cuando la máquina está en funcionamiento. 

La máquina Boltzmann se puede utilizar para clasificar imágenes o crear nuevos ejemplos del tipo de patrón en el que fue entrenada. Hinton se ha basado en este trabajo y ha ayudado a iniciar el explosivo desarrollo actual del aprendizaje automático”.

Por Cintia Kemelmajer

CONICET

inngeniar


domingo, 6 de octubre de 2024

Jornada de Mercado Libre sobre IA

 

Participamos de una jornada de Mercado Libre sobre IA

El Secretario de Innovación, Ciencia y Tecnología, Darío Genua, estuvo presente en una jornada organizada por Mercado Libre para que funcionarios nacionales y expertos del sector conversen sobre los horizontes de aplicación de la Inteligencia Artificial.

El Secretario de Innovación, Ciencia y Tecnología, Darío Genua, participó de Mercado Libre Open House. Puertas Abiertas a la Inteligencia Artificial, una jornada organizada por Mercado Libre para que legisladores nacionales y expertos del sector conversen sobre los horizontes de aplicación de esta tecnología.

El evento tuvo lugar en las en las oficinas de Mercado Libre en el barrio de Saavedra y se dividió en 4 paneles: 

#PoneleIAaTodo. 

Qué es y qué no es la IA; 

IA en modo pistacho. Reflexiones a prueba de futuro; 

Presente y Futuro de la IA. 

Su aplicación en el sector privado;

Argentina a la vanguardia de la IA.

Darío Genua participó del último panel, Argentina a la vanguardia, junto a Juan Martín Ozores, presidente del Ente Nacional de Comunicaciones (ENACOM) y Gabriel Díaz Zolorzalo, Gerente de Relaciones Gubernamentales de Mercado Libre, quien fue el moderador del panel.

Durante su intervención, Genua expresó que Argentina tiene la oportunidad de ponerse a la vanguardia en la adopción de la IA, pero debe hacerlo con un marco regulatorio flexible que propicie la llegada de inversiones para su desarrollo: 

“Desde el Gobierno Nacional consideramos que es necesario ser estratégicos en las políticas públicas y los marcos que establecemos como país en torno a la Inteligencia Artificial

Tenemos que colocarnos a la vanguardia en su impulso y regulación, atendiendo a sus desafíos y garantizando un desarrollo seguro, para no quedarnos atrás en un mundo que avanza rápidamente en esa dirección.”

Además, en relación a las capacidades que tiene el país para posicionarse como un actor protagónico dentro del conjunto de economías que lideran los procesos de transformación digital Genua resaltó que “construyendo reglas claras, generando condiciones de previsibilidad y promoviendo la colaboración público-privada, vamos a poder avanzar en una agenda de progreso económico con eje en la innovación tecnológica”.

Por su parte, Juan Martín Ozores habló de la relación que hay entre la infraestructura de redes y la Inteligencia Artificial: 

“El desarrollo de las telecomunicaciones permite que la IA esté disponible para más personas y empresas, reduciendo la brecha digital. 

Las redes de telecomunicaciones modernas proporcionan transmisiones de alta velocidad con grandes volúmenes de datos, lo que permite un rápido movimiento de conjuntos de datos masivos, fundamental para el entrenamiento de modelos de IA complejos”.

Secyt

inngeniar


martes, 10 de septiembre de 2024

Inteligencia Artificial con el sector privado Se realizó una Mesa de trabajo

 

Se realizó una Mesa de trabajo sobre Inteligencia Artificial con el sector privado

Con el objetivo de construir un ecosistema que impulse el desarrollo de la Inteligencia Artificial, la Secretaría de Innovación, Ciencia y Tecnología organizó una reunión con empresas del sector a fin de potenciar la adopción de esta tecnología.

Con la presencia del Secretario de Innovación, Ciencia y Tecnología, Darío Genua, se realizó esta mañana en el Salón 2 del Centro Cultural de la Ciencia (C3), una reunión con representantes de empresas tecnológicas. 

El fin fue establecer un desarrollo seguro que impulse la economía de la Inteligencia Artificial (IA) y promueva su aplicación en diversos sectores productivos, de conformidad con un marco ético, de desarrollo sostenible y de transformación digital.

“Es necesario ser estratégicos en las políticas que desplegamos como país en torno a la IA, ya que hoy nos urge potenciar su desarrollo para no quedarnos atrás en un mundo que avanza rápidamente en esa dirección”, sostuvo Genua.

Y agregó: “Nuestro país tiene un notable desarrollo e inmensas perspectivas a futuro en los sectores del agro, la biotecnología, la energía y la Economía del Conocimiento. 

En estas áreas, la Inteligencia Artificial constituye una herramienta fundamental para potenciarlas, y el Estado debe contribuir generando un marco que propicie esa aplicación”.

La Mesa de trabajo contó con la participación de las compañías

 Meta, IBM, Google, Globant, Mercado Libre, Amazon Web Services, Worldcoin, Microsoft, Uber, NTT Data, Octupus y Sales Force. 

Asistieron también representantes del Banco Interamericano de Desarrollo (BID), del Banco Internacional de Reconstrucción y Fomento (BIRF), del Banco Centroamericano de Integración Económica y del Banco de Desarrollo de América (CAF).

inngeniar


CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

  

La CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

La Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece el servicio de computación de alto desempeño denominado Clúster Neurus, que puede resolver aproximadamente 29 billones de operaciones de punto flotante por segundo. 

Se utiliza para realizar simulaciones que preceden a pruebas experimentales costosas y complejas.

Los proyectos de investigación y desarrollo que lleva adelante la Comisión Nacional de Energía Atómica (CNEA) requieren el apoyo de sistemas informáticos extremadamente veloces, capaces de realizar simulaciones que preceden a pruebas experimentales costosas, complejas y muchas veces imposibles de reproducir en la realidad.

El Departamento Computación de Alta Prestación de la Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece soluciones a medida para las necesidades computacionales de los investigadores. 

En la actualidad, cuenta con el servicio de computación de alto desempeño denominado Clúster Neurus. 

Además, avanza con un proyecto para la creación de un nuevo clúster con tecnologías de punta, para ofrecer nuevos y mejores servicios y recursos de procesamiento gráfico a los que se podrá acceder a través de una interfaz web.

“Un clúster de High Performance Computing (HPC, Alto Desempeño Computacional) es un conjunto de computadoras o nodos que cooperan para resolver un problema. 

Cada uno de esos nodos toma una parte de ese problema y lo resuelve”, define la Dra. Verónica Venturini, subgerente de Vinculación y Desarrollo de Nuevas Tecnologías de la Información de la CNEA.

Teóricamente la capacidad de procesamiento de un clúster equivale a la suma de las potencias de sus nodos. 

“Al dividir el problema en partes que los nodos van resolviendo simultáneamente y de manera concurrente, se llega a la solución mucho más rápido”, explica Gastón Aguilera, el jefe del Departamento Computación Alta Prestación.

Entre otras aplicaciones, los clústers de HPC sirven para estudiar las propiedades estructurales, de transporte y dinámicas de distintos sistemas; simular reacciones químicas, biológicas y catalíticas; diseñar nuevos materiales, y también recopilar y procesar grandes volúmenes de datos relacionados con la astrofísica y la física de la atmósfera.

“Los clústers de HPC son una herramienta para los científicos, que los utilizan como laboratorios virtuales para realizar simulaciones y estudiar, por ejemplo, cómo se comportaría determinado sistema o cierto material. 

Por ejemplo, si se diseña una pieza para un reactor, se puede hacer una simulación sobre cómo se va a comportar en la realidad y recién fabricar el prototipo sobre un diseño evaluado en el ambiente virtual, donde se explicitaron las leyes matemáticas que rigen su comportamiento”, detalla Aguilera. 

“Las simulaciones requieren demasiados recursos físicos y, por ese motivo, pueden resolverse con mayor rapidez en un clúster”, resalta Venturini.

El clúster de HPC que administra el grupo que pertenece a la GTIC se llama Neurus y cuenta con 25 nodos que reúnen 700 cores o núcleos de procesamiento. 

Hace diez años que se encuentra en funcionamiento, pero no fue el primero que construyó, puso en mantenimiento y administró su grupo de trabajo.

Mucho antes de soñar con la supercomputación o los clústers de HPC, en 1977, en la CNEA se creó el Centro de Cómputos que después se convertiría en GTIC

Su herramienta era una computadora IBM 370 de 1 MB de memoria RAM y discos IBM 3350 de 300 MB cada uno. 

El sistema contaba con 20 terminales que dependían totalmente del procesador central. 

Era de lo más avanzado para la época. 

Desde entonces, se encaró el desafío de dotar al organismo con sistemas de vanguardia para ir acompañando los requerimientos de sus investigadores. 

Así también se adquirió un supercomputador SUN Enterprise 6000, denominado Fénix, de 16 procesadores y 8GB de memoria RAM que cubrió los requerimientos computacionales de los usuarios por varios años desde 1997.

La revolución de las supercomputadoras llegó a la CNEA en 2003, cuando comenzó el proceso para desarrollar su primer clúster. 

Así, en 2007 comenzó a funcionar el clúster de HPC Sheldon

Tenía un rendimiento operativo promedio de 290 GigaFLOPS, es decir que podía realizar 290 mil millones de Operaciones de Punto Flotante por Segundo. 

Su sucesor, en septiembre de 2010, fue ISAAC (Information Systems and Advance Computer), en referencia a Newton y en honor a Asimov, con un rendimiento pico de 5,5 TeraFLOPS (5,5 billones de operaciones de punto flotante por segundo).

Actualmente, Neurus tiene 29 TeraFLOPS de rendimiento máximo teórico del sistema. 

Eso significa que tiene la capacidad de resolver aproximadamente 29 billones de operaciones de punto flotante por segundo, con un almacenamiento para archivos de usuario de 24 TeraBytes sobre ZFS (Zettabyte File System).

El próximo proyecto se llama “CNEA Dynamic Cloud Computing” y consiste en desarrollar una plataforma que permita la utilización de diferentes softwares específicos, algunos de ellos con licencias. 

Además, se busca que brinde la flexibilidad para soportar los cambios en los sistemas, como ocurre con la demanda de cálculo para Inteligencia Artificial

Los grupos de la CNEA que requieran el uso de esta plataforma podrán acceder en forma remota, tal como lo ofrecen algunas soluciones de cloud computing del mercado. 

El punto destacable de este proyecto es que la plataforma será interna para la CNEA, manteniendo la privacidad y confidencialidad de los datos.

“La idea es armar configuraciones de cómputo especiales para cubrir las necesidades de cada grupo, que podrá trabajar vía web tanto para la preparación como para la ejecución y la visualización de los resultados”, dice Aguilera. 

Esta nueva plataforma permitirá no sólo la ejecución de simulaciones con posibilidad de elegir recursos físicos, sino que además proporcionará al usuario herramientas para hacer uso de algoritmos de Inteligencia Artificial y Machine Learning pre definidos.

El grupo de Computación de Alta Prestación de la CNEA fue renovándose con los años y hoy está conformado por Andrés Alonso, Leonardo Domínguez, Roque Iozzo, Leandro Clemente y Gastón Aguilera. 

Se trata de personal altamente calificado, con más de 20 años de experiencia en el ciclo de vida y soporte a usuarios de clústers y de servicios relacionados.

CNEA

inngeniar