domingo, 22 de diciembre de 2024

Sensores dotados de IA para monitorear la calidad del aire desarrollan especialistas del CONICET

 

Los sensores Breathe2Change se entrenan con inteligencia artificial y envían a la nube los datos de medición de la calidad del aire.

Especialistas del CONICET desarrollan sensores dotados de inteligencia artificial para monitorear la calidad del aire

El proyecto Breathe2Change, liderado por el investigador del CONICET Rodrigo Gibilisco, permite estudiar la contaminación atmosférica, detectar de forma temprana focos de incendios y otras aplicaciones. 

Trabaja con empresas argentinas e instituciones públicas y privadas nacionales e internacionales y este año recibió un subsidio del Instituto de Política Energética de la Universidad de Chicago (EPIC), en Estados Unidos, para ampliar la red de monitoreo a 10 provincias del país.

Breathe2Change (respirar para cambiar) es el nombre de un proyecto pionero, liderado por el investigador del CONICET Rodrigo Gibilisco en articulación con empresas argentinas y numerosas instituciones públicas y privadas nacionales e internacionales. 

Como parte de esta iniciativa, en 2021, se instaló la primera red de sensores para monitorear la calidad del aire en la Provincia de Tucumán y este año recibió un subsidio del Instituto de Política Energética de la Universidad de Chicago (EPIC), en Estados Unidos, para ampliar esa red a diez provincias del norte y del centro del país.

Rodrigo Gilibisco, investigador del CONICET y líder del proyecto Breathe2Change.

En colaboración con dos empresas argentinas, el Laboratorio de Estudios Atmosféricos encabezado por Gibilisco en el Instituto de Química del Noroeste Argentino (INQUINOA, CONICET-UNT), en San Miguel de Tucumán, desarrolla sensores que miden la contaminación atmosférica. 

Detectan la concentración de las micropartículas que van desde un tamaño menor a 1 micrómetro de diámetro (casi 100 veces más pequeñas que el diámetro del cabello humano) asociadas a actividades industriales, agrícolas, parque automotor, incendios y otras actividades.

“Hasta ahora se encuentran funcionando más de 20 sensores distribuidos por todo el territorio de Tucumán que generan datos en tiempo real. 

Ahora ampliaremos la red de monitoreo a diez provincias de nuestro país y la idea a largo plazo es lograr una red federal de monitoreo de la calidad del aire”, afirma Gibilisco quien es doctor en Ciencias Químicas. 

Y destaca: “En el proyecto incorporamos herramientas de inteligencia artificial (IA) para ‘enseñarle’ a los sensores a ser más precisos en la detección y medición de los contaminantes atmosféricos”.

Breathe2Change tiene tres pilares: la implementación de una red de sensores que captan y transmiten datos sobre la calidad del aire a una plataforma en la nube; un equipo de científicos especializados que analiza todos los datos recabados; y un programa de asistencia y colaboración científica para impulsar e implementar políticas públicas e iniciativas privadas para mejorar la calidad del aire.

“Mejorar la calidad del aire es clave para la salud. 

Cerca de siete millones de personas mueren a nivel mundial por afecciones cardiovasculares y respiratorias asociadas a la contaminación del aire”, indica Gibilisco quien realizó su posdoctorado en el Instituto de Ambiente y Atmósfera de la Universidad de Wuppertal, en Alemania. 

Y continúa: “Recabar información precisa sobre los niveles de contaminación del aire e identificar sus fuentes asociadas a actividades humanas es un paso necesario para fomentar la transición energética no contaminante y renovable mediante la participación del sector público y privado”.

Rodrigo Gilibisco e integrantes de su laboratorio de Estudios Atmosféricos en el Instituto de Química del Noroeste Argentino (INQUINOA, CONICET-UNT).

Proyecto con respaldo internacional

El proyecto Breathe2Change fue reconocido en 2021 por la prestigiosa Fundación Alexander von Humboldt, con sede en Alemania.

“El premio Humboldt Alumni Award permitió avanzar en la creación de la primera red de monitoreo de calidad del aire en la Provincia de Tucumán para proporcionar una plataforma de datos de acceso abierto sobre la calidad del aire local en tiempo real a partir de un nuevo enfoque de vigilancia de bajo costo”, explica Gibilisco.

Por el proyecto Breathe2Change y sus avances en la Provincia de Tucumán, el investigador ganó este año el premio EPIC otorgado por el Programa de Aire Limpio del Instituto de Política Energética de la Universidad de Chicago (EPIC), en Estados Unidos. 

La distinción consiste en una subvención para iniciativas encaminadas a aumentar la disponibilidad de datos abiertos sobre la calidad del aire en países que tienen una gran oportunidad de mejorar sustancialmente su contaminación a nivel nacional.

“Con la subvención otorgada replicaremos la experiencia de Tucumán en otras diez provincias del país. 

El objetivo a largo plazo es lograr una red federal de monitoreo, es decir, cubrir todo el territorio nacional, y de ese modo también ayudar a los esfuerzos internacionales dirigidos a monitorear la calidad del aire a nivel global. 

El proyecto que hoy estamos haciendo en Argentina está al mismo nivel de proyectos que se están haciendo en la Unión Europea y eso nos pone muy felices”, destaca el investigador del CONICET.

En 2021 Rodrigo Gilibisco, equipo y colaboradores instalaron la primera red de sensores para monitorear la calidad del aire en la Provincia de Tucumán.

Sensores entrenados con inteligencia artificial (IA)

La inteligencia artificial (IA) cumple un rol preponderante en el proyecto Breathe2Change.

“A través de la red de monitoreo de la calidad del aire combinamos tecnología tradicional con tecnologías basadas en IA para que los sensores tengan capacidad de mejorar su desempeño a medida que van midiendo los contaminantes que detectan. 

Empleamos herramientas de machine learning para un aprendizaje asistido que les enseñe a los sensores a ser más precisos en sus mediciones”, explica Gibilisco.

La IA también se usa para analizar los millones de datos que generan los sensores. 

“Gracias a la IA también tenemos la posibilidad de generar mapas más precisos de la distribución de los contaminantes por territorio, sus fuentes y la dinámica atmosférica y climática que inciden en sus procesos”, puntualiza Gibilisco. 

Y agrega: “También permite correlacionar niveles y tipos de contaminación del aire con prevalencia de enfermedades de una población en un territorio determinado”.

La red de sensores Breathe2Change para medir la calidad del aire se instalará en 10 provincias de Argentina con miras a convertirla en una red federal en el largo plazo.

Otro proyecto liderado por el investigador del CONICET es el “Desarrollo de plataforma multinivel para Detección y Alerta de Incendios: DALI-Sense”. 

“El objetivo de este proyecto en desarrollo es utilizar la red de sensores de la calidad del aire de la iniciativa Breathe2Change para detectar contaminantes en el aire asociados a incendios y combinando estos datos con información satelital y otras variables se podrían detectar de manera temprana focos de incendio que alerten a Defensa Civil para actuar rápidamente y de ese modo salvar vidas y prevenir pérdidas económicas”, explica Gibilisco. 

Por este proyecto, fue galardonado en la séptima edición de la Distinción Franco-Argentina en Innovación 2023 en la categoría Junior.

“Que el proyecto Breathe2Change sea apoyado por instituciones nacionales e internacionales es realmente inspirador. 

Destaca la importancia del aire limpio como un esfuerzo global sin fronteras. 

Este apoyo nos motiva a intensificar nuestros esfuerzos, fomentando la unidad para garantizar un aire limpio y respirable para todos”, afirma el científico del CONICET.

El investigador del CONICET Rodrigo Gilibisco describiendo sus proyectos en una jornada de vinculación científica y tecnológica realizada en Buenos Aires en 2023 que contó con la presencia del canciller alemán Olaf Scholz.

Los socios de Breathe2Change son actores claves del sector público como la Secretaría de Medio Ambiente de la Provincia de Tucumán, las empresas argentinas Neuer Weg y Química Norte Ambiental, instituciones académicas de Alemania (el Instituto de Ambiente y Atmósfera de la Universidad de Wuppertal), Francia (Instituto de Combustión Aerotérmica y Reactividad de la Atmósfera – CNRS), Italia (Departamento de Ingeniería Química y Ambiental – Génova), la Fundación Alexander von Humboldt y ONGs nacionales e internacionales y también las Embajadas de Alemania, Francia e Italia en Argentina que facilitaron la generación de redes de trabajo internacionales.

Por Bruno Geller

CONICET

inngeniar

lunes, 2 de diciembre de 2024

Semana de la IA Inteligencia Artificial en Argentina

 Encabezada por el Presidente Javier Milei, comenzó la primera Semana de la Inteligencia Artificial en Argentina

El evento reúne a expertos nacionales e internacionales de 24 países

Algunos de los temas a tratar serán los desafíos y límites de esta tecnología; la IA para la mejora de los servicios públicos; modelos de Machine Learning y su alcance actual; interacción humano-IA potenciada por el Deep Learning; y casos de éxito de aplicación de la IA en la industria del software, entre otros.

Con la presencia del Presidente de la Nación, Javier Milei, y con la participación de embajadores y autoridades nacionales y provinciales, se realizó en el Centro Cultural de la Ciencia (C3) la apertura de la primera Semana de la Inteligencia Artificial en Argentina. 

Participaron en el acto el Jefe de Gabinete, Guillermo Francos; el Jefe de Gabinete del Consejo de Asesores del Presidente, Demian Reidel; el Secretario de Innovación, Ciencia y Tecnología, Darío Genua; y el Secretario de la Pequeña y Mediana Empresa, Emprendedores y Economía del Conocimiento, Marcos Ayerra.

Organizada por la Secretaría de Innovación, Ciencia y Tecnología de la Nación, la primera Semana de la Inteligencia Artificial en Argentina es un encuentro que busca inspirar nuevas ideas, promover alianzas estratégicas y reforzar el compromiso de la comunidad argentina con el desarrollo de tecnologías que respeten los valores humanos y mejoren la calidad de vida de todos.

En sus palabras de bienvenida, el Secretario Genua agradeció a los expositores y a las empresas y afirmó: 

“Es un honor estar aquí en este espacio que reúne a representantes del sector público y del sector privado en pos del desarrollo e implementación de la Inteligencia Artificial

Argentina cuenta con un gran desarrollo y muy buenas perspectivas en sectores como la energía, el agro y la agroindustria, la biotecnología y la economía del conocimiento, sin soslayar algo tan importante como los recursos humanos”.

Y concluyó: “Desde el Gobierno Nacional estamos trabajando para acompañar estas transformaciones y desplegando políticas para promover la implementación de Inteligencia Artificial en la gestión pública, esto siempre con el objetivo de brindar mejores servicios a la ciudadanía y fomentar la transparencia y la eficiencia dentro de la gestión pública para facilitarle la vida a los argentinos”.

Por su parte, Francos destacó la convocatoria y felicitó a “los organizadores” y al “sector privado presente” por la realización de “un evento de estas características”. 

“Estamos ante un cambio impresionante que muestra cómo se han ido acelerando los procesos del conocimiento y de la tecnología”, remarcó el Jefe de Gabinete de Ministros al tiempo que enumeró las “principales preocupaciones” actuales en torno a la Inteligencia Artificial. 

Sobre este punto, Francos planteó, “como decía el Presidente”, que “uno no tiene que paralizarse ante estos riesgos”, sino “pensar soluciones a estos problemas que nos permitan avanzar en conjunto”.

A su turno, Demian Reidel afirmó: “De las cuatro revoluciones industriales que hemos experimentado hasta ahora, todas han compartido una característica muy importante, que es el pánico a la pérdida irreversible de puestos de trabajo y a un estado de miseria posterior. 

Pero hoy nadie piensa que las computadoras fueron algo malo para nadie. 

No hay que pensar que la Inteligencia Artificial nos va a dejar sin trabajo, y este es un llamado para que todos se despierten”.

Y finalizó: “El incremento de la productividad del capital humano a través de la utilización de estas herramientas es muy importante, y aprender a utilizarlas es esencial. 

Además estas nuevas tecnologías son interesantísimas para desarrollarse. 

Hoy estamos en la cuarta revolución industrial, y esta es una oportunidad para llevar adelante proyectos que nos conduzcan hacia un nuevo estado de bienestar”.

Por último, Marcos Ayerra dijo: “Me siento muy orgulloso de ser parte de este momento de la Argentina. 

La IA es una herramienta fundamental para ayudar a enfrentar el desafío que hoy enfrentan las empresas Pyme de nuestro país y para eso estamos trabajando”.

Resumen de la primera jornada

La jornada inaugural contó con la conferencia magistral sobre el desarrollo de la IA de Argentina para el mundo, a cargo de Fernando López Iervasi, Presidente de Sudamérica Hispana de Microsoft.

También se desarrolló la conferencia magistral: “Inteligencia Artificial: la oportunidad de la década”, a cargo Alberto Indacochea, Director IA de IBM Latinoamérica.

En cuanto a los paneles, tuvo lugar uno dedicado a la IA para la mejora de los Servicios Públicos, que contó con la participación del Secretario de Turismo, Ambiente y Deportes de la Vicejefatura de Gabinete del Interior de Argentina, el Subsecretario de Deportes, Diógenes de Urquiza Anchorena; la Subsecretaria de Turismo, Yanina Martínez; el Ministro de la Suprema Corte de Mendoza, Presidente del Instituto de Innovación y Tecnologías de las Justicias Argentina y Cofunder de la Red Juslab, Mario Adaro; la Head for Public Sector Transformation Programs Latin America de Amazon Web Services, (AWS), Laura Alvarez Modernel; y el Public Policy Manager de META, Tomas Kroyer.

Otra conferencia magistral fue "Soberanía y estrategias de IA. Lo que cada líder argentino necesita saber", con Marcelo Christianini, Vicepresidente de AI y Cloud engineering para Latinoamérica de Oracle.

Otro conversatorio fue “Machine Learning y su alcance actual”, a cargo de Marcelo Riva, Machine Learning Manager de Mercado Libre.

Roberto Nobile, CEO, Telecom dictó la conferencia magistral “IA y conectividad avanzada: claves para el futuro digital”.

En el panel “Interacción Humano-IA potenciada por el Deep Learning” se buscó mostrar cómo a través de redes neuronales profundas, estas tecnologías son capaces de interpretar datos complejos, aprender de manera autónoma y responder de forma más intuitiva y personalizada. Participaron Diego Martinez, Principal Enterprise Architect de Salesforce; Mariela Fiorenzo, Data Office Manager de Telecom Argentina; y Bárbara Michalla, Data & Analytics Sr Manager de Mercado Libre.

A su vez, en la conferencia magistral: "¿IA mi qué?", se exploró el potencial transformador de la IA para las empresas, con un enfoque en las soluciones y casos de uso. Expusieron Pilar Manchón Portillo, Directora de Estrategia de Investigación en GoogleAI; y Natalia Scaliter, Gerente General de Google Cloud Argentina.

En el panel “La estructura de las Revoluciones Científicas: la IA como nuevo paradigma”, se debatió cómo el uso de técnicas avanzadas de inteligencia artificial está transformando nuestra comprensión de los patrones y dinámicas del comportamiento humano. 

Participaron Ezequiel Erdei, Sociólogo y Managing Director de Mega Research; y Pablo Verdenelli, CEO y fundador de Seenka y Welo.

También tuvo lugar la conferencia magistral “AI Economy: Una oportunidad para Argentina", que estuvo a cargo de Marlon Fetzner, Director de Asuntos Gubernamentales para Latinoamérica de Microsoft.

Las últimas dos conferencias magistrales fueron "Impacto de la Inteligencia Artificial Generativa en el Ecosistema Emprendedor", que abordó el análisis del impacto y transformación que traen las nuevas tecnologías de inteligencia artificial en las compañías del mañana. 

En ella disertó Alfonso Amat, Responsable del Desarrollo del Ecosistema Emprendedor de Latinoamérica de AWS. 

La jornada cerró con la conferencia “Argentina y la Inteligencia Artificial. Creatividad y tecnología para transformar al país”, dictada por Martín Migoya, CEO de Globant.

El encuentro podrá seguirse por streaming en la página web del evento 

Galería de fotos.

inngeniar


domingo, 1 de diciembre de 2024

1° Semana Argentina de la Inteligencia Artificial

 

Llega la primera Semana Argentina de la Inteligencia Artificial

Entre el 2 y el 6 de diciembre se llevará adelante este evento que reunirá a expertos nacionales e internacionales de diversas áreas, que ayudarán a entender cómo funciona la IA, sus aplicaciones reales en diferentes sectores y las oportunidades y desafíos que plantea. 

Serán más de 30 conferencias y paneles destacados con la participación de más de 25 empresas y organizaciones líderes.

La Secretaría de Innovación, Ciencia y Tecnología organiza la primera Semana Argentina de la Inteligencia Artificial, un encuentro que busca inspirar nuevas ideas, promover alianzas estratégicas y reforzar el compromiso de la comunidad argentina con el desarrollo de tecnologías que respeten los valores humanos y mejoren la calidad de vida de todos.

Durante la semana, expertos nacionales e internacionales de 24 países compartirán sus experiencias y conocimientos, facilitando un espacio de diálogo y colaboración que nos permitirá anticipar y adaptar nuestras sociedades a los desafíos y oportunidades que plantea la inteligencia artificial

Se desarrollarán actividades y reuniones ejecutivas, se profundizará en temas clave como el aprendizaje automático, el procesamiento del lenguaje natural, la ética en la IA, y la colaboración entre el sector público, la industria y la academia para fomentar un ecosistema de innovación responsable y sostenible.

Algunos de los temas a tratar serán los desafíos y límites de la IA; la IA para la mejora de los servicios públicos; modelos de Machine Learning y su alcance actual; interacción humano-IA potenciada por el Deep Learning; y casos de éxito de aplicación de la IA en la industria del software.

Entre los principales oradores se destacan Darío Genua, Secretario de Innovación, Ciencia y Tecnología de la Nación; Demian Reidel, Jefe de Gabinete del Consejo de Asesores del Presidente de la Nación; Martín Migoya, CEO de Globant; Fernando López Iervasi, Presidente de Sudamérica Hispana de Microsoft; Roberto Nobile, CEO de Telecom; Laura Alvarez Modernel, Head for Public Sector Transformation Programs Latin America de Amazon Web Services; Marcelo Riva, Machine Learning Manager de Mercado Libre; Pilar Manchón Portillo, Directora de Estrategia de Investigación en GoogleAI; y Paula Vargas, Director, Privacy Policy & Engagement de LATAM META, entre otros.

En un contexto global en el que la inteligencia artificial transforma sectores fundamentales como la salud, la educación, la industria y el comercio, Argentina se posiciona como un referente en América Latina, aportando talento y desarrollos innovadores que contribuyen al avance de la tecnología y al bienestar social.

Los formatos de participación serán los siguientes:

Conferencias magistrales: expositores de renombre internacional compartirán sus visiones y experiencias sobre los desafíos actuales y el futuro de la Inteligencia Artificial.

Paneles de discusión: actores del sector abordarán ejes clave exploratorios y en discusión como la gobernanza, el desarrollo de capacidades en IA, infraestructura y conectividad, servicios públicos y transformación productiva, entre otros.

Sesiones de presentación: se explorarán algunas de las últimas innovaciones, tendencias y aplicaciones en IA y cómo se están integrando en empresas e instituciones de todo el mundo.

La apertura del evento se realizará el lunes 2 a las 10 h en el Centro Cultural de la Ciencia (C3), y el encuentro podrá seguirse por streaming en la página web del evento

inngeniar


viernes, 22 de noviembre de 2024

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

 

 Células de cáncer colorrectal resistentes a terapia teñidas para visualizar el núcleo, y el citoesqueleto

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

La investigación, con participación del CONICET, descubrió que GTPasa es la responsable de que se genere resistencia al tratamiento más utilizado contra esta patología.

Investigadores del Instituto de Inmunología Clínica y Experimental de Rosario (IDICER, CONICET-UNR) y del Centro de Investigación del Cáncer Rosario detectaron una proteína responsable de generar resistencia al 5-fluorouracilo -5 FU-, la droga más usada en Argentina contra el cáncer de colon. 

El hallazgo fue publicado en la revista Cells, un medio de vanguardia en avances de oncología y biomedicina, y abre la puerta para desarrollar terapias contra este cáncer más efectivas y con menos efectos secundarios para los pacientes.

Mauricio Menacho Márquez, investigador del CONICET en el IDICER y uno de los autores de la publicación, explicó que el cáncer de colon es uno de los más diagnosticados, no sólo en el país sino también a nivel mundial, y que junto con el cáncer de mama en mujeres y el de pulmón, es de los tres tipos tumorales más frecuentes; con la particularidad de que, si se lo detecta a tiempo, las terapias son muy efectivas. 

“Si bien los tumores responden bien inicialmente a tratamientos basados en 5-fluorouracilo, muchos tipos tumorales se vuelven resistentes a la terapia y esta deja de funcionar”, explica.

Al respecto el científico y también autor del artículo, Luciano Anselmino, detalla que hay personas con mayor predisposición a desarrollar resistencia que otras. 

El problema, apunta, es que las quimioterapias que se usan actualmente suelen ser también citotóxicas, es decir que “cuando uno está sometido a una quimioterapia, ese fármaco no sólo afecta al tumor sino que también afecta a otros tejidos del cuerpo”.  

Es lo que se conoce como efectos secundarios: caída del cabello, debilitamiento de las uñas, descamación de la piel, entre otros.

Anselmino cuenta que esos efectos son los que evitan que los médicos puedan incrementar las dosis. 

“Lo que estamos buscando nosotros son compuestos que tengan pocos efectos secundarios y que de alguna forma puedan resensibilizar a los pacientes a las terapias actuales”, señala.

“No es como la resistencia bacteriana, que por el uso indiscriminado de antibióticos aparecen cepas resistentes, sino que alguien con cáncer colorrectal puede venir respondiendo bien inicialmente porque inicialmente no es resistente, incluso el tumor puede ir desapareciendo, pero al tiempo se empiezan a seleccionar clones resistentes, clones que no responden, clones que generaron mutaciones adicionales y eso hace que el tumor vuelva a crecer y que ya no responda de la manera que respondía a la terapia y se vuelva resistente al tratamiento”, añade Menacho Márquez.

Nahuel Laluce (Izq.), Florencia Malizia, Aylén Avila, Mauricio Menacho Márquez, Lucia Zanotti, Macarena Mamberto y Luciano Anselmino. Foto: gentileza investigadores

Los orígenes del estudio y sus aportes    

Luciano Anselmino y su grupo venían estudiando fármacos con potencial para sensibilizar a algunos pacientes. 

En esta oportunidad, buscaron objetivos terapéuticos, es decir, objetivos para nuevos tratamientos o para tratamientos alternativos que resensibilizaran a pacientes que ya no respondieran a terapias con 5-FU. 

“Lo que hicimos fue aprovechar datos biológicos que se generan constantemente a partir de los avances tecnológicos de las últimas décadas”, dice.

Según indica el científico, cada vez hay más datos de secuenciación genómica -de los ADN de las personas-, y esos datos son públicos para la comunidad científica. 

“Nosotros aprovechamos esta información y desarrollamos un flujo de trabajo, una manera de organizarla que nos permita detectar potenciales objetivos, potenciales proteínas”. 

Para hacerlo, en el equipo científico se formaron en Inteligencia Artificial -IA- aplicada al área salud para desarrollar programas y algoritmos que puedan ir aprendiendo a clasificar a los pacientes entre “respondedores” y “no respondedores” a las terapias a las que estaban sometidos. 

Luego de hacer una intensa búsqueda y un análisis informático con IA durante un tiempo prolongado, aparecieron los objetivos claves en el desarrollo de resistencia en pacientes con cáncer colorrectal.

Menacho Márquez recuerda que pusieron el foco en esas proteínas para ver si existían drogas que apuntaran hacia ellas. 

Y que comenzaron a colaborar colegas de la Universidad Nacional de Quilmes, que les enviaron un compuesto inhibidor de esas proteínas que se llaman GTPasas pequeñas, en particular Rac1, y con un colaborador de Francia, que también había desarrollado un inhibidor de esas proteínas.

Anselmino agrega que el encuentro con estos otros grupos de investigación fue interesante ya que vieron que esa misma vía -GTPasas-, estaba involucrada en el desarrollo de resistencia en otros tipos de cáncer. 

“Eso nos llamó mucho la atención y nos impulsó a pensar que estos resultados realmente eran importantes”, dice, “por eso empezamos a probar en diferentes modelos, sobre células, ratones y distintos compuestos que inhibían de alguna manera esa proteína”. 

Allí encontraron el compuesto 1A-116 que, en ratones, frenaba el crecimiento de tumores resistentes. Sobre los experimentos de laboratorio, recuerda que generaban tumores resistentes exponiendo células a dosis crecientes de 5-FU y las células podían crecer a dosis muy altas. 

Sobre esas células probaban compuestos para ver si evitaban el crecimiento de las resistentes.

“La idea principal ahora, una vez encontrada esta proteína que ya vimos que es importante en la resistencia a los tratamientos, es probar estos compuestos en otros modelos, en otros tipos de cáncer para ver cómo responden”, comenta Anselmino.

Menacho Márquez resalta que parte de la investigación demostró una firma genética asociada al desarrollo de resistencias, muy clara en cáncer colorrectal y que, aparentemente, sería compartida por otros tipos tumorales en respuesta a otros tratamientos. 

“Las mismas proteínas que están confiriendo resistencia en cáncer colorrectal a tratamientos basados en 5-FU, también estarían implicadas en conferir resistencia en otros tipos tumorales, a otras drogas. Incluso, en radioterapias, por ejemplo en cáncer de cabeza y cuello o a terapias con inhibidores pequeños en cáncer de pulmón”, señala. 

“Tenemos reuniones con colegas de Francia porque están desarrollando compuestos inhibidores de estas proteínas y la idea es seguir con modelos pre clínicos para demostrar más fehacientemente la relevancia de esta vía y así pasar a ensayos clínicos, ya con personas”.

Por su parte Anselmino detalla: “Lo que están haciendo en Francia es probar un compuesto que es distinto al que nosotros probamos pero que ataca a la misma proteína”. 

De este modo, podrán ver cuál es el compuesto con mejor resultado y menos efectos secundarios. 

Estas características, asevera el científico, son las que necesitan para desarrollar una quimioterapia que no sólo cuide el avance del tumor, sino que sea paliativa y gentil con el paciente.

Referencia bibliográfica:

Anselmino, L. E., Malizia, F., Avila, A., Cesatti Laluce, N., Mamberto, M., Zanotti, L. C., … & Menacho Márquez, M. (2024). Overcoming Therapy Resistance in Colorectal Cancer: Targeting the Rac1 Signaling Pathway as a Potential Therapeutic Approach. Cells, 13(21), 1776.

DOI: https://doi.org/10.3390/cells13211776

Por Andrea G. Guereta – Comunicación Institucional CONICET Rosario

CONICET

inngeniar


jueves, 14 de noviembre de 2024

Transformación digital en el 9° Congreso de Tecnología y Justicia

 

 Expusimos las políticas nacionales de transformación digital en el 9° Congreso de Tecnología y Justicia

El secretario de Innovación, Ciencia y Tecnología de la Nación, Darío Genua, encabezó en Mendoza la inauguración de la segunda jornada del Congreso y firmó un acta de acuerdo con la Suprema Corte de Justicia provincial para promover y desarrollar políticas de transformación digital y alfabetización digital.

La Secretaría de Innovación, Ciencia y Tecnología estuvo presente en el 9° Congreso de Tecnología y Justicia en Mendoza, una oportunidad para que profesionales del derecho, la tecnología y la innovación conozcan las últimas tendencias en la digitalización del sistema de Justicia.

El evento fue organizado por el Instituto Federal de Innovación, Tecnología y Justicia (IFITEJ) de la Junta Federal de Cortes y Superiores Tribunales de Justicia (Ju.Fe.Jus.). 

Participaron representantes de empresas de tecnología y telecomunicaciones, y del sector público nacionales e internacionales. 

Se abordaron temas como la aplicación de la Inteligencia Artificialla transformación digital, la protección de datos y la gobernanza digital apuntando como eje a la Innovación Judicial al Servicio de la Ciudadanía.

En la apertura de la segunda jornada del Congreso, el secretario de Innovación, Ciencia y Tecnología, Darío Genua, repasó el plan que está llevando adelante la cartera de Innovación, Ciencia y Tecnología en materia de transformación digital: implementación de Inteligencia Artificial en los actos de Gobierno, actualización y reingeniería integral de aplicaciones y herramientas digitales que brindan servicios, entre otros desarrollos que permitan construir un Estado inteligente, que facilite el acceso y la eficiencia en las gestiones y trámites en beneficio de la ciudadanía.

“Este tipo de eventos nos permite vincularnos con buenas prácticas e iniciativas innovadoras, y es la oportunidad para promover la sinergia entre diferentes actores, incorporando además aportes y soluciones en innovación tecnológica provenientes del sector privado y del ámbito académico”, resaltó Genua.

En el Congreso también estuvo presente el subsecretario de Tecnologías de la Información y las Comunicaciones, César Gazzo Huck, en el panel “Políticas Nacionales de Transformación Digital”, donde focalizó en las soluciones y desarrollos digitales que el Gobierno Nacional está llevando adelante.

Acta acuerdo con la Suprema Corte de Justicia de Mendoza en materia de transformación digital

En el marco del evento, Genua firmó un acta acuerdo con Mario Adaro, ministro de la Suprema Corte de Justicia de Mendoza, para promover y desarrollar políticas de transformación digital y alfabetización digital.

Este convenio tiene el objetivo que la Suprema Corte de Justicia de Mendoza adopte soluciones tecnológicas que faciliten el acceso a la Justicia, mejoren la calidad de vida de sus ciudadanos, y den celeridad y seguridad jurídica a través de la innovación

Los principales ejes del convenio son:

-.- Digitalizar y disponibilizar en la app Mi Argentina las diferentes credenciales de la Suprema Corte de Justicia de Mendoza.

-.- Crear cursos para ampliar la cantidad de Autoridades de Registro para facilitar el acceso a la Firma Digital.

-.- Fomentar la colaboración por parte del Sistema de Identificación Nacional Tributario y Social (SINTYS) para la implementación del nuevo procedimiento de Beneficio de litigar sin Gastos.

-.- Expandir la red del Programa Punto Digital, creando nuevos espacios en juzgados y/o oficinas judiciales de Mendoza, priorizando aquellas áreas con baja conectividad y acceso limitado a servicios tecnológicos.

-.- Fomentar el uso de la Plataforma de Aprendizaje Virtual (PAV) en todo el poder judicial de la provincia, con especial énfasis en su integración en programas de capacitación laboral, inclusión digital y formación en derechos ciudadanos.

inngeniar


jueves, 24 de octubre de 2024

La CNEA en la OIEA sobre SMR

 

La CNEA participa en la Conferencia Internacional sobre Reactores Modulares Pequeños

El Dr. Ing. Germán Guido Lavalle, presidente de la Comisión Nacional de Energía Atómica, representa a la Argentina en el encuentro que reúne a más de 1.000 participantes de casi 100 países. 

Se trata de un foro global para intercambiar información y discutir oportunidades y desafíos de este tipo de reactores.

El presidente de la Comisión Nacional de Energía Atómica (CNEA), Dr. Ing. Germán Guido Lavalle, participa en la primera Conferencia Internacional sobre Reactores Modulares Pequeños (SMR) y sus Aplicaciones, organizada por el Organismo Internacional de Energía Atómica (OIEA) en su sede de Viena, Austria. 

Más de 1.000 representantes de casi 100 países asisten al encuentro, que empezó este lunes y se extenderá hasta el viernes. 

El objetivo de esta conferencia es funcionar como un foro global para discutir oportunidades y desafíos y establecer condiciones para el desarrollo y despliegue acelerado y seguro de este tipo de reactores.

“La apuesta por la generación nuclear de las grandes empresas tecnológicas ha cambiado el juego. 

El crecimiento nuclear pasa de ser una profecía de tecnólogos a convertirse en una realidad. 

Como venimos señalando, esto representa una oportunidad para la Argentina que debemos aprovechar a partir del importante volumen de recursos humanos muy calificados que tenemos en el sector”, expresó Guido Lavalle.

Los SMR son reactores diseñados para producir hasta 300 MW

Su construcción es más rápida que la de los reactores de mayor tamaño y, como son pequeños, resultan ideales para instalar en áreas remotas. 

Además, algunas empresas multinacionales están invirtiendo en el desarrollo de tecnología para abastecer a sus centros de inteligencia artificial.

De acuerdo a las estimaciones del OIEA, para 2050 la capacidad de generación de energía nuclear será dos veces y media mayor a la actual y un cuarto de esa capacidad provendré de los SMR-. 

“Para cubrir las necesidades de energías bajas en carbono de los países y las industrias, debemos garantizar la prueba y despliegue oportunos de SMR seguros. 

Para esto, la cooperación y la colaboración internacionales son esenciales”, afirmó el director general del OIEA, Rafael Grossi, antes del encuentro.

En el marco de la conferencia en Viena, se realizan paneles de presentación y discusión de los principales diseños de SMR, micro reactores y su ciclo de combustible; los enfoques de seguridad física, tecnológica y de salvaguardias; los marcos legislativos y regulatorios; los enfoques de financiamiento; el estado de los planes nacionales de energía nucleoeléctrica de los Estados miembros del OIEA y el intercambio de información y promoción de la cooperación internacional en la materia entre las partes interesadas, entre otros temas.

El lunes 21 por la mañana se celebró la Iniciativa de Armonización y Normalización Nuclear (NHSI, por sus siglas en inglés), una reunión plenaria convocada por el Director General del OIEA. 

La NHSI tiene como objetivo avanzar en la armonización y la normalización del diseño, la construcción y los enfoques reglamentarios e industriales de los SMR. 

Esta iniciativa consta de dos vías separadas y complementarias: la reguladora y la industrial.

Mientras tanto, este martes Women in Nuclear (WiN) IAEA realizó su evento paralelo SMRs: Women as Game Changers (SMR: mujeres que cambian las reglas del juego). 

Se trató de un debate en el que se evaluó cómo impacta la innovación nuclear en la vida de las mujeres de todo el mundo. 

También se analizó de qué manera las oportunidades profesionales que generan los proyectos de SMR contribuyen a cerrar la brecha de género en el campo nuclear.

Más tarde se celebró la “Noche de la Industria”, organizada por el OIEA y la Asociación Nuclear Mundial (WNA), donde convergieron proveedores de todo el mundo para presentar la última tecnología de reactores.

Por otra parte, este miércoles hubo un evento para la generación joven organizado conjuntamente por el Congreso Nuclear Internacional de Jóvenes (IYNC) y el OIEA. 

En este encuentro se debatió sobre cómo los SMR y los micro-reactores pueden contribuir a un futuro sostenible y equitativo.

Paralelamente a la conferencia se está realizando la Reunión Técnica sobre el Fortalecimiento de la Participación de los Actores Locales, en cuyo marco las autoridades del municipio de Zárate expresaron su interés en ser parte de la Global Partnership of Municipalities with Nuclear Facilities (Asociación Global de Municipios con Instalaciones Nucleares).

CNEA

inngeniar


martes, 8 de octubre de 2024

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

 

 Ilustración de los ganadores del Premio Nobel de Física 2024. Créditos: Niklas Elmehed © Nobel Prize Outreach

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

Gabriel Mindlin y Francisco Tamarit reflexionan sobre la importancia de sus contribuciones científicas.

La Real Academia Sueca de Ciencias otorgó el Premio Nobel de Física 2024 John J. Hopfield y Geoffrey E. Hinton, considerados los “padrinos” de la inteligencia artificial, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. 

Hopfield creó una red neuronal artificial para almacenar y recuperar memoria por asociación, lo que permite, por ejemplo, almacenar y reconstruir imágenes y otros tipos de patrones en los datos e información. 

Por su parte, Hinton inventó un algoritmo “de la retropropagación del error”, que permite que las redes neuronales artificiales “aprendan” a partir de experiencias en forma muy similar a la forma en que aprendemos los humanos y los animales. 

Estas contribuciones fueron claves para diseñar las grandes redes neuronales artificiales que se utilizan actualmente.

“Me parece excelente que los hayan premiado”, indica Gabriel Mindlin, científico del CONICET en el Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA), que incorporó las herramientas de trabajo diseñadas por los Premios Nobel para estudiar a las aves individuales a través de sus vocalizaciones para monitorear poblaciones amenazadas. 

“Tanto en sus aspectos beneficiosos como en sus aspectos más amenazantes, la teoría de redes está produciendo un cambio en la humanidad de proporciones colosales, y fueron las contribuciones de estos dos científicos los que crearon los pilares de esta nueva revolución conceptual que estamos viviendo”, advierte.

Tal como explica Mindlin, la ciencia tradicional se basó siempre en dilucidar los mecanismos de cómo funcionan las cosas. 

Hopfield diseño un dispositivo conceptual -las “redes neuronales”- capaces de expresar comportamientos interesantes emergentes, y Hinton logró entrenar a esas redes a partir de ejemplos para resolver problemas complejos, abriendo un nuevo modo de hacer ciencia. 

“Con sus luces y sus sombras, lo que hicieron fue un cambio conceptual respecto de cómo pretendíamos operar sobre el mundo desde la filosofía griega a esta parte”, asegura Mindlin.

Para Francisco Tamarit, investigador del Instituto de Física Enrique Gaviola (IFEG), el premio es “un acto de justicia, porque Hopfield es quien dio el puntapié para el auge de las redes neuronales que estamos viviendo hoy, quien tuvo la primera idea de esta revolución”. 

Tamarit conoció al propio Hopfield en vivo y en directo. 

“Fue en la Universidad de San Pablo en San Carlos, donde fui a tomar un curso con él hace muchos años, y pude comprobar que es una persona muy generosa”.

Tamarit, apenas se recibió de físico en 1987, había comenzado a trabajar con el modelo de redes neuronales publicados por Hopfield en 1982. 

“Yo siempre digo en mis conferencias y cursos, que sin dudas todo lo que tenemos hoy en inteligencia artificial se lo debemos a él, porque nos sacó del llamado ´invierno´ de la inteligencia artificial, donde se habían estancado las investigaciones en la materia”, dice el científico.

“Hopfield trabajaba en el modelado de vidrios, y se dio cuenta, en 1982, que estos materiales tan baratos y comunes podían llevarlo a modelar un cerebro humano para almacenar memoria, como almacenan los animales. 

Su trabajo quedó escondido hasta que otros científicos italianos e israelitas lo retomaron en el año 1985. 

No descubrió algo, lo inventó. 

Y sus ideas, como las de Hinton, son las que ahora usamos en todas las redes neuronales artificiales que dan lugar a la inteligencia artificial más sofisticada, como la que vemos por ejemplo en el Chat GPT”.

Los laureados

Tal como difundió en un comunicado la Academia Sueca, “cuando hablamos de inteligencia artificial, a menudo nos referimos al aprendizaje automático mediante redes neuronales artificiales. 

Esta tecnología se inspiró originalmente en la estructura del cerebro. 

En una red neuronal artificial, las neuronas del cerebro están representadas por nodos que tienen valores diferentes. 

Estos nodos se influyen entre sí a través de conexiones que pueden compararse con sinapsis y que pueden fortalecerse o debilitarse. 

La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos con valores simultáneamente altos. 

Los galardonados de este año han realizado importantes trabajos con redes neuronales artificiales desde los años 80 en adelante”.

Hopfield inventó una red que utiliza un método para guardar y recrear patrones. 

“Podemos imaginar los nodos como píxeles. 

La red Hopfield utiliza la física que describe las características de un material debido a su giro atómico, una propiedad que convierte a cada átomo en un imán diminuto. 

La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y se entrena encontrando valores para las conexiones entre los nodos para que las imágenes guardadas tengan baja energía. 

Cuando la red Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores para que la energía de la red disminuya. 

Así, la red trabaja paso a paso para encontrar la imagen guardada que más se parezca a la imperfecta con la que fue alimentada”, explicaron desde la organización de los Premios Nobel.

Geoffrey Hinton, por su parte, utilizó la red Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann. 

“Este puede aprender a reconocer elementos característicos en un determinado tipo de datos. 

Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares. 

La máquina se entrena dándole ejemplos que es muy probable que surjan cuando la máquina está en funcionamiento. 

La máquina Boltzmann se puede utilizar para clasificar imágenes o crear nuevos ejemplos del tipo de patrón en el que fue entrenada. Hinton se ha basado en este trabajo y ha ayudado a iniciar el explosivo desarrollo actual del aprendizaje automático”.

Por Cintia Kemelmajer

CONICET

inngeniar


domingo, 6 de octubre de 2024

Jornada de Mercado Libre sobre IA

 

Participamos de una jornada de Mercado Libre sobre IA

El Secretario de Innovación, Ciencia y Tecnología, Darío Genua, estuvo presente en una jornada organizada por Mercado Libre para que funcionarios nacionales y expertos del sector conversen sobre los horizontes de aplicación de la Inteligencia Artificial.

El Secretario de Innovación, Ciencia y Tecnología, Darío Genua, participó de Mercado Libre Open House. Puertas Abiertas a la Inteligencia Artificial, una jornada organizada por Mercado Libre para que legisladores nacionales y expertos del sector conversen sobre los horizontes de aplicación de esta tecnología.

El evento tuvo lugar en las en las oficinas de Mercado Libre en el barrio de Saavedra y se dividió en 4 paneles: 

#PoneleIAaTodo. 

Qué es y qué no es la IA; 

IA en modo pistacho. Reflexiones a prueba de futuro; 

Presente y Futuro de la IA. 

Su aplicación en el sector privado;

Argentina a la vanguardia de la IA.

Darío Genua participó del último panel, Argentina a la vanguardia, junto a Juan Martín Ozores, presidente del Ente Nacional de Comunicaciones (ENACOM) y Gabriel Díaz Zolorzalo, Gerente de Relaciones Gubernamentales de Mercado Libre, quien fue el moderador del panel.

Durante su intervención, Genua expresó que Argentina tiene la oportunidad de ponerse a la vanguardia en la adopción de la IA, pero debe hacerlo con un marco regulatorio flexible que propicie la llegada de inversiones para su desarrollo: 

“Desde el Gobierno Nacional consideramos que es necesario ser estratégicos en las políticas públicas y los marcos que establecemos como país en torno a la Inteligencia Artificial

Tenemos que colocarnos a la vanguardia en su impulso y regulación, atendiendo a sus desafíos y garantizando un desarrollo seguro, para no quedarnos atrás en un mundo que avanza rápidamente en esa dirección.”

Además, en relación a las capacidades que tiene el país para posicionarse como un actor protagónico dentro del conjunto de economías que lideran los procesos de transformación digital Genua resaltó que “construyendo reglas claras, generando condiciones de previsibilidad y promoviendo la colaboración público-privada, vamos a poder avanzar en una agenda de progreso económico con eje en la innovación tecnológica”.

Por su parte, Juan Martín Ozores habló de la relación que hay entre la infraestructura de redes y la Inteligencia Artificial: 

“El desarrollo de las telecomunicaciones permite que la IA esté disponible para más personas y empresas, reduciendo la brecha digital. 

Las redes de telecomunicaciones modernas proporcionan transmisiones de alta velocidad con grandes volúmenes de datos, lo que permite un rápido movimiento de conjuntos de datos masivos, fundamental para el entrenamiento de modelos de IA complejos”.

Secyt

inngeniar


martes, 10 de septiembre de 2024

Inteligencia Artificial con el sector privado Se realizó una Mesa de trabajo

 

Se realizó una Mesa de trabajo sobre Inteligencia Artificial con el sector privado

Con el objetivo de construir un ecosistema que impulse el desarrollo de la Inteligencia Artificial, la Secretaría de Innovación, Ciencia y Tecnología organizó una reunión con empresas del sector a fin de potenciar la adopción de esta tecnología.

Con la presencia del Secretario de Innovación, Ciencia y Tecnología, Darío Genua, se realizó esta mañana en el Salón 2 del Centro Cultural de la Ciencia (C3), una reunión con representantes de empresas tecnológicas. 

El fin fue establecer un desarrollo seguro que impulse la economía de la Inteligencia Artificial (IA) y promueva su aplicación en diversos sectores productivos, de conformidad con un marco ético, de desarrollo sostenible y de transformación digital.

“Es necesario ser estratégicos en las políticas que desplegamos como país en torno a la IA, ya que hoy nos urge potenciar su desarrollo para no quedarnos atrás en un mundo que avanza rápidamente en esa dirección”, sostuvo Genua.

Y agregó: “Nuestro país tiene un notable desarrollo e inmensas perspectivas a futuro en los sectores del agro, la biotecnología, la energía y la Economía del Conocimiento. 

En estas áreas, la Inteligencia Artificial constituye una herramienta fundamental para potenciarlas, y el Estado debe contribuir generando un marco que propicie esa aplicación”.

La Mesa de trabajo contó con la participación de las compañías

 Meta, IBM, Google, Globant, Mercado Libre, Amazon Web Services, Worldcoin, Microsoft, Uber, NTT Data, Octupus y Sales Force. 

Asistieron también representantes del Banco Interamericano de Desarrollo (BID), del Banco Internacional de Reconstrucción y Fomento (BIRF), del Banco Centroamericano de Integración Económica y del Banco de Desarrollo de América (CAF).

inngeniar


CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

  

La CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

La Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece el servicio de computación de alto desempeño denominado Clúster Neurus, que puede resolver aproximadamente 29 billones de operaciones de punto flotante por segundo. 

Se utiliza para realizar simulaciones que preceden a pruebas experimentales costosas y complejas.

Los proyectos de investigación y desarrollo que lleva adelante la Comisión Nacional de Energía Atómica (CNEA) requieren el apoyo de sistemas informáticos extremadamente veloces, capaces de realizar simulaciones que preceden a pruebas experimentales costosas, complejas y muchas veces imposibles de reproducir en la realidad.

El Departamento Computación de Alta Prestación de la Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece soluciones a medida para las necesidades computacionales de los investigadores. 

En la actualidad, cuenta con el servicio de computación de alto desempeño denominado Clúster Neurus. 

Además, avanza con un proyecto para la creación de un nuevo clúster con tecnologías de punta, para ofrecer nuevos y mejores servicios y recursos de procesamiento gráfico a los que se podrá acceder a través de una interfaz web.

“Un clúster de High Performance Computing (HPC, Alto Desempeño Computacional) es un conjunto de computadoras o nodos que cooperan para resolver un problema. 

Cada uno de esos nodos toma una parte de ese problema y lo resuelve”, define la Dra. Verónica Venturini, subgerente de Vinculación y Desarrollo de Nuevas Tecnologías de la Información de la CNEA.

Teóricamente la capacidad de procesamiento de un clúster equivale a la suma de las potencias de sus nodos. 

“Al dividir el problema en partes que los nodos van resolviendo simultáneamente y de manera concurrente, se llega a la solución mucho más rápido”, explica Gastón Aguilera, el jefe del Departamento Computación Alta Prestación.

Entre otras aplicaciones, los clústers de HPC sirven para estudiar las propiedades estructurales, de transporte y dinámicas de distintos sistemas; simular reacciones químicas, biológicas y catalíticas; diseñar nuevos materiales, y también recopilar y procesar grandes volúmenes de datos relacionados con la astrofísica y la física de la atmósfera.

“Los clústers de HPC son una herramienta para los científicos, que los utilizan como laboratorios virtuales para realizar simulaciones y estudiar, por ejemplo, cómo se comportaría determinado sistema o cierto material. 

Por ejemplo, si se diseña una pieza para un reactor, se puede hacer una simulación sobre cómo se va a comportar en la realidad y recién fabricar el prototipo sobre un diseño evaluado en el ambiente virtual, donde se explicitaron las leyes matemáticas que rigen su comportamiento”, detalla Aguilera. 

“Las simulaciones requieren demasiados recursos físicos y, por ese motivo, pueden resolverse con mayor rapidez en un clúster”, resalta Venturini.

El clúster de HPC que administra el grupo que pertenece a la GTIC se llama Neurus y cuenta con 25 nodos que reúnen 700 cores o núcleos de procesamiento. 

Hace diez años que se encuentra en funcionamiento, pero no fue el primero que construyó, puso en mantenimiento y administró su grupo de trabajo.

Mucho antes de soñar con la supercomputación o los clústers de HPC, en 1977, en la CNEA se creó el Centro de Cómputos que después se convertiría en GTIC

Su herramienta era una computadora IBM 370 de 1 MB de memoria RAM y discos IBM 3350 de 300 MB cada uno. 

El sistema contaba con 20 terminales que dependían totalmente del procesador central. 

Era de lo más avanzado para la época. 

Desde entonces, se encaró el desafío de dotar al organismo con sistemas de vanguardia para ir acompañando los requerimientos de sus investigadores. 

Así también se adquirió un supercomputador SUN Enterprise 6000, denominado Fénix, de 16 procesadores y 8GB de memoria RAM que cubrió los requerimientos computacionales de los usuarios por varios años desde 1997.

La revolución de las supercomputadoras llegó a la CNEA en 2003, cuando comenzó el proceso para desarrollar su primer clúster. 

Así, en 2007 comenzó a funcionar el clúster de HPC Sheldon

Tenía un rendimiento operativo promedio de 290 GigaFLOPS, es decir que podía realizar 290 mil millones de Operaciones de Punto Flotante por Segundo. 

Su sucesor, en septiembre de 2010, fue ISAAC (Information Systems and Advance Computer), en referencia a Newton y en honor a Asimov, con un rendimiento pico de 5,5 TeraFLOPS (5,5 billones de operaciones de punto flotante por segundo).

Actualmente, Neurus tiene 29 TeraFLOPS de rendimiento máximo teórico del sistema. 

Eso significa que tiene la capacidad de resolver aproximadamente 29 billones de operaciones de punto flotante por segundo, con un almacenamiento para archivos de usuario de 24 TeraBytes sobre ZFS (Zettabyte File System).

El próximo proyecto se llama “CNEA Dynamic Cloud Computing” y consiste en desarrollar una plataforma que permita la utilización de diferentes softwares específicos, algunos de ellos con licencias. 

Además, se busca que brinde la flexibilidad para soportar los cambios en los sistemas, como ocurre con la demanda de cálculo para Inteligencia Artificial

Los grupos de la CNEA que requieran el uso de esta plataforma podrán acceder en forma remota, tal como lo ofrecen algunas soluciones de cloud computing del mercado. 

El punto destacable de este proyecto es que la plataforma será interna para la CNEA, manteniendo la privacidad y confidencialidad de los datos.

“La idea es armar configuraciones de cómputo especiales para cubrir las necesidades de cada grupo, que podrá trabajar vía web tanto para la preparación como para la ejecución y la visualización de los resultados”, dice Aguilera. 

Esta nueva plataforma permitirá no sólo la ejecución de simulaciones con posibilidad de elegir recursos físicos, sino que además proporcionará al usuario herramientas para hacer uso de algoritmos de Inteligencia Artificial y Machine Learning pre definidos.

El grupo de Computación de Alta Prestación de la CNEA fue renovándose con los años y hoy está conformado por Andrés Alonso, Leonardo Domínguez, Roque Iozzo, Leandro Clemente y Gastón Aguilera. 

Se trata de personal altamente calificado, con más de 20 años de experiencia en el ciclo de vida y soporte a usuarios de clústers y de servicios relacionados.

CNEA

inngeniar


jueves, 29 de agosto de 2024

Biología Estructural y la Bioimagen en América Latina Fortalecimiento

  

Firma del Memorando de Entendimiento entre la red CEBEM y LABI en Río de Janeiro. Foto: gentileza Comunidad Mexicana de Bioimagen.

Fortalecimiento de la Biología Estructural y la Bioimagen en América Latina

El Centro de Biología Estructural del Mercosur (CEBEM) y la Latin American Bioimaging (LABI) han formalizado una alianza estratégica. 

El Centro de Biología Estructural del Mercosur (CEBEM) y la Latin American Bioimaging (LABI) han formalizado una alianza estratégica y fortalecen sus lazos de cooperación. 

Ambas instituciones están coordinadas por investigadoras del Consejo y cuentan con más de 100 investigadores del CONICET entre sus miembros

Este acuerdo representa un hito en la colaboración científica en América Latina, enfocándose en la biología estructural y las bioimágenes.

Este acuerdo entre CEBEM y LABI refleja el compromiso de ambas organizaciones por combinar fuerzas y maximizar el uso de tecnologías avanzadas, como la criomicroscopía y la inteligencia artificial, que están revolucionando la investigación en biología estructural y bioimágenes.

La colaboración permitirá la creación de un Foro de Discusión Estratégica para intercambiar ideas y definir estrategias de desarrollo a largo plazo, así como mantener una colaboración activa con redes globales como Eurobioimaging, Instruct y Global Bioimaging.

El acuerdo facilitará la superación de limitaciones estructurales, el fortalecimiento de las capacidades regionales y la identificación y desarrollo de estrategias sostenibles, apoyadas por un análisis detallado de la situación actual en la región y el acceso a financiamiento significativo.

Impacto y logros recientes

En los últimos años, CEBEM ha logrado importantes avances, incluyendo el otorgamiento de becas de movilidad para jóvenes investigadores del CONICET y de otros países de Latinoamérica, la formación de grupos de trabajo para optimizar el uso de equipamientos y la organización de cursos especializados. 

La firma de este acuerdo con LABI es un paso clave para la consolidación de una red robusta y la planificación de un futuro prometedor para la biología estructural y las bioimágenes en América Latina.

Red de Integración

CEBEM incluye grupos de investigación en Argentina, Brasil, Uruguay, Paraguay y Chile, y cuenta con un historial de colaboración internacional desde su fundación en 2007. 

La red está formada por destacados grupos de investigación en biología estructural y ciencia de proteínas. 

En la actualidad está coordinado por las doctoras María Natalia Lisa, investigadora del CONICET en el Instituto de Biología Molecular y Celular de Rosario (IBR, CONICET – UNR), junto a Karina Alleva, del Instituto de Química y Fisicoquímica Biológicas (IQUIFIB, CONICET-UBA).

Forman parte del CEBEM grupos de Instituto de Investigaciones Bioquímicas de Buenos Aires (IIBBA, CONICET-FIL), Instituto de Biología Molecular y Celular de Rosario (IBR, CONICET-UNR), Centro de Investigaciones en Bionanociencias (CIBION), Instituto de Química y Fisicoquímica Biológica (IQUIFIB, UBA-CONICET), Centro de Investigaciones en Química Biológica de Córdoba (CIQUIBIC, CONICET-UNC), Instituto de Investigaciones Biológicas (IIB, CONICET – UNMdP), Instituto de Química, Física de Materiales, Medio Ambiente y Energía (INQUIMAE, UBA-CONICET), Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA) y el Instituto de Biociencias, Biotecnología y Biología traslacional (IB3, UBA-CONICET).

LABI, por su parte, es una red colaborativa que abarca 13 países de América Latina y el Caribe, con 70 instalaciones centrales. 

Esta red fue impulsada por un proyecto de cooperación entre Uruguay y México y cuenta con el respaldo de la Chan Zuckerberg Initiative. 

LABI promueve la bioimagen a través de capacitación, educación y acceso abierto a tecnologías. 

Actualmente esta red también está coordinada desde Argentina, por la doctora Lía Pietrasanta, del IFIBA.

Hay más de 130 científicos argentinos asociados a LABI que forman parte de los siguientes institutos del CONICET:

Instituto de Fisiología y Biología Molecular y Neurociencias (IFIBYNE, CONICET-UBA), IFIBA, , Centro Integral de Microscopía Electrónica (CIME, CONICET-UNT), CIBION, Instituto de Biología y Medicina Experimental (IBYME, CONICET- F-IBYME), Centro de Investigación en Medicina Traslacional Severo Amuchástegui (CIMETSA, CONICET-IUCBC), Instituto de Investigaciones Médicas Mercedes y Martín Ferreyra (INIMEC, CONICET-UNC), IIBBA, Centro de Micro y Nanoscopía de Córdoba (CEMINCO, CONICET-UNC), Instituto de Química Biológica de la Facultad de Ciencias Exactas y Naturales (IQUIBICEN, CONICET-UBA), IIB, Instituto de Fisiología y Biofísica Bernardo Houssay (IFIBIO HOUSSAY, CONICET-UBA), IBR, Instituto de Histología y Embriología de Mendoza (IHEM, CONICET-UNCUYO), Instituto de Física Rosario (IFIR, CONICET-UNR), Centro de Investigaciones en Química Biológica de Córdoba (CIQUIBIC, CONICET-UNC), Centro de Investigación en Bioquímica Clínica e Inmunología (CIBICI, CONICET-UNC), Instituto Tecnológico de Chascomús (INTECH, CONICET-UNSAM), Instituto de Investigación en Ciencia y Tecnología de Materiales (INTEMA, CONICET-UNMdP), Instituto de Agrobiotecnología del Litoral (IAL, CONICET-UNL), Instituto de Biotecnología Ambiental y de la Salud (INBIAS, CONICET-UNRC), Instituto de Investigaciones en Tecnologías Energéticas y Materiales Avanzados (IITEMA, CONICET- UNRC), Instituto de Investigación y Desarrollo en Bioingeniería y Bioinformática (IBB, CONICET-UNER), Instituto de Investigaciones Bioquímicas de Bahía Blanca (INIBIBB, CONICET-UNS), Instituto de Investigaciones Biomédicas (BIOMED, CONICET-UCA), Instituto de Investigaciones Fisicoquímicas Teóricas y Aplicadas (INIFTA, CONICET-UNLP), Instituto de Investigación en Biomedicina de Buenos Aires (IBioBA, CONICET-Max Planck), IQUIFIB, Centro de Investigación y Desarrollo en Materiales Avanzados y Almacenamiento de Energía de Jujuy (CIDMEJu, CONICET-UNJu), Edificio Grandes Instrumentos (SECEGRIN), Centro de Estudios Fotosintéticos y Bioquímicos (CEFOBI, CONICET-UNR), Instituto de Investigaciones en Ingeniería Genética y Biología Molecular “Dr. Héctor N. Torres” (INGEBI, CONICET), Instituto de Investigaciones en Físico-Química de Córdoba (INFIQC, CONICET), Instituto de Investigaciones Bioquímicas de La Plata “Profesor Doctor Rodolfo R. Brenner” (INIBIOLP, CONICET-UNLP), Centro de Investigaciones Cardiovasculares Dr. Horacio E. Cingolani (CIC, CONICET-UNLP), Instituto de Cálculo (IC, UBA-CONICET), Instituto de Biodiversidad y Biología Experimental y Aplicada (IBBEA, UBA-CONICET), Centro de Investigación en Biofísica Aplicada y Alimentos (CIBAAL, CONICET-UNSE), Centro de Investigaciones Ópticas (CIOp, CONICET-UNLP-CIC PBA), Centro Interdisciplinario de Investigaciones en Tecnologías y Desarrollo Social (CIITED, CONICET-UNJu) y el Instituto de Patología Experimental (IPE, CONICET-UNSa).

Por Comunicación IBR.

CONICET

inngeniar


viernes, 23 de agosto de 2024

Convenio CONICET Actyon

  

Fabiana Arzuaga y Daniel Salamone - Convenio entre el CONICET y la Fundación ACTYON

Convenio entre el CONICET y la Fundación ACTYON

El acuerdo de colaboración conjunta contará con el aporte del Consejo en la investigación y el desarrollo de un programa para brindar acceso a estudios de secuenciación genómica para el diagnóstico de enfermedades poco frecuentes y otras patologías.

El presidente del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) Daniel Salamone y la titular de la Fundación ACTYON Fabiana Arzuaga, firmaron un convenio de colaboración conjunta para el desarrollo de actividades científicas tecnológicas y técnicas, que tiene como objetivo crear un programa para brindar acceso a estudios de secuenciación genómica para el diagnóstico de enfermedades poco frecuentes y otras patologías, el uso de la inteligencia artificial para el análisis de datos clínicos y genéticos y el acceso a terapias génicas, entre otros temas de interés común.

Las partes dialogaron sobre la importancia de este convenio para la consolidación de un avance científico y médico a partir de la aplicación de tecnologías emergentes para mejorar la salud de la población. 

El presidente del Consejo destacó que el uso de estas tecnologías innovadoras como la inteligencia artificial abren nuevas vías a la colaboración entre instituciones académicas, incubadoras y empresas, así como facilitan el avance en la identificación de enfermedades y las posibles terapias.

A través de la coordinación científica del investigador del Consejo en el Instituto de Ecología, Genética y Evolución de Buenos Aires (IEGEBA, UBA-CONICET) Hernán Dopazo se van a llevar a cabo las diversas actividades, entre ellas: la construcción de librerías genómicas de segunda y tercera generación de secuenciación de diferentes enfermedades poco frecuentes; la integración de módulos de software de instituciones extranjeras que ya han desarrollado código para la carga y análisis de datos fenotípicos y genómicos de pacientes y, por último, la participación en reuniones y congresos para afianzar el diálogo con las organizaciones de pacientes, profesionales médicos de diferentes disciplinas y otros actores relevantes del área de salud que promuevan el desarrollo de la Medicina Genómica en la Argentina.

Estuvieron presentes, la presidenta de la Asociación de Pacientes y Padres de Niños con Enfermedad de Stargardt de Argentina (Stargardt APNES) Marcela Ciccioli y el bioinformático de ACTYON Ezequiel Fernández.

Convenio entre el CONICET y la Fundación ACTYON

Terapias génicas: ensayos e impacto

La terapia génica, es una técnica de la biología molecular que permite introducir una secuencia genética a través de un vector para producir una proteína funcional en las células que no pueden producirla. 

De esta manera, se puede introducir un gen cuyo efecto ayude a tratar una enfermedad, o introducir un gen cuyo efecto ayude a tratar una enfermedad o a inactivar un gen cuya falla produce la enfermedad. 

En 2017 la Administración de Alimentos y Medicamentos (FDA, por su sigla en inglés) aprobó la primera terapia génica para las distrofias hereditarias de la retina y el nervio óptico ocasionadas por fallas en el gen RPE65. 

En Argentina fue aprobada por la ANMAT en 2021.

A través de la Red de Asociaciones de Pacientes para Terapias Avanzadas (RED APTA) la asociación Stargardt APNES pudo identificar a todos los pacientes argentinos candidatos a esa terapia génica y lograron la aplicación en 10 pacientes en los que resultó exitosa.

De esta manera, el acuerdo entre la Fundación ACTYON y el CONICET avanza con el compromiso de mejorar la calidad de vida de pacientes en Argentina y Latinoamérica a través de la ciencia y la tecnología.

Convenio entre el CONICET y la Fundación ACTYON

Sobre la Fundación ACTYON

La Fundación ACTYON tiene como objetivo investigar, asesorar, generar vínculos, accionar en beneficio de la generación y transferencia de conocimiento científico, en particular el relacionado con las ciencias de la vida, la salud humana, la genética, las neurociencias y las terapias avanzadas.

Desde su creación en 2014, ACTYON ha tenido un rol activo en la construcción del marco de gobernanza para los Medicamentos de Terapias Avanzadas y los Biobancos en el país.

CONICET

inngeniar