viernes, 22 de noviembre de 2024

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

 

 Células de cáncer colorrectal resistentes a terapia teñidas para visualizar el núcleo, y el citoesqueleto

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

La investigación, con participación del CONICET, descubrió que GTPasa es la responsable de que se genere resistencia al tratamiento más utilizado contra esta patología.

Investigadores del Instituto de Inmunología Clínica y Experimental de Rosario (IDICER, CONICET-UNR) y del Centro de Investigación del Cáncer Rosario detectaron una proteína responsable de generar resistencia al 5-fluorouracilo -5 FU-, la droga más usada en Argentina contra el cáncer de colon. 

El hallazgo fue publicado en la revista Cells, un medio de vanguardia en avances de oncología y biomedicina, y abre la puerta para desarrollar terapias contra este cáncer más efectivas y con menos efectos secundarios para los pacientes.

Mauricio Menacho Márquez, investigador del CONICET en el IDICER y uno de los autores de la publicación, explicó que el cáncer de colon es uno de los más diagnosticados, no sólo en el país sino también a nivel mundial, y que junto con el cáncer de mama en mujeres y el de pulmón, es de los tres tipos tumorales más frecuentes; con la particularidad de que, si se lo detecta a tiempo, las terapias son muy efectivas. 

“Si bien los tumores responden bien inicialmente a tratamientos basados en 5-fluorouracilo, muchos tipos tumorales se vuelven resistentes a la terapia y esta deja de funcionar”, explica.

Al respecto el científico y también autor del artículo, Luciano Anselmino, detalla que hay personas con mayor predisposición a desarrollar resistencia que otras. 

El problema, apunta, es que las quimioterapias que se usan actualmente suelen ser también citotóxicas, es decir que “cuando uno está sometido a una quimioterapia, ese fármaco no sólo afecta al tumor sino que también afecta a otros tejidos del cuerpo”.  

Es lo que se conoce como efectos secundarios: caída del cabello, debilitamiento de las uñas, descamación de la piel, entre otros.

Anselmino cuenta que esos efectos son los que evitan que los médicos puedan incrementar las dosis. 

“Lo que estamos buscando nosotros son compuestos que tengan pocos efectos secundarios y que de alguna forma puedan resensibilizar a los pacientes a las terapias actuales”, señala.

“No es como la resistencia bacteriana, que por el uso indiscriminado de antibióticos aparecen cepas resistentes, sino que alguien con cáncer colorrectal puede venir respondiendo bien inicialmente porque inicialmente no es resistente, incluso el tumor puede ir desapareciendo, pero al tiempo se empiezan a seleccionar clones resistentes, clones que no responden, clones que generaron mutaciones adicionales y eso hace que el tumor vuelva a crecer y que ya no responda de la manera que respondía a la terapia y se vuelva resistente al tratamiento”, añade Menacho Márquez.

Nahuel Laluce (Izq.), Florencia Malizia, Aylén Avila, Mauricio Menacho Márquez, Lucia Zanotti, Macarena Mamberto y Luciano Anselmino. Foto: gentileza investigadores

Los orígenes del estudio y sus aportes    

Luciano Anselmino y su grupo venían estudiando fármacos con potencial para sensibilizar a algunos pacientes. 

En esta oportunidad, buscaron objetivos terapéuticos, es decir, objetivos para nuevos tratamientos o para tratamientos alternativos que resensibilizaran a pacientes que ya no respondieran a terapias con 5-FU. 

“Lo que hicimos fue aprovechar datos biológicos que se generan constantemente a partir de los avances tecnológicos de las últimas décadas”, dice.

Según indica el científico, cada vez hay más datos de secuenciación genómica -de los ADN de las personas-, y esos datos son públicos para la comunidad científica. 

“Nosotros aprovechamos esta información y desarrollamos un flujo de trabajo, una manera de organizarla que nos permita detectar potenciales objetivos, potenciales proteínas”. 

Para hacerlo, en el equipo científico se formaron en Inteligencia Artificial -IA- aplicada al área salud para desarrollar programas y algoritmos que puedan ir aprendiendo a clasificar a los pacientes entre “respondedores” y “no respondedores” a las terapias a las que estaban sometidos. 

Luego de hacer una intensa búsqueda y un análisis informático con IA durante un tiempo prolongado, aparecieron los objetivos claves en el desarrollo de resistencia en pacientes con cáncer colorrectal.

Menacho Márquez recuerda que pusieron el foco en esas proteínas para ver si existían drogas que apuntaran hacia ellas. 

Y que comenzaron a colaborar colegas de la Universidad Nacional de Quilmes, que les enviaron un compuesto inhibidor de esas proteínas que se llaman GTPasas pequeñas, en particular Rac1, y con un colaborador de Francia, que también había desarrollado un inhibidor de esas proteínas.

Anselmino agrega que el encuentro con estos otros grupos de investigación fue interesante ya que vieron que esa misma vía -GTPasas-, estaba involucrada en el desarrollo de resistencia en otros tipos de cáncer. 

“Eso nos llamó mucho la atención y nos impulsó a pensar que estos resultados realmente eran importantes”, dice, “por eso empezamos a probar en diferentes modelos, sobre células, ratones y distintos compuestos que inhibían de alguna manera esa proteína”. 

Allí encontraron el compuesto 1A-116 que, en ratones, frenaba el crecimiento de tumores resistentes. Sobre los experimentos de laboratorio, recuerda que generaban tumores resistentes exponiendo células a dosis crecientes de 5-FU y las células podían crecer a dosis muy altas. 

Sobre esas células probaban compuestos para ver si evitaban el crecimiento de las resistentes.

“La idea principal ahora, una vez encontrada esta proteína que ya vimos que es importante en la resistencia a los tratamientos, es probar estos compuestos en otros modelos, en otros tipos de cáncer para ver cómo responden”, comenta Anselmino.

Menacho Márquez resalta que parte de la investigación demostró una firma genética asociada al desarrollo de resistencias, muy clara en cáncer colorrectal y que, aparentemente, sería compartida por otros tipos tumorales en respuesta a otros tratamientos. 

“Las mismas proteínas que están confiriendo resistencia en cáncer colorrectal a tratamientos basados en 5-FU, también estarían implicadas en conferir resistencia en otros tipos tumorales, a otras drogas. Incluso, en radioterapias, por ejemplo en cáncer de cabeza y cuello o a terapias con inhibidores pequeños en cáncer de pulmón”, señala. 

“Tenemos reuniones con colegas de Francia porque están desarrollando compuestos inhibidores de estas proteínas y la idea es seguir con modelos pre clínicos para demostrar más fehacientemente la relevancia de esta vía y así pasar a ensayos clínicos, ya con personas”.

Por su parte Anselmino detalla: “Lo que están haciendo en Francia es probar un compuesto que es distinto al que nosotros probamos pero que ataca a la misma proteína”. 

De este modo, podrán ver cuál es el compuesto con mejor resultado y menos efectos secundarios. 

Estas características, asevera el científico, son las que necesitan para desarrollar una quimioterapia que no sólo cuide el avance del tumor, sino que sea paliativa y gentil con el paciente.

Referencia bibliográfica:

Anselmino, L. E., Malizia, F., Avila, A., Cesatti Laluce, N., Mamberto, M., Zanotti, L. C., … & Menacho Márquez, M. (2024). Overcoming Therapy Resistance in Colorectal Cancer: Targeting the Rac1 Signaling Pathway as a Potential Therapeutic Approach. Cells, 13(21), 1776.

DOI: https://doi.org/10.3390/cells13211776

Por Andrea G. Guereta – Comunicación Institucional CONICET Rosario

CONICET

inngeniar


jueves, 14 de noviembre de 2024

Transformación digital en el 9° Congreso de Tecnología y Justicia

 

 Expusimos las políticas nacionales de transformación digital en el 9° Congreso de Tecnología y Justicia

El secretario de Innovación, Ciencia y Tecnología de la Nación, Darío Genua, encabezó en Mendoza la inauguración de la segunda jornada del Congreso y firmó un acta de acuerdo con la Suprema Corte de Justicia provincial para promover y desarrollar políticas de transformación digital y alfabetización digital.

La Secretaría de Innovación, Ciencia y Tecnología estuvo presente en el 9° Congreso de Tecnología y Justicia en Mendoza, una oportunidad para que profesionales del derecho, la tecnología y la innovación conozcan las últimas tendencias en la digitalización del sistema de Justicia.

El evento fue organizado por el Instituto Federal de Innovación, Tecnología y Justicia (IFITEJ) de la Junta Federal de Cortes y Superiores Tribunales de Justicia (Ju.Fe.Jus.). 

Participaron representantes de empresas de tecnología y telecomunicaciones, y del sector público nacionales e internacionales. 

Se abordaron temas como la aplicación de la Inteligencia Artificialla transformación digital, la protección de datos y la gobernanza digital apuntando como eje a la Innovación Judicial al Servicio de la Ciudadanía.

En la apertura de la segunda jornada del Congreso, el secretario de Innovación, Ciencia y Tecnología, Darío Genua, repasó el plan que está llevando adelante la cartera de Innovación, Ciencia y Tecnología en materia de transformación digital: implementación de Inteligencia Artificial en los actos de Gobierno, actualización y reingeniería integral de aplicaciones y herramientas digitales que brindan servicios, entre otros desarrollos que permitan construir un Estado inteligente, que facilite el acceso y la eficiencia en las gestiones y trámites en beneficio de la ciudadanía.

“Este tipo de eventos nos permite vincularnos con buenas prácticas e iniciativas innovadoras, y es la oportunidad para promover la sinergia entre diferentes actores, incorporando además aportes y soluciones en innovación tecnológica provenientes del sector privado y del ámbito académico”, resaltó Genua.

En el Congreso también estuvo presente el subsecretario de Tecnologías de la Información y las Comunicaciones, César Gazzo Huck, en el panel “Políticas Nacionales de Transformación Digital”, donde focalizó en las soluciones y desarrollos digitales que el Gobierno Nacional está llevando adelante.

Acta acuerdo con la Suprema Corte de Justicia de Mendoza en materia de transformación digital

En el marco del evento, Genua firmó un acta acuerdo con Mario Adaro, ministro de la Suprema Corte de Justicia de Mendoza, para promover y desarrollar políticas de transformación digital y alfabetización digital.

Este convenio tiene el objetivo que la Suprema Corte de Justicia de Mendoza adopte soluciones tecnológicas que faciliten el acceso a la Justicia, mejoren la calidad de vida de sus ciudadanos, y den celeridad y seguridad jurídica a través de la innovación

Los principales ejes del convenio son:

-.- Digitalizar y disponibilizar en la app Mi Argentina las diferentes credenciales de la Suprema Corte de Justicia de Mendoza.

-.- Crear cursos para ampliar la cantidad de Autoridades de Registro para facilitar el acceso a la Firma Digital.

-.- Fomentar la colaboración por parte del Sistema de Identificación Nacional Tributario y Social (SINTYS) para la implementación del nuevo procedimiento de Beneficio de litigar sin Gastos.

-.- Expandir la red del Programa Punto Digital, creando nuevos espacios en juzgados y/o oficinas judiciales de Mendoza, priorizando aquellas áreas con baja conectividad y acceso limitado a servicios tecnológicos.

-.- Fomentar el uso de la Plataforma de Aprendizaje Virtual (PAV) en todo el poder judicial de la provincia, con especial énfasis en su integración en programas de capacitación laboral, inclusión digital y formación en derechos ciudadanos.

inngeniar


jueves, 24 de octubre de 2024

La CNEA en la OIEA sobre SMR

 

La CNEA participa en la Conferencia Internacional sobre Reactores Modulares Pequeños

El Dr. Ing. Germán Guido Lavalle, presidente de la Comisión Nacional de Energía Atómica, representa a la Argentina en el encuentro que reúne a más de 1.000 participantes de casi 100 países. 

Se trata de un foro global para intercambiar información y discutir oportunidades y desafíos de este tipo de reactores.

El presidente de la Comisión Nacional de Energía Atómica (CNEA), Dr. Ing. Germán Guido Lavalle, participa en la primera Conferencia Internacional sobre Reactores Modulares Pequeños (SMR) y sus Aplicaciones, organizada por el Organismo Internacional de Energía Atómica (OIEA) en su sede de Viena, Austria. 

Más de 1.000 representantes de casi 100 países asisten al encuentro, que empezó este lunes y se extenderá hasta el viernes. 

El objetivo de esta conferencia es funcionar como un foro global para discutir oportunidades y desafíos y establecer condiciones para el desarrollo y despliegue acelerado y seguro de este tipo de reactores.

“La apuesta por la generación nuclear de las grandes empresas tecnológicas ha cambiado el juego. 

El crecimiento nuclear pasa de ser una profecía de tecnólogos a convertirse en una realidad. 

Como venimos señalando, esto representa una oportunidad para la Argentina que debemos aprovechar a partir del importante volumen de recursos humanos muy calificados que tenemos en el sector”, expresó Guido Lavalle.

Los SMR son reactores diseñados para producir hasta 300 MW

Su construcción es más rápida que la de los reactores de mayor tamaño y, como son pequeños, resultan ideales para instalar en áreas remotas. 

Además, algunas empresas multinacionales están invirtiendo en el desarrollo de tecnología para abastecer a sus centros de inteligencia artificial.

De acuerdo a las estimaciones del OIEA, para 2050 la capacidad de generación de energía nuclear será dos veces y media mayor a la actual y un cuarto de esa capacidad provendré de los SMR-. 

“Para cubrir las necesidades de energías bajas en carbono de los países y las industrias, debemos garantizar la prueba y despliegue oportunos de SMR seguros. 

Para esto, la cooperación y la colaboración internacionales son esenciales”, afirmó el director general del OIEA, Rafael Grossi, antes del encuentro.

En el marco de la conferencia en Viena, se realizan paneles de presentación y discusión de los principales diseños de SMR, micro reactores y su ciclo de combustible; los enfoques de seguridad física, tecnológica y de salvaguardias; los marcos legislativos y regulatorios; los enfoques de financiamiento; el estado de los planes nacionales de energía nucleoeléctrica de los Estados miembros del OIEA y el intercambio de información y promoción de la cooperación internacional en la materia entre las partes interesadas, entre otros temas.

El lunes 21 por la mañana se celebró la Iniciativa de Armonización y Normalización Nuclear (NHSI, por sus siglas en inglés), una reunión plenaria convocada por el Director General del OIEA. 

La NHSI tiene como objetivo avanzar en la armonización y la normalización del diseño, la construcción y los enfoques reglamentarios e industriales de los SMR. 

Esta iniciativa consta de dos vías separadas y complementarias: la reguladora y la industrial.

Mientras tanto, este martes Women in Nuclear (WiN) IAEA realizó su evento paralelo SMRs: Women as Game Changers (SMR: mujeres que cambian las reglas del juego). 

Se trató de un debate en el que se evaluó cómo impacta la innovación nuclear en la vida de las mujeres de todo el mundo. 

También se analizó de qué manera las oportunidades profesionales que generan los proyectos de SMR contribuyen a cerrar la brecha de género en el campo nuclear.

Más tarde se celebró la “Noche de la Industria”, organizada por el OIEA y la Asociación Nuclear Mundial (WNA), donde convergieron proveedores de todo el mundo para presentar la última tecnología de reactores.

Por otra parte, este miércoles hubo un evento para la generación joven organizado conjuntamente por el Congreso Nuclear Internacional de Jóvenes (IYNC) y el OIEA. 

En este encuentro se debatió sobre cómo los SMR y los micro-reactores pueden contribuir a un futuro sostenible y equitativo.

Paralelamente a la conferencia se está realizando la Reunión Técnica sobre el Fortalecimiento de la Participación de los Actores Locales, en cuyo marco las autoridades del municipio de Zárate expresaron su interés en ser parte de la Global Partnership of Municipalities with Nuclear Facilities (Asociación Global de Municipios con Instalaciones Nucleares).

CNEA

inngeniar


martes, 8 de octubre de 2024

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

 

 Ilustración de los ganadores del Premio Nobel de Física 2024. Créditos: Niklas Elmehed © Nobel Prize Outreach

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

Gabriel Mindlin y Francisco Tamarit reflexionan sobre la importancia de sus contribuciones científicas.

La Real Academia Sueca de Ciencias otorgó el Premio Nobel de Física 2024 John J. Hopfield y Geoffrey E. Hinton, considerados los “padrinos” de la inteligencia artificial, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. 

Hopfield creó una red neuronal artificial para almacenar y recuperar memoria por asociación, lo que permite, por ejemplo, almacenar y reconstruir imágenes y otros tipos de patrones en los datos e información. 

Por su parte, Hinton inventó un algoritmo “de la retropropagación del error”, que permite que las redes neuronales artificiales “aprendan” a partir de experiencias en forma muy similar a la forma en que aprendemos los humanos y los animales. 

Estas contribuciones fueron claves para diseñar las grandes redes neuronales artificiales que se utilizan actualmente.

“Me parece excelente que los hayan premiado”, indica Gabriel Mindlin, científico del CONICET en el Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA), que incorporó las herramientas de trabajo diseñadas por los Premios Nobel para estudiar a las aves individuales a través de sus vocalizaciones para monitorear poblaciones amenazadas. 

“Tanto en sus aspectos beneficiosos como en sus aspectos más amenazantes, la teoría de redes está produciendo un cambio en la humanidad de proporciones colosales, y fueron las contribuciones de estos dos científicos los que crearon los pilares de esta nueva revolución conceptual que estamos viviendo”, advierte.

Tal como explica Mindlin, la ciencia tradicional se basó siempre en dilucidar los mecanismos de cómo funcionan las cosas. 

Hopfield diseño un dispositivo conceptual -las “redes neuronales”- capaces de expresar comportamientos interesantes emergentes, y Hinton logró entrenar a esas redes a partir de ejemplos para resolver problemas complejos, abriendo un nuevo modo de hacer ciencia. 

“Con sus luces y sus sombras, lo que hicieron fue un cambio conceptual respecto de cómo pretendíamos operar sobre el mundo desde la filosofía griega a esta parte”, asegura Mindlin.

Para Francisco Tamarit, investigador del Instituto de Física Enrique Gaviola (IFEG), el premio es “un acto de justicia, porque Hopfield es quien dio el puntapié para el auge de las redes neuronales que estamos viviendo hoy, quien tuvo la primera idea de esta revolución”. 

Tamarit conoció al propio Hopfield en vivo y en directo. 

“Fue en la Universidad de San Pablo en San Carlos, donde fui a tomar un curso con él hace muchos años, y pude comprobar que es una persona muy generosa”.

Tamarit, apenas se recibió de físico en 1987, había comenzado a trabajar con el modelo de redes neuronales publicados por Hopfield en 1982. 

“Yo siempre digo en mis conferencias y cursos, que sin dudas todo lo que tenemos hoy en inteligencia artificial se lo debemos a él, porque nos sacó del llamado ´invierno´ de la inteligencia artificial, donde se habían estancado las investigaciones en la materia”, dice el científico.

“Hopfield trabajaba en el modelado de vidrios, y se dio cuenta, en 1982, que estos materiales tan baratos y comunes podían llevarlo a modelar un cerebro humano para almacenar memoria, como almacenan los animales. 

Su trabajo quedó escondido hasta que otros científicos italianos e israelitas lo retomaron en el año 1985. 

No descubrió algo, lo inventó. 

Y sus ideas, como las de Hinton, son las que ahora usamos en todas las redes neuronales artificiales que dan lugar a la inteligencia artificial más sofisticada, como la que vemos por ejemplo en el Chat GPT”.

Los laureados

Tal como difundió en un comunicado la Academia Sueca, “cuando hablamos de inteligencia artificial, a menudo nos referimos al aprendizaje automático mediante redes neuronales artificiales. 

Esta tecnología se inspiró originalmente en la estructura del cerebro. 

En una red neuronal artificial, las neuronas del cerebro están representadas por nodos que tienen valores diferentes. 

Estos nodos se influyen entre sí a través de conexiones que pueden compararse con sinapsis y que pueden fortalecerse o debilitarse. 

La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos con valores simultáneamente altos. 

Los galardonados de este año han realizado importantes trabajos con redes neuronales artificiales desde los años 80 en adelante”.

Hopfield inventó una red que utiliza un método para guardar y recrear patrones. 

“Podemos imaginar los nodos como píxeles. 

La red Hopfield utiliza la física que describe las características de un material debido a su giro atómico, una propiedad que convierte a cada átomo en un imán diminuto. 

La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y se entrena encontrando valores para las conexiones entre los nodos para que las imágenes guardadas tengan baja energía. 

Cuando la red Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores para que la energía de la red disminuya. 

Así, la red trabaja paso a paso para encontrar la imagen guardada que más se parezca a la imperfecta con la que fue alimentada”, explicaron desde la organización de los Premios Nobel.

Geoffrey Hinton, por su parte, utilizó la red Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann. 

“Este puede aprender a reconocer elementos característicos en un determinado tipo de datos. 

Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares. 

La máquina se entrena dándole ejemplos que es muy probable que surjan cuando la máquina está en funcionamiento. 

La máquina Boltzmann se puede utilizar para clasificar imágenes o crear nuevos ejemplos del tipo de patrón en el que fue entrenada. Hinton se ha basado en este trabajo y ha ayudado a iniciar el explosivo desarrollo actual del aprendizaje automático”.

Por Cintia Kemelmajer

CONICET

inngeniar


domingo, 6 de octubre de 2024

Jornada de Mercado Libre sobre IA

 

Participamos de una jornada de Mercado Libre sobre IA

El Secretario de Innovación, Ciencia y Tecnología, Darío Genua, estuvo presente en una jornada organizada por Mercado Libre para que funcionarios nacionales y expertos del sector conversen sobre los horizontes de aplicación de la Inteligencia Artificial.

El Secretario de Innovación, Ciencia y Tecnología, Darío Genua, participó de Mercado Libre Open House. Puertas Abiertas a la Inteligencia Artificial, una jornada organizada por Mercado Libre para que legisladores nacionales y expertos del sector conversen sobre los horizontes de aplicación de esta tecnología.

El evento tuvo lugar en las en las oficinas de Mercado Libre en el barrio de Saavedra y se dividió en 4 paneles: 

#PoneleIAaTodo. 

Qué es y qué no es la IA; 

IA en modo pistacho. Reflexiones a prueba de futuro; 

Presente y Futuro de la IA. 

Su aplicación en el sector privado;

Argentina a la vanguardia de la IA.

Darío Genua participó del último panel, Argentina a la vanguardia, junto a Juan Martín Ozores, presidente del Ente Nacional de Comunicaciones (ENACOM) y Gabriel Díaz Zolorzalo, Gerente de Relaciones Gubernamentales de Mercado Libre, quien fue el moderador del panel.

Durante su intervención, Genua expresó que Argentina tiene la oportunidad de ponerse a la vanguardia en la adopción de la IA, pero debe hacerlo con un marco regulatorio flexible que propicie la llegada de inversiones para su desarrollo: 

“Desde el Gobierno Nacional consideramos que es necesario ser estratégicos en las políticas públicas y los marcos que establecemos como país en torno a la Inteligencia Artificial

Tenemos que colocarnos a la vanguardia en su impulso y regulación, atendiendo a sus desafíos y garantizando un desarrollo seguro, para no quedarnos atrás en un mundo que avanza rápidamente en esa dirección.”

Además, en relación a las capacidades que tiene el país para posicionarse como un actor protagónico dentro del conjunto de economías que lideran los procesos de transformación digital Genua resaltó que “construyendo reglas claras, generando condiciones de previsibilidad y promoviendo la colaboración público-privada, vamos a poder avanzar en una agenda de progreso económico con eje en la innovación tecnológica”.

Por su parte, Juan Martín Ozores habló de la relación que hay entre la infraestructura de redes y la Inteligencia Artificial: 

“El desarrollo de las telecomunicaciones permite que la IA esté disponible para más personas y empresas, reduciendo la brecha digital. 

Las redes de telecomunicaciones modernas proporcionan transmisiones de alta velocidad con grandes volúmenes de datos, lo que permite un rápido movimiento de conjuntos de datos masivos, fundamental para el entrenamiento de modelos de IA complejos”.

Secyt

inngeniar


martes, 10 de septiembre de 2024

Inteligencia Artificial con el sector privado Se realizó una Mesa de trabajo

 

Se realizó una Mesa de trabajo sobre Inteligencia Artificial con el sector privado

Con el objetivo de construir un ecosistema que impulse el desarrollo de la Inteligencia Artificial, la Secretaría de Innovación, Ciencia y Tecnología organizó una reunión con empresas del sector a fin de potenciar la adopción de esta tecnología.

Con la presencia del Secretario de Innovación, Ciencia y Tecnología, Darío Genua, se realizó esta mañana en el Salón 2 del Centro Cultural de la Ciencia (C3), una reunión con representantes de empresas tecnológicas. 

El fin fue establecer un desarrollo seguro que impulse la economía de la Inteligencia Artificial (IA) y promueva su aplicación en diversos sectores productivos, de conformidad con un marco ético, de desarrollo sostenible y de transformación digital.

“Es necesario ser estratégicos en las políticas que desplegamos como país en torno a la IA, ya que hoy nos urge potenciar su desarrollo para no quedarnos atrás en un mundo que avanza rápidamente en esa dirección”, sostuvo Genua.

Y agregó: “Nuestro país tiene un notable desarrollo e inmensas perspectivas a futuro en los sectores del agro, la biotecnología, la energía y la Economía del Conocimiento. 

En estas áreas, la Inteligencia Artificial constituye una herramienta fundamental para potenciarlas, y el Estado debe contribuir generando un marco que propicie esa aplicación”.

La Mesa de trabajo contó con la participación de las compañías

 Meta, IBM, Google, Globant, Mercado Libre, Amazon Web Services, Worldcoin, Microsoft, Uber, NTT Data, Octupus y Sales Force. 

Asistieron también representantes del Banco Interamericano de Desarrollo (BID), del Banco Internacional de Reconstrucción y Fomento (BIRF), del Banco Centroamericano de Integración Económica y del Banco de Desarrollo de América (CAF).

inngeniar


CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

  

La CNEA desarrolla sistemas informáticos veloces que sirven como laboratorios virtuales

La Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece el servicio de computación de alto desempeño denominado Clúster Neurus, que puede resolver aproximadamente 29 billones de operaciones de punto flotante por segundo. 

Se utiliza para realizar simulaciones que preceden a pruebas experimentales costosas y complejas.

Los proyectos de investigación y desarrollo que lleva adelante la Comisión Nacional de Energía Atómica (CNEA) requieren el apoyo de sistemas informáticos extremadamente veloces, capaces de realizar simulaciones que preceden a pruebas experimentales costosas, complejas y muchas veces imposibles de reproducir en la realidad.

El Departamento Computación de Alta Prestación de la Gerencia de Tecnología de la Información y las Telecomunicaciones (GTIC) ofrece soluciones a medida para las necesidades computacionales de los investigadores. 

En la actualidad, cuenta con el servicio de computación de alto desempeño denominado Clúster Neurus. 

Además, avanza con un proyecto para la creación de un nuevo clúster con tecnologías de punta, para ofrecer nuevos y mejores servicios y recursos de procesamiento gráfico a los que se podrá acceder a través de una interfaz web.

“Un clúster de High Performance Computing (HPC, Alto Desempeño Computacional) es un conjunto de computadoras o nodos que cooperan para resolver un problema. 

Cada uno de esos nodos toma una parte de ese problema y lo resuelve”, define la Dra. Verónica Venturini, subgerente de Vinculación y Desarrollo de Nuevas Tecnologías de la Información de la CNEA.

Teóricamente la capacidad de procesamiento de un clúster equivale a la suma de las potencias de sus nodos. 

“Al dividir el problema en partes que los nodos van resolviendo simultáneamente y de manera concurrente, se llega a la solución mucho más rápido”, explica Gastón Aguilera, el jefe del Departamento Computación Alta Prestación.

Entre otras aplicaciones, los clústers de HPC sirven para estudiar las propiedades estructurales, de transporte y dinámicas de distintos sistemas; simular reacciones químicas, biológicas y catalíticas; diseñar nuevos materiales, y también recopilar y procesar grandes volúmenes de datos relacionados con la astrofísica y la física de la atmósfera.

“Los clústers de HPC son una herramienta para los científicos, que los utilizan como laboratorios virtuales para realizar simulaciones y estudiar, por ejemplo, cómo se comportaría determinado sistema o cierto material. 

Por ejemplo, si se diseña una pieza para un reactor, se puede hacer una simulación sobre cómo se va a comportar en la realidad y recién fabricar el prototipo sobre un diseño evaluado en el ambiente virtual, donde se explicitaron las leyes matemáticas que rigen su comportamiento”, detalla Aguilera. 

“Las simulaciones requieren demasiados recursos físicos y, por ese motivo, pueden resolverse con mayor rapidez en un clúster”, resalta Venturini.

El clúster de HPC que administra el grupo que pertenece a la GTIC se llama Neurus y cuenta con 25 nodos que reúnen 700 cores o núcleos de procesamiento. 

Hace diez años que se encuentra en funcionamiento, pero no fue el primero que construyó, puso en mantenimiento y administró su grupo de trabajo.

Mucho antes de soñar con la supercomputación o los clústers de HPC, en 1977, en la CNEA se creó el Centro de Cómputos que después se convertiría en GTIC

Su herramienta era una computadora IBM 370 de 1 MB de memoria RAM y discos IBM 3350 de 300 MB cada uno. 

El sistema contaba con 20 terminales que dependían totalmente del procesador central. 

Era de lo más avanzado para la época. 

Desde entonces, se encaró el desafío de dotar al organismo con sistemas de vanguardia para ir acompañando los requerimientos de sus investigadores. 

Así también se adquirió un supercomputador SUN Enterprise 6000, denominado Fénix, de 16 procesadores y 8GB de memoria RAM que cubrió los requerimientos computacionales de los usuarios por varios años desde 1997.

La revolución de las supercomputadoras llegó a la CNEA en 2003, cuando comenzó el proceso para desarrollar su primer clúster. 

Así, en 2007 comenzó a funcionar el clúster de HPC Sheldon

Tenía un rendimiento operativo promedio de 290 GigaFLOPS, es decir que podía realizar 290 mil millones de Operaciones de Punto Flotante por Segundo. 

Su sucesor, en septiembre de 2010, fue ISAAC (Information Systems and Advance Computer), en referencia a Newton y en honor a Asimov, con un rendimiento pico de 5,5 TeraFLOPS (5,5 billones de operaciones de punto flotante por segundo).

Actualmente, Neurus tiene 29 TeraFLOPS de rendimiento máximo teórico del sistema. 

Eso significa que tiene la capacidad de resolver aproximadamente 29 billones de operaciones de punto flotante por segundo, con un almacenamiento para archivos de usuario de 24 TeraBytes sobre ZFS (Zettabyte File System).

El próximo proyecto se llama “CNEA Dynamic Cloud Computing” y consiste en desarrollar una plataforma que permita la utilización de diferentes softwares específicos, algunos de ellos con licencias. 

Además, se busca que brinde la flexibilidad para soportar los cambios en los sistemas, como ocurre con la demanda de cálculo para Inteligencia Artificial

Los grupos de la CNEA que requieran el uso de esta plataforma podrán acceder en forma remota, tal como lo ofrecen algunas soluciones de cloud computing del mercado. 

El punto destacable de este proyecto es que la plataforma será interna para la CNEA, manteniendo la privacidad y confidencialidad de los datos.

“La idea es armar configuraciones de cómputo especiales para cubrir las necesidades de cada grupo, que podrá trabajar vía web tanto para la preparación como para la ejecución y la visualización de los resultados”, dice Aguilera. 

Esta nueva plataforma permitirá no sólo la ejecución de simulaciones con posibilidad de elegir recursos físicos, sino que además proporcionará al usuario herramientas para hacer uso de algoritmos de Inteligencia Artificial y Machine Learning pre definidos.

El grupo de Computación de Alta Prestación de la CNEA fue renovándose con los años y hoy está conformado por Andrés Alonso, Leonardo Domínguez, Roque Iozzo, Leandro Clemente y Gastón Aguilera. 

Se trata de personal altamente calificado, con más de 20 años de experiencia en el ciclo de vida y soporte a usuarios de clústers y de servicios relacionados.

CNEA

inngeniar


jueves, 29 de agosto de 2024

Biología Estructural y la Bioimagen en América Latina Fortalecimiento

  

Firma del Memorando de Entendimiento entre la red CEBEM y LABI en Río de Janeiro. Foto: gentileza Comunidad Mexicana de Bioimagen.

Fortalecimiento de la Biología Estructural y la Bioimagen en América Latina

El Centro de Biología Estructural del Mercosur (CEBEM) y la Latin American Bioimaging (LABI) han formalizado una alianza estratégica. 

El Centro de Biología Estructural del Mercosur (CEBEM) y la Latin American Bioimaging (LABI) han formalizado una alianza estratégica y fortalecen sus lazos de cooperación. 

Ambas instituciones están coordinadas por investigadoras del Consejo y cuentan con más de 100 investigadores del CONICET entre sus miembros

Este acuerdo representa un hito en la colaboración científica en América Latina, enfocándose en la biología estructural y las bioimágenes.

Este acuerdo entre CEBEM y LABI refleja el compromiso de ambas organizaciones por combinar fuerzas y maximizar el uso de tecnologías avanzadas, como la criomicroscopía y la inteligencia artificial, que están revolucionando la investigación en biología estructural y bioimágenes.

La colaboración permitirá la creación de un Foro de Discusión Estratégica para intercambiar ideas y definir estrategias de desarrollo a largo plazo, así como mantener una colaboración activa con redes globales como Eurobioimaging, Instruct y Global Bioimaging.

El acuerdo facilitará la superación de limitaciones estructurales, el fortalecimiento de las capacidades regionales y la identificación y desarrollo de estrategias sostenibles, apoyadas por un análisis detallado de la situación actual en la región y el acceso a financiamiento significativo.

Impacto y logros recientes

En los últimos años, CEBEM ha logrado importantes avances, incluyendo el otorgamiento de becas de movilidad para jóvenes investigadores del CONICET y de otros países de Latinoamérica, la formación de grupos de trabajo para optimizar el uso de equipamientos y la organización de cursos especializados. 

La firma de este acuerdo con LABI es un paso clave para la consolidación de una red robusta y la planificación de un futuro prometedor para la biología estructural y las bioimágenes en América Latina.

Red de Integración

CEBEM incluye grupos de investigación en Argentina, Brasil, Uruguay, Paraguay y Chile, y cuenta con un historial de colaboración internacional desde su fundación en 2007. 

La red está formada por destacados grupos de investigación en biología estructural y ciencia de proteínas. 

En la actualidad está coordinado por las doctoras María Natalia Lisa, investigadora del CONICET en el Instituto de Biología Molecular y Celular de Rosario (IBR, CONICET – UNR), junto a Karina Alleva, del Instituto de Química y Fisicoquímica Biológicas (IQUIFIB, CONICET-UBA).

Forman parte del CEBEM grupos de Instituto de Investigaciones Bioquímicas de Buenos Aires (IIBBA, CONICET-FIL), Instituto de Biología Molecular y Celular de Rosario (IBR, CONICET-UNR), Centro de Investigaciones en Bionanociencias (CIBION), Instituto de Química y Fisicoquímica Biológica (IQUIFIB, UBA-CONICET), Centro de Investigaciones en Química Biológica de Córdoba (CIQUIBIC, CONICET-UNC), Instituto de Investigaciones Biológicas (IIB, CONICET – UNMdP), Instituto de Química, Física de Materiales, Medio Ambiente y Energía (INQUIMAE, UBA-CONICET), Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA) y el Instituto de Biociencias, Biotecnología y Biología traslacional (IB3, UBA-CONICET).

LABI, por su parte, es una red colaborativa que abarca 13 países de América Latina y el Caribe, con 70 instalaciones centrales. 

Esta red fue impulsada por un proyecto de cooperación entre Uruguay y México y cuenta con el respaldo de la Chan Zuckerberg Initiative. 

LABI promueve la bioimagen a través de capacitación, educación y acceso abierto a tecnologías. 

Actualmente esta red también está coordinada desde Argentina, por la doctora Lía Pietrasanta, del IFIBA.

Hay más de 130 científicos argentinos asociados a LABI que forman parte de los siguientes institutos del CONICET:

Instituto de Fisiología y Biología Molecular y Neurociencias (IFIBYNE, CONICET-UBA), IFIBA, , Centro Integral de Microscopía Electrónica (CIME, CONICET-UNT), CIBION, Instituto de Biología y Medicina Experimental (IBYME, CONICET- F-IBYME), Centro de Investigación en Medicina Traslacional Severo Amuchástegui (CIMETSA, CONICET-IUCBC), Instituto de Investigaciones Médicas Mercedes y Martín Ferreyra (INIMEC, CONICET-UNC), IIBBA, Centro de Micro y Nanoscopía de Córdoba (CEMINCO, CONICET-UNC), Instituto de Química Biológica de la Facultad de Ciencias Exactas y Naturales (IQUIBICEN, CONICET-UBA), IIB, Instituto de Fisiología y Biofísica Bernardo Houssay (IFIBIO HOUSSAY, CONICET-UBA), IBR, Instituto de Histología y Embriología de Mendoza (IHEM, CONICET-UNCUYO), Instituto de Física Rosario (IFIR, CONICET-UNR), Centro de Investigaciones en Química Biológica de Córdoba (CIQUIBIC, CONICET-UNC), Centro de Investigación en Bioquímica Clínica e Inmunología (CIBICI, CONICET-UNC), Instituto Tecnológico de Chascomús (INTECH, CONICET-UNSAM), Instituto de Investigación en Ciencia y Tecnología de Materiales (INTEMA, CONICET-UNMdP), Instituto de Agrobiotecnología del Litoral (IAL, CONICET-UNL), Instituto de Biotecnología Ambiental y de la Salud (INBIAS, CONICET-UNRC), Instituto de Investigaciones en Tecnologías Energéticas y Materiales Avanzados (IITEMA, CONICET- UNRC), Instituto de Investigación y Desarrollo en Bioingeniería y Bioinformática (IBB, CONICET-UNER), Instituto de Investigaciones Bioquímicas de Bahía Blanca (INIBIBB, CONICET-UNS), Instituto de Investigaciones Biomédicas (BIOMED, CONICET-UCA), Instituto de Investigaciones Fisicoquímicas Teóricas y Aplicadas (INIFTA, CONICET-UNLP), Instituto de Investigación en Biomedicina de Buenos Aires (IBioBA, CONICET-Max Planck), IQUIFIB, Centro de Investigación y Desarrollo en Materiales Avanzados y Almacenamiento de Energía de Jujuy (CIDMEJu, CONICET-UNJu), Edificio Grandes Instrumentos (SECEGRIN), Centro de Estudios Fotosintéticos y Bioquímicos (CEFOBI, CONICET-UNR), Instituto de Investigaciones en Ingeniería Genética y Biología Molecular “Dr. Héctor N. Torres” (INGEBI, CONICET), Instituto de Investigaciones en Físico-Química de Córdoba (INFIQC, CONICET), Instituto de Investigaciones Bioquímicas de La Plata “Profesor Doctor Rodolfo R. Brenner” (INIBIOLP, CONICET-UNLP), Centro de Investigaciones Cardiovasculares Dr. Horacio E. Cingolani (CIC, CONICET-UNLP), Instituto de Cálculo (IC, UBA-CONICET), Instituto de Biodiversidad y Biología Experimental y Aplicada (IBBEA, UBA-CONICET), Centro de Investigación en Biofísica Aplicada y Alimentos (CIBAAL, CONICET-UNSE), Centro de Investigaciones Ópticas (CIOp, CONICET-UNLP-CIC PBA), Centro Interdisciplinario de Investigaciones en Tecnologías y Desarrollo Social (CIITED, CONICET-UNJu) y el Instituto de Patología Experimental (IPE, CONICET-UNSa).

Por Comunicación IBR.

CONICET

inngeniar


viernes, 23 de agosto de 2024

Convenio CONICET Actyon

  

Fabiana Arzuaga y Daniel Salamone - Convenio entre el CONICET y la Fundación ACTYON

Convenio entre el CONICET y la Fundación ACTYON

El acuerdo de colaboración conjunta contará con el aporte del Consejo en la investigación y el desarrollo de un programa para brindar acceso a estudios de secuenciación genómica para el diagnóstico de enfermedades poco frecuentes y otras patologías.

El presidente del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) Daniel Salamone y la titular de la Fundación ACTYON Fabiana Arzuaga, firmaron un convenio de colaboración conjunta para el desarrollo de actividades científicas tecnológicas y técnicas, que tiene como objetivo crear un programa para brindar acceso a estudios de secuenciación genómica para el diagnóstico de enfermedades poco frecuentes y otras patologías, el uso de la inteligencia artificial para el análisis de datos clínicos y genéticos y el acceso a terapias génicas, entre otros temas de interés común.

Las partes dialogaron sobre la importancia de este convenio para la consolidación de un avance científico y médico a partir de la aplicación de tecnologías emergentes para mejorar la salud de la población. 

El presidente del Consejo destacó que el uso de estas tecnologías innovadoras como la inteligencia artificial abren nuevas vías a la colaboración entre instituciones académicas, incubadoras y empresas, así como facilitan el avance en la identificación de enfermedades y las posibles terapias.

A través de la coordinación científica del investigador del Consejo en el Instituto de Ecología, Genética y Evolución de Buenos Aires (IEGEBA, UBA-CONICET) Hernán Dopazo se van a llevar a cabo las diversas actividades, entre ellas: la construcción de librerías genómicas de segunda y tercera generación de secuenciación de diferentes enfermedades poco frecuentes; la integración de módulos de software de instituciones extranjeras que ya han desarrollado código para la carga y análisis de datos fenotípicos y genómicos de pacientes y, por último, la participación en reuniones y congresos para afianzar el diálogo con las organizaciones de pacientes, profesionales médicos de diferentes disciplinas y otros actores relevantes del área de salud que promuevan el desarrollo de la Medicina Genómica en la Argentina.

Estuvieron presentes, la presidenta de la Asociación de Pacientes y Padres de Niños con Enfermedad de Stargardt de Argentina (Stargardt APNES) Marcela Ciccioli y el bioinformático de ACTYON Ezequiel Fernández.

Convenio entre el CONICET y la Fundación ACTYON

Terapias génicas: ensayos e impacto

La terapia génica, es una técnica de la biología molecular que permite introducir una secuencia genética a través de un vector para producir una proteína funcional en las células que no pueden producirla. 

De esta manera, se puede introducir un gen cuyo efecto ayude a tratar una enfermedad, o introducir un gen cuyo efecto ayude a tratar una enfermedad o a inactivar un gen cuya falla produce la enfermedad. 

En 2017 la Administración de Alimentos y Medicamentos (FDA, por su sigla en inglés) aprobó la primera terapia génica para las distrofias hereditarias de la retina y el nervio óptico ocasionadas por fallas en el gen RPE65. 

En Argentina fue aprobada por la ANMAT en 2021.

A través de la Red de Asociaciones de Pacientes para Terapias Avanzadas (RED APTA) la asociación Stargardt APNES pudo identificar a todos los pacientes argentinos candidatos a esa terapia génica y lograron la aplicación en 10 pacientes en los que resultó exitosa.

De esta manera, el acuerdo entre la Fundación ACTYON y el CONICET avanza con el compromiso de mejorar la calidad de vida de pacientes en Argentina y Latinoamérica a través de la ciencia y la tecnología.

Convenio entre el CONICET y la Fundación ACTYON

Sobre la Fundación ACTYON

La Fundación ACTYON tiene como objetivo investigar, asesorar, generar vínculos, accionar en beneficio de la generación y transferencia de conocimiento científico, en particular el relacionado con las ciencias de la vida, la salud humana, la genética, las neurociencias y las terapias avanzadas.

Desde su creación en 2014, ACTYON ha tenido un rol activo en la construcción del marco de gobernanza para los Medicamentos de Terapias Avanzadas y los Biobancos en el país.

CONICET

inngeniar


martes, 13 de agosto de 2024

Reunion con CyT de Chile y Paraguay

 El presidente del CONICET se reunió con autoridades de organismos de CyT de de Chile y Paraguay.

El presidente del CONICET se reunió con autoridades de organismos de CyT de Chile y Paraguay y participó de actividades vinculadas a Inteligencia Artificial e Informática

También, Daniel Salamone mantuvo un encuentro con autoridades de la Universidad Nacional del Sur (UNS). 

Además, participó de la 50° Conferencia Latinoamericana de Informática y dialogó con investigadores y autoridades del Instituto de Ciencias e Ingeniería de la Computación.

El presidente del CONICET Daniel Salamone -centro- junto al presidente del CONACyT Paraguay Benjamín Barán Cegla -der- y al rector de la UNS Daniel Vega -izq-.

El presidente del Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET) Daniel Salamone se reunió con autoridades de la Universidad Nacional del Sur (UNS) y con representantes de organismos de ciencia y tecnología de Chile y Paraguay. 

Además, Salamone estuvo presente en la apertura de la 50° Conferencia Latinoamericana de Informática, recorrió el Centro de Desarrollo en Tribología y Tecnología de Superficies (CDTTS) de la UNS y se reunió con investigadores y autoridades del Instituto de Ciencias e Ingeniería de la Computación (ICIC, CONICET-UNS).

Instituto de Ciencias e Ingeniería de la Computación.

Reunión con autoridades de la UNS y con representantes de organismos de CyT de Chile y Paraguay

En el rectorado de la UNS, Salamone, acompañado por el gerente de Administración del Consejo, Jorge Figari, fue recibido por el rector de la UNS Daniel Vega y la vicerrectora Andrea Castellano. 

En el encuentro también participaron el presidente del Consejo Nacional de Ciencia y Tecnología (CONACyT) Benjamín Barán Cegla y el secretario de Ciencia y Tecnología de la UNS Marcelo Villar.

Reunión en el Instituto de Ciencias e Ingeniería de la Computación.

Durante la reunión, se discutieron las capacidades de vinculación y transferencia tecnológica de las tres instituciones y las oportunidades de colaboración entre Argentina y Paraguay.

En este marco, Salamone dialogó sobre posibles cooperaciones entre el CONICET y distintos organismos e hizo énfasis en la importancia de la cooperación internacional a través del intercambio y transferencia de ciencia y tecnología al sector socio productivo. 

“Desde el Consejo estamos profundizando en el rol de la vinculación tecnológica y la innovación como elementos clave para enfrentar desafíos comunes en la región”.

Por su parte, Barán Cegla resaltó: “Hoy tenemos muchas posibilidades de colaborar en temas como la trazabilidad de alimentos y otros aspectos que son comunes a nuestros países. 

Veo con optimismo esta oportunidad de acercamiento y futuros proyectos conjuntos”.

El rector de la UNS también subrayó las posibilidades de colaboración mutua entre las tres instituciones y los aportes que pueden realizarse desde los institutos de doble dependencia entre el CONICET y la Universidad en proyectos de cooperación científica.

Institutos vinculados a Inteligencia Artificial

Las actividades continuaron en el predio de Palihue de la UNS, donde el presidente del CONICET recorrió el Centro de Desarrollo en Tribología y Tecnología de Superficies (CDTTS), un centro de investigación aplicada dedicado al estudio de la fricción, el desgaste y la lubricación de materiales. 

Luego, se trasladó al Instituto de Ciencias e Ingeniería de la Computación (ICIC, CONICET-UNS) donde mantuvo una reunión con investigadores y autoridades del Instituto y el Departamento de Ciencias e Ingeniería de la Computación, en la que se presentaron las principales líneas de investigación del ICIC y se destacó su rol en la transferencia tecnológica hacia empresas e instituciones, tanto nacionales como internacionales.

“Fue una reunión muy productiva, en la que pudimos compartir la visión del presidente del Consejo en relación a la Inteligencia Artificial y destacar la trayectoria que tenemos en Bahía Blanca en esta área. 

El ICIC tiene el potencial de posicionar al país a la vanguardia en inteligencia artificial, gracias al reconocido nivel de sus investigadores y el respaldo del CONICET y la UNS”, concluyó al término del encuentro el director del ICIC e investigador del Consejo Carlos Chesñevar.

Por su parte, la directora del CONICET Bahía Blanca Silvia Barbosa, señaló: 

“Este instituto es el más joven en nuestro Centro, y ya tienen un potencial muy importante de cara al futuro. 

Es muy valioso poder dialogar con el presidente del Consejo acerca de las capacidades y líneas de investigación de los institutos que integran nuestro CCT”

Mesa redonda con organismos de ciencia y tecnología

Luego, el presidente del CONICET asistió a una mesa redonda sobre Organismos de Ciencia y Tecnología y Agencias de Financiamiento. 

La actividad fue moderada por el rector de la UNSA Daniel Vega y contó con la participación de la directora del Instituto Francés de Investigación en Ciencias Digitales (INRIA) en Chile Nayat Sánchez Pi, el presidente del CONACyT Paraguay Benjamín Barán Cegla, el especialista Líder en Modernización del Estado del Banco Interamericano de Desarrollo (BID) Mauricio García Mejía, y la investigadora del CONICET y titular de la Cátedra UNESCO en Sociedades del Conocimiento y Gobernanza Digital Elsa Estevez. 

Los funcionarios abordaron temas como la transferencia tecnológica y el financiamiento de proyectos científicos.

“Es muy valioso crear estos espacios de intercambio donde podemos reflexionar sobre políticas universitarias, cuestionarnos cuál es la mejor forma de llevar adelante proyectos de transferencia y debatir sobre el financiamiento del sistema científico”, expresó Salamone.

Apertura de la 50° Conferencia Latinoamericana de Informática.

50° Conferencia Latinoamericana de Informática

La jornada culminó con el acto de apertura de la 50° Conferencia Latinoamericana de Informática (CLEI), en el que participaron junto al presidente del CONICET, el rector Vega, el presidente del Centro Latinoamericano de Estudios en Informática, José Aguilar y el coordinador general de la CLEI 2024, Rodrigo Santos.

La conferencia inaugural del evento, titulada “Ciencia Abierta”, estuvo a cargo de Yannis Ioannidis, presidente de la Association of Computing Machinery (ACM).

Centro de Desarrollo en Tribología y Tecnología de Superficies.

Durante la inauguración, Salamone destacó la importancia de Bahía Blanca en el desarrollo de las ciencias de la computación y la Inteligencia Artificial, áreas clave para Argentina. “

Gracias a nuestra sólida base en ciencias básicas, estamos en una posición favorable para avanzar en la transferencia al sector privado, lo que será altamente beneficioso para el país”, afirmó.

A su turno, el rector de la UNS, Daniel Vega, expresó su orgullo por ser sede de esta edición de la CLEI, subrayando la trayectoria de más de 20 años de los investigadores de la UNS en el área de Inteligencia Artificial manteniendo un estándar de calidad a nivel nacional e internacional.

La CLEI es un evento de gran relevancia en el ámbito de la informática que se llevará a cabo en la UNS del 12 al 18 de agosto, en el que los principales expertos internacionales disertarán sobre temas específicos de la disciplina, así como sobre otros de alcance general, como las implicancias de la inteligencia artificial en la vida cotidiana y la seguridad informática.

Por CONICET Bahía Blanca.

CONICET

inngeniar


miércoles, 7 de agosto de 2024

CNEA desarrolla sistemas de IA inteligencia artificial para resolver necesidades del sector nuclear

 

La CNEA desarrolla sistemas de inteligencia artificial para resolver necesidades del sector nuclear

El Departamento Tecnologías Emergentes de la Gerencia Tecnologías de la Información y las Comunicaciones (GTIC) crea sistemas de aprendizaje automático para realizar tareas que van desde el control de calidad del combustible nuclear hasta el análisis de imágenes utilizadas para un tipo de radioterapia contra el cáncer.

Desde el seguimiento de materiales radiactivos hasta el control de calidad del combustible nuclear o del material con que se construyen los tubos de presión de una central de potencia, pasando por el análisis de imágenes utilizadas para un tipo de radioterapia contra el cáncer. 

Todas esas tareas actualmente son realizadas por investigadores, operadores y técnicos en forma manual. 

El desafío es desarrollar sistemas informáticos seguros para automatizarlas y en eso trabaja el Departamento Tecnologías Emergentes de la Comisión Nacional de Energía Atómica, que para lograrlo utiliza herramientas de inteligencia artificial y blockchain (cadena de bloques).

Este departamento depende de la Subgerencia Vinculación y Desarrollo de Nuevas Tecnologías de la Información de la Gerencia Tecnología de la Información y las Comunicaciones (GTIC), a cargo de la Dra. Verónica Venturini. 

Su función es crear tecnologías y sistemas informáticos para cubrir necesidades o resolver problemas planteados por la industria nuclear y distintos grupos de investigación o áreas de la CNEA

También colabora en la elaboración de las guías del Organismo Internacional de Energía Atómica (OIEA) para el uso seguro de estas tecnologías en el ámbito nuclear.

Uno de los desarrollos que realizó el equipo de Tecnologías Emergentes consiste en la aplicación de blockchain para el rastreo y conteo de material nuclear y radiactivo. 

El mismo sistema ahora está siendo adaptado para utilizarlo en la gestión de residuos nucleares. 

Si bien ambos desarrollos se encuentran en la fase de prototipado, generan interés en distintos sectores dentro y fuera del país.

Blockchain es la tecnología utilizada para las criptomonedas, como por ejemplo Bitcoin. 

Su característica principal es que permite la trazabilidad, la descentralización de la información y la seguridad de las comunicaciones informáticas porque todos los datos están encriptados en bloques. 

Cada registro es inalterable, porque el sistema toma la información de bloque en bloque y no hay manera de modificarla. 

De esta manera, se puede monitorear el recorrido de un material nuclear dentro de una instalación, así como la cadena de responsabilidades, registrando quién lo recibe en cada instancia.

En materia de inteligencia artificial, se trabaja en sistemas de Aprendizaje Automático o Machine Learning. 

“Se define como inteligencia artificial a cualquier elemento o sistema que imite el comportamiento humano. 

Mientras tanto, se habla de Machine Learning cuando se trata de sistemas que aprenden a partir de datos”, explica Luis Agustín Nieto, jefe del Departamento Tecnologías Emergentes.

Uno de los desarrollos en este campo consiste en enseñarles a las computadoras a analizar las imágenes obtenidas a través de autorradiografía neutrónica que se utilizan para la Terapia de Captura Neutrónica en Boro (BNCT), un tipo de radioterapia contra el cáncer sobre el que investiga la CNEA

Al paciente se le inyecta un compuesto con boro 10, que se acumula en mayor medida en las células cancerosas. 

Al exponer el boro a un haz de neutrones de baja energía, se deposita una dosis de radiación altamente localizada en células tumorales sin afectar el tejido sano.

La autorradiografía neutrónica es una técnica nuclear que permite conocer la ubicación de elementos en una muestra a partir de la detección de radiación emitida, en imágenes de microscopía. 

En el caso de la BNCT, se utiliza para conocer la ubicación espacial de los átomos de boro. 

“Las imágenes generadas a partir de cultivos celulares tomadas con microscopio brindan la información necesaria para regular la dosis y ajustar los parámetros del tratamiento”, detalla Nieto.

En el Departamento de Radiobiología hay una línea de investigación que busca incorporar herramientas de aprendizaje automático en el análisis de imágenes autorradiográficas. 

El Departamento Tecnologías Emergentes utiliza las imágenes analizadas manualmente por personas para entrenar redes neuronales para automatizar este proceso.

Un método similar se está aplicando para facilitar la caracterización de fases en los materiales de los tubos de presión de la central Embalse. 

Estos tubos son componentes fundamentales de los reactores de potencia de tipo CANDU (Canadian Deuterium Uranium reactor), porque en su interior se ubican los canales combustibles en los que se produce el proceso de fisión. 

Trabajan en condiciones de alta exigencia durante sus 30 años de vida útil, ya que operan a temperaturas de entre 250 y 300 grados centígrados, soportan 100 atmósferas de presión interna y están constantemente sometidos al flujo neutrónico producto de la fisión del uranio.

Estos tubos se fabrican con una aleación de zirconio y niobio. 

En el Laboratorio de Microscopía de CNEA se inspeccionan y caracterizan las fases de esa aleación, como uno de los criterios de aceptación de estos tubos para ser utilizados en el reactor. 

“Con inteligencia artificial, la imagen captada por el microscopio es procesada en otra imagen más definida y fácil de analizar por una persona. 

Además, se desarrollaron herramientas para que el trabajo sobre estas nuevas imágenes sea mucho más rápido y sencillo que el método tradicional”, cuenta Nieto.

Otra tarea sensible que se realiza manualmente es la inspección de la superficie para control de calidad de combustibles nucleares. 

Un operador revisa minuciosamente los pellets de uranio para asegurarse de que no tengan fallas, como grietas o irregularidades en la superficie. 

Se trata de un trabajo lento y que no admite equivocaciones. 

Automatizarlo en forma segura ahorraría una gran cantidad de tiempo y eliminaría la posibilidad de errores humanos. 

En la CNEA ahora se está desarrollando un sistema para que realice esa tarea.

Lo innovador en sí no es la automatización, sino la adopción de inteligencia artificial para alimentar ese sistema con imágenes y para que “aprenda” a diferenciar los pellets sanos de los que presentan irregularidades. 

En el mediano plazo, un mecanismo automático utilizará esta herramienta de inteligencia artificial para descartar pellets con fallas.

“El procesamiento y manipulación de estos grandes volúmenes de información y la aplicación de las diferentes técnicas de aprendizaje automático requieren de una gran capacidad de almacenamiento y poder de cómputo -señala Nieto-. 

Todo esto se realiza en equipamiento propio de la CNEA administrado por el Departamento de Computación de Alta Prestación de la GTIC, asegurando la privacidad y seguridad de los datos al nunca salir del control interno de la institución”.

Por otra parte, el Departamento Tecnologías Emergentes, en conjunto con el Departamento de Seguridad Informática de GTIC, ensayó un sistema de detección y clasificación de ciberataques a la infraestructura de red de la CNEA, también aplicando técnicas de aprendizaje automático. 

Fueron recopilados dos años de accesos a doce sitios web del organismo, como el de los mails institucionales o el del repositorio Nuclea. 

El sistema encontró patrones entre los diferentes tipos de accesos y eso facilitó el hallazgo y el análisis de intentos de ingreso y comportamientos inusuales en los sistemas. 

Este trabajo fue presentado en Viena en 2023, en un congreso de ciberseguridad organizado por el Organismo Internacional de Energía Atómica.

Estos proyectos posicionan a la CNEA como pionera en el uso de inteligencia artificial en el ámbito nuclear. 

En estos momentos, el equipo a cargo de llevarlos adelante está conformado además por Silvina Dengra, Ana Lucía Marzocca, Juan Pablo Caldo, Tomás Murillo y Nicolás Dazeo.

El Departamento Tecnologías Emergentes de la CNEA colabora con el Organismo Internacional de Energía Atómica (OIEA), donde integra el grupo de Inteligencia Artificial de la International Network on Innovation to Support Operating Nuclear Power Plants (Red Internacional de Innovación para Apoyar la Operación de Centrales Nucleares). 

Además, participa en la redacción y corrección de las guías del organismo sobre el uso de la Inteligencia Artificial en el ámbito nuclear, que serán presentadas este año en Viena.

CNEA

inngeniar