domingo, 22 de diciembre de 2024

Sensores dotados de IA para monitorear la calidad del aire desarrollan especialistas del CONICET

 

Los sensores Breathe2Change se entrenan con inteligencia artificial y envían a la nube los datos de medición de la calidad del aire.

Especialistas del CONICET desarrollan sensores dotados de inteligencia artificial para monitorear la calidad del aire

El proyecto Breathe2Change, liderado por el investigador del CONICET Rodrigo Gibilisco, permite estudiar la contaminación atmosférica, detectar de forma temprana focos de incendios y otras aplicaciones. 

Trabaja con empresas argentinas e instituciones públicas y privadas nacionales e internacionales y este año recibió un subsidio del Instituto de Política Energética de la Universidad de Chicago (EPIC), en Estados Unidos, para ampliar la red de monitoreo a 10 provincias del país.

Breathe2Change (respirar para cambiar) es el nombre de un proyecto pionero, liderado por el investigador del CONICET Rodrigo Gibilisco en articulación con empresas argentinas y numerosas instituciones públicas y privadas nacionales e internacionales. 

Como parte de esta iniciativa, en 2021, se instaló la primera red de sensores para monitorear la calidad del aire en la Provincia de Tucumán y este año recibió un subsidio del Instituto de Política Energética de la Universidad de Chicago (EPIC), en Estados Unidos, para ampliar esa red a diez provincias del norte y del centro del país.

Rodrigo Gilibisco, investigador del CONICET y líder del proyecto Breathe2Change.

En colaboración con dos empresas argentinas, el Laboratorio de Estudios Atmosféricos encabezado por Gibilisco en el Instituto de Química del Noroeste Argentino (INQUINOA, CONICET-UNT), en San Miguel de Tucumán, desarrolla sensores que miden la contaminación atmosférica. 

Detectan la concentración de las micropartículas que van desde un tamaño menor a 1 micrómetro de diámetro (casi 100 veces más pequeñas que el diámetro del cabello humano) asociadas a actividades industriales, agrícolas, parque automotor, incendios y otras actividades.

“Hasta ahora se encuentran funcionando más de 20 sensores distribuidos por todo el territorio de Tucumán que generan datos en tiempo real. 

Ahora ampliaremos la red de monitoreo a diez provincias de nuestro país y la idea a largo plazo es lograr una red federal de monitoreo de la calidad del aire”, afirma Gibilisco quien es doctor en Ciencias Químicas. 

Y destaca: “En el proyecto incorporamos herramientas de inteligencia artificial (IA) para ‘enseñarle’ a los sensores a ser más precisos en la detección y medición de los contaminantes atmosféricos”.

Breathe2Change tiene tres pilares: la implementación de una red de sensores que captan y transmiten datos sobre la calidad del aire a una plataforma en la nube; un equipo de científicos especializados que analiza todos los datos recabados; y un programa de asistencia y colaboración científica para impulsar e implementar políticas públicas e iniciativas privadas para mejorar la calidad del aire.

“Mejorar la calidad del aire es clave para la salud. 

Cerca de siete millones de personas mueren a nivel mundial por afecciones cardiovasculares y respiratorias asociadas a la contaminación del aire”, indica Gibilisco quien realizó su posdoctorado en el Instituto de Ambiente y Atmósfera de la Universidad de Wuppertal, en Alemania. 

Y continúa: “Recabar información precisa sobre los niveles de contaminación del aire e identificar sus fuentes asociadas a actividades humanas es un paso necesario para fomentar la transición energética no contaminante y renovable mediante la participación del sector público y privado”.

Rodrigo Gilibisco e integrantes de su laboratorio de Estudios Atmosféricos en el Instituto de Química del Noroeste Argentino (INQUINOA, CONICET-UNT).

Proyecto con respaldo internacional

El proyecto Breathe2Change fue reconocido en 2021 por la prestigiosa Fundación Alexander von Humboldt, con sede en Alemania.

“El premio Humboldt Alumni Award permitió avanzar en la creación de la primera red de monitoreo de calidad del aire en la Provincia de Tucumán para proporcionar una plataforma de datos de acceso abierto sobre la calidad del aire local en tiempo real a partir de un nuevo enfoque de vigilancia de bajo costo”, explica Gibilisco.

Por el proyecto Breathe2Change y sus avances en la Provincia de Tucumán, el investigador ganó este año el premio EPIC otorgado por el Programa de Aire Limpio del Instituto de Política Energética de la Universidad de Chicago (EPIC), en Estados Unidos. 

La distinción consiste en una subvención para iniciativas encaminadas a aumentar la disponibilidad de datos abiertos sobre la calidad del aire en países que tienen una gran oportunidad de mejorar sustancialmente su contaminación a nivel nacional.

“Con la subvención otorgada replicaremos la experiencia de Tucumán en otras diez provincias del país. 

El objetivo a largo plazo es lograr una red federal de monitoreo, es decir, cubrir todo el territorio nacional, y de ese modo también ayudar a los esfuerzos internacionales dirigidos a monitorear la calidad del aire a nivel global. 

El proyecto que hoy estamos haciendo en Argentina está al mismo nivel de proyectos que se están haciendo en la Unión Europea y eso nos pone muy felices”, destaca el investigador del CONICET.

En 2021 Rodrigo Gilibisco, equipo y colaboradores instalaron la primera red de sensores para monitorear la calidad del aire en la Provincia de Tucumán.

Sensores entrenados con inteligencia artificial (IA)

La inteligencia artificial (IA) cumple un rol preponderante en el proyecto Breathe2Change.

“A través de la red de monitoreo de la calidad del aire combinamos tecnología tradicional con tecnologías basadas en IA para que los sensores tengan capacidad de mejorar su desempeño a medida que van midiendo los contaminantes que detectan. 

Empleamos herramientas de machine learning para un aprendizaje asistido que les enseñe a los sensores a ser más precisos en sus mediciones”, explica Gibilisco.

La IA también se usa para analizar los millones de datos que generan los sensores. 

“Gracias a la IA también tenemos la posibilidad de generar mapas más precisos de la distribución de los contaminantes por territorio, sus fuentes y la dinámica atmosférica y climática que inciden en sus procesos”, puntualiza Gibilisco. 

Y agrega: “También permite correlacionar niveles y tipos de contaminación del aire con prevalencia de enfermedades de una población en un territorio determinado”.

La red de sensores Breathe2Change para medir la calidad del aire se instalará en 10 provincias de Argentina con miras a convertirla en una red federal en el largo plazo.

Otro proyecto liderado por el investigador del CONICET es el “Desarrollo de plataforma multinivel para Detección y Alerta de Incendios: DALI-Sense”. 

“El objetivo de este proyecto en desarrollo es utilizar la red de sensores de la calidad del aire de la iniciativa Breathe2Change para detectar contaminantes en el aire asociados a incendios y combinando estos datos con información satelital y otras variables se podrían detectar de manera temprana focos de incendio que alerten a Defensa Civil para actuar rápidamente y de ese modo salvar vidas y prevenir pérdidas económicas”, explica Gibilisco. 

Por este proyecto, fue galardonado en la séptima edición de la Distinción Franco-Argentina en Innovación 2023 en la categoría Junior.

“Que el proyecto Breathe2Change sea apoyado por instituciones nacionales e internacionales es realmente inspirador. 

Destaca la importancia del aire limpio como un esfuerzo global sin fronteras. 

Este apoyo nos motiva a intensificar nuestros esfuerzos, fomentando la unidad para garantizar un aire limpio y respirable para todos”, afirma el científico del CONICET.

El investigador del CONICET Rodrigo Gilibisco describiendo sus proyectos en una jornada de vinculación científica y tecnológica realizada en Buenos Aires en 2023 que contó con la presencia del canciller alemán Olaf Scholz.

Los socios de Breathe2Change son actores claves del sector público como la Secretaría de Medio Ambiente de la Provincia de Tucumán, las empresas argentinas Neuer Weg y Química Norte Ambiental, instituciones académicas de Alemania (el Instituto de Ambiente y Atmósfera de la Universidad de Wuppertal), Francia (Instituto de Combustión Aerotérmica y Reactividad de la Atmósfera – CNRS), Italia (Departamento de Ingeniería Química y Ambiental – Génova), la Fundación Alexander von Humboldt y ONGs nacionales e internacionales y también las Embajadas de Alemania, Francia e Italia en Argentina que facilitaron la generación de redes de trabajo internacionales.

Por Bruno Geller

CONICET

inngeniar

lunes, 2 de diciembre de 2024

Semana de la IA Inteligencia Artificial en Argentina

 Encabezada por el Presidente Javier Milei, comenzó la primera Semana de la Inteligencia Artificial en Argentina

El evento reúne a expertos nacionales e internacionales de 24 países

Algunos de los temas a tratar serán los desafíos y límites de esta tecnología; la IA para la mejora de los servicios públicos; modelos de Machine Learning y su alcance actual; interacción humano-IA potenciada por el Deep Learning; y casos de éxito de aplicación de la IA en la industria del software, entre otros.

Con la presencia del Presidente de la Nación, Javier Milei, y con la participación de embajadores y autoridades nacionales y provinciales, se realizó en el Centro Cultural de la Ciencia (C3) la apertura de la primera Semana de la Inteligencia Artificial en Argentina. 

Participaron en el acto el Jefe de Gabinete, Guillermo Francos; el Jefe de Gabinete del Consejo de Asesores del Presidente, Demian Reidel; el Secretario de Innovación, Ciencia y Tecnología, Darío Genua; y el Secretario de la Pequeña y Mediana Empresa, Emprendedores y Economía del Conocimiento, Marcos Ayerra.

Organizada por la Secretaría de Innovación, Ciencia y Tecnología de la Nación, la primera Semana de la Inteligencia Artificial en Argentina es un encuentro que busca inspirar nuevas ideas, promover alianzas estratégicas y reforzar el compromiso de la comunidad argentina con el desarrollo de tecnologías que respeten los valores humanos y mejoren la calidad de vida de todos.

En sus palabras de bienvenida, el Secretario Genua agradeció a los expositores y a las empresas y afirmó: 

“Es un honor estar aquí en este espacio que reúne a representantes del sector público y del sector privado en pos del desarrollo e implementación de la Inteligencia Artificial

Argentina cuenta con un gran desarrollo y muy buenas perspectivas en sectores como la energía, el agro y la agroindustria, la biotecnología y la economía del conocimiento, sin soslayar algo tan importante como los recursos humanos”.

Y concluyó: “Desde el Gobierno Nacional estamos trabajando para acompañar estas transformaciones y desplegando políticas para promover la implementación de Inteligencia Artificial en la gestión pública, esto siempre con el objetivo de brindar mejores servicios a la ciudadanía y fomentar la transparencia y la eficiencia dentro de la gestión pública para facilitarle la vida a los argentinos”.

Por su parte, Francos destacó la convocatoria y felicitó a “los organizadores” y al “sector privado presente” por la realización de “un evento de estas características”. 

“Estamos ante un cambio impresionante que muestra cómo se han ido acelerando los procesos del conocimiento y de la tecnología”, remarcó el Jefe de Gabinete de Ministros al tiempo que enumeró las “principales preocupaciones” actuales en torno a la Inteligencia Artificial. 

Sobre este punto, Francos planteó, “como decía el Presidente”, que “uno no tiene que paralizarse ante estos riesgos”, sino “pensar soluciones a estos problemas que nos permitan avanzar en conjunto”.

A su turno, Demian Reidel afirmó: “De las cuatro revoluciones industriales que hemos experimentado hasta ahora, todas han compartido una característica muy importante, que es el pánico a la pérdida irreversible de puestos de trabajo y a un estado de miseria posterior. 

Pero hoy nadie piensa que las computadoras fueron algo malo para nadie. 

No hay que pensar que la Inteligencia Artificial nos va a dejar sin trabajo, y este es un llamado para que todos se despierten”.

Y finalizó: “El incremento de la productividad del capital humano a través de la utilización de estas herramientas es muy importante, y aprender a utilizarlas es esencial. 

Además estas nuevas tecnologías son interesantísimas para desarrollarse. 

Hoy estamos en la cuarta revolución industrial, y esta es una oportunidad para llevar adelante proyectos que nos conduzcan hacia un nuevo estado de bienestar”.

Por último, Marcos Ayerra dijo: “Me siento muy orgulloso de ser parte de este momento de la Argentina. 

La IA es una herramienta fundamental para ayudar a enfrentar el desafío que hoy enfrentan las empresas Pyme de nuestro país y para eso estamos trabajando”.

Resumen de la primera jornada

La jornada inaugural contó con la conferencia magistral sobre el desarrollo de la IA de Argentina para el mundo, a cargo de Fernando López Iervasi, Presidente de Sudamérica Hispana de Microsoft.

También se desarrolló la conferencia magistral: “Inteligencia Artificial: la oportunidad de la década”, a cargo Alberto Indacochea, Director IA de IBM Latinoamérica.

En cuanto a los paneles, tuvo lugar uno dedicado a la IA para la mejora de los Servicios Públicos, que contó con la participación del Secretario de Turismo, Ambiente y Deportes de la Vicejefatura de Gabinete del Interior de Argentina, el Subsecretario de Deportes, Diógenes de Urquiza Anchorena; la Subsecretaria de Turismo, Yanina Martínez; el Ministro de la Suprema Corte de Mendoza, Presidente del Instituto de Innovación y Tecnologías de las Justicias Argentina y Cofunder de la Red Juslab, Mario Adaro; la Head for Public Sector Transformation Programs Latin America de Amazon Web Services, (AWS), Laura Alvarez Modernel; y el Public Policy Manager de META, Tomas Kroyer.

Otra conferencia magistral fue "Soberanía y estrategias de IA. Lo que cada líder argentino necesita saber", con Marcelo Christianini, Vicepresidente de AI y Cloud engineering para Latinoamérica de Oracle.

Otro conversatorio fue “Machine Learning y su alcance actual”, a cargo de Marcelo Riva, Machine Learning Manager de Mercado Libre.

Roberto Nobile, CEO, Telecom dictó la conferencia magistral “IA y conectividad avanzada: claves para el futuro digital”.

En el panel “Interacción Humano-IA potenciada por el Deep Learning” se buscó mostrar cómo a través de redes neuronales profundas, estas tecnologías son capaces de interpretar datos complejos, aprender de manera autónoma y responder de forma más intuitiva y personalizada. Participaron Diego Martinez, Principal Enterprise Architect de Salesforce; Mariela Fiorenzo, Data Office Manager de Telecom Argentina; y Bárbara Michalla, Data & Analytics Sr Manager de Mercado Libre.

A su vez, en la conferencia magistral: "¿IA mi qué?", se exploró el potencial transformador de la IA para las empresas, con un enfoque en las soluciones y casos de uso. Expusieron Pilar Manchón Portillo, Directora de Estrategia de Investigación en GoogleAI; y Natalia Scaliter, Gerente General de Google Cloud Argentina.

En el panel “La estructura de las Revoluciones Científicas: la IA como nuevo paradigma”, se debatió cómo el uso de técnicas avanzadas de inteligencia artificial está transformando nuestra comprensión de los patrones y dinámicas del comportamiento humano. 

Participaron Ezequiel Erdei, Sociólogo y Managing Director de Mega Research; y Pablo Verdenelli, CEO y fundador de Seenka y Welo.

También tuvo lugar la conferencia magistral “AI Economy: Una oportunidad para Argentina", que estuvo a cargo de Marlon Fetzner, Director de Asuntos Gubernamentales para Latinoamérica de Microsoft.

Las últimas dos conferencias magistrales fueron "Impacto de la Inteligencia Artificial Generativa en el Ecosistema Emprendedor", que abordó el análisis del impacto y transformación que traen las nuevas tecnologías de inteligencia artificial en las compañías del mañana. 

En ella disertó Alfonso Amat, Responsable del Desarrollo del Ecosistema Emprendedor de Latinoamérica de AWS. 

La jornada cerró con la conferencia “Argentina y la Inteligencia Artificial. Creatividad y tecnología para transformar al país”, dictada por Martín Migoya, CEO de Globant.

El encuentro podrá seguirse por streaming en la página web del evento 

Galería de fotos.

inngeniar


domingo, 1 de diciembre de 2024

1° Semana Argentina de la Inteligencia Artificial

 

Llega la primera Semana Argentina de la Inteligencia Artificial

Entre el 2 y el 6 de diciembre se llevará adelante este evento que reunirá a expertos nacionales e internacionales de diversas áreas, que ayudarán a entender cómo funciona la IA, sus aplicaciones reales en diferentes sectores y las oportunidades y desafíos que plantea. 

Serán más de 30 conferencias y paneles destacados con la participación de más de 25 empresas y organizaciones líderes.

La Secretaría de Innovación, Ciencia y Tecnología organiza la primera Semana Argentina de la Inteligencia Artificial, un encuentro que busca inspirar nuevas ideas, promover alianzas estratégicas y reforzar el compromiso de la comunidad argentina con el desarrollo de tecnologías que respeten los valores humanos y mejoren la calidad de vida de todos.

Durante la semana, expertos nacionales e internacionales de 24 países compartirán sus experiencias y conocimientos, facilitando un espacio de diálogo y colaboración que nos permitirá anticipar y adaptar nuestras sociedades a los desafíos y oportunidades que plantea la inteligencia artificial

Se desarrollarán actividades y reuniones ejecutivas, se profundizará en temas clave como el aprendizaje automático, el procesamiento del lenguaje natural, la ética en la IA, y la colaboración entre el sector público, la industria y la academia para fomentar un ecosistema de innovación responsable y sostenible.

Algunos de los temas a tratar serán los desafíos y límites de la IA; la IA para la mejora de los servicios públicos; modelos de Machine Learning y su alcance actual; interacción humano-IA potenciada por el Deep Learning; y casos de éxito de aplicación de la IA en la industria del software.

Entre los principales oradores se destacan Darío Genua, Secretario de Innovación, Ciencia y Tecnología de la Nación; Demian Reidel, Jefe de Gabinete del Consejo de Asesores del Presidente de la Nación; Martín Migoya, CEO de Globant; Fernando López Iervasi, Presidente de Sudamérica Hispana de Microsoft; Roberto Nobile, CEO de Telecom; Laura Alvarez Modernel, Head for Public Sector Transformation Programs Latin America de Amazon Web Services; Marcelo Riva, Machine Learning Manager de Mercado Libre; Pilar Manchón Portillo, Directora de Estrategia de Investigación en GoogleAI; y Paula Vargas, Director, Privacy Policy & Engagement de LATAM META, entre otros.

En un contexto global en el que la inteligencia artificial transforma sectores fundamentales como la salud, la educación, la industria y el comercio, Argentina se posiciona como un referente en América Latina, aportando talento y desarrollos innovadores que contribuyen al avance de la tecnología y al bienestar social.

Los formatos de participación serán los siguientes:

Conferencias magistrales: expositores de renombre internacional compartirán sus visiones y experiencias sobre los desafíos actuales y el futuro de la Inteligencia Artificial.

Paneles de discusión: actores del sector abordarán ejes clave exploratorios y en discusión como la gobernanza, el desarrollo de capacidades en IA, infraestructura y conectividad, servicios públicos y transformación productiva, entre otros.

Sesiones de presentación: se explorarán algunas de las últimas innovaciones, tendencias y aplicaciones en IA y cómo se están integrando en empresas e instituciones de todo el mundo.

La apertura del evento se realizará el lunes 2 a las 10 h en el Centro Cultural de la Ciencia (C3), y el encuentro podrá seguirse por streaming en la página web del evento

inngeniar


viernes, 22 de noviembre de 2024

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

 

 Células de cáncer colorrectal resistentes a terapia teñidas para visualizar el núcleo, y el citoesqueleto

Estudian el rol de una proteína que podría ser clave para hallar una nueva terapia contra el cáncer de colon

La investigación, con participación del CONICET, descubrió que GTPasa es la responsable de que se genere resistencia al tratamiento más utilizado contra esta patología.

Investigadores del Instituto de Inmunología Clínica y Experimental de Rosario (IDICER, CONICET-UNR) y del Centro de Investigación del Cáncer Rosario detectaron una proteína responsable de generar resistencia al 5-fluorouracilo -5 FU-, la droga más usada en Argentina contra el cáncer de colon. 

El hallazgo fue publicado en la revista Cells, un medio de vanguardia en avances de oncología y biomedicina, y abre la puerta para desarrollar terapias contra este cáncer más efectivas y con menos efectos secundarios para los pacientes.

Mauricio Menacho Márquez, investigador del CONICET en el IDICER y uno de los autores de la publicación, explicó que el cáncer de colon es uno de los más diagnosticados, no sólo en el país sino también a nivel mundial, y que junto con el cáncer de mama en mujeres y el de pulmón, es de los tres tipos tumorales más frecuentes; con la particularidad de que, si se lo detecta a tiempo, las terapias son muy efectivas. 

“Si bien los tumores responden bien inicialmente a tratamientos basados en 5-fluorouracilo, muchos tipos tumorales se vuelven resistentes a la terapia y esta deja de funcionar”, explica.

Al respecto el científico y también autor del artículo, Luciano Anselmino, detalla que hay personas con mayor predisposición a desarrollar resistencia que otras. 

El problema, apunta, es que las quimioterapias que se usan actualmente suelen ser también citotóxicas, es decir que “cuando uno está sometido a una quimioterapia, ese fármaco no sólo afecta al tumor sino que también afecta a otros tejidos del cuerpo”.  

Es lo que se conoce como efectos secundarios: caída del cabello, debilitamiento de las uñas, descamación de la piel, entre otros.

Anselmino cuenta que esos efectos son los que evitan que los médicos puedan incrementar las dosis. 

“Lo que estamos buscando nosotros son compuestos que tengan pocos efectos secundarios y que de alguna forma puedan resensibilizar a los pacientes a las terapias actuales”, señala.

“No es como la resistencia bacteriana, que por el uso indiscriminado de antibióticos aparecen cepas resistentes, sino que alguien con cáncer colorrectal puede venir respondiendo bien inicialmente porque inicialmente no es resistente, incluso el tumor puede ir desapareciendo, pero al tiempo se empiezan a seleccionar clones resistentes, clones que no responden, clones que generaron mutaciones adicionales y eso hace que el tumor vuelva a crecer y que ya no responda de la manera que respondía a la terapia y se vuelva resistente al tratamiento”, añade Menacho Márquez.

Nahuel Laluce (Izq.), Florencia Malizia, Aylén Avila, Mauricio Menacho Márquez, Lucia Zanotti, Macarena Mamberto y Luciano Anselmino. Foto: gentileza investigadores

Los orígenes del estudio y sus aportes    

Luciano Anselmino y su grupo venían estudiando fármacos con potencial para sensibilizar a algunos pacientes. 

En esta oportunidad, buscaron objetivos terapéuticos, es decir, objetivos para nuevos tratamientos o para tratamientos alternativos que resensibilizaran a pacientes que ya no respondieran a terapias con 5-FU. 

“Lo que hicimos fue aprovechar datos biológicos que se generan constantemente a partir de los avances tecnológicos de las últimas décadas”, dice.

Según indica el científico, cada vez hay más datos de secuenciación genómica -de los ADN de las personas-, y esos datos son públicos para la comunidad científica. 

“Nosotros aprovechamos esta información y desarrollamos un flujo de trabajo, una manera de organizarla que nos permita detectar potenciales objetivos, potenciales proteínas”. 

Para hacerlo, en el equipo científico se formaron en Inteligencia Artificial -IA- aplicada al área salud para desarrollar programas y algoritmos que puedan ir aprendiendo a clasificar a los pacientes entre “respondedores” y “no respondedores” a las terapias a las que estaban sometidos. 

Luego de hacer una intensa búsqueda y un análisis informático con IA durante un tiempo prolongado, aparecieron los objetivos claves en el desarrollo de resistencia en pacientes con cáncer colorrectal.

Menacho Márquez recuerda que pusieron el foco en esas proteínas para ver si existían drogas que apuntaran hacia ellas. 

Y que comenzaron a colaborar colegas de la Universidad Nacional de Quilmes, que les enviaron un compuesto inhibidor de esas proteínas que se llaman GTPasas pequeñas, en particular Rac1, y con un colaborador de Francia, que también había desarrollado un inhibidor de esas proteínas.

Anselmino agrega que el encuentro con estos otros grupos de investigación fue interesante ya que vieron que esa misma vía -GTPasas-, estaba involucrada en el desarrollo de resistencia en otros tipos de cáncer. 

“Eso nos llamó mucho la atención y nos impulsó a pensar que estos resultados realmente eran importantes”, dice, “por eso empezamos a probar en diferentes modelos, sobre células, ratones y distintos compuestos que inhibían de alguna manera esa proteína”. 

Allí encontraron el compuesto 1A-116 que, en ratones, frenaba el crecimiento de tumores resistentes. Sobre los experimentos de laboratorio, recuerda que generaban tumores resistentes exponiendo células a dosis crecientes de 5-FU y las células podían crecer a dosis muy altas. 

Sobre esas células probaban compuestos para ver si evitaban el crecimiento de las resistentes.

“La idea principal ahora, una vez encontrada esta proteína que ya vimos que es importante en la resistencia a los tratamientos, es probar estos compuestos en otros modelos, en otros tipos de cáncer para ver cómo responden”, comenta Anselmino.

Menacho Márquez resalta que parte de la investigación demostró una firma genética asociada al desarrollo de resistencias, muy clara en cáncer colorrectal y que, aparentemente, sería compartida por otros tipos tumorales en respuesta a otros tratamientos. 

“Las mismas proteínas que están confiriendo resistencia en cáncer colorrectal a tratamientos basados en 5-FU, también estarían implicadas en conferir resistencia en otros tipos tumorales, a otras drogas. Incluso, en radioterapias, por ejemplo en cáncer de cabeza y cuello o a terapias con inhibidores pequeños en cáncer de pulmón”, señala. 

“Tenemos reuniones con colegas de Francia porque están desarrollando compuestos inhibidores de estas proteínas y la idea es seguir con modelos pre clínicos para demostrar más fehacientemente la relevancia de esta vía y así pasar a ensayos clínicos, ya con personas”.

Por su parte Anselmino detalla: “Lo que están haciendo en Francia es probar un compuesto que es distinto al que nosotros probamos pero que ataca a la misma proteína”. 

De este modo, podrán ver cuál es el compuesto con mejor resultado y menos efectos secundarios. 

Estas características, asevera el científico, son las que necesitan para desarrollar una quimioterapia que no sólo cuide el avance del tumor, sino que sea paliativa y gentil con el paciente.

Referencia bibliográfica:

Anselmino, L. E., Malizia, F., Avila, A., Cesatti Laluce, N., Mamberto, M., Zanotti, L. C., … & Menacho Márquez, M. (2024). Overcoming Therapy Resistance in Colorectal Cancer: Targeting the Rac1 Signaling Pathway as a Potential Therapeutic Approach. Cells, 13(21), 1776.

DOI: https://doi.org/10.3390/cells13211776

Por Andrea G. Guereta – Comunicación Institucional CONICET Rosario

CONICET

inngeniar


jueves, 14 de noviembre de 2024

Transformación digital en el 9° Congreso de Tecnología y Justicia

 

 Expusimos las políticas nacionales de transformación digital en el 9° Congreso de Tecnología y Justicia

El secretario de Innovación, Ciencia y Tecnología de la Nación, Darío Genua, encabezó en Mendoza la inauguración de la segunda jornada del Congreso y firmó un acta de acuerdo con la Suprema Corte de Justicia provincial para promover y desarrollar políticas de transformación digital y alfabetización digital.

La Secretaría de Innovación, Ciencia y Tecnología estuvo presente en el 9° Congreso de Tecnología y Justicia en Mendoza, una oportunidad para que profesionales del derecho, la tecnología y la innovación conozcan las últimas tendencias en la digitalización del sistema de Justicia.

El evento fue organizado por el Instituto Federal de Innovación, Tecnología y Justicia (IFITEJ) de la Junta Federal de Cortes y Superiores Tribunales de Justicia (Ju.Fe.Jus.). 

Participaron representantes de empresas de tecnología y telecomunicaciones, y del sector público nacionales e internacionales. 

Se abordaron temas como la aplicación de la Inteligencia Artificialla transformación digital, la protección de datos y la gobernanza digital apuntando como eje a la Innovación Judicial al Servicio de la Ciudadanía.

En la apertura de la segunda jornada del Congreso, el secretario de Innovación, Ciencia y Tecnología, Darío Genua, repasó el plan que está llevando adelante la cartera de Innovación, Ciencia y Tecnología en materia de transformación digital: implementación de Inteligencia Artificial en los actos de Gobierno, actualización y reingeniería integral de aplicaciones y herramientas digitales que brindan servicios, entre otros desarrollos que permitan construir un Estado inteligente, que facilite el acceso y la eficiencia en las gestiones y trámites en beneficio de la ciudadanía.

“Este tipo de eventos nos permite vincularnos con buenas prácticas e iniciativas innovadoras, y es la oportunidad para promover la sinergia entre diferentes actores, incorporando además aportes y soluciones en innovación tecnológica provenientes del sector privado y del ámbito académico”, resaltó Genua.

En el Congreso también estuvo presente el subsecretario de Tecnologías de la Información y las Comunicaciones, César Gazzo Huck, en el panel “Políticas Nacionales de Transformación Digital”, donde focalizó en las soluciones y desarrollos digitales que el Gobierno Nacional está llevando adelante.

Acta acuerdo con la Suprema Corte de Justicia de Mendoza en materia de transformación digital

En el marco del evento, Genua firmó un acta acuerdo con Mario Adaro, ministro de la Suprema Corte de Justicia de Mendoza, para promover y desarrollar políticas de transformación digital y alfabetización digital.

Este convenio tiene el objetivo que la Suprema Corte de Justicia de Mendoza adopte soluciones tecnológicas que faciliten el acceso a la Justicia, mejoren la calidad de vida de sus ciudadanos, y den celeridad y seguridad jurídica a través de la innovación

Los principales ejes del convenio son:

-.- Digitalizar y disponibilizar en la app Mi Argentina las diferentes credenciales de la Suprema Corte de Justicia de Mendoza.

-.- Crear cursos para ampliar la cantidad de Autoridades de Registro para facilitar el acceso a la Firma Digital.

-.- Fomentar la colaboración por parte del Sistema de Identificación Nacional Tributario y Social (SINTYS) para la implementación del nuevo procedimiento de Beneficio de litigar sin Gastos.

-.- Expandir la red del Programa Punto Digital, creando nuevos espacios en juzgados y/o oficinas judiciales de Mendoza, priorizando aquellas áreas con baja conectividad y acceso limitado a servicios tecnológicos.

-.- Fomentar el uso de la Plataforma de Aprendizaje Virtual (PAV) en todo el poder judicial de la provincia, con especial énfasis en su integración en programas de capacitación laboral, inclusión digital y formación en derechos ciudadanos.

inngeniar


jueves, 24 de octubre de 2024

La CNEA en la OIEA sobre SMR

 

La CNEA participa en la Conferencia Internacional sobre Reactores Modulares Pequeños

El Dr. Ing. Germán Guido Lavalle, presidente de la Comisión Nacional de Energía Atómica, representa a la Argentina en el encuentro que reúne a más de 1.000 participantes de casi 100 países. 

Se trata de un foro global para intercambiar información y discutir oportunidades y desafíos de este tipo de reactores.

El presidente de la Comisión Nacional de Energía Atómica (CNEA), Dr. Ing. Germán Guido Lavalle, participa en la primera Conferencia Internacional sobre Reactores Modulares Pequeños (SMR) y sus Aplicaciones, organizada por el Organismo Internacional de Energía Atómica (OIEA) en su sede de Viena, Austria. 

Más de 1.000 representantes de casi 100 países asisten al encuentro, que empezó este lunes y se extenderá hasta el viernes. 

El objetivo de esta conferencia es funcionar como un foro global para discutir oportunidades y desafíos y establecer condiciones para el desarrollo y despliegue acelerado y seguro de este tipo de reactores.

“La apuesta por la generación nuclear de las grandes empresas tecnológicas ha cambiado el juego. 

El crecimiento nuclear pasa de ser una profecía de tecnólogos a convertirse en una realidad. 

Como venimos señalando, esto representa una oportunidad para la Argentina que debemos aprovechar a partir del importante volumen de recursos humanos muy calificados que tenemos en el sector”, expresó Guido Lavalle.

Los SMR son reactores diseñados para producir hasta 300 MW

Su construcción es más rápida que la de los reactores de mayor tamaño y, como son pequeños, resultan ideales para instalar en áreas remotas. 

Además, algunas empresas multinacionales están invirtiendo en el desarrollo de tecnología para abastecer a sus centros de inteligencia artificial.

De acuerdo a las estimaciones del OIEA, para 2050 la capacidad de generación de energía nuclear será dos veces y media mayor a la actual y un cuarto de esa capacidad provendré de los SMR-. 

“Para cubrir las necesidades de energías bajas en carbono de los países y las industrias, debemos garantizar la prueba y despliegue oportunos de SMR seguros. 

Para esto, la cooperación y la colaboración internacionales son esenciales”, afirmó el director general del OIEA, Rafael Grossi, antes del encuentro.

En el marco de la conferencia en Viena, se realizan paneles de presentación y discusión de los principales diseños de SMR, micro reactores y su ciclo de combustible; los enfoques de seguridad física, tecnológica y de salvaguardias; los marcos legislativos y regulatorios; los enfoques de financiamiento; el estado de los planes nacionales de energía nucleoeléctrica de los Estados miembros del OIEA y el intercambio de información y promoción de la cooperación internacional en la materia entre las partes interesadas, entre otros temas.

El lunes 21 por la mañana se celebró la Iniciativa de Armonización y Normalización Nuclear (NHSI, por sus siglas en inglés), una reunión plenaria convocada por el Director General del OIEA. 

La NHSI tiene como objetivo avanzar en la armonización y la normalización del diseño, la construcción y los enfoques reglamentarios e industriales de los SMR. 

Esta iniciativa consta de dos vías separadas y complementarias: la reguladora y la industrial.

Mientras tanto, este martes Women in Nuclear (WiN) IAEA realizó su evento paralelo SMRs: Women as Game Changers (SMR: mujeres que cambian las reglas del juego). 

Se trató de un debate en el que se evaluó cómo impacta la innovación nuclear en la vida de las mujeres de todo el mundo. 

También se analizó de qué manera las oportunidades profesionales que generan los proyectos de SMR contribuyen a cerrar la brecha de género en el campo nuclear.

Más tarde se celebró la “Noche de la Industria”, organizada por el OIEA y la Asociación Nuclear Mundial (WNA), donde convergieron proveedores de todo el mundo para presentar la última tecnología de reactores.

Por otra parte, este miércoles hubo un evento para la generación joven organizado conjuntamente por el Congreso Nuclear Internacional de Jóvenes (IYNC) y el OIEA. 

En este encuentro se debatió sobre cómo los SMR y los micro-reactores pueden contribuir a un futuro sostenible y equitativo.

Paralelamente a la conferencia se está realizando la Reunión Técnica sobre el Fortalecimiento de la Participación de los Actores Locales, en cuyo marco las autoridades del municipio de Zárate expresaron su interés en ser parte de la Global Partnership of Municipalities with Nuclear Facilities (Asociación Global de Municipios con Instalaciones Nucleares).

CNEA

inngeniar


martes, 8 de octubre de 2024

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

 

 Ilustración de los ganadores del Premio Nobel de Física 2024. Créditos: Niklas Elmehed © Nobel Prize Outreach

Investigadores del CONICET explican por qué los “padrinos” de la inteligencia artificial obtuvieron el Nobel de Física

Gabriel Mindlin y Francisco Tamarit reflexionan sobre la importancia de sus contribuciones científicas.

La Real Academia Sueca de Ciencias otorgó el Premio Nobel de Física 2024 John J. Hopfield y Geoffrey E. Hinton, considerados los “padrinos” de la inteligencia artificial, por sus “descubrimientos e invenciones fundamentales que permiten el aprendizaje automático con redes neuronales artificiales”. 

Hopfield creó una red neuronal artificial para almacenar y recuperar memoria por asociación, lo que permite, por ejemplo, almacenar y reconstruir imágenes y otros tipos de patrones en los datos e información. 

Por su parte, Hinton inventó un algoritmo “de la retropropagación del error”, que permite que las redes neuronales artificiales “aprendan” a partir de experiencias en forma muy similar a la forma en que aprendemos los humanos y los animales. 

Estas contribuciones fueron claves para diseñar las grandes redes neuronales artificiales que se utilizan actualmente.

“Me parece excelente que los hayan premiado”, indica Gabriel Mindlin, científico del CONICET en el Instituto de Física de Buenos Aires (IFIBA, CONICET-UBA), que incorporó las herramientas de trabajo diseñadas por los Premios Nobel para estudiar a las aves individuales a través de sus vocalizaciones para monitorear poblaciones amenazadas. 

“Tanto en sus aspectos beneficiosos como en sus aspectos más amenazantes, la teoría de redes está produciendo un cambio en la humanidad de proporciones colosales, y fueron las contribuciones de estos dos científicos los que crearon los pilares de esta nueva revolución conceptual que estamos viviendo”, advierte.

Tal como explica Mindlin, la ciencia tradicional se basó siempre en dilucidar los mecanismos de cómo funcionan las cosas. 

Hopfield diseño un dispositivo conceptual -las “redes neuronales”- capaces de expresar comportamientos interesantes emergentes, y Hinton logró entrenar a esas redes a partir de ejemplos para resolver problemas complejos, abriendo un nuevo modo de hacer ciencia. 

“Con sus luces y sus sombras, lo que hicieron fue un cambio conceptual respecto de cómo pretendíamos operar sobre el mundo desde la filosofía griega a esta parte”, asegura Mindlin.

Para Francisco Tamarit, investigador del Instituto de Física Enrique Gaviola (IFEG), el premio es “un acto de justicia, porque Hopfield es quien dio el puntapié para el auge de las redes neuronales que estamos viviendo hoy, quien tuvo la primera idea de esta revolución”. 

Tamarit conoció al propio Hopfield en vivo y en directo. 

“Fue en la Universidad de San Pablo en San Carlos, donde fui a tomar un curso con él hace muchos años, y pude comprobar que es una persona muy generosa”.

Tamarit, apenas se recibió de físico en 1987, había comenzado a trabajar con el modelo de redes neuronales publicados por Hopfield en 1982. 

“Yo siempre digo en mis conferencias y cursos, que sin dudas todo lo que tenemos hoy en inteligencia artificial se lo debemos a él, porque nos sacó del llamado ´invierno´ de la inteligencia artificial, donde se habían estancado las investigaciones en la materia”, dice el científico.

“Hopfield trabajaba en el modelado de vidrios, y se dio cuenta, en 1982, que estos materiales tan baratos y comunes podían llevarlo a modelar un cerebro humano para almacenar memoria, como almacenan los animales. 

Su trabajo quedó escondido hasta que otros científicos italianos e israelitas lo retomaron en el año 1985. 

No descubrió algo, lo inventó. 

Y sus ideas, como las de Hinton, son las que ahora usamos en todas las redes neuronales artificiales que dan lugar a la inteligencia artificial más sofisticada, como la que vemos por ejemplo en el Chat GPT”.

Los laureados

Tal como difundió en un comunicado la Academia Sueca, “cuando hablamos de inteligencia artificial, a menudo nos referimos al aprendizaje automático mediante redes neuronales artificiales. 

Esta tecnología se inspiró originalmente en la estructura del cerebro. 

En una red neuronal artificial, las neuronas del cerebro están representadas por nodos que tienen valores diferentes. 

Estos nodos se influyen entre sí a través de conexiones que pueden compararse con sinapsis y que pueden fortalecerse o debilitarse. 

La red se entrena, por ejemplo, desarrollando conexiones más fuertes entre nodos con valores simultáneamente altos. 

Los galardonados de este año han realizado importantes trabajos con redes neuronales artificiales desde los años 80 en adelante”.

Hopfield inventó una red que utiliza un método para guardar y recrear patrones. 

“Podemos imaginar los nodos como píxeles. 

La red Hopfield utiliza la física que describe las características de un material debido a su giro atómico, una propiedad que convierte a cada átomo en un imán diminuto. 

La red en su conjunto se describe de una manera equivalente a la energía en el sistema de espín que se encuentra en la física, y se entrena encontrando valores para las conexiones entre los nodos para que las imágenes guardadas tengan baja energía. 

Cuando la red Hopfield recibe una imagen distorsionada o incompleta, trabaja metódicamente a través de los nodos y actualiza sus valores para que la energía de la red disminuya. 

Así, la red trabaja paso a paso para encontrar la imagen guardada que más se parezca a la imperfecta con la que fue alimentada”, explicaron desde la organización de los Premios Nobel.

Geoffrey Hinton, por su parte, utilizó la red Hopfield como base para una nueva red que utiliza un método diferente: la máquina de Boltzmann. 

“Este puede aprender a reconocer elementos característicos en un determinado tipo de datos. 

Hinton utilizó herramientas de la física estadística, la ciencia de los sistemas construidos a partir de muchos componentes similares. 

La máquina se entrena dándole ejemplos que es muy probable que surjan cuando la máquina está en funcionamiento. 

La máquina Boltzmann se puede utilizar para clasificar imágenes o crear nuevos ejemplos del tipo de patrón en el que fue entrenada. Hinton se ha basado en este trabajo y ha ayudado a iniciar el explosivo desarrollo actual del aprendizaje automático”.

Por Cintia Kemelmajer

CONICET

inngeniar