Abstract:
En el mundo de la Astrofísica, necesitamos continuamente lenguajes de programación para poder recrear nuestras simulaciones o para analizar datos de observaciones. En mi campo, utilizo Python diariamente para simular, analizar y comparar mapas de magnificación de microlensing en cuásares para poder estudiar las propiedades de la materia oscura o el movimiento de galaxias. A partir de modelos matemáticos y estadística, obtenemos resultados que luego se compararán con datos observacionales sacados a partir de aquellos sistemas que presenten el efecto lente gravitatoria.
Bio:
Mi nombre es Ana Esteban Gutiérrez, tengo 26 años y nací y crecí en Santa Cruz de Tenerife. Empecé estudiando el Grado en Física por la Universidad de La Laguna, para luego elegir el Máster de Astrofísica impartido también en la misma universidad. Actualmente me encuentro en el Instituto de Astrofísica de Canarias realizando mi tesis doctoral en el campo de la Cosmología. En concreto, trabajo intentando desentrañar los misterios de la materia oscura y de la evolución de nuestro universo, todo ello a partir del efecto de lente gravitatoria.
Muy interesante aprender sobre las microlentes y cómo Python es uno de los lenguajes más populares en tu campo. Ahora siento bastante curiosidad sobre el trabajo que estás haciendo. ¿Será posible acceder al código y los datos que has utilizado en cuanto tu tesis esté terminada?
Buenas! El formato más común es el que mencionaba en la charla, el tipo fits. Depende del telescopio/satétile, hay datos que son públicos y otros que tienes que estar metido/a en colaboraciones concretas o en proyectos para usar esos datos. Asimismo, los astrónomos están continuamente tomando sus propios datos mediante un proceso estricto de petición de tiempo de observación en distintos telescopios a lo largo del mundo. Ya no hace falta que todos los/as astrónomos/as vayan personalmente a observar, sino que hay personas que se dedican a operar en ellos y tomar los datos que los astrónomos/as precisan para sus campañas o proyectos.
Espero que haber respondido a tu pregunta
Para más info no dudes en contactar por aqui o por mi email.
Muchas gracias! El placer es mío. Estaba un poco dudosa de si la charla se hacia muy pesada para este congreso pero espero que os haya generado curiosidad (que ya veo que algo si jeje)
Pues mira, mis trabajos de la tesis se están publicando y se seguirán publicando en artículos científicos en revistas especificas, pero que están abiertos a lectura para todo el mundo. De momento estoy simulando yo mis resultados utilizando el cógido Inverse Polygon Mapping (IPM), utilizando varios parámetros de entrada y generando las imágenes que resultan del código mediante Python. Todo esto con el objetivo de comparar nuestras simulaciones con datos observacionales de sistemas lente (que están disponibles para todo el mundo también en páginas de satélites como Gaia o Cásales Survey). Respecto a los scripts de Python que yo me creo para tratar las imágenes que salen de las simulaciones, los utilizo yo para analizar de forma estadística lo que crea el IPM, es decir, tienen la función de análisis puro y duro, aunque yo encantada de comentar y compartir los códigos
¡Muy interesante! Muchas gracias por la conferencia, muy interesante. Mi pregunta es: ¿el foco del análisis está en unas pocas imágenes o en una gran cantidad? En realidad, tengo curiosidad por saber si los análisis los haces con tu PC o necesitas ejecutarlo en sistemas más potentes.
Efectivamente, en mi caso utilizo una cantidad significativa de imágenes porque cuanto mayor sea la colección de imágenes, mejor será la estadística posterior. A lo largo de la tesis he tenido que recurrir a sistemas como HTCondor o SLURM porque mis procesos son independientes entre sí y lo que me interesa es que se ejecuten cuantos más mejor al mismo tiempo. Normalmente los datos los guardo en las máquinas que proporciona mi institución y requiero de un almacenamiento grande para ello.