Secciones

  • Portada
  • Actualidad
  • Opinión
  • Espectáculos
  • Clasificados
  • Servicios
  • Cartelera y Tv
  • Deportes
  • Contraportada

Astrónomos observan DESDE EL DESIERTO DE ATACAMA el nacimiento de cúmulo de galaxias del universo temprano

E-mail Compartir

Un equipo de astrónomos descubrió desde Chile un gran reservorio de gas caliente en el cúmulo de galaxias aún en formación, que se encuentra alrededor de la galaxia Telaraña, la detección más distante de este tipo de gas caliente hasta la fecha, anunció el Observatorio Austral Europeo (ESO).

Los cúmulos de galaxias son algunos de los objetos más grandes conocidos del Universo y este resultado, publicado en la revista Nature, revela en mayor profundidad cuán temprano comienzan a formarse estas estructuras.

La observación se hizo con el radiotelescopio ALMA, el más grande del mundo y situado a 5.000 metros de altitud en el Desierto de Atacama.

Los cúmulos de galaxias albergan una gran cantidad de galaxias, a veces incluso miles. También contienen un vasto "medio intracúmulo" (ICM por sus siglas en inglés, Intracluster Medium) de gas que impregna el espacio existente entre las galaxias del cúmulo.

Este gas se extiende más allá de las propias galaxias. Gran parte de la física de los cúmulos de galaxias es bien conocida; sin embargo, siguen siendo escasas las observaciones de las primeras fases de formación del ICM.

Anteriormente, el ICM solo se había estudiado en cúmulos de galaxias cercanos completamente formados. La detección de ICM en protocúmulos (es decir, cúmulos de galaxias aún en formación) situados a gran distancia, permitiría captar estos cúmulos en las primeras etapas de formación.

Un equipo dirigido por Luca Di Mascolo, primer autor del estudio e investigador de la Universidad de Trieste (Italia), buscaba detectar el ICM en un protocúmulo de las primeras etapas del Universo.

"Las simulaciones cosmológicas han predicho la presencia de gas caliente en protocúmulos durante más de una década, pero faltaban confirmaciones observacionales", según Elena Rasia, investigadora del Instituto Nacional Italiano de Astrofísica (INAF) en Trieste (Italia) y coautora.

A pesar de ser el protocúmulo más estudiado, la detección del ICM había sido infructuosa. Encontrar una gran reserva de gas caliente en el protocúmulo Telaraña indicaría que el sistema está camino de convertirse en un duradero y estable cúmulo de galaxias en lugar de dispersarse.

Los investigadores determinaron que el protocúmulo Telaraña contiene una vasta reserva de gas caliente a una temperatura de unas pocas decenas de millones de grados centígrados. Anteriormente, se había detectado gas frío en este protocúmulo, pero la masa del gas caliente encontrado en este nuevo estudio lo supera miles de veces.

Este hallazgo muestra que el protocúmulo Telarañas va camino de convertirse en un cúmulo de galaxias masivo en alrededor de 10.000 millones de años.

Tony Mroczkowski, coautor del artículo, asegura que este descubrimiento "proporciona confirmación observacional de predicciones teóricas mantenidas durante mucho tiempo sobre la formación de los objetos gravitacionalmente ligados más grandes del Universo".

Los 20 trabajos más amenazados por la Inteligencia Artificial

E-mail Compartir

Un nuevo estudio de las universidades de Princeton, de Pensilvania y de Nueva York, evaluó el riesgo que tienen algunos trabajos de ser reemplazados por la Inteligencia Artificial o tecnologías derivadas. El ránking quedó ordenado de la siguiente forma: 1) Vendedores telefónicos (Call center) 2) Profesores de lengua y literatura inglesa 3) Profesores de lengua y literatura extranjera 4) Profesores de historia 5) Profesores de derecho 6) Profesores de filosofía y religión 7) Profesores de sociología 8) Profesores de ciencias políticas 9) Profesores de justicia penal y aplicación de la ley 10) Sociólogos 11) Profesores de trabajo social 12) Profesores de psicología 13) Profesores de comunicaciones 14) Politólogos 15) Profesores de estudios culturales 16) Árbitros, mediadores y conciliadores 17) Jueces y magistrados 18) Profesores de geografía 19) Profesores de biblioteconomía 20) Psicólogos clínicos y escolares.

Musk y científicos piden pausar por 6 meses experimentos de IA potente, por posible "riesgo para la humanidad"

TECNOLOGÍA. Piden que se avance primero en leyes que protejan a la sociedad y advierten consecuencias apocalípticas.
E-mail Compartir

Agencias

Un grupo de empresarios del sector tecnológico, expertos y políticos, entre ellos el controvertido Elon Musk, solicitaron en una carta de tono apocalíptico que se suspendan durante seis meses los experimentos con inteligencia artificial (IA) muy potente porque consideran que "pueden plantear profundos riesgos para la sociedad y la humanidad".

"La sociedad ha hecho una pausa en otras tecnologías con efectos potencialmente catastróficos en la sociedad. Podemos hacerlo aquí. Disfrutemos de una larga pausa veraniega de la IA y no nos apresuremos a caer sin estar preparados", dice la carta abierta publicada por el organismo sin ánimo de lucro Future of Life Institute.

El director ejecutivo de Tesla, Elon Musk, el cofundador de Apple Steve Wozniak los investigadores estadounidenses Yoshua Bengio, Stuart Russel o los españoles Carles Sierra y Ramón López De Mantaras, son algunos de los firmantes de esta carta abierta en la que advierten de los supuestos peligros de la IA si no es acompañada de una gestión y una planificación adecuadas.

"La IA avanzada podría representar un cambio profundo en la historia de la vida en la tierra, y debería planificarse y gestionarse con el cuidado y los recursos correspondientes", asegura la misiva que sostiene, además, "que los laboratorios de IA se han enzarzado en una carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas".

Incluso aseguran que "nadie -ni siquiera sus creadores- puede entender, predecir o controlar de forma fiable" a estas mentes digitales.

Los firmantes del documento enarbolan todos los miedos y peligros que en los últimos meses han resonado en foros, artículos y conversaciones cotidianas y lo hacen con un tono apocalíptico.

¿debemos arriesgrarnos?

"¿Debemos desarrollar mentes no humanas que podrían acabar superándonos en número, ser más inteligentes que nosotros, que nos dejen obsoletos y que nos reemplacen? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización?, se preguntan, antes de concluir: "Tales decisiones no deben delegarse en líderes tecnológicos no electos".

En este sentido, piden que los desarrolladores trabajen con los legisladores para acelerar un sistema legal sólido en torno a la IA.

Asimismo, vuelven a subrayar que los sistemas potentes de Inteligencia Artificial únicamente deben desarrollarse cuando haya seguridad de que sus efectos son positivos y sus riesgos son manejables.

El gpt-4

"Hacemos un llamado a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4", dice el comunicado, que pide la intervención de los Gobiernos para imponer esta moratoria en caso de que las partes implicadas se nieguen a la suspensión temporal de las investigaciones.

GPT, siglas en inglés del término transformadores preentrenados generativos, es un tipo de modelo de aprendizaje artificial que se utiliza para generar lenguaje similar al humano. El GPT-4 es mucho más avanzado que los modelos similares anteriores.

El laboratorio OpenAI define el GPT-4 como su "último hito en el esfuerzo para ampliar el aprendizaje profundo". Este nuevo sistema acepta la recepción tanto de textos e imágenes, y produce texto.

Sin embargo, OpenAI asegura que GPT-4 sigue siendo menos capaz que las personas en muchas situaciones reales aunque "muestra un desempeño a nivel humano en varios puntos de referencia académicos y profesionales".

La carta abierta propone que durante estos seis meses de pausa, los laboratorios de IA y los expertos independientes "desarrollen e implementen un conjunto de protocolos de seguridad compartidos para el diseño y desarrollo avanzados de IA que sean rigurosamente auditados y supervisados por expertos externos independientes".

Finalmente, piden que la investigación y el desarrollo de la IA se reenfoque en hacer que "los sistemas potentes y de última generación sean más precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales" .