Acciones - Quejas
  • Register

Real-time Health Advice from Space

Optimised Exploitation of Satellite Ozone and UV Radiation Measurements

 

Disturbing figures on air quality and UV solar radiation have resulted in a booming interest in environmental public health monitoring. Especially regarding UV radiation and atmospheric composition, real-time health-risk probing tools that rely on satellite observations now feed personalised smartphone apps and global statistics on a daily basis. The Horizon 2020 AURORA project aims at an optimal exploitation of Copernicus Sentinel satellite observations and model data in order to increase the horizontal resolution and surface accuracy of this spaceborne approach. This article explains how this data is enhanced and illustrates how it is used in two health-related apps.

AURORA stands for ‘Advanced Ultraviolet Radiation and Ozone Retrieval for Applications’. The term ‘retrieval’ denotes the derivation of atmospheric constituent densities from remote – mostly satellite – observations. Although the AURORA retrieval concept can indeed be extended to a wider set of atmospheric targets, the project’s key scientific aim is to retrieve global atmospheric ozone in an ‘advanced’ way so that polluting tropospheric ozone and harmful UV radiation can be operationally determined with unprecedented quality. The technological goal of AURORA is to initiate the development of an online real-time data monitoring platform and health advice applications that exploit air quality and UV radiation statistics.

Surface accuracy

Space-based atmospheric composition observations typically suffer from limited horizontal (and temporal) resolutions and strongly reduced surface accuracies in terms of tropospheric bias and precision. The AURORA project intends to address these two shortcomings by means of an optimised exploitation of Copernicus Sentinel satellite data. The relevant Copernicus ozone monitoring missions are the Sentinel-5 Precursor (S5P) launched on 13 October 2017, and the Sentinel-4 (S4) and Sentinel-5 (S5) from 2022 onwards. They will provide a massive amount of atmospheric composition data with unprecedented quality; a major potential strength of these Sentinel satellite observations lies in their complementary information obtained from simultaneous measurements of the same air mass. Measurement observations are fused from three retrieval wavelength ranges (UV, visible and thermal infrared) from both the low-Earth-orbit S5 and S5P platforms with daily global coverage and the geostationary-orbit S4 platform with hourly European coverage. In a later stage, two upcoming non-European geostationary missions called TEMPO (from NASA) and GEMS (from JAXA) will be added to the ozone data fusion input stream. The horizontal resolution of the data fusion output is still in the order of tens of kilometres, but the combined measurement accuracy in terms of bias and precision throughout the whole vertical ozone concentration profile is expected to be significantly improved (see ‘Equivalence of Data Fusion and Simultaneous Retrieval’ in Further Reading for more details). As not all satellites involved have been launched yet, this improvement is currently demonstrated on simulated data for four months (April-July) in 2012. The retrieval simulation is based on the MERRA-2 global ozone field by the NASA Global Modelling and Assimilation Office (GMAO).

Figure 1, Sentinel-5 Precursor is the first Copernicus mission dedicated to monitoring our atmosphere. With air pollution a major concern, the satellite carries the state-of-the-art Tropomi instrument to map a multitude of trace gases such as nitrogen dioxide, ozone, formaldehyde, sulphur dioxide, methane, carbon monoxide and aerosols – all of which affect the air we breathe and therefore our health and our climate. (Copyright ESA/ATG medialab)
Figure 1, Sentinel-5 Precursor is the first Copernicus mission dedicated to monitoring our atmosphere. With air pollution a major concern, the satellite carries the state-of-the-art Tropomi instrument to map a multitude of trace gases such as nitrogen dioxide, ozone, formaldehyde, sulphur dioxide, methane, carbon monoxide and aerosols – all of which affect the air we breathe and therefore our health and our climate. (Copyright ESA/ATG medialab)

Data assimilation

In order to allow for real-time data monitoring and health app development from the fused Sentinel satellite data, the AURORA project integrates the assimilation of all this data in its processing chain. Data assimilation is about finding a weighted average between observations and model data. The resulting average (also called the analysis) is the best estimate of the real atmospheric ozone distribution. Continuous data assimilation of the AURORA fused product allows for near-real-time monitoring and forecasting (up to five days) of atmospheric ozone on a global scale. In AURORA, two state-of-the-art data assimilation systems (DASs) are applied (IFS from ECMWF and TM5 from KNMI). These two DASs serve major stakeholders in the user community, thus facilitating the AURORA outreach to, for example, the Copernicus Atmospheric Monitoring Service (CAMS). Moreover, with each DAS a fixed sequence of assimilation experiments is envisaged. This way, the performance of AURORA’s data processing chain can be verified for all processing steps. The resulting ozone analysis and forecasts are then post-processed to derive global fields of tropospheric ozone and surface UV radiation. Data comparisons of both intermediate data and these final products against ground-based reference observations allow demonstration of the improvements of the AURORA approach with respect to the direct exploitation of conventional ozone retrievals. Moreover, ground-based measurements permit horizontal redistribution of the assimilation output, increasing its resolution for health monitoring applications, as demonstrated in the next two sections.

Street-scale air quality

Increasing urbanisation in combination with intense traffic and industrial activities leads to air quality problems in many cities across the world. Exposure to air pollution is now the fourth-highest risk factor for deaths worldwide. These problems are growing and have a negative impact on local and national economies, ecosystems and people living in urban environments. In order for governments to take effective measures to improve air quality, they need accurate information. This means the data needs to be real time, have a sufficiently high resolution, and provide forecasts. Yet cities now often rely on ground-based sensors to measure air quality. Such sensors are costly, however, and only provide information in a very specific location. Therefore it is difficult to sample an entire urban area at high resolution with ground sensors alone, and a combination with remote sensing is often the best solution. To address this issue, the AIR-Portal application has been developed.

Figure 2, Screenshot of the AIR-Portal web interface. It shows a high-resolution map of NO2 concentrations for the city of Amsterdam. The web portal allows users to browse the data in space and time, as well as to select different pollutants. Once a location is selected, air quality-related advice on health and activities can be given.
Figure 2, Screenshot of the AIR-Portal web interface. It shows a high-resolution map of NO2 concentrations for the city of Amsterdam. The web portal allows users to browse the data in space and time, as well as to select different pollutants. Once a location is selected, air quality-related advice on health and activities can be given.

Although Earth observation provides many advantages over ground-based monitoring alone, the spatial resolution that can be obtained is not sufficient to provide information at relevant urban scales, even with major improvements made by AURORA. In order to get the information down to street level, the AIR-Portal combines remote sensing data with additional data, such as ground-based air quality measurements, traffic density, meteorology and land usage information. All this data is combined and then processed using a specially designed scaling algorithm, resulting in air quality forecasts at street level. The data is then provided to the users via a website and mobile application. The unique combination of forecasting and high resolution, made possible by AURORA, will allow cities and citizens to take action to improve the quality of life.

Healthy sunbathing

Solar light has a lot of benefits for health and wellbeing. It helps people to relax, activates endorphins and determines the rhythms of body, mind and life. For example, a minimum amount of ultraviolet (UV) light is needed to trigger vitamin D production in the skin, which is essential for calcium absorption, for promoting bone growth and for many other bodily functions. On the other hand, too much sunlight can be harmful; excessive exposure to UV radiation is associated with different types of skin cancer, sunburn, accelerated skin aging as well as cataracts and other eye diseases. People lack an effective decision support system, e.g. a ‘digital sunlight healthcare assistant’, delivering personalised and actionable information on a daily basis about solar radiation exposure. It should allow a personal solar dosimetry control, maximising the benefits and minimising the health risks related to sun exposure, especially for children. The optimal balance of UV radiation, with respect to vitamin D on the one hand and avoiding sunburn and photo-aging effects on the other, is a challenge for the general public.

HappySun is a satellite-enabled technology answering to this need by measuring the sun’s effects on a user’s body and recommending how to get the best from its rays. The app uses satellites to take continuous measurements of the UV solar radiation doses the user is exposed to. No smartphone sensors or other external devices are used, so there is no need for the smartphone to be exposed to or positioned towards the sun. HappySun assesses the user’s skin type and takes into account the amount of sunscreen already applied as well as the levels of reflection in the surrounding area, all to help the user get the best out of the sun.

The HappySun app represents a new methodology for the personal dosimetry of UV radiation, allowing people to measure their cumulative UV exposure as well as suggesting personalised corrective actions the user can undertake for a healthy lifestyle in terms of daily sun exposure.

2018 2
Figure 3, The HappySun application. UV radiation is measured in real time to provide users with information and advice concerning sun protection.

Call for Ideas

In summary, the Horizon 2020 AURORA project is aimed at ‘advanced ultraviolet radiation and ozone retrieval for applications’ from Copernicus Sentinel satellite data. The project’s key scientific aim is to exploit complementary information that originates from simultaneous measurements of the same air mass. This is achieved by data fusion from different retrieval wavelength ranges (UV, visible and infrared) and different satellite platforms. The fused product is assimilated and post-processed to derive global fields of polluting tropospheric ozone and harmful UV radiation in an operational way yet with unprecedented quality in terms of bias and precision. As a proof of concept of the AURORA approach for the health industry, the AIR-Portal and HappySun applications are already under development, addressing city ozone pollution and UV exposure risks, respectively. Additionally, AURORA will organise a call for ideas, primarily addressed to students and spin-offs, for the development of applications based on the project’s data platform. The call for ideas will be published in January 2018 and a notice will appear in advance on the AURORA website.

Acknowledgements

The authors acknowledge the European Commission’s Horizon 2020 programme, AURORA principle investigator Ugo Cortesi, and the entire AURORA consortium.

Further Reading

www.aurora-copernicus.eu

https://airportal.stcorp.nl/

www.happysun.co.uk

S. Ceccherini, B. Carli and P. Raspollini, Equivalence of Data Fusion and Simultaneous Retrieval, Optics Express, Vol. 23, Iss. 7, 8476-8488 (2015), doi: 10.1364/OE.23.008476

www.http://GIM-INTERNATIONAL.com - 09 de Enero del 2018

Terrestrial Laser Scanning in Forest Inventories

Toward International Benchmarks

 

Terrestrial laser scanning (TLS) is an effective technique for acquiring detailed tree attributes in forest plots. During the last two decades, national mapping agencies, companies, universities and research organisations have put tremendous effort into developing methods for tree attribute estimation using TLS. There is, however, still a lack of proper understanding on TLS performance. Different data collection methods and processing standards have led to a large range in tree detection and measurement accuracy. This article explains the early results of an international benchmarking initiative for TLS methods in forest inventories. The study has identified important differences in methods that should lead to operational work guidelines.

Measuring Tree Attributes

A terrestrial laser scanner automatically documents its surrounding environment in three-dimensional (3D) space with millions to billions of 3D points. In forestry, TLS is an effective technique for measuring forest plots and is anticipated to be used in national forest inventories, leading to more sustainable silviculture and savings for forest owners and industry alike. During the last two decades, significant research has been conducted on developing best practices around TLS for forest inventorying – to evaluate, for example, whether one scanning position at the plot centre (single scan) or several scanning positions inside and outside of the plot (multi-scans) should be used to measure a sample plot and estimate tree attributes (tree height, diameter, taper, crown width).

Impressive results have been reported in recent years that are automatic, repeatable, accurate for practical applications and comparable to results from national allometric models. There is, however, still a lack of proper understanding on TLS performance, especially in forests with varying structure and development stages (complex forest structures). Currently, the results obtained from TLS data for plot-wise tree attribute estimation have varied significantly from study to study. The percentage of correctly detected trees from reported multi-scan data has ranged from 50 to 100%. The differences between varying detection rates arise from different TLS hardware, scanning set-up, forest structures and processing methods.

Figure 1, Single-scan TLS data of a forest plot in (top) a 2D matrix and (down) a 3D point cloud.
Figure 1, Single-scan TLS data of a forest plot in (top) a 2D matrix and (down) a 3D point cloud.

Benchmarking Study

To clarify the current status of the TLS application in plot inventories, an international benchmarking study was launched in 2014, led by EuroSDR and partly funded by the European Community’s Seventh Framework Programme Project Advanced_SAR ([FP7/2007–2013] under grant agreement No. 606971). The main objective of this current benchmarking study is to understand recent developments of TLS methodologies in plot inventories by comparing and evaluating the quality, accuracy and feasibility of the automatic and semi-automatic tree extraction methods based on TLS data. The specific sub-objectives include studying the accuracy and feasibility of various methods at the same test site and, in particular, to describe the effect of plot characteristics on individual tree extraction and to assess the difference between results from single- and multi-scan data collection approaches.

Figure 2, The parameters studied in the TLS benchmarking study: the position, diameter at the breast height, stem curve and tree height of an individual tree and the digital terrain model of the forest plot.
Figure 2, The parameters studied in the TLS benchmarking study: the position, diameter at the breast height, stem curve and tree height of an individual tree and the digital terrain model of the forest plot.

This study involves and supports more than 20 participating national mapping agencies, companies, universities and research organisations, which have developed their own processing methods or modified existing methods. Meanwhile, the study is also open for techniques still in the research phase. Each participant uses the same dataset to measure tree position, tree height, the diameter-at-the-breast-height (DBH), stem curve (stem diameter as function of height) and digital terrain model (DTM). Results from all the partners are evaluated using the same reference data and methods. Figure 2 illustrates the parameters studied.

Benchmarking Tests

The test data was collected from 24 forest plots, located in a southern boreal forest in Evo, Finland (61.19ºN, 25.11ºE) in the summer of 2014. There, the main tree species are Scots pine, Norway spruce and silver and downy birches. Each plot had a fixed size of 32 x 32m. The test forest plots varied in species, growth stages and management activities including both homogenous and less-managed (and therefore less-homogenous) forests. Figure 3 shows two forest plots with clearly different structures. The forest in Figure 3(a) is dominated by pine trees on a flat terrain. There are 50 trees with a mean tree height of 19m. The forest plot in Figure 3(b) is more complex due to the steep terrain and having plenty of young trees. There are 168 trees with a mean tree height of 12m. The point cloud data was down-sampled to every fifth point to visualise the varied forest stand situation.

Figure 3, Two forest plots with clearly different structures. (Top) A forest plot on a flat terrain, dominated  by pine trees. (Below) A forest plot on a steep terrain, with mixed tree species and plenty of young trees.
Figure 3, Two forest plots with clearly different structures. (Top) A forest plot on a flat terrain, dominated by pine trees. (Below) A forest plot on a steep terrain, with mixed tree species and plenty of young trees.

Five scans were made in each plot – at the plot centre and in north-east, south-east, south-west and north-west directions. Using five scanning positions in the multi-scan approach is a typical data-acquisition set-up which is a trade-off between the field scanning cost and the data quality (the merged TLS point cloud normally covers all trees within the forest plot). The test data included both single-scan and multi-scan TLS data. The centre scan was used as the single-scan data. All five scans were also registered using reference targets and merged as the multi-scan data (Figure 4).

The Finnish Geospatial Research Institute (FGI) is currently responsible for overall project management, including the general coordination, collection and distribution of all the data, and the evaluation as well as publication of the results. Preliminary test data became available for partners in February 2015. So far, 23 international partners, including six from Asia, 13 from Europe, three from North America and one from Oceania, have received the data and 12 partners have submitted their results. The methods in benchmarking show a high level of automation and are providing results at reasonable accuracies.

Evaluating the Results

The study is now in the evaluation phase. Using standardised data and evaluation methods, the extraction of tree positions, tree heights, DBH, stem curve and DTM were evaluated. The current results show variances between methods and data collection approaches. Figure 5 shows the averaged root mean square errors (RMSEs) of DTMs from all the participants in each test plot. The results from single-scan and multi-scan data are marked in red and blue, respectively.

Figure 4, A forest plot in the single-scan (left) and multi-scan terrestrial laser scanning mode (right).
Figure 4, A forest plot in the single-scan (left) and multi-scan terrestrial laser scanning mode (right).

As expected, the single-scan results are clearly less accurate than those from the multi-scan data. Clear variances are also noticeable between forest plots under different forest conditions, as well as between study partners. When building a DTM from the multi-scan TLS, the results showed a mean RMSE at 12.7cm, the minimum at 6.5cm and the maximum value of 28.9cm; for the single-scan TLS, they are 32.3cm, 8.5cm and 101.3cm, respectively (greater error). As for the best-performing participant, the mean RMSE of the DTM is 7.5cm, the minimum is 4.5cm and the maximum is 13.0cm when using the multi-scan data; for the single-scan data, they are 21.3cm, 7.9cm and 52.8cm respectively (greater error).

Outlook

The other extracted parameters such as tree position, tree height, DBH and stem curve are under evaluation and the results will be published in detail in future study updates. The final report of the study is expected to be published by June 2016. The TLS data used in this benchmarking study will remain available to everyone for further research purposes. The results will not only summarise the state of the art of automated TLS plot inventory methods, but will also lead to guidelines for operational work. Hence, this study will shape the future application and identify necessary research steps so that traditional analogue forest inventory methods can one day be replaced by TLS-based methods.

Additional Information

EuroSDR International TLS Benchmarking Project webpage.

2018 1
Figure 5, The averaged RMSEs of DTMs from all the participants in each test plot.

www.http://GIM-INTERNATIONAL.com - 09 de Enero del 2018

Proponen dar caza al primer visitante de otro sistema solar

PIA22063 hires kz0E 620x349abc

La primera visita de un viajero interestelar ha supuesto un auténtico acontecimiento para los astrónomos. El pasado 19 de octubre, el telescopio Pan-STARRS1, en Hawái, localizaba un débil punto luminoso que se desplazaba a gran velocidad por el espacio, alejándose del Sol. Por su extraña órbita, pronto se dieron cuenta de que el cuerpo, un asteroide, procedía de más allá del Sistema Solar, llegado de un viaje a través del espacio de varios millones de años. Nunca antes habían visto algo semejante.

Los científicos pudieron describir con detalle el asteroide, bautizado 1I/2017 U1 y conocido popularmente como Oumuamua («mensajero de lejos que llega primero», en hawaiano). Rocoso y metálico, mide 400 metros de largo, unas cuatro veces la altura de la Estatua de la Libertad, y tiene una curiosa forma alargada que recuerda a un extintor de incendios. Las observaciones también revelaron que originalmente provenía de la dirección de Vega, la estrella más brillante en la constelación de Lyra. Hizo su pase más cercano a nuestro Sol en septiembre de 2017, y actualmente regresa al espacio interestelar.

El cuerpo es tan peculiar que ya hay quien pretende llegar hasta el mismo, interceptarlo y explorarlo. La misión, llamada Proyecto Lyra, ha sido presentada en el repositorio para artículos científicos Arxiv por la Iniciativa para Estudios Interestelares (i4iS), una organización formada por científicos e ingenieros que pretende impulsar los viajes espaciales a otros sistemas solares en el futuro cercano. El estudio, respaldado por la compañía de prospección de asteroides Asteroid Initiatives LLC, detalla los retos y los beneficios que podría suponer el proyecto.

Dado que este asteroide es de naturaleza extrasolar, una misión que fuera capaz de estudiarlo de cerca podría revelar muchos secretos sobre el sistema en el que se formó. Para los autores, es probable que el estudio detallado de materiales a distancias interestelares esté a décadas de distancia, incluso para el ambicioso Proyecto Starshot de Breakthrough Initiatives, el plan de Stephen Hawking de enviar sondas exploratorias a Alfa Centauri, la estrella más cercana. Por ese motivo, creen que enviar una nave a Oumuamua supondría una oporturnidad única de hacer observaciones similares con la ventaja de estar a corta distancia.

Pero encontrarse con este asteroide no es fácil. Oumuamua ya está en camino de salir de nuestro Sistema Solar y viaja a una velocidad de 26 km por segundo. Ninguna misión en la historia de la exploración espacial se ha desplazado tan rápido (apenas han llegado a dos tercios de esa velocidad). «Voyager 1, el objeto más rápido que la humanidad haya construido, tiene una velocidad de 16,6 km por segundo. Como Oumuamua ya está saliendo de nuestro sistema solar, cualquier nave espacial lanzada en el futuro tendría que perseguirlo», explican en arxiv.

Con una vela solar

La misión tendría que tener en cuenta una gran cantidad de parámetros, incluida la velocidad a la hora de interceptar el asteroide. Una gran velocidad es preferible en el lanzamiento, ya que el viaje será más rápido, pero durante el encuentro supondría menos tiempo para realizar mediciones y recopilar datos sobre el propio asteroide.

Según explican en Universe Today, el equipo supone que esta misión no involucraría ningún vuelo planetario o solar, y volaría directamente a Oumuamua. «Para una fecha de lanzamiento realista dentro de cinco o diez años, la velocidad excedente hiperbólica sería del orden de 33 a 76 km por segundo, con un encuentro a una distancia mucho más allá de Plutón».

Los autores también consideran el tipo de nave a emplear, ponderando el Sistema de Lanzamiento Espacial (SLS) de la NASA, que según ellos simplificaría el diseño de la misión y podría ser posible dentro de pocos años, y el Big Falcon Rocket (BFR) de SpaceX, que podría permitir una misión directa para 2025 gracias a su técnica de reabastecimiento en el espacio. Sin embargo, este tipo de misiones también requerirían un sobrevuelo de Júpiter para proporcionar una asistencia gravitatoria.

A más a largo plazo, podría considerarse la tecnología de vela solar impulsada, como la del concepto Starshot de Breakthrough Initiatives. Este enfoque implicaría esperar unos años pero resultaría más flexible, directo y podría eliminar la asistencia gravitatoria. También podría permitir enviar pequeños enjambres de sondas para encontrarse con el asteroide. Como explican, «una misión a Oumuamua extenderá el límite de lo que es tecnológicamente posible hoy en día».

Quizás Oumuamua no pueda ser pronto alcanzable, pero su llegada ha despertado el interés por los asteroides interestelares y puede haber otras oportunidades. Según David Jewitt, de la Universidad de California en Los Ángeles, nuestro Sistema Solar puede estar inundado de intrusos interestelares que pasan sin ser detectados. Incluso puede haber unos 10.000 objetos del mismo tamaño más cercanos al Sol que Neptuno en un momento dado y cada uno de ellos recorría el Sistema Solar en aproximadamente 10 años. Si Oumuamua no se deja pillar, quizás otro lo ponga más fácil.

www.ABC.es - 30 de Noviembre del 2017

Emiten un nuevo y polémico mensaje hacia un planeta similar a la Tierra

meti intl artist impr no bin gj 273 small kKOG 620x349abc

A pesar de las reticencias de la mayoría de los astrónomos, un equipo de investigadores ha vuelto a enviar un mensaje al espacio. Esta vez, hacia una estrella que está a solo 12 años luz de distancia.

El 16 de noviembre de 1974, los astrónomos del gigantesco radiotelescopio de Arecibo, en Puerto Rico, enviaron a las estrellas un mensaje con la esperanza de que alguna civilización extraterrestre lo captara. En él, se incluía mucha información sobre el ser humano y también sobre nuestro planeta: los números del 1 al 10, los números atómicos de algunos elementos muy comunes en el Universo, como hidrógeno, carbono u oxígeno, un gráfico con la estructura en doble hélice de nuestro ADN, un mapa del Sistema Solar indicando nuestra posición... En fin, todo lo necesario para que cualquiera que recibiera y descifra el mensaje pudiera saber quienes somos y dónde estamos.

Ahora, y justo 43 años después de ese histórico mensaje, otro equipo de investigadores, contra la opinión de la mayoría, ha vuelto a intentarlo, aunque de forma mucho más modesta. Es decir, con muy poca información y, sobre todo, hacia un destino mucho más cercano. El mensaje de Arecibo, en efecto, fue dirigido hacia el cúmulo de Hércules, o M13 (una aglomeración de cerca de 400.000 estrellas muy juntas entre ellas), que se encuentra a 25.000 años luz de distancia. Lo cual significa que, incluso descontando los 43 años que lleva viajando por el espacio, el mensaje tardará aún 24.957 años en llegar a su destino. Si alguien lo recibiera y contestara de inmediato, su respuesta tardaría otros 25.000 años en volver hasta nosotros. Es decir que, con suerte, dentro de algo menos de 50.000 años podríamos saber si en M13 existe alguna civilización tecnológica que quiera comunicarse. Un tiempo, por supuesto, demasiado largo como para sentarse a esperar...

En la zona habitable

Sin embargo, Douglas Vakoch y su equipo han querido ser, en esta ocasión, mucho más pragmáticos. Y se han limitado a enviar una especie de "¿Hay alguien ahí?" hacia un sistema estelar vecino, uno que además contiene un planeta similar al nuestro y que está lo suficientemente cerca de nosotros como para que podamos recibir una respuesta (si es que hay alguien ahí) en menos de 25 años.

"Creo que hay muy pocas probabilidades de éxito, pero si contesta alguien sería un resultado bienvenido", asegura el propio Vakoch, que es presidente del METI (Mensajes de Inteligencias Extraterrestres), una rama del popular instituto SETI.

La estrella elegida como objetivo es GJ 273, una enana roja que se encuentra a 12 años luz de distancia en dirección a la constelación Canis Minor. En marzo de este mismo año se descubrió que esa pequeña estrella tenía por lo menos dos planetas. Y que uno de ellos, GJ273b, se encuentra, además, en la zona habitable de la estrella, es decir, a la distancia exacta que permite la existencia de agua líquida en su superficie.

El mensaje partió de una antena situada en Noruega, que lo estuvo emitiendo por espacio de ocho horas repartidas en tres días. Según Vakoch, se trata de un mensaje muy simple y fácil de entender. De hecho, empieza con algunas informaciones básicas sobre números, aritmética, geometría y trigonometría, e incluye una descripción de las propias ondas de radio que transportan el mensaje, así como un tutorial sobre relojes y nuestra forma de medir el tiempo, para comprobar si los hipotéticos habitantes de GJ 273b entienden el tiempo de una forma similar a la nuestra.

Revelar nuestra posición

La idea de emitir esta clase de mensajes al espacio resulta muy controvertida, incluso entre los propios investigadores del SETI. Por una parte, no resulta claro si un equipo de investigadores, por su cuenta y riesgo, tienen la autoridad suficiente como para hablar en nombre de toda la Humanidad. Y luego, por supuesto, está el peligro potencial que corremos al revelar inocentemente nuestra posición a posibles civilizaciones con intenciones completamente desconocidas para nosotros.

El propio Stephen Hawking, entre otros investigadores de primera línea, han alertado sobre las posibles repercusiones negativas derivadas del encuentro con una civilización alienígena que, con toda probabilidad, estaría mucho más avanzada que la nuestra.

"El 98 por ciento de los astrónomos e investigadores del SETI, incluyéndome a mí mismo -afirma Dan Werthimer, científico del SETI en la Universidad de California- piensan que METI es una iniciativa potencialmente peligrosa y que no es una buena idea. Es igual que ponerse a gritar en medio de una selva antes de saber si hay tigres, leones, osos u otros animales peligrosos allí".

www.ABC.es - 30 de Noviembre del 2017

Físicos creen que el universo ya existía antes del Big Bang

2017 LIGO kFrH 620x349abc km0D 620x349abc

La explicación más aceptada para el origen del Universo es que la red espacio-temporal en la que nacieron las semillas de las galaxias y después las estrellas nació en una singularidad completamente enigmática: el Big Bang. A partir de un punto de densidad infinita que contenía toda la energía y la materia, donde las leyes físicas que conocemos carecen de sentido, el Universo desplegó en una ínfima fracción de segundo el comienzo de sus maravillosas alas, hace unos 13.800 millones de años. Naturalmente, los científicos no están seguros de cómo pudo ocurrir algo así.

Juliano Cesar Silva Neva, investigador en la Universidad de Campinas (Brasil) ha propuesto otra explicación alternativa. En un artículo publicado recientemente en la revista «General Relativity and Gravitation» ha sugerido la posibilidad de eliminar el Big Bang de la historia del Universo. En su lugar, ha propuesto que antes de la actual fase de expansión, el Cosmos atravesó una fase de contracción. (Silva Neva no ha sido el primero ni será el último en proponer algo así).

«Creo que el Big Bang nunca ocurrió», ha dicho el físico en un comunicado. Además ha sugerido que quizás sea posible encontrar vestigios del Universo cuando estaba en fase de contracción, y demostrar así que la gran explosión nunca ocurrió.

Desde que en 1920 el astrónomo Edwin Hubble descubrió que casi todas las galaxias estaban alejándose unas de otras, cada vez más rápido, la teoría del Big Bang comenzó a adquirir fuerza. A fin de cuentas, si las galaxias se alejan unas de otras, ¿no será porque hubo una enorme explosión?

¿Un Big Crunch?

A partir de los años cuarenta, la Relatividad de Einstein le permitió a los científicos elaborar distintas historias del Universo y vaticinar varios posibles destinos: que el Universo se expanda hasta el infinito, cada vez más rápido, que la expansión se estanque o bien que la expansión de paso a una contracción y a un gran choque, el Big Crunch.

Silva Neves se ha sumado a los que proponen que el Universo «rebota» en una eterna sucesión de fases de contracción y expansión. Las contracciones finalizan con un gran colapso o Big Crunch y luego las densidades alcanzadas son tan enormes que activan una nueva inversión del proceso, un nuevo Big Bang.

Los motivos que llevan a este científico a inclinarse por el «rebote» se encuentran en su artículo. Ahí introduce un «factor de escala» en las soluciones de la Relatividad General para explicar la tasa de expansión del Universo no solo en función del tiempo sino también de una escala cosmológica, que lleva a que el Big Bang deje de ser una condición necesaria para lo que observamos hoy.

Es más, según estas ideas podría ser que en el Universo actual hubiera huellas de la anterior fase de contracción: «La ausencia de la singularidad (del Big Bang) al comienzo del espacio-tiempo abre la posibilidad de que los vestigios de una anterior fase de contracción hayan resistido a la fase de cambio, de modo que quizás estén con nosotros en la actual fase de expansión».

El ejemplo de los agujeros negros

Estas propuestas se basan en las investigaciones que el físico ha hecho en los agujeros negros, objetos que, según él, no están definidos por la singularidad de su interior, sino por su horizonte de sucesos. Además, las ideas del factor de escala se inspiran en los trabajos de James Bardeen, un científico que modificó las ecuaciones de la Relatividad General para describir los agujeros negros en el 1968.

En vez de considerar que la masa de estos agujeros negros es constante, Bardeen sugirió con sus cálculos que la masa cambia en función de su distancia al centro del agujero negro. Así nace el concepto del llamado «agujero negro regular» y se evita el temido (por algunos) concepto de la singularidad, que en los agujeros negros consiste en la existencia de un punto de densidad infinita. Del mismo modo, la investigación de Silva Neva ha tratado de eliminar la singularidad el Big Bang.

Cálculos y teorías pueden ser muy interesantes, pero los científicos han de poder probarlos por medio de experimentos y observaciones para que la ciencia avance. El comienzo del Universo no es algo precisamente fácil de alcanzar para los científicos, pero Silva Neves cree que hay una forma de verificar sus ideas: encontrar trazas de la fase de contracción del Universo en la actual expansión. Estas huellas serían, según este físico, agujeros negros sobrevivientes.

www.ABC.es - 30 de Noviembre del 2017

Conoce más sobre mi

conocemas

cuento

 

JUEGOS

Denuncias Públicas

denuncias

Consultor Internacional

consultor

Sociedad Colombiana de Topógrafos

sct

Ingeniería Mundial y Geomática

ingenieria

Cosas que no entiendo

cosas

Invitaciones

invitaciones

Mis Acciones en la SCI

SCI ACC

Recomendados del mes

recomendado

palilibrio