Acciones - Quejas
  • Register

¿Cuál es el punto sobre la superficie terrestre más cercano al Sol?

chimborazo

Vivimos una época en la que los concursos sobre conocimientos diversos afloran por todas partes. Por ese motivo, inicio el artículo con una doble pregunta que puede resultar extraña o, cuando menos, chocante. Para contestarla, lo primero sería dar un criterio sobre qué nos preguntamos. Se trataría de colocarnos en un punto sobre la superficie terrestre en el cual, en un momento de la rotación diaria de la Tierra, la distancia al centro teórico del Sol es la mínima. Para no ser tan teóricos podemos hablar simplemente de la distancia al Sol.

La primera respuesta que se nos ocurriría, como parece inducir la segunda pregunta, sería la de subir a la cima de la montaña más alta, que rápidamente diríamos que es el Everest. Sin embargo, esta respuesta, como argumentamos a lo largo del artículo, no es la correcta a la pregunta de inicio y, además también es discutible que el Everest sea la montaña más alta de la Tierra pues dependerá del criterio que utilicemos para establecer su medida. Hace falta hablar un poco de Matemáticas y otro poco de Geología.

Cuando decimos que el Everest (o Chomolungma respetando su nombre original, de 8.848 m), situado en la frontera chino-nepalí, es la montaña más alta de la Tierra lo estamos haciendo con un criterio “topográfico”, donde las mediciones se hacen desde un nivel medio del mar, que es el criterio es el general para medir cualquier montaña en el mundo. En el caso de España para las alturas se toma el nivel medio del mar de Alicante (una buena elección porque la diferencia de mareas en el Mediterráneo es de centímetros mientras que en el Cantábrico puede pasar de cuatro metros).

 

Sin embargo, si acudimos a la Orogenia, que es la parte de la Geología que estudia los fenómenos relacionados con la creación de las montañas, vemos que, en el caso de los volcanes, podemos localizar su base. Unas veces es visible y en otros casos no, pero sí que es localizable. Este es el caso del volcán Mauna Loa en Hawaii, que se puede seguir desde su base en el fondo del mar hasta su cráter. De esta manera, su altura llegaría hasta 9.170 m, de los cuales solo 4.169 están sobre la superficie del mar. Es decir, utilizando un criterio que vamos a llamarlo “orogénico”, este volcán sería más alto que el Everest. Los hay más altos, pero en otros planetas, como en Marte, donde el volcán Olimpo tiene unos 22 km de altura medidos desde su base y es el más alto del Sistema Solar (además allí no hay océanos que “le resten altura”).

El criterio topológico

Ya hemos visto dos criterios que no nos dan una solución clara a la pregunta inicial, por lo que habrá que buscar una nueva idea, y aquí las Matemáticasvienen en nuestra ayuda, en concreto la Topología, que es la rama de las Matemáticas que estudia las propiedades de los cuerpos geométricos que no cambian pese a que hagamos determinadas transformaciones continuas. Se suele hacer la broma de que un topólogo “es un loco que no distingue entre un anillo y una taza de café” ya que, topológicamente son equivalentes.

Todos sabemos que la Tierra es aproximadamente esférica pero no una esfera perfecta pues se achata hacia los Polos, reduciendo su radio desde los 6.378’135 Km en el Ecuador, a los 6.356’750 Km en los Polos. Es decir, el radio terrestre disminuye a medida que la latitud aumenta.

Recordemos que la latitud es “la distancia angular (medida por tanto en grados, minutos y segundos) entre un punto cualquiera de la superficie terrestre y el plano del Ecuador”. No olvidemos que cuando se habla de posicionamiento sobre la superficie terrestre señalamos, además de la longitud, que hay “tantos grados, minutos y segundos de latitud Norte o Sur”.

matematicas k0

donde a= 6.378’135 Km es el radio terrestre en el Ecuador y b = 6.356’750 Km es el radio terrestre en los Polos.

Como se observa la diferencia entre los dos radios, es lo suficientemente grande como para tener muy en cuenta la cercanía de las montañas al Ecuador, a la hora de hablar de puntos más alejados del centro de la Tierra y, aquí, es donde entra en juego un nuevo volcán, el Chimborazo, que es la cima más alta cercana al Ecuador. Queremos comparar las dos montañas, el Everest [8.848 m., latitud 28º Norte] y el Chimborazo [6268 m., latitud 1º Sur].

Haciendo el cálculo con los datos anteriores, obtenemos un valor aproximado del radio terrestre en la latitud de 28º norte de 6373’15 Km. Es decir, el achatamiento terrestre en la latitud del paralelo que pasa por el Everest, va a “acercar” a la cima del Everest unos 5 Km al centro de la Tierra.

Es decir, dando por válido un centro para la esfera terrestre, tendríamos que, las distancias de las cimas del Everest y del Chimborazo a ese centro de la esfera terrestre serían, respectivamente:

Everest: 6373’15 + 8’848 = 6381’998 km

Chimborazo: 6378’135 + 6’268 = 6384’403 km

valores que se obtienen sumando a los radios terrestres en esos lugares la altura topográfica de las dos montañas.

Por tanto, la cima del volcán Chimborazo en el Ecuador sería el punto de la superficie terrestre más alejado del centro de la Tierra (casi dos kilómetros y medio más que el Everest) o, contestando a la pregunta inicial del artículo, es “el punto de la Tierra que más se acerca al Sol”, o, dicho de otra forma, el que más se acerca al espacio exterior.

El ABCDARIO DE LAS MATEMÁTICAS es una sección que surge de la colaboración con la Comisión de Divulgación de la Real Sociedad Matemática Española (RSME).


http://www.http://abc.es
Lunes 05 de Junio del 2017

Un experimento cuántico para averiguar de qué está hecha la conciencia humana

Entrelazamiento kF

¿Qué es la Conciencia humana? ¿Se trata de algo físico y medible o es totalmente inmaterial y fuera de los dominios de la Física? Para responder a esas preguntas, Lucien Hardy, físico del Instituto Perimeter, en Canadá, ha propuesto modificar sutilmente un experimento bien conocido en los laboratorios de física cuántica de todo el mundo para demostrar dónde están los límites, si es que existen, entre mente y materia.

En concreto, Hardy propone incorporar la conciencia humana a los instrumentos de medición de partículas subatómicas que usan los científicos, y comprobar si los resultados de las mediciones se alteran de algún modo con respecto a los que se obtienen normalmente. Si así fuera, y los experimentos mostraran cualquier desviación, por pequeña que sea, de lo que predicen las leyes cuánticas, estaríamos entonces ante la primera prueba de laboratorioque demuestre que nuestra mente es, potencialmente, inmaterial y ajena a la física conocida.

Durante las dos últimas décadas, una serie de experimentos conocidos como"Test de Bell", han sido profusamente utilizados para confirmar las más extrañas propiedades de las partículas subatómicas, entre ellas el entrelazamiento cuántico, esa "acción fantasmagórica a distancia" que tanto incomodaba a Einstein. Ahora, Hardy propone llevar a cabo los test de Bell, pero acoplando a los instrumentos algo completamente nuevo: nuestra conciencia.

 

Con su célebre frase, Einstein se refería a la increíble propiedad según la cual, si dos partículas están entrelazadas, cualquier cosa que le suceda a una de ellas será inmediatamente "conocido" por la otra, incluso si ambas están a muchos años luz de distancia. Es decir, que de alguna manera que no comprendemos ambas partículas se comunican instantáneamente y sin importar la distancia que haya entre ellas.

Pero para que eso sea así, cualquier señal que atraviese el espacio entre las dos partículas tendría que moverse más deprisa que la luz, lo cual no es posible en nuestro Universo. Para Einstein, esta contradicción implicaba que la teoría cuántica no estaba completa, y que debía de existir algo más, a nivel muy profundo, que permitiera explicar este comportamiento de las partículas sin tener que recurrir a influencias "fantasmagóricas" e instantáneas. Desde entonces, un buen número de físicos ha estado intentando, aún si éxito, encontrar esa teoría fundamental que falta.

Así funciona el test de Bell

A mediados de la pasada década de los sesenta, el físico Jonh Bell ideó la forma de comprobar si las partículas subatómicas realmente se influyen entre sí sin importar la distancia. Para ello, diseñó un experimento en el que se creaba una pareja de partículas entrelazadas y se las enviaba en direcciones opuestas, a las ubicaciones A y B. Por supuesto, tanto en A como en B había detectores para medir el spin (la rotación) de las partículas.

El ajuste del dispositivo (por ejemplo elegir si se medirá el giro de la partícula en la dirección de +45 o -45 grados), se hizo utilizando generadores de números aleatorios, de forma que era imposible para el punto A conocer el ajuste del punto B (y viceversa) en el momento de la medición.

Una vez todo listo, el paso siguiente de un test de Bell es realizar mediciones en muchos pares de partículas entrelazados. Si la Física Cuántica es correcta y existe, de hecho, la famosa "acción fantasmagórica a distancia", entonces en los resultados de las mediciones habrá una mayor correlación que si Einstein estuviera en lo cierto. Y resulta que todos los experimentos hechos hasta ahora han apoyado, sin duda, a la Física Cuántica.

Algunos físicos, sin embargo, han argumentado que incluso los generadores de números aleatorios podrían no serlo tanto, y estar gobernados en realidad por algún tipo de física subyacente que aún no comprendemos. Y que ese "superdeterminismo" podría explicar la elevada correlación observada en los experimentos, sin necesidad de recurrir a la extraña acción a distancia.

El papel de la conciencia

Y llegamos así a Lucien Hardy y a su extraordinaria propuesta. Lo que Hardy sugiere, en efecto, es que es posible controlar las mediciones de A y B con algo que, en potencia, podría no pertenecer al mundo material: la mente humana.

Para poner a prueba su idea, Hardy propone un experimento en el que A y B se establecen a 100 km. de distancia. En cada extremo, un centenar de seres humanos están conectados a los medidores por medio de cascos de electroencefalografía (EEG) capaces de leer su actividad cerebral. Las señales generadas de esta forma serían, precisamente, las utilizadas para cambiar los ajustes de los dispositivos de medición en las dos ubicaciones.

La idea es llevar a cabo un número muy grande de mediciones en A y B y extraer la pequeña fracción en la que las señales de los electroencefalogramas causaron cambios en los ajustes en A y B después de que las partículas partieran de su posición original, pero antes de que llegaran a su destino y fueran medidas.

Si la cantidad de correlación en estas mediciones no coincidiera con las pruebas de Bell estandar, estaríamos ante una flagrante violación de la teoría cuántica, y significaría además que las mediciones en A y B estarían siendo controladas por procesos que no pertenecen al ámbito de la física.

"Aunque solo viéramos una única violación de la teoría cuántica -asegura Hardy- cuando usemos un sistema que podría considerarse como consciente, humano o animal, sería ciertamente emocionante. No puedo imaginar un resultado experimental más sorprendente en física que ese".

En efecto, llegar a esa conclusión significaría que los físicos empezarían a debatir sobre la existencia misma del libre albedrío y su alcance real. Porque aunque la Física gobierne el mundo material, si resultara que la mente humana no está hecha de esa misma materia, entonces podríamos ir "más allá" de los límites de la física.

La mayor parte de los físicos no dudaría en afirmar que lo más probable es que al llevar a cabo este experimento no suceda nada especial, que las leyes de la Física Cuántica se seguirán cumpliendo y que la conciencia humana está hecha de lo mismo que todo lo demás. Sin embargo, opina Hardy, si alguien se anima a llevar a cabo el experimento y obtiene un resultado inesperado, entonces el premio sería enorme. "Sería la primera vez que, como científicos, ponemos nuestras manos en el problema de la naturaleza de la conciencia".


http://www.http://abc.es
Lunes 05 de Junio del 2017

Upgrades to monitoring stations support EGNOS

Upgrades to the monitoring stations underpinning Europe’s EGNOS satnav augmentation system will support its evolution.

The current 40 Ranging and Integrity Monitoring Stations (RIMS) sites across Europe and beyond are the bedrock of the European Geostationary Navigation Overlay Service (EGNOS), supplying highly accurate and robust satnav information that can be relied on for safety-critical purposes.

Thales EGNOS V3 RIMS rack.

Once a second, these stations gather raw satnav data to transmit information on signal quality and range measurements to the GPS satellites, allowing EGNOS to identify and remove any error in the signals.

The resulting corrections are then passed to users via a trio of geostationary satellites, delivering a several-fold increase in precision plus “integrity” — a guarantee of navigation service — for safety-of-life applications.

The result is that the EGNOS-augmented signals are guaranteed to meet the extremely high performance standards set out by the International Civil Aviation Organisation standard, adapted for Europe by Eurocontrol, the European Organisation for the Safety of Air Navigation.

The signals from space can therefore be relied on routinely for safety-critical tasks, such as vertically guiding aircraft during landing approaches.

“These current RIMS V2 stations have some inherent limitations, which we’ve sought to tackle in this upgraded V3 design,” explains Didier Flament, ESA’s EGNOS programme manager.

Airbus EGNOS V3 RIMS rack.

“For instance, our current stations work only with GPS frequencies L1/L2 P(Y), while the future post-2020 EGNOS system will be operating on a multi-constellation basis, additionally employing modernized GPS signals, notably on both the L2 (L2C) and L5 frequency bands, as well as other signals from Galileo, on the similar E1 and E5 frequency bands.

“Our experience working with RIMS has emphasized the significance on performance of factors such as signal scintillation — caused by the ever-changing ionosphere, the electrically active layer of the upper atmosphere — as well as other environmental threats such as interference and multipath signal reflection.

“So this upgraded design increased robustness to these factors, based on more stringent development and operating standards, along with innovative radio-frequency environment monitoring.

“It also includes upgraded receiver technology to accurately monitor potential GPS and Galileo signal distortion — “evil waveform” signal anomalies — in full compliance with international standards.”

The RIMS V3 stations will be based in the same or similar secure location as today’s stations — typically airports or space-based telecommunication sites.

Dual tracking antenna concept WDual tracking antenna concept incorporated in EGNOS V3 RIMS design.

The individual RIMS antennas themselves can be relatively compact, about 50 cm high, with links to receiver and computing equipment.

Most of the RIMS V2 station antennas are currently surrounded by dedicated protection structures that limit the impact of interference and multipath local effects.


http://www.http://gpsworld.com
Martes 30 de Mayo del 2017

First Galileo open service performance report published

The European GNSS Agency (GSA) has published its first Galileo Open Service quarterly performance report.

The report, which covers the first three months of 2017, is available online in the GSC Electronic Library, or directly here.

Following the Declaration of Initial Services in December 2016, the GSA will publish a new Galileo Initial Services Open Service report after each quarter. The quarterly reports aim to provide the public with the latest information on the Galileo Open Service’s performance.

The document reports on such parameters as:

  • Galileo Initial Open Service ranging performance
  • Galileo Coordinated Universal Time (UTC) dissemination and Galileo to GPS time offset (GGTO) determination performance
  • Galileo positioning performance
  • Timely publication of Notice Advisory to Galileo Users

Each of these parameters is examined with respect to their minimum performance levels (MPLs), as declared in the European GNSS (Galileo) Open Service Definition Document (OS-SDD).

Highlights from Q1 2017

In the first quarterly reporting period after the Declaration of Galileo Initial Services, the measured Galileo Initial Open Service performance figures generally exceeded the MPL targets specified in the OS-SDD by significant margins.

Some highlights from the report:

  • Availability of the Galileo ranging service at the worst user location, with monthly values of 100 percent, is significantly above expectations, where the MPL is 87 percent.
  • The signal in space ranging accuracy shows a 95th percentile monthly accuracy better than 1.07 [m] for individual space vehicles.
  • Availability of the Galileo UTC time determination service was achieved, with a monthly value of 100 percent, compared to the [OS-SDD] MPL target of 87 percent.
  • Availability of GGTO determination (not declared as a service in this phase) was 100 percent in January and March. February showed a slightly lower figure of 96.44 percent, although still well above the [OS-SDD] MPL target of 80 percent.
  • Excellent values were achieved for UTC time dissemination service accuracy. The measured Galileo Initial Open Service performance figures generally exceeded the MPL targets specified in the OS-SDD by significant margins.

For up-to-date information, check the European GNSS Service Centre (GSC) website. For all support related to Galileo, contact the Galileo Help Desk. The Help Desk allows close interaction with users, both to support the exploitation of Galileo services and to collect relevant information on signal performance as observed by the users themselves.


http://www.http://gpsworld.com
Martes 30 de Mayo del 2017

Un telescopio australiano detecta otra misteriosa señal procedente del espacio

fgg

El radiotelescopio Australian Square Kilometer Array Pathfinder (ASKAP) ha recibido una nueva misteriosa señal FRB (estallido rápido de radio) a los cuatro días de iniciar su búsqueda.

Estas rápidas emisiones son picos cortos y agudos de ondas de radio que duran unos pocos milisegundos. Parecen venir de eventos poderosos a miles de millones de años luz de distancia, pero su causa sigue siendo un misterio, e incluso hay quien especula si se trata de señales hasta ahora indescifrables de civilizaciones avanzadas. La primera fue descubierta en 2007 por el radiotelescopio de Arecibo (Puerto Rico) y sólo dos docenas han sido encontradas desde entonces.

El descubrimiento de la nueva ráfaga, FRB170107, fue realizado por Keith Bannister y sus colegas de CSIRO (organismo de investigación que opera la instalación), la Universidad de Curtin y el Centro Internacional de Investigación de Radio Astronomía (ICRAR), utilizando solo ocho de los 36 platos del telescopio. El hallazgo, publicado en 'The Astrophysical Journal Letters', se produjo tan rápidamente que el nuevo ASKAP, ubicado en Geraldton, Australia Occidental, parece listo para convertirse en un campeón del mundo en esta área de la astronomía, según CSIRO. «Podemos esperar encontrar una (ráfaga) cada dos días usando 12 platos, nuestro número estándar en la actualidad», señala Bannister.

 

Para hacer la detección más reciente, los investigadores utilizaron una estrategia inusual. «Hemos convertido el telescopio en el Sauron del espacio: el ojo que todo lo ve», comenta Bannister, refiriéndose al señor oscuro en el 'Señor de los Anillos' de Tolkien.

Por lo general, los platos de ASKAP apuntan a una parte del cielo. Pero se puede hacer que apunten en direcciones ligeramente diferentes, como los segmentos del ojo de una mosca. Esto multiplica la cantidad de cielo que el telescopio puede ver. Ocho platos ASKAP pueden ver 240 grados cuadrados a la vez, alrededor de mil veces el área de la Luna llena.

Jean-Pierre Macquart, investiga<dor de la Universidad de Curtin, indica que la nueva ráfaga era extremadamente brillante y que encontrarla fue «tan fácil como pescar un pez en un barril».

FRB170107 vino desde el borde de la constelación de Leo. Parece haber viajado por el espacio durante 6.000 millones de años antes de golpear el telescopio a la velocidad de la luz.

El brillo de la ráfaga y su aparente distancia significan que la energía involucrada es enorme, lo que hace extremadamente difícil de explicar. «Hemos hecho un duro problema aún más difícil», asegura Ryan Shannon (CSIRO, Universidad de Curtin e ICRAR), quien analizó la fuerza y la posición de la ráfaga.


http://www.ABC.es
Miércones 24 de Mayo del 2017

Conoce más sobre mi

conocemas

cuento

 

JUEGOS

Denuncias Públicas

denuncias

Consultor Internacional

consultor

Sociedad Colombiana de Topógrafos

sct

Ingeniería Mundial y Geomática

ingenieria

Cosas que no entiendo

cosas

Invitaciones

invitaciones

Mis Acciones en la SCI

SCI ACC

Recomendados del mes

recomendado

palilibrio