Astronomie

Quelle était la valeur de la constante de Hubble au moment de la "libération" du CMB (c'est-à-dire 379 000 ans après le Big Bang) ?

Quelle était la valeur de la constante de Hubble au moment de la

Qu'en est-il de sa valeur environ 9 milliards d'années après le Big Bang, lorsque l'énergie noire a commencé à « prendre le dessus » et à accélérer l'expansion de l'univers ?

Existe-t-il une chronologie ou un graphique quelque part qui montre les valeurs théoriques approximatives de la constante pas si constante de Hubble tout au long de la durée de vie de l'Univers ?


Cette réponse à la question « La constante de Hubble dépend-elle du redshift ? » donne la formule (une forme de l'équation de Friedmann) pour le paramètre de Hubble $H(z)$ en fonction du redshift $z$:

$$ H(z)^2 = H_0^2 left[ (1+z)^4 Omega_r + (1+z)^3 Omega_M + (1+z)^2 Omega_k + Omega_Lambda à droite] $$

où le $Oméga$ les termes sont les densités fractionnaires de rayonnement, de matière, de courbure et d'énergie noire, respectivement.

En utilisant cela, plus la connaissance que le redshift du CMB est $z simeq 1100$, vous pouvez insérer des valeurs pour les densités (j'ai utilisé les valeurs WMAP citées ici) et obtenir cela $H$ au moment du CMB était environ 22 000 fois plus grande que la valeur actuelle.

Cette réponse donne également un graphique de la valeur du paramètre Hubble en fonction du temps.


Questions sur le rayonnement de fond cosmique micro-ondes et sa découverte

J'ai quelques questions sur le rayonnement de fond cosmique micro-ondes (CMBD) et j'essaie de trouver une réponse simple à un niveau de base. J'apprécie vraiment votre aide et votre temps!

L'univers a près de 13,799 milliards d'années et a actuellement un rayon d'environ 46,5 milliards d'années-lumière.

On dit que le CMDB est né lorsque l'univers avait 3 79 000 ans et près de 41 millions d'années-lumière et que la température était d'environ 3 000 K. Chaque point de l'espace est devenu une source de rayonnement dans toutes les directions. Le spectre de rayonnement était celui d'un corps noir à 3000 K. Le spectre du corps noir à 3000 K est montré ci-dessous.

Parce que l'univers s'est étendu et continue de s'étendre, le spectre d'origine s'est décalé vers le rouge et correspond maintenant à celui d'un corps noir à 2,74 K, comme indiqué ci-dessous.

Veuillez noter que le premier spectre à 3000 K a une échelle de "longueur d'onde" en nm et celui à 2,74 K l'a en mm.

Question 1:
Je pense qu'avant la découverte du CMDB en 1964, les cosmologistes avaient déjà compris qu'à quelle température la recombinaison avait lieu et le spectre de rayonnement du CMDB au moment de la recombinaison. Mais je ne suis pas en mesure de comprendre comment les cosmologistes savaient qu'ils devaient rechercher les micro-ondes, comme le dit l'extrait ci-dessous, la source n ° 1, de Wikipedia et non, disons, les ondes électromagnétiques dans la région infrarouge. Comment savaient-ils que la CMDB d'origine avait été déplacée vers la région des micro-ondes du spectre ? Il leur aurait été possible d'estimer la région du spectre CMDB décalé vers le rouge s'ils avaient eu une idée approximative de l'âge de l'univers. Mais l'âge de l'univers n'était pas bien établi à cette époque. L'estimation la plus proche de l'âge de l'univers aurait pu être obtenue en utilisant l'estimation donnée par Sandage, Source #2, mais lui-même n'était pas vraiment sûr de son estimation, Source #3. Quoi qu'il en soit, l'utilisation de la valeur constante de Hubble de Sandage de « 75 » au lieu de la valeur actuellement connue de « 67,8 », donne l'âge de l'univers à près de 13 milliards d'années. Peut-être qu'ils ont juste eu une idée approximative que le spectre décalé devrait être dans la région radio (les micro-ondes sont un sous-ensemble des ondes radio).

Que dites-vous à ce sujet?

Source n°1 :
"Au début des années 1960, les travaux sur la théorie de Brans-Dicke ont amené Dicke à penser au début de l'Univers, et avec Jim Peebles, il a re-dérivé la prédiction d'un fond diffus cosmologique (ayant prétendument oublié la prédiction antérieure de George Gamow et de ses collègues) . Dicke, avec David Todd Wilkinson et Peter G. Roll, a immédiatement commencé à construire un radiomètre Dicke pour rechercher le rayonnement, mais ils ont été récupérés par la détection accidentelle faite par Arno Penzias et Robert Woodrow Wilson (utilisant également un radiomètre Dicke), qui travaillaient aux Bell Labs à quelques kilomètres de Princeton.[8][9]" - https://en.wikipedia.org/wiki/Robert_H._Dicke

Source n°2 :
"Sandage a commencé à travailler à l'observatoire de Palomar. En 1958, il a publié[5] la première bonne estimation de la constante de Hubble, révisant la valeur de Hubble de 250 à 75 km/s/Mpc, ce qui est proche de la valeur acceptée aujourd'hui." - https://en.wikipedia.org/wiki/Allan_Sandage

Source n°3 :
"Cependant Sandage, comme Einstein, ne croyait pas à ses propres résultats au moment de la découverte. Sa valeur pour l'âge de l'univers [explication supplémentaire nécessaire] était trop courte pour être conciliée avec l'âge de 25 milliards d'années estimé à l'époque pour les plus anciennes étoiles connues. Sandage et d'autres astronomes ont répété ces mesures à plusieurs reprises, en essayant de réduire la constante de Hubble et d'augmenter ainsi l'âge résultant pour l'univers." - https://en.wikipedia.org/wiki/Hubble's_law#Hubble_time

Question 2:
On dit aussi que le photon CMB qui nous parvient aujourd'hui a parcouru près de 13,8 milliards d'années-lumière dans un univers infini.

J'ai essayé de comprendre la déclaration ci-dessus. Veuillez consulter cette pièce jointe ci-dessous. CMDB a toujours été avec nous et il sera théoriquement toujours là, mais avec le temps, son spectre deviendrait plus décalé vers le rouge et son intensité diminuerait également. La figure de gauche montre l'univers visible lorsque la recombinaison a eu lieu. Les photons CMDB des emplacements A, B et C ont déjà été reçus par la terre. Étant donné que les emplacements D et E se sont étendus à une distance de 46,5 milliards d'années-lumière sur une période de près de 13,7 milliards d'années, les photons des emplacements D et E sont donc reçus maintenant.

Depuis la distance est passée de 46,5 milliards d'années-lumière à 41 millions d'années-lumière sur une période de près de 13,7 milliards d'années (je pense qu'il faudrait soustraire l'âge de l'univers au moment de la recombinaison). La lumière a dû parcourir près de 1134 fois plus de distance pour nous atteindre maintenant.


Une nouvelle approche affine la constante et l'âge de l'univers de Hubble

Crédit : CC0 Domaine Public

En utilisant les distances connues de 50 galaxies de la Terre pour affiner les calculs de la constante de Hubble, une équipe de recherche dirigée par un astronome de l'Université de l'Oregon estime l'âge de l'univers à 12,6 milliards d'années.

Les approches à ce jour du Big Bang, qui a donné naissance à l'univers, reposent sur les mathématiques et la modélisation informatique, en utilisant des estimations de distance des étoiles les plus anciennes, le comportement des galaxies et le taux d'expansion de l'univers. L'idée est de calculer combien de temps il faudrait à tous les objets pour revenir au début.

Un calcul clé pour la datation est la constante de Hubble, du nom d'Edwin Hubble qui a calculé pour la première fois le taux d'expansion de l'univers en 1929. Une autre technique récente utilise des observations des restes de rayonnement du Big Bang. Il cartographie les bosses et les ondulations dans l'espace-temps - le fond cosmique micro-ondes, ou CMB - et reflète les conditions dans l'univers primitif telles que définies par la constante de Hubble.

Cependant, les méthodes aboutissent à des conclusions différentes, a déclaré James Schombert, professeur de physique à l'UO. Dans un article publié le 17 juillet dans le Journal astronomique, lui et ses collègues dévoilent une nouvelle approche qui recalibre un outil de mesure de distance connu sous le nom de relation baryonique de Tully-Fisher indépendamment de la constante de Hubble.

"Le problème de l'échelle des distances, comme on l'appelle, est incroyablement difficile car les distances aux galaxies sont vastes et les panneaux indiquant leurs distances sont faibles et difficiles à calibrer", a déclaré Schombert.

L'équipe de Schombert a recalculé l'approche de Tully-Fisher, en utilisant des distances définies avec précision dans un calcul linéaire des 50 galaxies comme guides pour mesurer les distances de 95 autres galaxies. L'univers, a-t-il noté, est régi par une série de modèles mathématiques exprimés en équations. La nouvelle approche tient compte plus précisément de la masse et des courbes de rotation des galaxies pour transformer ces équations en nombres tels que l'âge et le taux d'expansion.

L'approche de son équipe détermine la constante de Hubble - le taux d'expansion de l'univers - à 75,1 kilomètres par seconde par mégaparsec, à 2,3 près. Un mégaparsec, une unité commune de mesures liées à l'espace, est égal à un million de parsecs. Un parsec vaut environ 3,3 années-lumière.

Toutes les valeurs constantes de Hubble inférieures à 70, a écrit son équipe, peuvent être exclues avec un degré de confiance de 95 %.

Les techniques de mesure traditionnellement utilisées au cours des 50 dernières années, a déclaré Schombert, ont fixé la valeur à 75, mais CMB calcule un taux de 67. La technique CMB, tout en utilisant différentes hypothèses et simulations informatiques, devrait toujours arriver à la même estimation, a-t-il déclaré. .

"La tension sur le terrain vient du fait que ce n'est pas le cas", a déclaré Schombert. "Cette différence est bien en dehors des erreurs d'observation et a produit beaucoup de frictions dans la communauté cosmologique."

Les calculs tirés des observations de la sonde d'anisotropie micro-onde Wilkinson de la NASA en 2013 situent l'âge de l'univers à 13,77 milliards d'années, ce qui, pour le moment, représente le modèle standard de la cosmologie du Big Bang. Les valeurs constantes de Hubble différentes des diverses techniques estiment généralement l'âge de l'univers entre 12 milliards et 14,5 milliards d'années.

La nouvelle étude, basée en partie sur des observations faites avec le télescope spatial Spitzer, ajoute un nouvel élément à la façon dont les calculs pour atteindre la constante de Hubble peuvent être définis, en introduisant une méthode purement empirique, utilisant des observations directes, pour déterminer la distance aux galaxies, Schombert mentionné.

"Notre valeur résultante est du côté élevé des différentes écoles de cosmologie, signalant que notre compréhension de la physique de l'univers est incomplète avec l'espoir d'une nouvelle physique à l'avenir", a-t-il déclaré.


Quelle était la valeur de la constante de Hubble au moment de la "libération" du CMB (c'est-à-dire 379 000 ans après le Big Bang) ? - Astronomie

Découvert par hasard en 1964 par Penzias et Wilson (Prix Nobel, 1978), le CMB est un vestige de la phase chaude et dense de l'univers qui a suivi le Big Bang. Pendant plusieurs centaines de milliers d'années après le Big Bang, l'univers était suffisamment chaud pour que sa matière (principalement de l'hydrogène) reste ionisée, et donc opaque (comme la majeure partie du soleil) au rayonnement. Pendant cette période, la matière et la lumière étaient en équilibre thermique et le rayonnement devrait donc obéir aux lois classiques du corps noir (Planck, Wien, Stefan).

L'existence du CMB est considérée comme l'un des trois piliers expérimentaux qui indiquent un début du Big Bang dans l'univers. (Les deux autres éléments de preuve qui indiquent que notre univers a commencé avec un Bang sont la linéarité de la loi d'expansion de Hubble et les abondances cosmiques universelles des isotopes des éléments légers, tels que l'hélium, le deutérium et le lithium.)

À un moment donné, environ 400 000 ans après le Bang, l'univers s'était refroidi au point où la matière est devenue neutre, moment auquel la matière de l'univers est également devenue transparente au rayonnement. (La matière complètement ionisée peut absorber n'importe quel rayonnement de longueur d'onde. La matière neutre ne peut absorber que les relativement peu de longueurs d'onde qui transportent l'énergie exacte qui correspond aux différences d'énergie entre les niveaux d'énergie des électrons.) ") s'est produite était d'environ 3000 K.

Le spectre mesuré par le satellite COBE ressemble à

Il avait bien la forme spectrale du corps noir prédite, mais le pic dans le spectre hyperfréquence indiquait une température de 2,726 K. Bien que cette température soit clairement insuffisante pour ioniser l'hydrogène, l'ensemble du spectre a été décalé vers le rouge par rapport à celui au moment du découplage (quand la température a été 3000 K) par l'expansion de l'univers. Au fur et à mesure que l'espace s'étend, les longueurs d'onde du CMB s'étendent du même facteur. La loi du corps noir de Wien dit que le pic de longueur d'onde du spectre du CMB est inversement proportionnel à la température du CMB. Ainsi, la baisse de la température du CMB d'un facteur 1100 (= 3000 K/2,73 K) indique une expansion de l'univers d'un facteur 1100 depuis le moment du découplage jusqu'à maintenant.

Ce qu'il peut nous dire

En plus de mesurer la température du CMB global, les anisotropies dans le CMB sont capables de nous indiquer le mouvement de la Terre par rapport au CMB, la géométrie (ou la courbure) de l'univers, le contenu en baryons de l'univers, la matière noire et contenu en énergie noire de l'univers, la valeur de la constante de Hubble, si l'inflation a eu lieu dans l'univers primitif, et plus encore.

Ce que les divers groupes mesurent est généralement présenté dans un format tel que

BOOMERandG en avril 2001 WMAP février 2003

Ce que cela veut dire

Les diagrammes ci-dessus représentent la puissance du CMB en fonction du nombre d'harmoniques. Ces diagrammes ressemblent beaucoup à celui d'une note d'instrument de musique complexe, qui est aussi la somme des amplitudes (ou "puissance") de diverses fréquences ou harmoniques. Par exemple, dans le diagramme ci-dessous, 6 harmoniques (image du haut : chacune est une onde sinusoïdale avec un multiple entier de la fréquence fondamentale) sont additionnées pour produire l'onde de forme complexe montrée dans l'image du milieu. L'image du bas montre la contribution d'amplitude relative de chacun des harmoniques.

Les spectres de puissance CMB tracent de la même manière la contribution relative de chaque fréquence spatiale (au lieu de la fréquence temporelle).

Les mathématiques et la physique des anisotropies

Si le CMB avait exactement la même température dans toutes les directions du ciel, le ciel aurait la même luminosité dans toutes les directions. Les astronomes utilisent souvent un faux schéma de coloration pour représenter la luminosité (différentes luminosités sont représentées par différentes couleurs), en particulier lorsque le rayonnement est émis dans une partie du spectre qui n'est pas visible à l'œil humain. Un CMB uniformément brillant serait donc représenté par une seule couleur. Cette puissance est appelée la contribution "l = 1" au spectre de puissance. Si nous pouvions voir le CMB avec nos yeux, le ciel serait uniformément le même, comme sur la figure de gauche.

(Dans ce diagramme et les suivants, le ciel entier est représenté par une projection de Mercator, la même technique souvent employée pour représenter la terre entière. L'équateur (latitude 0 pour la terre) est une ligne horizontale au milieu de l'ovale, avec les latitudes nord au-dessus et les latitudes sud ci-dessous. Le méridien de Greenwich (longitude 0 sur Terre) est une ligne verticale passant par le milieu, avec les longitudes ouest à gauche et les longitudes est à droite. De la même manière, l'équateur ou plan galactique (latitude 0) est une ligne passant par le milieu des images du ciel. Le centre galactique (longitude galactique 0) est au centre du diagramme.

En réalité, cependant, toutes les directions du ciel ne semblent pas avoir la même luminosité CMB. La terre se déplace par rapport à la matière qui a émis le CMB en dernier, et donc le spectre du CMB semble le plus bleu (et, selon la loi de Wien, donc le plus chaud) dans cette direction et le plus rouge (et le plus froid) à l'opposé de cette direction. Cet effet contribuerait au spectre de puissance du CMB à une fréquence spatiale de l = 2. La contribution "l = 2" est souvent appelée une contribution dipolaire, car la distribution de la luminosité sur le ciel a 2 pôles (un chaud, un froid) dans il. Si nous pouvions en quelque sorte voir SEULEMENT cette contribution dipolaire [dont l'amplitude de luminosité est bien inférieure à celle de la contribution dominante "l=1"] en supprimant la luminosité moyenne (ou température) du diagramme précédent et en amplifiant le contraste d'environ mille, le ciel ressemble maintenant à la figure de droite.

En mesurant la quantité d'anisotropie dipolaire (la partie la plus bleue du ciel est de 0,0033 K plus chaude que la moyenne), nous pouvons déterminer l'amplitude du mouvement de la terre par rapport au CMB : la terre se déplace à une vitesse de 370 km/ s en direction de la constellation de la Vierge.

Si la contribution dipolaire due au mouvement de la Terre est maintenant soustraite, le ciel ressemble à la figure de gauche.

Les différences de température qui subsistent sont un composite de deux choses : une contribution de notre galaxie et les véritables anisotropies dans le CMB qui étaient présentes au moment du découplage, des centaines de milliers d'années après le Big Bang.

La galaxie est brillante aux longueurs d'onde des micro-ondes en raison de l'émission de molécules (en particulier de CO), de poussière,

Les anisotropies présentes au moment du découplage représentent le bruit aléatoire présent dans le tout premier univers qui a été amplifié par l'inflation à des échelles de taille cosmique. Les anisotropies présentes au moment du découplage sont d'une magnitude appropriée pour expliquer comment les structures à grande échelle que nous voyons aujourd'hui (des galaxies aux superamas de galaxies) se sont formées sous l'influence de la gravité.

Il est possible de supprimer la contribution de l'émission de la galaxie en mesurant

Une fois la contribution galactique supprimée, COBE a vu ceci :

Ce diagramme est la somme des contributions d'amplitude (ou de puissance) de tous les harmoniques de fréquence spatiale (mais avec ceux de l = 1 et l = 2 supprimés). C'est l'équivalent de la forme d'onde complexe d'un instrument de musique ci-dessus, qui a été formée par la somme des contributions d'amplitude (ou de puissance audio) de plusieurs fréquences temporelles (ou harmoniques). La différence est que le diagramme CMB montre la puissance en fonction de la position dans le ciel (c'est-à-dire en fonction de la latitude et de la longitude galactiques), tandis que la forme d'onde de l'instrument de musique montre la puissance en fonction de la seule dimension du temps.

L'objectif pour les chercheurs du CMB est de décomposer le diagramme du CMB en ses composantes harmoniques. Et heureusement, les quantités relatives des composants harmoniques sont déterminées par les propriétés intrinsèques de l'univers (telles que la constante de Hubble, la quantité de matière noire et la valeur de la constante cosmologique, l'âge de l'univers et la quantité d'énergie noire. ).

Qui mesure ça

COBE (Cosmic Background Explorer, lancé en 1989) a été le premier satellite lancé pour mesurer les propriétés du CMB en dehors de l'atmosphère terrestre. COBE a établi le caractère précis du corps noir du rayonnement et a mesuré la température à 2,726 K, mesuré la vitesse de la terre par rapport à la matière qui a émis le dernier rayonnement et a finalement détecté des anisotropies dans le fond au niveau de 1 partie sur 10 5 .

BOOMERanG mesure les propriétés du CMB en lançant des instruments embarqués sur ballon au pôle Sud. Voici leur dernière version de l'anisotropie d'un morceau de ciel

Équipe scientifique NASA/WMAP

MAP (lancé le 30/06/01) mesurera les propriétés individuelles de l'univers (par exemple, la constante de Hubble, la densité baryonique, la valeur de la constante cosmologique) à 5% près. Les premières images MAP (février 2003) sont à gauche avec le résultat COBE de 5 ans plus tôt pour comparaison. Notez que la résolution MAP est nettement meilleure que la résolution COBE.

MAP a trouvé les valeurs suivantes (2003) pour les paramètres cosmologiques :

géométrie de l'univers : conforme à plat : total oméga = 1,02 + 0,02
oméga (énergie noire) = 0,73
oméga (matière noire) = 0,23
oméga (baryons) = 0,044 + 0,004
oméga (neutrinos) < 0,0005
oméga (rayonnement) = 0,0001

Le contenu de l'univers :

époque de formation des premières étoiles (fin de l'âge des ténèbres) : 200 Myr après le Bang


Histoire de la vitesse de l'expansion de l'univers ?

En l'absence d'énergie noire, la constante de Hubble serait inversement proportionnelle à l'âge cosmique. Avec l'énergie noire, elle tombe initialement de cette façon mais s'installe à une valeur constante dans un avenir lointain, de sorte que les mathématiques sont plus complexes.

Il existe une applet appelée "CosmoCalc" dans un certain nombre de variétés qui vous indique de nombreux paramètres intéressants. Celui-ci de Ned Wright vous indique le redshift du temps rétrospectif :

Celui-ci prend le redshift et vous dit plein de choses dont la constante de Hubble

Ils doivent utiliser les mêmes hypothèses pour les valeurs actuelles, donc définissez H0 à 70,4 et Omega_M à 0,272 dans Wright. Mettez par exemple 5 pour le temps de trajet léger en Gyr et appuyez sur le bouton "Flat". Vous obtenez 0,492 pour le redshift.

Maintenant, mettez cette valeur pour redshift dans la deuxième applet et elle vous dira tout ce que vous voulez savoir (et plus).

La "vitesse" de l'expansion des distances est proportionnelle à la taille de la distance. Une distance deux fois plus grande augmente à deux fois la "vitesse". Le taux d'expansion n'est vraiment pas un "mph" ou "km/s" particulier. C'est un pourcentage de croissance de la distance.

Le taux actuel de croissance des distances est de 1/140 pour cent par million d'années.

Dans le passé, le taux de croissance en pourcentage était considérablement plus élevé. Voici un exemple d'historique :

Les époques passées sont étiquetées par combien de distances et de longueurs d'onde ont été allongées depuis ce temps (le facteur "stretch"). Le tableau va de S=10 à S=1 (l'instant présent).

Vous pouvez lire les taux de croissance en pourcentage dans la colonne "Temps de Hubble" (la quatrième colonne).
Dans cette colonne, 14,0 Gy correspond au taux actuel de 1/140 pour cent par million d'années.
Et 0,8 Gy correspond au taux de 1/8 pour cent par million d'années.
C'était le taux de l'année 600 millions (c'est-à-dire l'année 0,6 Gy) comme vous pouvez le voir sur le tableau.

Le même calculateur vous indiquera facilement le taux de croissance de la distance à S = 1090, le moment de la compensation ou de la transparence que vous avez demandé. Vers l'an 380 000, date de l'origine de l'ancienne lumière CMB. Cette lumière a été "étirée" d'un facteur de 1090, il vous suffit donc de mettre ce nombre dans la case limite supérieure, à la place du nombre 10, que j'ai mis pour créer ce tableau.

Si au lieu d'un taux de croissance en pourcentage, vous voulez une vitesse en km/s d'une distance de référence, je suggérerais un million d'années-lumière. La plupart des gens ont une certaine association mentale avec cette distance --- ayant entendu la distance à une galaxie voisine comme Andromède exprimée en ces termes. Elle est de l'ordre d'un million d'années-lumière de nous et sa lumière met de l'ordre d'un million d'années pour arriver ici.

Lorsque les distances augmentent à un taux de 1/140% par million d'années, alors une distance de 1 million d'années-lumière augmente à une "vitesse" de 3000/140 km/s.
Tout ce que vous avez à faire, pour convertir, c'est de multiplier le taux de pourcentage 1/140 par 3000. Cela donne le km/s.


L'Institut de recherche sur la création

La cosmologie est l'étude de l'origine et de la structure de l'univers, et le Big Bang est le modèle cosmologique séculaire dominant. Certains chrétiens disent que Dieu a utilisé le Big Bang pour créer l'univers, mais ce modèle contredit les Écritures à plusieurs égards. 1 Il y a eu quelques développements récents concernant le modèle du Big Bang, dont presque tous sont de mauvaises nouvelles pour les partisans du Big Bang.

Selon le modèle du Big Bang, l'univers était autrefois très dense et chaud. Soi-disant, l'univers a commencé à s'étendre rapidement il y a environ 14 milliards d'années et est toujours en expansion aujourd'hui. Cette expansion, déduite d'indices dans la lumière de galaxies lointaines, est l'un des trois principaux arguments du modèle. 2 Un deuxième argument est que le Big Bang fait un bon travail pour tenir compte des éléments chimiques légers hydrogène et hélium. Un troisième est l'existence d'un faible rayonnement de fond diffus cosmologique (CMB) provenant de toutes les directions de l'espace (Figure 1). Les partisans du Big Bang interprètent le CMB comme une « rémanence » datant d'environ 400 000 ans après le Big Bang.

Malgré ces succès apparents, le modèle du Big Bang a de sérieux problèmes scientifiques. Une énorme difficulté est que les partisans du Big Bang ont conclu qu'environ 95 % du « ldquostuff » dans l'univers est composé d'entités mystérieuses appelées matière noire et énergie noire, mais ils ne savent pas ce que sont ces choses. Comment les théoriciens du Big Bang peuvent-ils prétendre comprendre le processus qui a soi-disant donné naissance à l'univers alors que, de leur propre aveu, 95% du contenu de l'univers est inconnu ? 3

En tant que ministère de la création, l'ICR veut que les gens soient à jour sur la version actuelle du modèle du Big Bang, pas celle qui était populaire il y a des décennies. Par exemple, les cosmologistes du Big Bang avaient l'habitude de dire que l'univers a traversé une énorme &lquocroissance» appelée inflation peu après le Big Bang. Cependant, la plupart des théoriciens prétendent aujourd'hui que l'inflation s'est produite en premier et causé le Big Bang. 4

La contradiction constante de Hubble persiste

La plupart des astronomes pensent que l'univers est en expansion, provoquant l'éloignement des galaxies les unes des autres. Les scientifiques utilisent un nombre appelé la constante de Hubble, désigné par le symbole H0, pour caractériser cette expansion. Ils utilisent deux méthodes différentes pour calculer H0. Une façon consiste à calculer la valeur directement, en utilisant les distances et les vitesses estimées des galaxies lointaines. Une deuxième façon consiste à déduire ce nombre en examinant les détails du rayonnement CMB. Les valeurs calculées à partir de ces deux méthodes sont en conflit et une étude récente n'a pas résolu le problème. 5-7

Lorsque les partisans du Big Bang utilisent le CMB pour déduire une valeur pour H0, ils supposent que le modèle du Big Bang est correct. Naturellement, si le modèle est erroné, il n'y a aucune raison de s'attendre à ce que cette méthode donne un résultat précis. Les créationnistes ne sont pas surpris que ces deux méthodes différentes donnent des résultats contradictoires. Et même si le CMB est sans doute l'argument le plus fort pour le Big Bang, il y a des détails sur ce rayonnement qui ne ne pas s'aligner sur le modèle Big Bang. 8 Par exemple, l'astrophysicien de Cambridge George Efstathiou a commenté la façon dont le CMB ne correspond pas aux attentes de la théorie de l'inflation :

La théorie de l'inflation prédit qu'aujourd'hui l'univers devrait apparaître uniforme aux plus grandes échelles dans toutes les directions. Cette uniformité devrait également caractériser la distribution des fluctuations [de température] aux plus grandes échelles au sein du CMB. Mais ces anomalies, que [le] Planck [satellite] a confirmées, comme le point froid, suggèrent que ce n'est pas le cas&hellip.C'est très étrange&hellip..Et je pense que s'il y a vraiment quelque chose à cela, vous devez vous demander comment qui correspond à l'inflation et à l'hellip.. C'est vraiment déroutant. 9

Matière baryonique manquante trouvée ?

Les particules subatomiques lourdes comme les protons et les neutrons sont appelées baryons. Parce que les protons et les neutrons constituent presque toute la masse d'un atome, la matière atomique normale avec laquelle nous interagissons dans nos expériences quotidiennes est appelée matière baryonique.

Comme mentionné précédemment, l'un des trois principaux arguments en faveur du Big Bang est qu'il peut expliquer les abondances observées d'hydrogène et d'hélium dans l'univers. Cependant, c'est parce que le modèle a un paramètre réglable, comme un cadran de réglage sur une radio. 10 Les scientifiques du Big Bang choisissent une valeur pour ce paramètre afin de s'assurer que le modèle correspond aux abondances observées d'hydrogène et d'hélium. 11

Ainsi, contrairement à la perception populaire, le Big Bang ne ne pas prédire avec succès les abondances d'hydrogène et d'hélium. Au contraire, les partisans du modèle choisir une valeur pour ce paramètre pour s'assurer que le modèle donne la bonne réponse. 12-14 Néanmoins, les scientifiques séculaires considèrent la capacité du modèle à correspondre aux abondances observées d'hydrogène et d'hélium comme un succès majeur.

Une fois que les scientifiques du Big Bang ont choisi leur valeur pour ce paramètre, le modèle indique la quantité de matière baryonique qui devrait exister dans l'univers. 15 Lorsque l'on additionne les différentes formes de matière supposées exister, la quantité de matière baryonique prédite par le Big Bang n'est que de 20 % du total (Figure 2). Les astronomes du Big Bang pensent que les 80% restants sont une forme exotique de matière noire invisible, discutée dans la section suivante. Des observations antérieures indiquaient que les étoiles visibles et le gaz ne pouvaient représenter que la moitié de cette matière baryonique prédite, et les scientifiques ne pouvaient expliquer l'autre moitié.

L'année dernière, les astronomes ont affirmé avoir résolu ce problème. 16 (Il est intéressant de noter qu'un autre scientifique a prétendu l'avoir résolu un an auparavant. 17 ) Les théoriciens pensent que la matière baryonique manquante devrait résider dans de fines cordes chaudes d'hydrogène ionisé situées entre les galaxies. Les astronomes n'ont pas détecté l'hydrogène en soi, mais plutôt l'oxygène ionisé qu'ils pensent être associé à l'hydrogène. Naturellement, les partisans du Big Bang y verront une bonne nouvelle pour leur modèle. Cependant, il est important de réaliser que la matière manquante n'a pas été trouvée directement. Au contraire, l'oxygène a été trouvé que les scientifiques séculaires pensent, sur la base de leurs modèles, devrait être associé à l'hydrogène manquant.

Il convient de noter que l'entrée Wikipedia pour le "problème de baryon manquant" a été signalée pour avoir peut-être fait une déclaration trop forte sur le problème en cours de résolution, malgré le biais anti-création évident trouvé dans les articles de Wikipédia concernant la controverse création-évolution. 18

La matière noire n'est toujours pas détectée

Comme mentionné précédemment, de nombreux astronomes pensent que 80% de toute la matière de l'univers est de la matière noire invisible. Bien que les astronomes aient déduit l'existence de la matière noire en dehors du modèle du Big Bang, cette substance est devenue très importante pour les cosmologistes séculaires. Ils reconnaissent les énormes problèmes de leurs théories sur la formation des étoiles et des galaxies. Beaucoup prétendent que la matière noire est "l'ingrédient manquant" qui peut d'une manière ou d'une autre permettre à leurs théories de fonctionner. 19 Ceci est très pratique pour les théoriciens. Puisque personne ne sait ce qu'est la matière noire&mdashor même si elle existe vraiment&mdash, personne ne peut démontrer que leurs théories sont fausses ! 20

Parce que le modèle du Big Bang ne permet que 20 % de toute la matière soit baryonique (constituée d'atomes), ses partisans doivent supposer que la matière noire est autre chose. D'autres formes de matière (c'est-à-dire les électrons libres, les neutrinos, etc.) existent mais ont généralement été exclues comme candidats à la matière noire. Les scientifiques n'ont d'autre choix que d'insister sur le fait que la matière noire est une substance exotique, jamais observée auparavant.

Alors, comment se passe la chasse à cette matière exotique ? Pas bien. Les recherches répétées sont restées vides, 21 et les théoriciens deviennent de plus en plus nerveux, voire désespérés.

La matière noire avant le Big Bang ?

Comment désespéré? Un théoricien a récemment suggéré que la matière noire existait peut-être d'une manière ou d'une autre avant que le Big Bang. 22,23 Comment est-ce possible ? Haven&rsquot nous a amenés à croire que le Big Bang était à l'origine de tout?

Ce théoricien a dit que la matière noire provenait de quelque chose appelé un champ scalaire qui était censé être présent avant le Big Bang. Un problème avec cette idée est qu'un seul champ scalaire est connu pour exister, et c'est le champ associé au célèbre boson de Higgs. Tous les autres champs scalaires sont hypothétiques.

Soit dit en passant, cela devrait faire réfléchir les chrétiens qui disent que Dieu a utilisé le Big Bang pour créer l'univers. Si le supposé &ldquobang&rdquo était l'acte créateur initial de Dieu, alors selon ce raisonnement, la matière noire existait avant que Genèse 1:1. Si 80% de toute la matière existante avait une existence avant, Dieu l'a-t-il réellement créé avant Genèse 1:1 ? Si oui, pourquoi la Bible ne nous le dit-elle pas ? Sinon, la matière noire est-elle simplement éternelle ? Et si elle est éternelle, qu'est-ce que cela fait à la théologie chrétienne ?

Temps avant le Big Bang ?

Cela soulève un autre point. Big Bang scientists had long insisted that speaking of time before the Big Bang was as nonsensical as asking the question &ldquoWhat is north of the North Pole?&rdquo Well, apparently the question wasn&rsquot as nonsensical as we were led to believe, because they now routinely talk about time &ldquobefore&rdquo the Big Bang. In fact, inflation theorists now claim the inflation process that supposedly triggered the Big Bang could have been going on for eons by the time the Big Bang supposedly created our universe. This has led to the idea that our universe is only one of an infinite number of universes in a supposed &ldquomultiverse.&rdquo 24

This should demonstrate just how &ldquosquishy&rdquo Big Bang theories are. Secular scientists simply won&rsquot allow data to falsify them, even if it means tacking on additional hypotheses or accepting concepts that they themselves dismissed as nonsense decades ago, such as time before the Big Bang.

Instead of attempting to harmonize the inerrant Word of God with a flimsy scientific model, Christians would do far better to simply take God&rsquos Word at face value. The universe came into existence not through a Big Bang but by the omnipotent Word of God.


Two competing forces – the pull of gravity and the outwards push of radiation – played a cosmic tug of war with the universe in its infancy

Over a century since Hubble's first estimate for the rate of cosmic expansion, that number has been revised downwards time and time again. Today's estimates put it at somewhere between 67 and 74km/s/Mpc (42-46 miles/s/Mpc).

Part of the problem is that the Hubble Constant can be different depending on how you measure it.

Most descriptions of the Hubble Constant discrepancy say there are two ways of measuring its value – one looks at how fast nearby galaxies are moving away from us while the second uses the cosmic microwave background (CMB), the first light that escaped after the Big Bang.

We can still see this light today, but because of the distant parts of the universe zooming away from us the light has been stretched into radio waves. These radio signals, first discovered by accident in the 1960s, give us the earliest possible insight into what the Universe looked like.

Two competing forces – the pull of gravity and the outwards push of radiation – played a cosmic tug of war with the universe in its infancy, which created disturbances that can still be seen within the cosmic microwave background as tiny differences in temperature.

Using these disturbances, it is then possible to measure how fast the Universe was expanding shortly after the Big Bang and this can then be applied to the Standard Model of Cosmology to infer the expansion rate today. This Standard Model is one of the best explanations we have for how the Universe began, what it is made of and what we see around us today.

Tiny disturbances in early universe can be seen in fluctuations in the oldest light in the Universe – the cosmic microwave background (Credit: Nasa/JPL/ESA-Planck)

But there is a problem. When astronomers try to measure the Hubble Constant by looking at how nearby galaxies are moving away from us, they get a different figure.

"If the [standard] model is correct, then you would imagine that the two values – what you measure today locally and the value that you infer from the early observations would agree," says Freedman. "And they don't."

When the European Space Agency (ESA)'s Planck satellite measured discrepancies in the CMB, first in 2014 then again in 2018, the value that comes out for the Hubble constant is 67.4km (41.9 miles)/s/Mpc. But this is around 9% less than the value astronomers like Freedman have measured when looking at nearby galaxies.

Further measurements of the CMB in 2020 using the Atacama Cosmology Telescope correlated with the data from Planck. "This helps to rule out that there was a systematic problem with Planck from a couple of sources" says Beaton. If the CMB measurements were correct – it left one of two possibilities: either the techniques using light from nearby galaxies were off, or the Standard Model of Cosmology needs to be changed.

The technique used by Freedman and her colleagues takes advantage of a specific type of star called a Cepheid variable. Discovered around 100 years ago by an astronomer called Henrietta Leavitt, these stars change their brightness, pulsing fainter and brighter over days or weeks. Leavitt discovered the brighter the star is, the longer it takes to brighten, then dim and then brighten again. Now, astronomers can tell exactly how bright a star really is by studying these pulses in brightness. By measuring how bright it appears to us on Earth, and knowing light dims as a function of distance, it provides a precise way of measuring the distance to stars. (Read more about how Henrietta Leavitt changed our view of the Universe.)


Hubble time

Hubble Time: Hubble Time is comparable to the current age of the universe.
Inflationary Cosmology: It states that the universe (the space) went through exponential expansion very early after the big bang.

Hubble Time - An estimate of the age of the universe obtained by taking the inverse of Hubble's constant. The estimate is only valid if there has been no acceleration or deceleration of the expansion of the universe .

HUBBLE TIME
Hubble Time is an estimate of the age of the universe it is the inverse of the Hubble constant.

If we had a movie of the expanding universe and ran the film backward, what would we see? The galaxies, instead of moving apart, would move together in our movie-getting closer and closer all the time.

. [G97]
(b) The inverse of the Hubble constant and a crude measure of the universe's age.

, also called the Hubble age or the Hubble period, provides an estimate for the age of the universe by presuming that the universe has always expanded at the same rate as it is expanding today.

Numerically the inverse of the Hubble constant it represents, in order of magnitude, the age of the universe. Hydrogen Alpha Also called H-alpha. Light emitted at a wavelength of 6563 ⋭ from an atomic transition in hydrogen.

overestimates the age of the universe.

Because the Universe was once so hot and dense that even neutrinos interacted many times during the

1/H, there once was a thermal background of neutrinos in equilibrium with the thermal background of photons that is the CMBR.

On the horizontal axis is time, but the units aren't seconds or years or gigayears instead, they are in "

" is simply the reciprocal of the current value of the Hubble parameter.

From the relationship to = 1/Ho, the age of the Universe (or the

, to) can be estimated to be 14 billion years, consistent with the most accurate current value of 13.7 +/- 0.2 Gyr determined from the combined measurements of the CMB anisotropy and the accelerating expansion of the Universe.

for merging and relaxed galaxy clusters p. 813
W. Kapferer, T. Kronberger, J. Weratschnig, S. Schindler, W. Domainko, E. van Kampen, S. Kimeswenger, M. Mair and M. Ruffert
EST CE QUE JE: .

Dwarf galaxies with gas fractions and star formation rates on the order of giant spiral galaxies (implying the gas will be consumed in less than a

), but low metallicity. It may be that galactic winds carry away heavy elements formed in the galaxy out of its shallow potential well. See e.g. arXiv:1103.1116.

When these two quantities, velocity and distance, were plotted against each other, the result was an almost perfectly linear fit - the slope of the line is the HUBBLE CONSTANT (H0), and its reciprocal, the

, is the age of the Universe since the Big Bang.

As mass has a relatively weak effect on the expansion rate, the age of such a universe is greater than two‐thirds of the


Precise New Measurements From Hubble Confirm the Accelerating Expansion of the Universe. Still no Idea Why it’s Happening

In the 1920s, Edwin Hubble made the groundbreaking revelation that the Universe was in a state of expansion. Originally predicted as a consequence of Einstein’s Theory of General Relativity, this confirmation led to what came to be known as Hubble’s Constant. In the ensuring decades, and thanks to the deployment of next-generation telescopes – like the aptly-named Hubble Space Telescope (HST) – scientists have been forced to revise this law.

In short, in the past few decades, the ability to see farther into space (and deeper into time) has allowed astronomers to make more accurate measurements about how rapidly the early Universe expanded. And thanks to a new survey performed using Hubble, an international team of astronomers has been able to conduct the most precise measurements of the expansion rate of the Universe to date.

This survey was conducted by the Supernova H0 for the Equation of State (SH0ES) team, an international group of astronomers that has been on a quest to refine the accuracy of the Hubble Constant since 2005. The group is led by Adam Reiss of the Space Telescope Science Institute (STScI) and Johns Hopkins University, and includes members from the American Museum of Natural History, the Neils Bohr Institute, the National Optical Astronomy Observatory, and many prestigious universities and research institutions.

Illustration of the depth by which Hubble imaged galaxies in prior Deep Field initiatives, in units of the Age of the Universe. Credit: NASA and A. Feild (STScI)

The study which describes their findings recently appeared in The Astrophysical Journal under the title “Type Ia Supernova Distances at Redshift >1.5 from the Le télescope spatial Hubble Multi-cycle Treasury Programs: The Early Expansion Rate“. For the sake of their study, and consistent with their long term goals, the team sought to construct a new and more accurate “distance ladder”.

This tool is how astronomers have traditionally measured distances in the Universe, which consists of relying on distance markers like Cepheid variables – pulsating stars whose distances can be inferred by comparing their intrinsic brightness with their apparent brightness. These measurements are then compared to the way light from distance galaxies is redshifted to determine how fast the space between galaxies is expanding.

From this, the Hubble Constant is derived. To build their distant ladder, Riess and his team conducted parallax measurements using Hubble’s Wide Field Camera 3 (WFC3) of eight newly-analyzed Cepheid variable stars in the Milky Way. These stars are about 10 times farther away than any studied previously – between 6,000 and 12,000 light-year from Earth – and pulsate at longer intervals.

To ensure accuracy that would account for the wobbles of these stars, the team also developed a new method where Hubble would measure a star’s position a thousand times a minute every six months for four years. The team then compared the brightness of these eight stars with more distant Cepheids to ensure that they could calculate the distances to other galaxies with more precision.

Illustration showing three steps astronomers used to measure the universe’s expansion rate (Hubble constant) to an unprecedented accuracy, reducing the total uncertainty to 2.3 percent. Credits: NASA/ESA/A. Feild (STScI)/and A. Riess (STScI/JHU)

Using the new technique, Hubble was able to capture the change in position of these stars relative to others, which simplified things immensely. As Riess explained in a NASA press release:

“This method allows for repeated opportunities to measure the extremely tiny displacements due to parallax. You’re measuring the separation between two stars, not just in one place on the camera, but over and over thousands of times, reducing the errors in measurement.”

Compared to previous surveys, the team was able to extend the number of stars analyzed to distances up to 10 times farther. However, their results also contradicted those obtained by the European Space Agency’s (ESA) Planck satellite, which has been measuring the Cosmic Microwave Background (CMB) – the leftover radiation created by the Big Bang – since it was deployed in 2009.

By mapping the CMB, Planck has been able to trace the expansion of the cosmos during the early Universe – circa. 378,000 years after the Big Bang. Planck’s result predicted that the Hubble constant value should now be 67 kilometers per second per megaparsec (3.3 million light-years), and could be no higher than 69 kilometers per second per megaparsec.

The Big Bang timeline of the Universe. Cosmic neutrinos affect the CMB at the time it was emitted, and physics takes care of the rest of their evolution until today. Credit: NASA/JPL-Caltech/A. Kashlinsky (GSFC).

Based on their sruvey, Riess’s team obtained a value of 73 kilometers per second per megaparsec, a discrepancy of 9%. Essentially, their results indicate that galaxies are moving at a faster rate than that implied by observations of the early Universe. Because the Hubble data was so precise, astronomers cannot dismiss the gap between the two results as errors in any single measurement or method. As Reiss explained:

“The community is really grappling with understanding the meaning of this discrepancy… Both results have been tested multiple ways, so barring a series of unrelated mistakes. it is increasingly likely that this is not a bug but a feature of the universe.”

These latest results therefore suggest that some previously unknown force or some new physics might be at work in the Universe. In terms of explanations, Reiss and his team have offered three possibilities, all of which have to do with the 95% of the Universe that we cannot see (i.e. dark matter and dark energy). In 2011, Reiss and two other scientists were awarded the Nobel Prize in Physics for their 1998 discovery that the Universe was in an accelerated rate of expansion.

Consistent with that, they suggest that Dark Energy could be pushing galaxies apart with increasing strength. Another possibility is that there is an undiscovered subatomic particle out there that is similar to a neutrino, but interacts with normal matter by gravity instead of subatomic forces. These “sterile neutrinos” would travel at close to the speed of light and could collectively be known as “dark radiation”.

This illustration shows the evolution of the Universe, from the Big Bang on the left, to modern times on the right. Crédit : NASA

Any of these possibilities would mean that the contents of the early Universe were different, thus forcing a rethink of our cosmological models. At present, Riess and colleagues don’t have any answers, but plan to continue fine-tuning their measurements. So far, the SHoES team has decreased the uncertainty of the Hubble Constant to 2.3%.

This is in keeping with one of the central goals of the Hubble Space Telescope, which was to help reduce the uncertainty value in Hubble’s Constant, for which estimates once varied by a factor of 2.

So while this discrepancy opens the door to new and challenging questions, it also reduces our uncertainty substantially when it comes to measuring the Universe. Ultimately, this will improve our understanding of how the Universe evolved after it was created in a fiery cataclysm 13.8 billion years ago.


Deconstruction of Big Bang model (III)

Radio telescopes can see through the dust and observe the rare, bright starburst galaxies, but until now have not been sensitive enough to detect the signals from distant Milky Way-like galaxies that are responsible for most of the star formation in the universe. These are distant galaxies like our own that have never been observed in radio light before.

The problem (of Big Bang theory) is, galaxies need at least three billions years for development of their flat shape - so how populous such a mature galaxies should be in allegedly one billion year old Universe?

"Dark Ages" of the Universe relates to potential time anomaly of the recent cosmology . Between the decoupling of CMB radiation from matter and the formation of stars there should have been a "Dark Ages" during which there was only neutral hydrogen. Star formation generated radiation at energies high enough to ionize hydrogen and the ionized interstellar gas started to produce radiation.

The 21 cm line of neutral hydrogen serves as a signature of neutral hydrogen. This line is redshifted and from the lower bound for the redshift one can deduce the time when "Dark Ages" ended. Recent study using Murchison Widefield Array (MWA) radio telescope by Jonathan Pober and collaborators gave an unexpected result. Only a new lower upper bound for this redshift emerged: the upper bound corresponds to about 2 meters. The conclusion of the experiments is still optimistic: soon the upper bound for the redshift should be brought to light.

In dense aether model the Universe is steady state, all indicia for dark ages should thus remain unobservable.

Plastic microbeads dropped into a container of salt water topped with less dense fresh water are pulled down by the force of gravity and thrust upward by buoyancy. As they hang suspended, the interplay between buoyancy and diffusion -- acting to balance out the concentration gradient of salt -- creates flows around the microbeads, causing them to slowly move. Rather than moving randomly, however, they clump together, solving their own jigsaw-like puzzles. As the clusters grow, the fluid force increases.

Like so many discoveries, this one began accidentally. A graduate student intended to show a favorite parlor trick -- how spheres dumped into a tank of salt water will "bounce" on their way to the bottom, as long as the fluid is uniformly stratified by density. But the student in charge of the experiment made an error in setting up the density of the lower fluid. The spheres bounced and then hung there, submerged but not sinking to the bottom.

Original study Interesting mechanism and study, but seriously doubt that this mechanism could apply in wider extent across termohaline gradient of sea, where the gradients of salts remain rather low and turbulence large. BTW Because dark matter also behaves like fluid in certain extent, its gradients could promote planetogenesis from interstellar gas. Voir également:

Planet Formation? It’s a Drag The way worlds form from dust may also explain other phenomena throughout the universe—and right here on Earth

New study sheds new light on planet formation planets might form much faster than previously thought or, alternatively, that stars harboring planets could be far more numerous.

Both existing planet, both galaxy formation models are currently based on accretion paradigm, i.e. top to bottom model (planetesimals accretion model in particular) - but there is rising evidence for time reversed bottom to top scenario of gradual condensation of sparse dust clouds to gradually bigger particles similar to flocculation of sediments. BTW the similar paradigm shift based on horizontal gene transfer rather than top-to bottom phylogenesis is also lurking in evolutionary sciences: actually the more, the more organisms get primitive 1, 2, 3, 4.

Rather than moving randomly, however, they clump together, solving their own jigsaw-like puzzles. As the clusters grow, the fluid force increases.

My ideas here are condensing from widespread information basis under gradient of gradually growing body of evidence and they gradually getting coherent like pieces of jigsaw-like puzzle as well. I'm just retyping them here again and again and polishing their logical structure each time during this. So maybe the above fluid based mechanism isn't so different from the way, in which theories of protoscience gradually condense from widespread ideas and seemingly unrelated facts.

In the times of information explosion where pieces of information are subtle but abundant this bottom-up approach can get more effective, than waiting for reliable evidence, as mainstream science is practising right now because of its occupational driven attitude (which has nowhere to hurry, until money are going). Note also that this approach favours elderly persons, who already have wider life-experience basis rather than youngsters who are still forced to rely on established paradigms and thus they paradoxically become more conservative than elderly chaps.

Massive Gas Disk Raises Questions about Planet Formation Theory The star, called 49 Ceti, is 40 million years old and conventional theories of planet formation predict that the gas should have disappeared by that age. The enigmatically large amount of gas requests a reconsideration of our current understanding of planet formation.

Mainstream astronomy adheres on determinist "top to bottom" model of formation of massive bodies, starting with Universe (Lamaitre's "primordial atom"), formation of galaxies by accretion and finally formation of planets by gradual accretion of material from protoplanetary disk to planetesimals. But there is growing body of evidence for time reversed bottom to top scenario, which merely resembles gradual coalescence of sparse clouds into more dense ones. This mechanism can explain easier Titius Bode law, tilt of planets and another geometric aspects of both galaxies both planetary systems. Voir également:

Deconstruction of Big Bang model 1, 2, 3

No Dark Energy? No Chance, Cosmologists Contend A recent study claimed to find no evidence of dark energy. Then a rebuttal appeared. Then a rebuttal of the rebuttal, but that was met by general dismissal. Resume: Cosmologists still think dark energy exists. It's worth to note, that "confirmation" of dark energy got Nobel prize relatively recently in 2011. It's refusal would also imply one of fastest emerging Nobel prize controversies. Voir également:

In dense aether model Universe is random and steady-state, Hubble red shift is the result of scattering of light on quantum fluctuations of vacuum. This scattering is non-linear though, because scattered light is long-wavelength and prone to scattering even more. It leads to the avalanche-like absorption of light at sufficient distance from any observer of Universe, which is currently known as a particle horizon of Universe and its dual analogy of event horizon of black holes. From this reason dark energy should be observable even in dense aether model, because the dark energy is currently interpreted as this accelerated scattering ("accelerated expansion of space-time").

For measurement of the speed of Universe expansion currently two methods are employed, measurements of frequency of microwave background of Universe (CMBR) and red shift observed with supernovae and these two values differ each other, because on scattering of light participates also dark matter around all massive objects, including these supernovae. Universe looks in their light as expanding faster than in light of microwave background. At distance the long-wavelength portion of light applies more, which renders dark matter more transparent and its effect less pronounced (dark matter is relatively "missing" in distant "early" Universe), which makes acceleration of red shift measured by supernovae less prominent.

In the light of CMBR Universe appears expanding slower than in the light of supernovae, but its expansion accelerates faster and vice-versa. Both type of observations thus have their truth and because they're both quantum fluctuations based, they can also serve as an example of multiple-histories interpretation of quantum mechanics, albeit very subtle.

New evidence shows that the key assumption made in the discovery of dark energy is in error Last month a new analysis of the supernova data showed they can be explained without dark energy. However, that new analysis of the supernova data was swiftly criticized by another group. This criticism did not make much sense because they picked on the use of the coordinate system, which was basically the whole point of the original analysis. Il y avait another paper just a few days ago that claimed that actually supernovae are not very good standards for standard candles, and that indeed their luminosity might just depend on the average age of the star that goes supernova. In any case, the authors of the original paper then debunked the criticism. And that is still the status today:

The most direct and strongest evidence for the accelerating universe with dark energy is provided by the distance measurements using type Ia supernovae (SN Ia) for the galaxies at high redshift. This result is based on the assumption that the corrected luminosity of SN Ia through the empirical standardization would not evolve with redshift. New observations and analysis made by a team of astronomers at Yonsei University (Seoul, South Korea), together with their collaborators at Lyon University and KASI, show, however, that this key assumption is most likely in error. The team has performed very high-quality (signal-to-noise ratio

175) spectroscopic observations to cover most of the reported nearby early-type host galaxies of SN Ia, from which they obtained the most direct and reliable measurements of population ages for these host galaxies.

They find a significant correlation between SN luminosité and stellar population age at a 99.5 percent confidence level. As such, this is the most direct and stringent test ever made for the luminosity evolution of SN Ia. Since SN progenitors in host galaxies are getting younger with redshift (look-back time), this result inevitably indicates a serious systematic bias with redshift in SN cosmology. Taken at face values, the luminosity evolution of SN is significant enough to question the very existence of énergie noire. When the luminosity evolution of SN is properly taken into account, the team found that the evidence for the existence of dark énergie simply goes away (see Figure 1).

Note that dark energy observation got Nobel Prize in 2011. Commenting on the result, Prof. Young-Wook Lee (Yonsei Univ., Seoul), who led the project said,

"Quoting Carl Sagan, extraordinary claims require extraordinary evidence, but I am not sure we have such extraordinary evidence for dark energy. Our result illustrates that dark energy from SN cosmology, which led to the 2011 Nobel Prize in Physics, might be an artifact of a fragile and false assumption." See also:

Deconstruction of Big Bang model 1, 2, 3

In dense aether model dark energy observations are real and consistent with Friedman's models based on general relativity (which is why they're non-critically pushed and awarded by mainstream science agenda). But because Universe is static, it doesn't manifest by accelerated red shift of massive bodies, only by increased rate of CMBR scattering: light gets scattered to a longer wavelengths, which are susceptible to further scattering even more until avalanche like breakdown occurs at particle horizon of Universe.

Being only optical effect of vacuum environment, massive bodies and their perceived expansion and location (as measured by their relative luminosity) shouldn't get affected with dark energy. Actually in static aether Universe model the more distant objects should get gradually brighter with distance, because their distant images get also blurred with light scattering. In this way (Tolmann's surface brightness test) both expanding Universe model, both steady state one can be easilly distinguished and falsified against each other. After all the years, Edwin's Hubble doubt about the reality of (Universe) expansion remains as valid as Sandage's certainty expressed in a series of papers in the last decade.

As I explained many times here 1, 2, 3, 4, 5, 6, 7, Hubble constant discrepancy could be solved easily by considering light dispersion on dark matter widespread in cosmic space - but it would imply return to tired light hypothesis, which contemporary cosmology avoids like devil the cross.. See also:

Deconstruction of Big Bang model 1, 2, 3

An equation describing a one-dimensional model for the freezing of lakes is shown to be formally analogous to the Friedmann equation of cosmology. The analogy is developed and used to speculate on the change between two hypothetical “spacetime phases” in the early universe.

Concepts of false vacuum and its cosmological phase transform is remarkably "dense aetherish": Inflation can be really interpreted from extrinsic perspective of hyperfast space-time expansion like fast freezing of false vacuum, which would prominently slow-down the energy/light spreading across it thus making it "expanded" for intrinsic observers of this transform.

Except that this perspective is actually stationary: if we observe fast expansion in distant areas of universe, it just means we are living inside stationary black hole and particle horizon forms its outer surface of it. After then the false vacuum would simply form static exterior of our local Universe. The scientists still have understand geometric perspective of their formal models, in which they're alternating intrinsic and extrinsic perspectives arbitrarily.

From implicate topology actually follows such a logical confusion of observational perspectives is actually necessary for to have quantitative predicative power of theory: the formal and nonformal logics are thus in 1-1/N entropic duality (formalism of math is based on congruent validity of multitude logical postulates). One cannot remain exact and logically consistent at the same moment once formal derivations depend on finite number of axioms (Peano algebra, etc.).

New Wrinkle Added to Cosmology’s Hubble Crisis When cosmologists extrapolate data from the early universe to predict what the cosmos should be like now, they predict a relatively slow cosmic expansion rate. When they directly measure the speed at which astronomical objects are hurtling away from us, they find that space is expanding about 9% faster than the prediction. Two independent measurements of the universe’s expansion give incompatible answers.

Now a third method, advanced by an astronomy pioneer, appears to bridge the divide. A new line of evidence, first announced last summer, suggests that the cosmic expansion rate may fall much closer to the rate predicted by early-universe measurements and the standard theory of cosmology. Using these “tip of the red giant branch” (TRGB) stars, Wendy Freedman and her team arrived at a significantly lower Hubble rate than other observers.

Although Freedman is known for her careful and innovative work, some researchers pushed back on her methods after she introduced the result last summer. They argued that her team used outdated data for part of their analysis and an unfamiliar calibration technique. The critics thought that if Freedman’s team used newer data, their Hubble value would increase and come in line with other astronomical probes.

It did not. Dans a paper posted online on February 5 and accepted for publication in The Astrophysical Journal, Freedman’s team described their analysis of TRGB stars in detail, summarized their consistency checks, and responded to critiques. The new paper reports an even slower cosmic expansion rate than last summer’s result, a tad closer to the early-universe rate. The more up-to-date data that critics thought would increase Freedman’s Hubble value had the opposite effect. “It made it go down,” she said.

Tip of the red-giant branch (TRGB) is a primary distance indicator used in astronomy. It uses the luminosity of the brightest red-giant-branch stars in a galaxy as a standard candle to gauge the distance to that galaxy. TRGB stars on Hertzsprung–Russell diagram are stars that have just run out of hydrogen and started to burn helium. For a star with less than 1.8 times the mass of the Sun, this may occur in a process called the helium flash and establishing a new thermal equilibrium. The result is a sharp discontinuity in the evolutionary track of the star on the HR diagram called the tip of the red-giant branch. All stars that reach this point have an identical helium core mass of almost 0.5 M☉, and very similar stellar luminosity and temperature, especially in infrared spectrum insensitive to heavier elements.

TRGB stars come most frequently in large, diffuse and unusually luminous globular clusters, which also exhibit very low dark matter content. And this is IMO just the explanation of their low Hubble constant mystery. Dark matter actually suppresses population of TRGB stars (within galactic bulges for example) quite effectively as it slows down burning of hydrogen up to level, helium flash never occurs for stars, as they radiate most their matter well before it.

Mainstream cosmology ignored tired light theory from ideological reasons long time and now it faces uncomfortable fact, that at least substantial portion of red shift is caused with interstellar dark matter. It will be interesting to watch, how its propaganda will cope with this situation by now. Voir également:


Voir la vidéo: Raphaël Enthoven: Liberté Égalité Fraternité, quelle est la valeur de nos valeurs? (Janvier 2022).