Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

Science - Page 2

  • Le vaccinal (Michel Dogna)


    Le Vaccinal
    Le dernier ouvrage de Michel Dogna et Anne Françoise L’Hôte
    Un pavé dans la mare des omertas

    Pasteur, référence du dogme vaccinal


    Non "le bon docteur Louis Pasteur" que nous avons tous trouvé dans nos livres scolaires comme étant le sauveur de millions petits enfants, n’est pas celui que l’on nous a présenté. Pour des raisons politiques, culturelles ou affairistes, l’histoire a souvent abusé de la crédulité confiante et perméable des enfants ; lorsque plus tard ils deviennent parents, ils transmettent en toute bonne conscience leur formatage dans la tête de leurs progénitures.
    C’est ainsi que de multiples grands mensonges ont pu de générations en générations traverser des siècles, les quelques troublions sceptiques étant toujours jetés aux ordures ou punis. De fait, il est clair que relativement peu d’individus arrivent à s’extirper de l’éducation et coutumes de leur enfance. Heureusement, il y a de nos jours (grâce surtout à Internet) de plus en plus de dérangeurs de la pensée collective qui mènent des enquêtes indiscrètes les autorisant à jeter des pavés dans la mare des grands mensonges…
    Mais revenons à notre "bon docteur Pasteur" - D’abord, Pasteur n’était pas médecin mais chimiste – il n’a jamais soigné des malades, mais seulement effectué des expérimentations sur des malades… et aussi des bien portants.
    Mieux ces expérimentations n’ont la plupart du temps abouti à rien, sauf celles qu’il a volées à de vrais chercheurs discrets tels Toussant, Davaine, Galtier, Dubouet, Roux, et surtout Béchamp, pour les reprendre à son nom après les avoir traîné dans la boue. L’on devrait remplacer toutes les rues Pasteur par des rues Béchamp - le grand Béchamp, témoins gênant des incessantes erreurs de Pasteur.
    Mais Louis Pasteur était un remarquable tribun capable de confondre publiquement tous ses adversaires, sans compter son tempérament colérique bien connu et ses hautes relations qui le faisaient redouter.


    Le dilemme entre deux sources historiques


    La première, seule officielle que l’on nous a servi à l’école est l’autobiographie que Pasteur a fait de lui-même, rédigée par son gendre Valléry Ragot, se présentant comme un héros ainsi qu’il savait si bien faire devant l’académie des sciences où il attribuait toujours ses erreurs passées à ses adversaires, après s’être approprié leurs idées et leurs découvertes.
    La seconde, c’est Jean Rostand qui, ayant eu en mains une partie des œuvres de Davaine en 1948, eut l’initiative "audacieuse" de remettre en question la paternité légendaire de Pasteur sur l’origine microbienne des maladies infectieuses (voir Hommes de vérité, 2ème série). Aussi confia-t-il à un jeune zoologiste passionné d’histoire des sciences, nommé Jean Théodoridès, la mission d’approfondir l’œuvre de Davaine. Ce passionnant travail amena Théodoridès à entrer en contact avec un excellent historien des sciences, médecin retraité dans le Limousin, le Dr Léon Delhoume. Celui-ci avait rédigé trois volumes importants sur les vies de Dupuytren, Cruveilhier, d’Arsonval, mais surtout sur les œuvres inédites de Claude Bernard, d’une remarquable érudition.
    Sur la base de quels documents Delhoume avait-il travaillé ? D’Arsonval avait été le dernier assistant de Claude Bernard. Celui-ci, victime à 65 ans d’une maladie aiguë mortelle, consterné de ne pouvoir finir son œuvre, confia avant de mourir à ses intimes : "Pasteur s’est trompé". Puis il missionna D’Arsonval, alors âgé de 26 ans, pour faire publier ses travaux, hélas inachevés. Très impressionné, D’Arsonval préféra déléguer le grand chimiste Berthelot qui, derechef, fit effectuer une publication à l’Académie des sciences. Mais Pasteur entra dans une fureur démente, et le jeune D’Arsonval, effrayé, n’osa plus jamais rien communiquer. C’est ce qui explique la rétention de 50 années du dossier Claude Bernard, jusqu’à ce que D’Arsonval se décide enfin à le communiquer au Dr Delhoume, historien.
    Philippe Decourt, membre de l’Académie internationale d’histoire de la médecine, et ami de Théodoridès, rendait régulièrement visite au Dr Delhoume. C’est ainsi qu’un jour, il se vit remettre en mains propres par le docteur un ouvrage intitulé : "Béchamp ou Pasteur ?" avec, en sous-titre : "Un chapitre perdu de l’histoire de la biologie". Delhoume lui confia : "Je suis maintenant trop vieux. Vous devriez voir cela de plus près." Ce livre avait été rédigé par une Anglaise, sur les notes d’un médecin américain, ami personnel de Béchamp, puis traduit en français en 1948 aux Éditions Le François.
    Philippe Decourt écrira ensuite : "Ce que je constatais à la lecture des documents me stupéfia. Ma stupéfaction augmenta encore quand j’étudiai peu à peu les autres découvertes que l’on attribue à Pasteur. La réalité est tout à fait différente de la légende. On avait créé un mythe que l’on répétait sans rien vérifier. Nous étions victimes d’une immense supercherie."


    Exemples de faits précis


    ¤ La très célèbre expérience de Pouilly-le-fort où 60 moutons furent infestés par un bouillon charbonneux après avoir reçu le nouveau vaccin de Pasteur, ne fut un succès total que par l’intervention discrète de ses assistants Roux et Chamberland qui avaient rajouté au vaccin du bichromate de potassium selon la méthode de Toussant. Les italiens qui voulurent reproduire l’expérience essuyèrent une hécatombe. Pasteur se contenta de leur dire qu’ils n’avaient pas respecté ses consignes.
    ¤ L’imposture du vaccin de la rage
    Le cas de Joseph Meister, garçon de 9 ans mordu par un chien méchant a reçu le vaccin expérimental de pasteur – le chien fut abattu et déclaré enragé. Le garçon n’eut aucune séquelle ce qui fut l’objet d’une grande publicité, sauf que selon le Dr De Brouwer l’on n’a pas dit que cinq personnes avaient été précédemment mordues par ce même animal et n’ont présenté aucun problème (sans le vaccin) – le chien n’était donc pas enragé !
    Le cas Jupille mordu par un chien dit enragé le 20 octobre 1885 qui reçut le vaccin de Pasteur. Le 27 octobre, Pasteur déclarait sa victoire à l’académie alors qu’il faut attendre 15 jours pour que s’installe l’immunité bactérienne. Quel manque de probité intellectuelle ! Philippe Decourt rapporte :
    "Le chien en question était un Berger picard réputé jamais méchant. Et c’est Jupille qui, accompagné de 6 enfants, a attaqué avec un fouet ce chien qui aboyait simplement. Le chien s’est défendu et a mordu Jupille à la main gauche. Jupille, selon les propres mots de Pasteur, se battit ensuite avec le chien, le ligota et le noya (on se demande qui était le plus enragé)."
    Les prétendus résultats de la vaccination de Jupille n’ont donc aucune valeur scientifique et il est étonnant de constater que les trois académies se soient laissées aussi facilement abuser devant des faits aussi aléatoires. Toujours est-il que les revues scientifiques à grand tirage, en français et en anglais, répercutèrent le spot publicitaire et que le Tout-Paris délira complètement sur les prouesses médicales de Pasteur. Des milliers de personnes mordues (par des chiens non enragés) affluèrent à l’Institut Pasteur.
    ¤ Quelques autres impostures en vrac
    Une avalanche de découvertes microbiennes ont pu être réalisées sur les bases des travaux de Davaine et non de Pasteur. Contrairement à ce que l’on croit habituellement, les vaccins actuels n’ont pas été créés à partir des travaux de Pasteur, mais par Toussaint, professeur à l’École vétérinaire de Toulouse.
    En l’occurrence, le vaccin atténué du charbon a été volé à Toussaint - le vaccin atténué du cholera des poules, lui aussi, encore volé à Toussaint.
    Ses trois méthodes d’atténuation bactérienne d’abord dénigrées par Pasteur et plus tard reprises à son compte, étaient les suivantes :
    – chauffage de la matière virulente à 55 °,
    – grande dilution,
    – action d’un antiseptique (acide phénique ou bichromate de potassium).
    (Ces sujets ainsi que beaucoup d’autres sont développés dans "Le crime vaccinal", version e-book aux Editions Irélia : www.irelia-editions.com, version papier ici : www.lesbrossesadents.fr/michel-dogna-crime-vaccinal.html )
    Le fait de se tromper régulièrement n’a pas empêché Pasteur de se mettre en avant partout avec un énorme sens de la publicité, et de se faire grassement pensionner par la cour de Napoléon III qu’il courtisait assidûment pour des travaux sur la maladie du ver à soie… qui n’ont en outre jamais abouti.
    Pendant ce temps il n’a jamais cessé de traîner dans la boue le témoin le plus gênant de sa médiocrité, Antoine Béchamp qui malheureusement vaincu a fini sa vie dans la misère et la solitude.
    En conclusion selon les paroles de Philippe Decourt, la réalité de Pasteur fut celle d’un chimiste médiocre, mégalomane, arriviste, tricheur, arrogant, menteur, buté, coléreux redouté, voleur d’idées, prêt à toutes les bassesses pour décrocher la gloire – bref un redoutable imposteur qui fut dénommé : "le Staline de la médecine"


    Le titre "Crime Vaccinal" est-il exagéré ?


    Evidemment, dans l’ambiance générale sous le contrôle de la "police de la pensée", l’on pourrait avoir l’impression de donner dans un blasphème équivalent à cracher sur la bible. Pourtant, combien savent que plus de 40 ouvrages en français et de 200 en anglais dénoncent, certains depuis près d’un siècle, les multiples catastrophes vaccinales dans le monde – ceci à l’appui de statistiques très au-dessous de la réalité puisque l’on compte que seulement 10% des victimes ont fait un rapprochement avec les vaccins reçus.


    Connaissez-vous l’histoire réelle de la grippe espagnole de 1918 ?


    Elle a été dévoilée par le Dr L. DAY, MD., ex-chirurgien en chef du grand hôpital de San Francisco et professeur en faculté de médecine. Voici ce qu’il raconte :
    "Comme la première guerre mondiale n’a pas duré de longues années, les fabricants de vaccins n’ont pas pu vendre toutes leurs nouvelles productions à l’armée. Cherchant essentiellement le profit, ils décidèrent de vendre leurs stocks à la population. C’est ainsi qu’ils ont battu le rappel et lancé la plus grande campagne de vaccinations que les Etats-Unis n’aient jamais connue au cours de leur histoire. Il n’y avait cependant alors aucune épidémie pour justifier ces mesures. Ils ont alors imaginé une stratégie. Leur propagande prétendait que les soldats qui rentraient de l’étranger étaient atteints de toutes sortes de maladies et qu'il était un devoir pour chacun d'entre eux de se faire inoculer tous les vaccins qui étaient alors sur le marché…
    La grippe espagnole n’a donc d’espagnole que le nom ; mortelle en 3 jours, elle a fait entre 25 et 35 millions de morts dans le monde. Les premiers cas de l’épidémie ont été détectés en février 1918 dans des camps militaires aux U.S.A en Caroline du Sud, et non pas en Chine - et encore moins en Espagne !"
    Aucune guerre n’a fait autant de morts en si peu de temps


    Voici quelques rappels sélectionnés dont on ne parle jamais


    En 1957, The New York Times a signalé que près de 50% des cas de polio chez des enfants âgés de 5 à 14 ans se produisaient chez des enfants qui avaient été vaccinés contre la polio (!!!).
    En 1972, au cours d’une audition devant le Sous Comité du Sénat, l’inventeur du vaccin anti polio, Jonas Salk, devait témoigner que presque toutes les poussées de polio depuis 1961 étaient le résultat ou avaient été provoquées par le vaccin polio oral (le vaccin qui donne la maladie…).
    En 1976, The Lancet a signalé que les vaccins ne protégeaient pas contre la coqueluche et que près d’un tiers des personnes qui avaient fait une coqueluche avaient bel et bien été complètement vaccinées… (l’efficacité avait été scientifiquement prouvée !).
    En 1977, la revue Science a signalé que 26% des enfants qui recevaient la vaccination contre la rubéole développaient de l’arthrite.
    1/50 : c’est le taux d’autisme actuellement chez les enfants aux USA; il était de 1 sur 25 000 dans les années 70, de 1 sur 2500 dans les années 80 et de 1 sur 250 dans les années 90.
    49 : c’est le nombre de doses de 14 vaccins que les jeunes Américains ont reçu après avoir atteint l’âge de 6 ans, contre 36 doses de 10 vaccins administrés aux enfants belges jusqu’à leurs 6ème année.
    21% : c’est le pourcentage des enfants américains (les plus vaccinés du monde) qui souffrent de handicaps mentaux et neurologiques à des degrés divers et + de 50% d’entre eux souffrent de maladies chroniques !
    34.240 : c’est le nombre d’effets secondaires rapportés aux USA avec les vaccins HPV jusque fin mars 2014 dont 162 décès, 11.428 visites aux urgences, 4.732 effets graves et 1.093 jeunes filles handicapées.
    Nota : Je parle toujours des USA par la force des choses, puisqu’en France on n’arrive à rien savoir.
    Qui connaît la composition réelle des vaccins ?
    ¤ De l'hydroxyde d'aluminium : 650 microgrammes par vaccin alors qu’il est admis que 60 microgrammes par litre de sang est dangereusement toxique pour la cellule nerveuse (Concours Médical, février 1997). Ce sel attaque le cerveau et peut entraîner autisme, chorée, Alzheimer, Creutzfeldt-Jakob.
    ¤ Des sels de mercure (thiomersal) dont l’extrême dangerosité neurologique a été officialisée par la FDA américaine depuis 1997. Chaque nouveau vaccin cumule les doses d’une façon irréversible.
    ¤ Des virus OGM (vaccins viraux) obtenus à partir de matériel génétique séquentiel du SV40, précurseur du HIV, et que l’on retrouve dans de nombreux cancers du cerveau et mésothéliomes.
    ¤ Du sérum de veau fœtal (liquide nutritif) alors que tout extrait d’origine bovine est strictement interdit dans tout médicament depuis 1994.
    ¤ De l’enzyme Tdt, dangereux mutagène reconnu.
    ¤ Du formaldéhyde - interdit dans les jouets….mais autorisé dans les vaccins.
    ¤ Du borate de sodium (mort aux rats) dans le Gardasil (!!!).
    ¤ Du Squalène MF 59 responsable du syndrome des soldats US de l’Irak.
    Mais il y a aussi des difficilement détectables qui sont :
    ¤ des nanotechnologies pour programmer le cerveau entre autres.
    Nota :
    – Le BCG est toujours cultivé sur de la bile de bœuf (méthode Calmette et Guérin) au mépris de toute réglementation et des mesures de précautions actuelles concernant la vache folle.
    – La plupart des médecins ne sont aucunement informés de toutes ces infractions graves à la fois légales et sanitaires, le Vidal n’en faisant pas mention.
    – Chaque nouveau vaccin intoxique et fragilise un peu plus votre enfant pour toute une vie et peut-être même ses descendants.
    – Le scandale de l’hépatite B n’est que l’arbre qui cache la forêt. Il est clair que nous devons refuser toute vaccination sur nos enfants ainsi que sur nous-mêmes tant que les fabricants de vaccins n’auront pas clarifié leur fabrication.
    – Enfin, la nouvelle mode des cocktails pentavalents et hexavalents appliqués sur les enfants amène une véritable déflagration au sein du système immunitaire ! C’est catastrophique !
    - Selon l'étude KIGGS, on relève 2% d'effets secondaires GRAVES repérés en relation directe avec des vaccins - concrètement, cela signifie que quand on vaccine 40 MILLIONS d’individus, il y a au moins 800 000 effets collatéraux graves... sans compter le reste !


    Conclusion


    Un certain nombre de pays ne connaissent aucune obligation vaccinale, et c’est justement chez eux que les épidémies ont régressé le plus vite.

    La sagesse est sans aucun doute que le meilleur moyen pour échapper aux épidémies est de veiller à entretenir et renforcer nos défenses immunitaires par des moyens naturels que les plantes nous offrent depuis la nuit des temps, mais que l’on nous a amené à ignorer pour des raisons bassement mercantiles.


    Alors que tous les animaux, même craintifs deviennent agressifs quand ils veillent sur leurs progénitures, il semble qu’une grande partie du genre humain y fasse exception, et semble avoir perdu l’instinct de conservation, laissant la place à la peur qui est très mauvaise conseillère.
    L’ignorance n’a plus d’excuse à notre époque, mais elle est pratique pour une majorité, parce qu’elle dispense de la responsabilité.

     

  • L'espace temps flexible...

    Si vous avez déja réfléchi à la question ,

    Philippe Guillemant précise ici sa vision du monde non déterministe...

    Futur déja réalisé compatible avec le libre-arbitre.

    Espace-temps flexible, fluide.

    Je l'ai toujours ressenti comme ça personnellement. :o) 

    Un destin automatique (déterminé) mais dont on peut se libérer (par la prise de conscience et la spiritualité).

    Comme la respiration naturellement inconsciente mais dont on peut prendre le contrôle en en prenant conscience.

  • Flyboard


    Franky Zapata,  né le 27 septembre 1978 à Marseille, est un pilote professionnel français de motomarines (jet ski) reconverti dans les affaires et inventeur du Flyboard.

    Après 2012, tous les efforts de Zapata se sont concentrés sur le développement et la fabrication du Flyboard.

     

    En avril 2016, Zapata présente le Flyboard Air, un appareil propulsé par quatre micros turboréacteurs et capable d'emporter son pilote pour des vols de plusieurs minutes

     

    son site

  • Repenser la réalité

    Repenser notre vision de la réalité pour découvrir le potentiel de notre conscience: conférence de Philippe Guillemant à Eygalades le 14 octobre 2018.

  • Instant Zéro

    Autre article tiré du blog de ZEVENGEUR sur l'instant Zéro du Big-Bang.

    Les physiciens n'ont adopté l'idée d'un univers en expansion que depuis 1929.

                                                                          ***

    Instant zéro, le plus grand mystère de l’Univers

    Télécharger l’article en PDF : PDF_logo

    Les observations ont montré que l’Univers n’était pas statique et que ce dernier évoluait au cours du temps dans le sens d’une dilatation. Une branche de l’astronomie appelée cosmologie [1] a donc été développée afin d’étudier son histoire.

    Cette discipline a permis de remonter dans le passé sur une durée de 13.7 Milliards d’années.
    A cette époque, l’Univers occupait un volume très réduit et était constitué de rayonnements pratiquement purs autrement dit il ressemblait à un océan de photons, tout ceci à très haute énergie car la température avoisinait les 1 500 milliards de degrés ! [2]
    A l’heure actuelle, nous continuons à baigner dans cet océan même si ce dernier a perdu presque toute son énergie lors de l’expansion de l’Univers. Il s’agit du fameux rayonnement cosmologique fossile.

    La question qui se pose est alors assez simple à formuler.
    En remontant le temps jusqu’à cette période, nous serions en présence d’un point de départ hypothétique de l’Univers que l’on pourrait appeler « instant zéro ».

    Or, ce fameux instant zéro pose un énorme problème conceptuel, en effet, ce dernier est-il issu d’un état antérieur (*) – hypothèse de l’immanence- ou alors est-il apparu « d’un seul coup » à partir d’un néant complet -hypothèse transcendante- [3] ?

    (*) En notant que cette formulation fait l’hypothèse qu’il existerait une sorte de temps absolu indépendant des particules qui s’agitent à la vitesse de la lumière.

     

    De la cosmogonie à la cosmologie

    L’astronomie ou science de l’observation des étoiles est âgée de plus de 5000 ans. C’est sans doute l’une des plus anciennes disciplines de la recherche humaine, cette dernière consiste à tenter de comprendre les mécanismes du fonctionnement des astres observés dans le ciel.
    De nombreuses cosmogonies naïves, la plupart du temps reliées aux religions, ont été établies au fil du temps. On trouve par exemple l’idée selon laquelle notre planète serait plate et portée sur le dos d’une tortue géante ou la croyance au créationnisme d’une terre étant apparue voici 6000 ans à l’aide d’un coup de baguette magique provoqué par un dénommé « Dieu » (cette croyance reste cependant muette sur l’origine de ce dernier) !

    Religion débile

    Cependant, la notion d’histoire de l’Univers avec un début et peut être une fin est récente. En effet, après la révolution Copernicienne les premières hypothèses scientifiques sérieuses furent basées sur un Univers infini et immobile, autrement dit statique.

    Cette vision a perduré jusque dans les années 1930, elle fut même partagée par Einstein durant le développement de sa théorie de la Relativité Générale (RG).
    Après avoir relié l’espace et le temps en un seul bloc, ce dernier établit sa fameuse équation qui modélise comment la matière/énergie modifie la géométrie de l’espace-temps.
    À l’instar de ses contemporains, Einstein croyait en un Univers statique et infini. Cependant son équation lui faisait apparaitre un comportement dynamique. Il ajouta alors arbitrairement un ingrédient « ad-hoc » à cette dernière avec la fameuse constante cosmologique « Lambda » pour coller à la croyance consensuelle de son époque.

    Cependant, un nouveau changement de paradigme eut lieu en 1929 lors de la découverte du décalage vers le rouge de la lumière des galaxies lointaines par l’astronome Edwin Hubble.
    Cette fois la seule explication plausible consistait à considérer un Univers en expansion isotrope avec une certaine vitesse proportionnelle à la constante de Hubble. En clair cela signifie que tous les amas de galaxies s’éloignent les uns des autres en étant entrainés par une sorte de création permanente d’espace.

    Coté mathématiques, la découverte des équations éponymes de Friedmann et Lemaitre confirmèrent que les équations de la RG admettaient des solutions non stationnaires.
    Albert Einstein supprima donc la constante cosmologique de son équation, il écrivit alors à son ami le physicien russe George Gamov qu’il avait commis « la plus grande erreur de sa carrière » avec l’introduction de cette dernière.

    Cette mini-révolution signa la naissance de cette nouvelle branche de l’astrophysique appelée « cosmologie ».

    La Cosmologie, une histoire d’expansion à partir d’un « point »

    Les grecs anciens considéraient que le monde était constitué de quatre éléments (air, terre, feu eau).
    A l’échelle de l’histoire humaine, cette conception primitive fut assez récemment  abandonnée au profit de celle de la physique moderne qui, curieusement, est également basée sur quatre interactions fondamentales. Ces dernières servent de « liant » à un bestiaire d’environ 50 particules matérielles identifiées appelées « Fermions » [4].
    Ces quatre interactions concernent d’abord la gravitation et la force électromagnétique agissant à toutes les distances, on distingue ensuite deux interactions nucléaires à très courte portée réservées aux liaisons dans les noyaux atomiques.

    Étant acquis que lUnivers observable [5] était en expansion au cours du temps, il devint évident qu’en un temps très reculé, ses dimensions étaient probablement beaucoup plus réduites. Les équations de la RG indiquant même que l’Univers aurait théoriquement été concentré en un point.

    Cependant, la RG ne faisait intervenir que la gravitation en négligeant les trois autres interactions. Cette approximation ne pouvait plus s’appliquer à une époque où l’Univers était tellement concentré que les autres interactions devenaient prépondérantes.

    De plus, les physiciens pensent qu’à de très hauts niveaux d’énergie tels qu’au voisinage de l’instant zéro dite « ère de Planck« , les quatre forces fondamentales n’en faisaient qu’une, il s’agit de la théorie de grande unification appelée GUT en anglais (Grand Unified Theory). Cette force primaire se serait alors rapidement séparée en quatre interactions selon un phénomène appelé rupture de symétries.
    Cependant cette théorie est loin d’être finalisée, elle ne concerne que la première fraction de seconde.
    Pour modéliser la période suivante concernant les premières minutes, il faut faire appel à la théorie quantique (TQ).

    A l’exclusion de l’ère de Planck, nous avons donc deux théories qui modélisent l’histoire de l’Univers.
    En premier lieu, juste après l’instant initial on utilise la Théorie Quantique (TQ) avec des particules en interactions permanentes et très proches les unes des autres. La Relativité Générale (RG) prend ensuite le relais  avec le comportement gravitationnel à grande échelle de l’Univers (*). La gravitation devient prépondérante lorsque les atomes sont formés et suffisamment éloignés les uns des autres sous l’effet de l’expansion.

    (*) Au voisinage de l’instant zéro, la densité d’énergie impactait vraisemblablement la topologie de l’Univers embryonnaire en lui induisant une courbure extrêmement importante.

    Pour simplifier, nous considérerons dans la suite quatre particules qui à elles seules concernent 99% de l’Univers observable. Ces particules sont les protons, neutrons  et électrons, constituants de base des atomes, puis les photons, vecteurs de l’interaction électromagnétique.

    Pour être en mesure d’aller plus loin, il s’agit maintenant de définir une convention sur ce que l’on entend par le terme « Univers » dont la sémantique ne fait pas consensus.

    Qu’entend-on exactement par le terme « Univers » ?

    Historiquement, l’Univers fut d’abord considéré comme étant le contenu d’un espace vide dans lequel se déroulent des événements, concept induisant implicitement la notion de temps et de dimensions spatiales.

    Point fondamental à noter, les interactions entre les particules constituant l’Univers obéissent à des règles dénommées « lois de la physique ». Ces dernières étant indépendantes du temps et de l’espace, elles peuvent être considérées comme étant extérieures au contenu de l’Univers.

    Comme déjà évoqué, Einstein a su regrouper l’espace et le temps en une seule entité avec en plus une notion de déformation de ce dernier sous l’effet de la matière/énergie, on parle alors d’espace-temps « courbé ».

    De son coté, la Théorie Quantique a montré que le vide n’était pas vraiment vide et qu’il contenait une fabuleuse quantité d’énergie, ce dernier fut alors dénommé « vide quantique » [6].
    Cette étrange forme d’énergie n’est pas directement accessible, de plus elle ne participe absolument pas à la courbure de l’espace-temps (*). En effet pour extraire des particules du vide, il est nécessaire de leur apporter de l’énergie. Ces dernières apparaissent alors fugitivement avant de retourner à leur état initial (exemple du boson de Higgs).

    (*) Le mystère de cette fabuleuse énergie sans effet apparent sur notre Univers fut appelé « catastrophe du vide« .

    Le vide quantique est donc à exclure du contenu de l’Univers dans la mesure où il ne participe ni à sa courbure ni à sa topologie.

    Aux origines de l’histoire de l’Univers, ce dernier était constitué d’un champ de rayonnements à très haute énergie qui lors d’un « tohu-bohu » [7] a généré des particules matérielles à hauteur d’environ 1% de l’énergie initiale.
    Ce dernier est d’ailleurs aujourd’hui toujours présent avec une densité d’énergie très faible sous la forme du fameux fond cosmologique résiduel.

    Notons enfin que nous ne détectons que la partie de l’Univers qui est visible, cette dernière est limitée par ce que l’on appelle l’horizon cosmologique. Au delà de ce dernier, la lumière de ce qui se trouve derrière ne nous est pas encore parvenue. Nous ne savons donc pas si l’Univers est fini ou infini [5].

    Horizon cosmologique

    Pour résumer, les entités que l’on a identifiées peuvent être classées en deux groupes selon qu’elles font ou non partie de notre définition de l’Univers.

    Ce qui est inclus dans l’Univers

    . Fond cosmologique fossile constitué de photons très fatigués !
    . Particules matérielles, atomes, étoiles, planètes, etc.
    . Photons émis par les réactions nucléaires des étoiles, galaxies, amas, etc.

    Ce qui n’est pas inclus dans l’Univers

    . Vide quantique
    . Lois de la physique

    La question de l’instant zéro

    L’histoire de l’Univers dont on vient de définir le contenu est assez bien comprise.
    Notons cependant que certaines questions fondamentales sont non résolues par le modèle cosmologique mainstream dit « ΛCDM » [8] et que ce dernier est sérieusement attaqué par un modèle concurrent appelé Janus [9] proposé par le physicien Jean-Pierre Petit, cependant les principes fondamentaux des deux modèles restent voisins (nucléosynthèse, expansion).

    Dans les premières minutes de l’Univers, la cosmologie se traduit par un formalisme mathématique basé sur la théorie quantique [4] avant de s’appuyer sur les équations de la Relativité Générale lors de la plus grande partie de son existence.
    Les physiciens travaillent donc sur une série d’équations qui traduisent en langage mathématique les fameuses lois de la physique et qui indiquent par le calcul l’état de l’Univers à chaque étape de son histoire.

    Les principes retenus pour ces modélisations sont basés sur les règles suivantes :
    . Conservation de l’énergie globale de l’Univers en fonction du temps
    . Conservation d’un ensemble de grandeurs comme le nombre de particules typées
    . Prise en compte d’une dizaine de constantes fondamentales de la physique
    . Utilisation des équations de la physique à savoir RG, TQ, QED, électromagnétisme et thermodynamique (*)

    (*) Équations de champs d’Einstein, Schrödinger, Boltzmann, Maxwell et Lagrangien du modèle standard.

    On constate immédiatement que l’un des principes fondamental de la physique repose sur la conservation de l’énergie. Cela signifie qu’à l’instant zéro ou du moins juste après, l’énergie de l’Univers actuel était déjà la même concentrée dans un volume beaucoup plus réduit.
    Cette loi induit donc qu’il est inutile de prendre en compte l’idée selon laquelle l’Univers serait apparu à partir de rien, n’en déplaise au pape Jean Paul II qui a déclaré -certes avec humour- au physicien Stephen Hawking :
    « Vous vous occupez de ce qui se passe après le Big Bang et moi de ce qui s’est passé avant ! » [10].

    Nous venons donc de voir que la physique ne sait pas prendre en compte l’hypothèse de la transcendance, il ne reste donc que celle de l’immanence.

    Une graine d’Univers qui aurait germé dans le vide quantique ?

    Nous avons vu que le vide quantique possède en théorie une densité d’énergie considérable [6], cependant cette dernière se trouve dans un état désincarné et quasiment inaccessible.

    L’idée vient alors immédiatement d’un état précédent l’apparition de l’Univers avec le vide quantique seul. Un événement fondateur non identifié aurait alors fait sortir de ce vide un champ de rayonnements à très haute énergie, ce dernier aurait en quelque sorte fait office d’une « graine d’Univers ».
    Ce champs étant alors celui que l’on a déterminé comme étant cet océan de photons à environ 1500 Milliards de degrés.

    Marchand de sablePeu de choses pertinentes peuvent être dites sur la première fraction de seconde de l’Univers (10-43 seconde !) dite « ère de Planck » (déjà citée), en effet la théorie quantique ne s’applique plus.

    Le problème de l’origine de l’Univers se déplace alors vers celui de la nature ce fameux vide quantique. Ce dernier, comme évoqué dans cet article, est un véritable nouveau continent à explorer [6].

    Toutes proportions gardées, nous sommes dans une situation similaire à celle de l’exploration maritime des océans au XVIe siècle. Des avancées technologique (caravelles, astrolabes) permirent alors de partir en exploration vers l’inconnu pour en arriver à la découverte du nouveau monde.
    Avant cette époque, la question de la topologie de la Terre restait ouverte avec ceux qui pensaient qu’elle pouvait être plate et d’autres qui la croyaient sphérique.

    La question de la topologie de l’Univers présente des similitudes avec les interrogations de cette période.
    En effet, les mesures de courbure effectuées par l’analyse du rayonnement fossile sembleraient montrer que l’Univers est Euclidien (plat) et peut-être infini.
    Certains chercheurs estiment cependant que ce dernier pourrait être fini et fermé avec une topologie courbe ou plate. Dans le premier cas on aurait à faire à un Univers hyper-sphérique, dans le second il pourrait ressembler à un hyper-tore.
    La figure ci-dessous représente une sphère et un tore qui sont des surfaces en deux dimensions, les hyper-surfaces sont construites en trois dimensions non représentables pour l’esprit humain.

    Tore et sphère

    Cette hypothèse est assez séduisante dans la mesure où un Univers fini et fermé pourrait être immergé dans un espace bien plus vaste de topologie Euclidienne. Ce dernier -qui pourrait être le vide quantique- comporterait au moins une dimension spatiale supplémentaire.
    Le théorème de plongement de Nash (*) démontre la validité mathématique de ce concept.

    (*) John Forbes Nash,  célèbre mathématicien américain souffrant de schizophrénie et titulaire d’un prix Nobel d’économie et de son équivalent en mathématiques, le prix Abel.

    Nous pourrions alors être en présence de plusieurs autres Univers voisins du notre qui cohabiteraient dans un même espace Euclidien associé au vide quantique, il s’agit de la théorie de cosmologie branaire.

    Certains physiciens émettent l’idée que ces Univers voisins pourraient être détectés par leur influence gravitationnelle sur le notre.
    La très faible intensité apparente de la gravitation s’expliquerait alors par le fait qu’elle se diffuserait dans au moins une dimension d’espace supplémentaire, à savoir dans quatre dimensions au lieu de trois. La réalité ontologique de cette quatrième dimension d’espace est quasiment démontrée à travers les expériences de NDE, voir ici.

    Pour avancer il est nécessaire d’en savoir plus sur le vide quantique. L’invention des caravelles, navires capables d’affronter la haute mer, a contribué à la découverte du « nouveau monde ».
    Les caravelles ont été remplacées par des accélérateurs de particules géants tels que le LHC de Genève et ses successeurs.
    Ces énormes moyens sont fondamentaux pour tenter de percer les secrets de la création.

    En résumé, la science n’envisage pas une création ex-nihilo mais plutôt un Univers qui serait né d’un ensemble immanent plus grand appelé vide quantique [10].
    L’instant zéro pourrait correspondre à un transfert d’énergie du vide constituant une « graine » qui se serait développée conformément aux lois de la physique.

    Le plus grand mystère de l’Univers est donc bien celui de cette poignée de photons jetée en dehors du vide quantique pour constituer notre niveau de réalité.
    En obéissant à des lois dont l’origine est par ailleurs inconnue, ces photons très énergétiques se sont transformés en un Univers matériel complet.
    Ce dernier a finit par faire apparaitre la vie, puis l’humanité sur une petite planète bleue (*) qui n’est qu’un grain de poussière perdu au milieu de ce vaste ensemble.

    (*) Et aussi très probablement ailleurs.

    Références
    [1] Histoire de l’univers – Partie 1 : Naissance et Topologie – sur ce site
    [2] « Les 3 premières minutes de l’univers » – Steven Weinberg (1977, réédition 1988)
    [3] « Discours sur l’origine de l’Univers » – 2010 – Étienne Klein
    [4] Histoire de l’univers – Partie 2 : Introduction à la physique fondamentale (pour les nuls !) – sur ce site
    [5] Mille milliards de soleils – sur ce site
    [6] Le vide quantique : un nouveau continent à explorer  – sur ce site
    [7] « Le Big Bang » BD Lanturlu de Jean Pierre Petit (Télécharger ici)
    [8] Histoire de l’univers – Partie 5 : Grandeur et décadence du modèle standard de la cosmologie – sur ce site
    [9] Histoire de l’Univers – Partie 6 : Modèle Janus, le futur de la cosmologie ? – sur ce site
    [10] « Y a t’il eu un instant zéro ?» – 2015 – Étienne Klein

    v1.2 – 2648 mots (MAJ 24/07/2018)

    Cet article est publié sur Agoravox ici.

    source première

  • Cosmologie et Janus 2/2

    Voici la suite (plus ardue mais avec quelques schémas simples et très parlants):

    même source

                                                                                            ***

    4. Le modèle Janus

    Ce chapitre va présenter la synthèse des modifications apportées par le modèle Janus aux théories actuelles en commençant par le modèle standard de la physique des particules.

    A. Enrichissement du modèle standard des particules

    Le Modèle standard de la physique « 1.0 »

    Le Modèle Standard de la physique [2] a établit un jeu de 25 particules différentes (*) qui suffisent à décrire tous les phénomènes constatés par la physique expérimentale sauf la gravitation qui est théorisée par la Relativité Générale.

    (*) Non comptées les particules d’antimatière de charge électrique inversée.

    Les 17 particules du modèle standardLes 25 particules à masse positive du modèle standard

    Les particules du Modèle Standard forment deux grandes familles avec d’une part les fermions (Quarks et Leptons), en gros des particules dites matérielles possédant une masse et d’autre part les bosons, particules sans masse (sauf les Z et W) qui sont les vecteurs d’interactions entre les fermions.

    Toutes ces particules possèdent plusieurs propriétés physiques dont nous retiendrons ici principalement :
    – la masse
    – l’énergie pour les particules de masse nulle
    – la charge électrique
    – des règles d’interaction

    La notion de masse
    La masse est une forme d’énergie concentrée, masse (m) et énergie (E) sont reliées par la célèbre formule d’Einstein E = mc2 (c = vitesse de la lumière).
    Intuitivement, la masse représente une quantité de matière mais il ne s’agit pas d’un concept aussi simple qu’on pourrait le croire.
    Elle est représentés selon deux formes en mécanique classique avec la masse gravitationnelle et la masse inertielle considérées comme égales en Relativité Générale.
    La physique quantique utilise également une notion de masse pour les particules qui serait acquise grâce au fameux boson de Higgs.

    Cependant, la masse quantique et la masse relativiste sont traitées indépendamment l’une de l’autre car ces deux théories sont incompatibles.

    Dans ces deux théories, la masse est cependant considérée comme toujours positive pour ce qui concerne la matière détectable.

    Énergie
    L’énergie est un concept assez complexe à définir, elle existe sous plusieurs formes : électromagnétique, cinétique, de masse, etc.
    Elle est également considérée aujourd’hui comme une grandeur toujours positive (+) qui se conserve lorsqu’elle change de nature à travers des transformations physiques.

    Charge électrique et antimatière
    La charge électrique est une propriété fondamentale des particules, elle est théorisée par l’électromagnétisme et la QED [6].
    Par convention, la charge électrique des particules de matière fut choisie négative pour l’électron et donc positive pour le proton afin que l’atome soit électriquement neutre. Il existe également des particules à charge inversée qui constituent l’antimatière (ex : le positron est l’antiparticule de l’électron, il possède les mêmes caractéristiques sauf sa charge électrique qui est positive).
    Chaque particule du modèle standard possède son antiparticule (*), en cas de rencontre elles se retransforment en photons.

    (*) Certaines particules sont leur propre antiparticule (ex : photon).

    Règles d’interactions entre les particules
    Les fermions possèdent des règles d’interactions parfaitement définies suivant les 4 forces fondamentales qui se manifestent par des bosons associés :
    – interaction forte (Bosons = gluons)
    – interaction faible (Bosons = W+, W-, Z0)
    – interaction électromagnétique (Boson = photon)
    – interaction gravitationnelle (Boson hypothétique = graviton)

    Lorsqu’une particule interagit suivant une ou plusieurs de ces 4 forces, cette interaction se produit par échanges de bosons associés. La seule interaction qui concerne 100% des particules -y compris les bosons- est la gravitation, cependant l’existence du graviton est loin d’être démontrée. La gravitation est pour l’instant uniquement décrite par la Relativité Générale.

    Interactions entre particules M+Les particules du modèle standard à masse positive (m+) et leurs interactions possibles

    Les quarks sont les constituants des hadrons (protons/neutrons), ils sont sensibles à toutes les interactions.
    Le neutrino n’est sensible qu’à l’interaction faible et à la gravitation, c’est la raison pour laquelle il est difficile à détecter.
    L’électron quand à lui est sensible à toutes les forces sauf l’interaction forte.

    Le modèle Janus ajoute alors un nouveau jeu de particules selon des principes similaires au modèle standard.

    La particularité de ces deux ensembles de particules est que, hormis pour la gravitation, elles interagissent uniquement entre particules de la même famille. Par exemple, les photons d’énergie négative γ(-) n’interagissent pas avec les électrons d’énergie positive e(+), ces photons « négatifs » sont donc indétectables par nos appareils de mesures… œil humain inclus !

    Janus, vers un Modèle standard de la physique « 2.0 »

    Les particules ajoutées par le modèle Janus sont donc presque des jumelles des particules du modèle standard ci-dessus avec des différence de masses/énergies et de charges électriques.

    Nouvelle espèce de particules m(-)

    25 nouvelles particules à masse négative

    On ajoute donc 25 nouvelles particules dont les particularités sont les suivantes :
    1) Masses ou énergies négatives : m(-) ou E(-)
    2) Valeurs absolues des masses m(-) et énergies E(-) beaucoup plus élevées que celles des particules ordinaires m(+) et E(+).
    3) Trois des quatre interactions de la physiques n’ont lieu qu’entre des particules de même signe de masse/énergie, les particules m(-) n’interagissent qu’avec les particules m(-), idem pour les particules m(+).
    4) Les particules des deux espèces m(+)γ(+) et m(-)γ(-) interagissent toutes ensembles à travers la gravitation.

    Cette partie reste à développer, remarquons à ce niveau que les deux espèces de particules n’en forment probablement qu’une seule et qu’elles ne font que changer de référentiel lors du changement de signe de leur masse/énergie avec un mécanisme dont le détail reste à préciser.

    Interactions m+ m-Interactions possibles entre les particules des deux espèces

    Coté interaction gravitationnelle, c’est le domaine de la Relativité Générale qu’il va cette fois falloir modifier

    B. Relativité Générale : Janus ajoute une seconde équation de champ

    Rappelons brièvement que la Relativité Générale est basés sur les trois points suivants :
    1) L’espace (3D) et le temps (t) sont reliés entres eux sous la notion d’espace-temps (3D+t)
    2) La matière-énergie courbe géométriquement l’espace-temps
    3) L’espace-temps impose les trajectoires de déplacement (*) à la matière et à l’énergie

    (*) Nommées « géodésiques ».

    Lors de la genèse de la Relativité Générale, Einstein a travaillé avec le grand mathématicien David Hilbert, ce dernier l’aurait grandement aidé pour la formulation de son équation de champs. N’oublions pas également la contribution déterminante à la RG des brillants travaux de Riemann sur les géométries courbes effectués un demi-siècle auparavant.

    Einstein et HilbertAlbert Einstein et David Hilbert

    Nous présentons ci-dessous la première forme de l’équation de champs d’Einstein telle que ce dernier l’a publiée le 25 novembre 1915.

    Equation Einstein 1915

    Cette notation en apparence barbare pour les non initiés se lit de la manière suivante :
    1) Le terme de droite définit le contenu de l’espace-temps en énergie-matière (Tμν = tenseur énergie-impulsion)
    2) Celui de gauche indique sa géométrie
    3) Le terme gμν est l’inconnue de cette équation, il s’agit de ce que l’on appelle une métrique. Une métrique permet de calculer des trajectoires (*) dans l’espace-temps.

    (*) Un exemple concret : la résolution de cette équation restreinte au cas du système solaire permettrait de calculer la trajectoire (métrique) d’une sonde naviguant entre les planètes, ces dernières courbant localement l’espace-temps.

    Dans le cas de la Relativité Générale, le terme de droite fut choisit avec de la matière de masse strictement positive m(+).

    -> La question de la constante cosmologique

    En 1915, la croyance partagée par les physiciens était basée sur un Univers stationnaire, en effet l’expansion n’avait pas encore été détectée.
    Pour « forcer » son équation à se plier à la vision de l’époque, Albert Einstein y ajouta donc un ingrédient mathématique ad-hoc appelé « constante cosmologique« . On voit dans cet exemple que la physique n’est autre qu’une « cuisine » que l’on modifie lorsque la saveur souhaitée n’est pas au rendez-vous des équations !

    En 1917, la seconde forme de l’équation de champs fut publiée :

    Equation de champs avec constante cosmo

    Au début des années 1920, coup de théâtre, l’astronome Vesto Slipher  découvre  le fameux décalage vers le rouge des nébuleuses lointaines. Cette découverte fut rapidement interprétée comme la signature d’un Univers en expansion par l’abbé Lemaître (article paru en 1927) avant que la paternité de cette découverte n’en revienne injustement à Edwin Hubble en 1929.

    Vesto Slipher Vesto Slipher

    Et donc en 1923, Einstein écrit au mathématicien Weyl :
    « Si l’Univers n’est pas statique, alors au diable la constante cosmologique ! ».

    D’après le russe Georges Gamov, Einstein fit même une déclaration apocryphe sur le fait que l’introduction de cette constante fut la plus grande erreur de sa carrière.

    On ne parla plus de cette fameuse constate cosmologique durant presque un siècle lorsqu’elle fut ressortie du placard avec le modèle ΛCDM [1] dans les années 2000.
    Dans ce modèle, la constante cosmologique permet de prendre en compte l’accélération de l’expansion découverte en 1998 par Perlmutter, Schmidt et Riess (prix Nobel 2011).

    -> Le modèle JANUS remplace l’équation de champs de la Relativité Générale par deux équations

    Le physicien Jean-Pierre Petit est donc parti de l’équation de champs d’Einstein pour la transformer en un système de deux équations à deux inconnues.

    Les équations de champs de Petit sont les suivantes :

    Equations PetitLes équations de Petit

    Elles se présentent sous la forme d’un système de deux équations dont les deux inconnues sont les métriques g(+)μν et g(-)μν. La métrique g(+)μν s’applique aux particules d’énergie positives et la métrique g(-)μν à celles d’énergie négative (*).

    On distingue dans le membre de droite de chaque équation le tenseur énergie-impulsion « Tμν« , il s’agit de la contribution de l’énergie totale de l’Univers constituée de celle qui est positive  T(+)μν et de celle qui est négative T(-)μν..

    (*) On simplifie la terminologie en ne parlant ici que de particules d’énergie. En effet, cette dernière se présente soit sous forme de rayonnements sans masses (photons), soit sous forme de particules matérielles de masse m avec la relation E=mc2.

    Cette formulation traduit bien le fait que les masses positives ET les masses négatives courbent toutes les deux l’espace-temps.

    Tout corps solide ou gazeux ne peut être constitué que de matière dont la masse possède le même signe (+) ou (-) car, comme vu précédemment, seules les particules dont l’énergie est de même signe peuvent s’assembler entres elles.

    Il existe dons deux cas de figure selon que nous percevions les masses positives (c’est notre cas) ou les masses négatives :
    1) Étant dans un état de type « masses positives », nous détectons dans le cosmos un excès de courbure (g(+)μν) induit par les masse négatives nous étant invisibles.
    2) Si l’on arrivait à inverser notre masse de manière à passer en « masses négatives », alors on détecterait « symétriquement » la contribution des masses positives à la courbure inverse (g(-)μν) que l’on percevrait. A la place des vides détectés entre les amas de galaxies lumineuses, nous percevrions de gigantesques sphéroïdes rougeoyants constitués de matière négative attractive pour la matière m(-) et répulsive pour la matière m(+).

    Cas où la matière de masse positive est prépondérante

    On remarque que dans une zone de l’espace où la densité de matière négative est négligeable devant celle de matière positive, alors le terme T(-)μν sera proche de zéro.
    On retrouve alors la formulation de l’équation de champs initiale d’Einstein « vue depuis les masses positives » sans constante cosmologique :
    Equations Petit 1 - Approx RG
    Concernant la seconde métrique g(-)μν issue de la seconde équation, cette dernière représente alors les trajectoires d’une particule de matière négative « égarée » dans une zone de matière positive.

    Les constantes G et c sont différentes pour les deux familles de particules

    Les constantes telles que vitesse de la lumière ou gravitation  sont de valeurs différentes entre les deux types d’environnements, en effet, pour les particules d’énergie négative, ces dernières sont beaucoup plus élevées.

    (Voir la vidéo de JPP JANUS 15).

    -> Le modèle JANUS fait disparaitre le paradoxe de l’effet Runaway

    Le calcul de Bondi qui menait au paradoxe Runaway consistait à appliquer aux masses positives et aux masses négatives une équation unique, soit l’équation de champs d’Einstein.
    Cette fois, nous appliquons une équation différente aux masses positives et aux masses négatives, et alors le calcul montre que le paradoxe Runaway disparait.

    Pour retrouver la notion de forces, on effectue ce que l’on nomme une approximation Newtonienne qui consiste à considérer de faibles courbures de l’espace-temps (cas du système solaire par exemple), alors on trouve les relations suivantes :

    Les masses positives s’attirent selon la loi de Newton
    Les masses négatives s’attirent selon la loi de Newton
    Les masses de signes opposés se repoussent selon « anti-Newton »

    On obtient donc cette fois un modèle physiquement cohérent :

    Modèle Janus - Approximation NewtonienneModèle Janus

    © Travaux publiés en 2014 [JPP2014-1].

    -> Compatibilité ascendante des théories gravitationnelles de Newton, Einstein et Petit

    En synthèse, nous obtenons un nouveau modèle plus général qui assure une compatibilité ascendante avec les modèles précédents :

    Compatibilité 3 modèles cosmologiquesCompatibilité ascendante des trois modèles de la gravitation

    C. Instant zéro et constantes variables

    -> Le problème du temps à l’instant zéro

    Le problème de l’instant « zéro » a été abordé dans l’article ici [7].

    Le modèle standard de la cosmologie évoque un temps infinitésimal dit « temps de Planck », en deçà duquel la théorie quantique ne s’applique plus car nous sommes en dessous du « plus petit élément possible de temps ».

    Cependant, la notion de temps n’a plus de sens dans une soupe primordiale où toutes les particules sont proches de la vitesse de la lumière, en effet à cette vitesse, le temps ne s’écoule plus !

    JPP Chronologicon (BD)
    La mesure du temps se fait usuellement en comptant le nombre de tours d’une aiguille sur une pendule. Afin de redonner un sens physique à la notion de temps au tout début de la vie de l’Univers, JP Petit propose une horloge conceptuelle constituée de deux particules en rotation autour de leur centre de gravité.

    Horloge élémentaire
    On pourra alors calculer le nombre de tours de cette horloge au voisinage de l’instant zéro.

    -> Un modèle à constantes variables

    Nous avons vu dans l’article précédent [1] que les calculs de la progression de l’horizon cosmologique durant l’expansion montraient que cet horizon n’avait pas permis d’échanges d’informations entre toutes les particules du fond cosmologique. En conséquence, sa remarquable homogénéité en température était inexplicable.
    C’est pourquoi le concept controversé « d’inflation » fut proposé.

    Il existe une autre explication, en effet, si l’on suppose que la vitesse de la lumière fut plus élevée durant la phase radiative, alors les particules auraient pu interagir pour homogénéiser leur température.

    Cependant, dans cette hypothèse, les équations de la physique (thermodynamique, quantiques, ….) ne fonctionnent plus….sauf si l’on suppose que toutes les « constantes » varient en même temps pour :
    1) Conserver la validité des équations (*).
    2) Assurer la conservation de l’énergie.

    (*) Équations de Schrödinger, de champs d’Einstein, de Boltzmann et de Maxwell.

    Constantes physique variablesVariation des constantes durant l’ère radiative

    Avec ce modèle, la taille de l’horizon cosmologique « suit » l’expansion de l’Univers jusqu’à la date de 380 000 ans, date où laquelle les constantes se stabilisent.
    Le problème de l’homogénéité du fond cosmologique fossile disparait alors sans faire appel à l’inflation.

    (Voir la vidéo de JPP JANUS 23).

    -> Instant zéro

    Avec ce modèle, si l’on calcule le nombre de tours de notre horloge élémentaire en se rapprochant de l’origine, on trouve que ce dernier tend vers l’infini !

    L’Univers n’aurait donc pas de début…

    D. Dissymétrie matière/antimatière

    Ce mystère n’est pas à proprement une nouveauté apportée par le modèle Janus, cette partie reprend en fait les travaux du prix Nobel Andreï Sakharov.

    Sakharov est en effet le premier a avoir proposé un premier niveau d’explication au mystère de l’absence d’antimatière de masse positive.

    D’après ce dernier, la nucléosynthèse des quarks et antiquarks aurait produit en quantité égale ces deux espèces.
    S’est alors ensuivie la Baryogénèse ou formation des protons et neutrons (baryons) ainsi que de leurs antiparticules (antibaryons) formés par l’assemblage de trois quarks.
    A travers les trois conditions dites de Sakharov, ce dernier émet alors l’hypothèse que l’assemblage des baryons serait un peu plus rapide que celui des antibaryons, et donc lorsque la température de l’Univers descendit en dessous du seuil de création de ces derniers [1], il serait resté un excédent de baryons (dont l’utilité ne fait aucun doute !) ainsi qu’un résidu d’antiquarks « libres » ne s’étant jamais assemblés entre eux, ce dernier résidu serait alors toujours présent.

    QuarksDes antiquarks encore présents à l’état libre ?

    Ce problème est loin d’être résolu, cependant des expériences telles que « BaBar » semblent avoir mis en évidence l’une des conditions de Sakharov, soit la violation de symétrie CP (PDF).
    Les recherches sont en cours sur cette question qui pourrait avoir un impact majeur sur le modèle standard de la physique.

    (Voir la vidéo de JPP JANUS 12).

    5. Modifications apportées par Janus sur l’histoire de l’Univers

    Le déroulé de l’histoire de l’Univers décrit dans le modèle standard [1] reste valable dans ses grandes lignes.

    Cependant, la « soupe cosmique » initiale présente maintenant deux populations de particules distinctes qui n’interagissent pas entres elles (*) :
    – les particules d’énergie positive
    – les particules d’énergie négatives

    (*) Un peu comme si l’on secouait un mélange d’eau et d’huile dans un flacon.

    Particules principales 2 familles

    L’énergie individuelle des particules négatives est cependant très supérieure à celle d’énergie positives. Cette caractéristique se retrouvera alors sur les masses des particules de types « fermions négatifs » créées par collisions de photons à hautes énergies négatives.
    Le différentiel des masses  m(-) est pour l’instant estimée entre 8 et 64 fois la masse m(+) des particules « ordinaires ». Cette valeur reste à mesurer précisément à l’aide d’observations indirectes des masses de matière négatives.

    Avant la transition de l’Univers vers la phase matière, la gravitation était négligeable devant les trois autres interactions possibles entre les particules. Comme vu plus haut, les particules d’énergie négatives eurent une histoire très voisine de celles des particules positives.

    Les deux familles de particules évoluent indépendamment

    Horloge cosmique→ Environ 34 minutes après le big bang
    A l’issue de la phase radiative nous avons donc la situation suivante :
    ⇒ famille énergie positive
    . Fermions m(+) : noyaux d’hydrogène prépondérants, noyaux d’hélium, électrons
    famille énergie négative
    . Fermions m(-) (*) : noyaux d’hydrogène prépondérants (*), noyaux d’hélium, électrons

    (*) Il s’agit en fait d’anti-fermions de charges électriques inversées, mais nous oublierons pour l’instant cet aspect afin de ne pas complexifier l’explication.

    Horloge cosmique→ Transition vers la phase matière : 380 000 ans après le big bang
    Dans cette phase, nous avons donc un double découplage photons/électrons avec :
    . la libération des électrons de masse (+) permettant la constitution des atomes m(+) d’hydrogène et d’hélium
    . la libération des électrons de masse (-) permettant la constitution des atomes m(-) d’hydrogène et d’hélium

    Avec une densité des particules de masses négatives très supérieure à celle des particules de masse positive.

    Situation à la sortie de la phase radiative

    A la sortie de la phase radiative, la situation de l’Univers est la suivante :
    . Famille de particules de masse positive : 87% d’hydrogène m(+) et 13% d’Hélium m(+)
    . Famille de particules de masse négative : hydrogène m(-) et Hélium m(-), les ratios sont à déterminer
    . Un fond cosmologique de photons à énergie positive E(+)
    . Un fond cosmologique de photons à énergie négative E(-), indétectable pour nous.

    Pour être complet, signalons qu’il reste également des fond de quarks et de neutrinos dans les deux familles d’énergie.

    Les bases du modèle Janus étant posées, voyons maintenant comment ce dernier explique les huit principales questions non résolues par le modèle ΛCDM.

    6. Janus répond aux questions sans réponses de ΛCDM

    Question 1 : instant zéro

    D’après ΛCDM, le premier intervalle de temps de l’Univers (temps de Planck) est hors des lois de la physique connue, nous sommes donc dans une singularité, terme employé pour nommer un inconnu total.

    Avec le modèle Janus à constantes variables, cette barrière disparait car le temps de Planck (quanta) diminue au fur et à mesure de l’approche du « point zéro ».

    Comme vu précédemment avec notre horloge conceptuelle, une image didactique de l’Univers ressemblerait à un livre d’épaisseur finie où la page en cours est le présent, les pages suivantes le futur.
    Lorsque l’on tourne les pages vers le passé, ces dernières sont de plus en plus minces et leur nombre tend vers l’infini lorsque l’on se rapproche de la page 1 !

    Livre de l'Univers
    Cette première page contiendrait le liminaire de l’Univers où serait présenté tout ce qui va suivre, elle serait donc à jamais inaccessible…

    Question 2 : dissymétrie entre matière et antimatière

    Comme on l’a vu précédemment, pour une famille de particules, la vitesse de fabrication des particules de matière à partir des quarks serait différente de celle des particules d’antimatière.

    Coté masses positives, le résultat est donc un léger surplus de matière (*) avec un fond résiduel d’antiquarks correspondant.

    Coté masses négatives, à l’inverse on obtient un léger surplus d’antimatière avec un fond résiduel de quarks de masses négatives correspondant.

    On remarque une symétrie entre la famille résiduelle de particules à masses positives constituée de matière et la famille résiduelle à masses négatives constituée d’antimatière. Les nombres baryoniques et leptoniques de l’Univers entier seraient ils nuls ?

    (*) constituant tout de même tout l’Univers visible !
    (**) Ne pas confondre la masse et la charge électrique.

    Question 3 : homogénéité du rayonnement fossile

    Grace au modèle à constantes variables dans le début de la vie de l’Univers, l’horizon cosmologique a suivi l’expansion permettant une communication à vitesse luminique entre les particules expliquant la température homogène du rayonnement fossile.

    On remarque que la vitesse de la lumière tend vers l’infini lorsque l’on se rapproche de l’instant zéro.

    (Voir les vidéos de JPP JANUS 18 et JANUS 19).

    Question 4 : structure de l’Univers matériel en éponge avec de grands vides sphéroïdaux

    La fabrication des grandes structures

    Horloge cosmique  → Horloge cosmique : de 380 000 ans à ~0.5 Milliards d’années

    Après le double découplage, l’instabilité gravitationnelle théorisée par James Jeans commence à jouer son rôle, les premiers effondrements de nuages d’hydrogènes ont lieu d’abord pour la matière négative du fait de sa plus importante densité.
    Les premières grandes structures constituées de proto-étoiles (*) d’hydrogène de masse négative m(-) vraisemblablement regroupées en amas forment des sphéroïdes plus ou moins réguliers constituant la charpente de l’Univers.
    Ces structures tendent alors à repousser la matière positive qui prend une forme alvéolaire (effet « emmental ») favorable au refroidissement ultérieur du cœur des proto-étoiles.
    Ce n’est que dans un second temps que les nuages d’hydrogène « positifs » vont s’effondrer à leur tour pour constituer cette fois des étoiles qui vont « s’allumer ».

    (*) Les proto-étoiles de masse négatives seront à jamais incapables de démarrer des réactions de fusion pour constituer de véritables étoiles à cause de leur masse gigantesque.

    Simulations informatiques

    Des simulations  2D effectuées en 1992 sur le système informatique du centre DESY de Hambourg ont été effectuées par un jeune chercheur en contact avec Jean-Pierre Petit.
    En appliquant l’approximation Newtonienne sur 5000 points-masses de matière négative et  5000 points-masses de matière positive avec un facteur de densité relative de 64, les simulations ont donné un résultat conforme aux observations astronomiques.

    C’est le seul modèle capable de représenter la genèse de l’Univers observable.

    Simulation Univers avec 2x 5000 points-masseSimulations de 1992 sur 10 000 points masses de matières (+) et (-)

    On distingue sur la vue de gauche les agglomérats de matière négative se constituant en premiers, ces derniers repoussent la matière positive créant ainsi une géométrie alvéolaire (image centrale).
    La vue de droite montre l’ensemble des deux familles de matière.

    Ces simulations demanderaient à être poursuivies en travaillant cette fois en 3D et avec prise en compte de l’expansion cosmique (*). Les capacités de traitement des machines actuelles permettent de travailler sur un nombre de points masses de plusieurs milliards qui permettraient d’obtenir une grande précision dans les résultats.

    © Travaux publiés publiés en 1995 dans la revue  « Astrophysics and Space Science » [JPP1995].

    (*) La question des conditions aux limites serait aisément résolue en travaillant sur une hypersphère S3.

    Question 5 : stabilité des galaxies en rotation

    -> Janus explique la stabilité des galaxies spirales en rotation

    Contrairement à ce que l’on pourrait croire, la rotation des galaxies spirales sur elles mêmes pose un énorme problème. En effet, un calcul simple d’attraction gravitationnelle montre que les étoiles périphérique devraient être éjectées de leur orbite sous l’effet de la force centrifuge induite par leur rotation (*).

    (*) L’année galactique du soleil (un tour complet) vaut environ 250 millions d’années.

    Le modèle Janus répond à ce problème jamais résolu en considérant que les galaxies sont confinées par un environnement extérieur de  matière de masse négative.

    Les simulations 2D effectuées également en 1992 montrent la genèse d’une galaxie à partir d’un nuage de gaz condensé qui se met en rotation puis se stabilise et perdure durant des dizaines de tours, soit une durée supérieure à l’age de l’Univers.

    Simulation galaxie spiraleSimulation d’une galaxie spirale (droite) à partir d’un nuage de gaz (gauche)

    Résultat à comparer avec l’exemple de la galaxie NGC 1300 observée par le télescope Hubble :

    Galaxie NGC 1300Galaxie NGC 1300

    Le principe sous-jacent à ce modèle de galaxies en rotation est celui de la tasse de café avec un nuage de lait (confiné par la tasse) !

    Tasse de café et galaxie

    Question 6 : accélération de l’expansion cosmique

    -> Janus explique l’accélération de l’expansion de l’Univers

    A la sortie de l’ère dite radiative, soit à 380 000 ans après le début, nous nous trouvons en présence de deux Univers de poussière qui évoluent conjointement.

    Une solution exacte des deux équations de champs de Petit démontre que l’accélération de l’expansion est due à l’influence des masses négatives.

    L’expansion sera cependant vue différemment selon que l’on considère la métrique associée aux masses positives ou celle des masses négatives.

    © Travaux publiés en 2014 [JPP2014-1].

    Point de vue des masses positives

    L’expansion « vue depuis les masses positives » obéit à une équation découverte par le mathématicien Wiliam Bonnor.

    La courbe obtenue avec cette équation montre une accélération de l’expansion se confondant parfaitement avec les observations :

    Accélération Univers selon JanusObservations et courbe Janus

    Point de vue des masses négatives

    L’expansion « vue depuis les masses négatives » quand lui décélère et obéit à un modèle classique de Friedman.
    Le fait que l’on détermine une décélération est certes contre intuitif, mais reste parfaitement cohérent à partir du moment où l’on a deux métriques différentes qui déterminent deux manières différentes de mesurer les distances.

    Coté masses positives, on a une vitesse de la lumière et une certaine mesure des distances et coté masses négatives, une vitesse de la lumière plus élevée et des distances apparentes….plus courtes !
    (Voilà du grain à moudre pour les philosophes).

    (Voir la vidéo de JPP JANUS 16).

    © Travaux publiés en 2014 [JPP2014-2].

    Question 7 : mystère du « Great Repeller » et des sondes Pioneer

    Le Great Repeller découvert en 2016 (PDF) est tout simplement constitué d’un conglomérat de masses négatives (cluster) qui repousse les masses positives dans son voisinage selon « anti-Newton ».

    Great Repeller selon JanusLe mystère du « Great repeller » résolu

    Et pour le cas du ralentissement des sondes Pioneer, ces dernières sont entrées dans une zone où il existe une relativement faible densité de matière négative suffisante cependant pour induire un ralentissement de ces dernières.

    (Voir la vidéo de JPP JANUS 17).

    Question 8 : courbures locales de l’espace anormalement importantes

    Considérons une galaxie A placée derrière un amas B qui, d’après la Relativité Générale courbe l’espace dans son voisinage. L’observateur X va donc constater un effet de lentille gravitationnel supposé lié uniquement à l’influence de l’amas B.

    Courbure espace masse +Cependant, les calculs à partir de l’équation d’Einstein montrent que la quantité de matière détectée dans l’amas B ne suffit pas à expliquer la courbure constatée en C.

    Le modèle ΛCDM fait l’hypothèse d’une matière noire supplémentaire B’ située au même endroit que B afin que la masse totale (B +B’) corresponde à la courbure constatée.
    ⇒ C’est cette matière noire qui est recherchée depuis plus de 20 ans sans succès…

    Le modèle Janus postule quand à lui que notre amas B est entouré d’un halo de matière négative C qui va « repousser » l’espace au voisinage de B, il s’agit d’un effet gravitationnel inverse de celui que provoque la matière ordinaire.

    Courbure espace masse -

    La contribution à la courbure de l’amas B seul sera faible par rapport à celui de la matière du halo D.
    Tout ceci est vérifié cette fois par le calcul de la métrique des masses positives g(+)μν.

    A ce niveau, remarquons que pour un observateur fait de masses négatives, la lumière (énergie négative) émise par un conglomérat négatif D serait déviée dans l’autre sens par le halo C et dans une moindre mesure par l’amas B (calculable avec la métrique g(-)μν).

    Point de vue observateur masse -

    (Voir la vidéo de JPP JANUS 20).

    7. Conclusion

    Le modèle Janus est royalement ignoré par la majorité de la communauté cosmologique devenue de nos jours une sorte de coterie particulièrement sclérosée.
    Fait aggravant, il n’existe aucune autre théorie aussi aboutie qui répond à la plupart des questions non résolues par ΛCDM.

    Ce n’est pas la première fois (et à coup sur pas la dernière) qu’un scientifique aura eu raison contre l’ensemble de la communauté, l’épistémologie regorge d’exemples allant dans ce sens.
    Citons le cas de Galilée qui défendit le modèle héliocentrique de Copernic contre d’une part les tenants des théories aristotéliciennes et d’autre part le puissant pouvoir religieux de l’époque (la laïcité était encore loin).
    Autre cas, celui de Ludwig Boltzman fervent partisan de l’atomisme ayant eu raison avant tout le monde et qui finit par se suicider devant l’hostilité de ses pairs.

    Le fait de proposer une théorie à contre courant ne suffit pas bien entendu pour en déduire qu’elle est meilleure que celle qu’elle remplace. Cependant, à partir du moment où une théorie est conceptuellement explicite et mathématiquement robuste, et surtout capable de proposer des explications là où sa concurrente ne dit rien, alors elle mérite à minima d’être prise au sérieux et examinée de près.

    L’histoire des sciences nous a également montré que même si une bonne théorie ne s’impose pas toujours d’elle même, ce sont ses détracteurs qui finissent par disparaitre, ce n’est peut être qu’une question de temps pour que la Relativité Générale soit remplacée par le modèle Janus et l’équation de champs d’Einstein par les équations de Petit !

    Liens :
    [1] Histoire de l’univers – Partie 5 : Grandeur et décadence du modèle standard de la cosmologie
    [2] Histoire de l’univers – Partie 4 : Le Modèle standard de la physique
    [3] Mille Milliards de soleils (Sur ce site)
    [4] Site officiel de Jean-Marie Souriau ici.
    [5] Structure des systèmes dynamiques – JM Souriau (1970)
    [6] Histoire de l’univers – Partie 3 : QED…vous avez dit QED ? (Sur ce site)
    [7] Instant zéro, le plus grand mystère de l’Univers (Sur ce site)
    [8] Site Jean-Pierre PETIT ici.

    Documents publiés par Jean-Pierre PETIT en relation avec le modèle Janus :
    Chaine Youtube JPP (23 vidéos Janus) ici.
    https://www.youtube.com/user/JPPETITofficiel

    Site JPP : modèle cosmologique Janus ici.
    http://www.jp-petit.org/science/JANUS_COSMOLOGICAL_MODEL/JMC.htm

    Bande dessinée JPP : « L’Univers gémellaire » – PDF ici.

    « Modèle Janus – 40 années de travail » – PDF ici.
    « L’Univers Janus – Partie 1 » – PDF ici.
    « L’Univers Janus – Partie 2 » – PDF ici.

    Livres :
    « On a perdu la moitié de l’Univers » – JP Petit (Albin Michel 1997)
    « OVNI L’extraordinaire découverte – JP Petit & JC Bourret (Trédaniel 2017)

    Articles JPP dans revues à comité de lectures :

    [JPP1995] J.P.Petit : « Twin Universe Cosmology »
    Astrophysics and Space Science (1995) – p. 226, 273‐307.

    [JPP 2014.1] J.P.Petit and G.D’Agostini : « Negative mass hypothesis and the nature of dark energy« .
    Astrophysics and Space Science (2014) 354 : 611-615 20 sept 2014 DOI 10.1007/s10509-014-2106-5

    [JPP 2014.2] J.P.Petit and G.D’Agostini : « Cosmological bimetric model with interacting positive and negative masses and two different speeds of light in agreement with the observed acceleration of_the Universe ».
    Modern Physics Letters A. – Vol. 29, No. 34 (24 oct. 2014) 1450182 (15 pages) DOI: 10.1142/S021773231450182X

    [JPP 2015.1] J.P.Petit and G.D’Agostini : « Cancellation of the singularity of the Schwarzschild solution with natural mass inversion process« .
    Modern Physics Letters A – vol. 30 n°9 2015

    [JPP 2015.2] J.P.Petit and G.D’Agostini : « Lagrangian derivation of the two coupled fields equations in the Janus cosmological model ».
    Astrophysics and Space Science –
    (2015) 18 apr 2015, 357:67

    Cet article est publié sur Agoravox ici.

     

  • Cosmologie et Janus 1/2

    Ci-dessous vous trouverez un excellent article (très clair sur ce sujet ardu) évoquant la Cosmologie contemporaine et son gros problème de cohérence, et présentant le modèle alternatif de JP Petit.

     

    "Le modèle standard de la cosmologie  appelé également ΛCDM fait donc appel aux deux grandes théories élaborées au 20e siècle :
    . Théorie Quantique
    . Relativité Générale

    Ce modèle fut gravement mis en cause lorsque des observations sont venues infirmer une partie de ses fondations. Il fallu alors ajouter à plusieurs reprises un certain nombre d’hypothèses très spéculatives afin de le sauver.
    Ces sauvetages successifs ont cependant été effectués au détriment de la crédibilité du modèle."

     

                                                                     ***

    Histoire de l’Univers – Partie 6 : Modèle Janus, le futur de la cosmologie ?