Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

  • Etat profond et manipulation des peuples

    Autre article intéressant de Zevengeur sur son blog

    Petit guide de survie intellectuelle au royaume de l’oligarchie et de l’état profond

    Télécharger l’article en PDF : PDF_logo

    Dans son célèbre ouvrage « De l’esprit des lois » publié au 18e siècle, Montesquieu théorisa suivant trois axes la répartition et la séparation des pouvoirs de l’état avec le législatif, l’exécutif et le judiciaire.
    Ultérieurement, un quatrième pouvoir concernant les moyens de communications au sens large ou médias de masses dits « Mainstream » fut ajouté à la liste du fait, dans le cadre d’un régime démocratique, de son énorme influence sur les électeurs.

    A l’heure où en occident une oligarchie financière systémique et sans visage a réussit à prendre le quasi contrôle de tous ces pouvoirs, il est nécessaire de comprendre qui elle est ainsi que ses modes de fonctionnement afin d’appliquer l’un des célèbres adages de Sun Tzu :
    « Pour vaincre l’ennemi, il faut connaitre l’ennemi ! »

    L’objectif pour les peuples est ambitieux, il s’agit de remettre le diable dans sa boite en passant par l’étape incontournable d’une prise de conscience massive des cerveaux.
    Ces derniers sont aujourd’hui, comme l’ont dénoncé par exemple Bourdieu [1] ou Chomsky [2], largement sous contrôle de l’influence télévisuelle et plus généralement des médias « Mainstream » encore appelés « MSM » (*) devenus l’un des bras armés de l’oligarchie.

    (*) MainStream Médias

    L’oligarchie est constituée d’une minorité d’individus qui concentre entre ses mains une part majeure des richesses mondiales.
    Que sait on au juste sur cette dernière et sur ses modes d’action ?

     

    Géopolitique, oligarchie et état profond

    La situation actuelle est la résultante d’une généalogie événementielle dont les origines remontent à 1945 lors du partage du monde entre l’est et l’ouest durant la conférence de Yalta.

    A la fin de la seconde guerre mondiale lors des négociations de Yalta entre les vainqueurs russes, américains et britanniques, le monde fut divisé en deux blocs avec d’un coté le bloc-BAO pour « Bloc Américano Occidental » et de l’autre le bloc soviétique constitué de l’URSS et des pays limitrophes d’Europe de l’est.

    Dans le domaine financier, le système monétaire mondial fut basé sur l’hégémonie du dollar américain avec les accords de Bretton Woods ayant conduit à la création de deux institutions d’obédience occidentale : la Banque Mondiale (BM) et le Fond Monétaire International (FMI).
    L’ONU fut également créée à cette époque afin de donner un cadre législatif au droit international ainsi qu’une tribune mondiale permettant de prévenir les conflits par le dialogue.

    Cette situation perdura durant un demi siècle jusqu’à la disparition endogène du bloc soviétique en 1991, les États-Unis devinrent durant un temps les leaders d’un monde unipolaire.

    Cependant, au début du 21e siècle la progression fulgurante de la Chine puis le retour de la Russie (*) sous l’action très efficace de Vladimir Poutine mirent fin assez rapidement à cette hégémonie.

    (*) Après un début de pillage du pays sur le cadavre de l’URSS durant les années 1990.

    Ces deux nouvelles superpuissances, économique pour la Chine et militaire pour la Russie, conduisirent à la création du bloc économique BRICS (Brésil, Russie, Inde, Chine, Afrique du Sud) et surtout de l’Organisation de Coopération de Shanghai (OCS) trop méconnue en occident.
    Ces deux institutions associées à la création de la banque des BRICS sont complètement indépendantes de leurs concurrentes du monde occidental.

    Nous sommes entrés aujourd’hui dans une situation multipolaire avec le bloc BAO constitué de deux pôles économiques que sont les USA et l’Europe de l’ouest et en face le bloc BRICS dominé par le couple Chine-Russie.

    Économiquement parlant, américains et européens sont dans une situation critique avec leurs déficits chroniques induisant des montagnes de dettes contrairement aux BRICS créanciers de ces derniers et dont le PIB va bientôt dépasser celui du bloc BAO [3].

    A l’heure où un rapprochement économique alternatif se fait à travers l’OCS, le bloc BAO est non seulement en concurrence avec les puissances émergentes mais également en interne. En effet, les USA mènent une guerre économique sans merci à leurs vassaux européens comme l’avait reconnu François Mitterrand peu de temps avant sa disparition.

    Pour comprendre le cas américain, il faut avoir à l’esprit quels sont les véritables centres de pouvoir dans ce pays.
    Hormis le pouvoir politique exécutif, soit le président des États-Unis et le congrès, on distingue d’abord au sommet de la pyramide la fameuse oligarchie financière mondialisée constituée de ceux qui détiennent les capitaux, à savoir les actionnaires des entreprises multinationales par ailleurs en concurrences entres elles, ce sont les fameux 1% qui détiennent plus de richesses que les 99% restants.
    Le seul objectif de cette dernière est de s’enrichir toujours plus quel qu’en soit le moyen et quelles qu’en soient les conséquences, en premier lieu au détriment des salariés qui produisent les richesses par leur travail et en second lieu en minimisant les contributions fiscales et sociales.

    Cependant, l’oligarchie n’est pas seule car il existe un second pôle de pouvoir majoritairement basé aux États-Unis appelé « État profond » (Deep State) sur lequel il est indispensable d’attirer l’attention.

    Tout commence lorsque les élites américaines se mirent à croire en leur « destinée manifeste« , ces dernières considérèrent alors non sans hybris que ce pays était le dépositaire d’une mission divine pour répandre -de préférence par la force- la « démocratie à l’américaine » sur toute la planète.
    L’état profond est une sorte de marécage ténébreux et méphitique où grouille une faune gluante et vénéneuse de psychopathes dont l’objectif est de prendre le contrôle de toutes les ressources de la planète et accessoirement d’imposer son mode de vie. Pour ce faire, ils comptent sur une suprématie militaire qu’ils tentent de conserver à coups de milliards de dollars.

    Deep State

    L’identification rigoureuse de ses composants est assez complexe dans la mesure où ce dernier, sans se mettre lui même en avant, use de toute son influence pour imposer sa politique hégémonique à l’exécutif.

    L’un de ses constituants majeurs évident concerne le complexe militaro-industriel. Le président Eisenhower avait annoncé en 1961 dans son discours de fin de mandat le risque que ce dernier devienne une entité autonome hors de tout contrôle démocratique.
    C’est aujourd’hui et depuis longtemps chose faite.
    Avec un budget de la défense d’environ 600 Milliards comparable au PIB de la Suisse, le niveau de puissance correspondant est en théorie vertigineux.
    Associé à ce complexe, on trouve l’establishment  et autres neocons’ avec la frange historique des tenants de la destinée manifeste des États-Unis.
    Cet ensemble est complété par les différentes agences de renseignement avec en tête la CIA dont les crimes majeurs commis contre des états « non amis » ne sont plus à démontrer. Comme l’a révélé Edward Snowden, la NSA quand à elle est chargée d’espionner la planète entière, alliés compris…
    Citons enfin l’influence exogène considérable du lobby israélien AIPAC (CRIF en France) sur la politique étrangère américaine au Moyen-Orient où tous les coups sont permis.

    L’oligarchie et l’état profond constituent un ensemble bipolaire aux intérêts parfois divergents. Sa principale caractéristique est de rester le plus discret possible et de faire agir à sa place ceux qui détiennent le pouvoir politique dit « démocratique » en utilisant la MSM comme porte-voix.

    La technique de contrôle utilisée est des plus simple, elle consiste à utiliser tous les moyens possibles pour influencer l’exécutif et l’opinion publique, que ce soit par exemple à travers le lobbying ou avec le rachat massif des médias de masse.

    L’élection de Trump malgré l’opposition de 95% des médias et les sondages fut un énorme échec pour l’élite.
    La folle belliqueuse Hillary Clinton, championne de l’oligarchie US et de l’état profond fut battue à plate-couture par cet industriel milliardaire, certes assez fruste mais plus préoccupé par la réindustrialisation du pays et par la détente avec la Russie que par la spéculation financière et les guerres d’ingérences sans fin.

    Nous assistons depuis cette élection à une quasi guerre civile sans merci entre l’administration Trump et ce fameux état profond qui cherche à l’éliminer ou à minima à le soumettre.
    Le résultat est que l’on arrive plus très bien à comprendrez qui gouverne dans ce pays comme on peut l’observer à travers une politique étrangère versatile et contradictoire.

    Remarquons en particulier que le financement de l’énorme machine de guerre US est de plus en plus difficilement assuré par un état surendetté qui -cette fois sur ordre de l’oligarchie- supprime l’impôt à tout va et taille sans vergogne dans les dépenses sociales.
    Ce contexte explique également la violence mise dans les tentatives de destruction du bloc BRICS [3] des insoumis d’en face -et de ses alliés tels que l’Iran ou la Syrie- qui œuvre par ailleurs à se libérer au plus vite des chaines du dollar, l’un des derniers vecteurs d’une puissance américaine sur le déclin.
    La chute du billet vert signera la fin définitive de ce qui reste de la puissance impériale, elle ne pourra plus vivre au dessus de ses moyens en faisant marcher la planche à billets et en exportant son inflation.

    Venons en maintenant au système de mise sous tutelle des pouvoirs politiques par l’oligarchie.

    Un système de pouvoir en poupées russes

    Régis Chamagne a décrit le système de pouvoir dans les pseudo démocraties occidentales organisé suivant des cercles concentriques [4].

    Au centre, on trouve bien entendu l’oligarchie, ce ramassis de ploutocrates constituée des actionnaires, banques et autres multinationales.

    Le dominium mundi de cette dernière est basé sur une convergence d’intérêts adossée à une idéologie commune : libre échange, ultra-libéralisme, mondialisation, affaiblissement des états, etc .
    L’oligarchie ne possède pas d’organisation pyramidale, elle serait plutôt de type « rhizomatique » (*) car l
    es individus importent peu. Il existe cependant plusieurs instances officieuses d’échanges et de rencontres périodiques telles que le Bilderberg ou la Trilatérale.

    (*) Structure horizontale dénuée de niveaux hiérarchiques.

    Le second cercle qui entoure et protège le premier est constitué de la classe politique au pouvoir associée à la MSM inféodée au premier cercle qui en sont d’ailleurs les propriétaires [5] [6].

    Le troisième cercle comprend l’armée et la police aux ordres du pouvoir politique dont le rôle est la protection du second cercle.

    Et enfin, le cercle extérieur est constitué de la population où tout est fait pour qu’elle se tienne tranquille et ne remette pas en cause l’hégémonie des différentes strates du pouvoir.

    La puissance potentielle des états forts et non alignés reste cependant un danger pour l’oligarchie.
    Cette dernière a aujourd’hui mis en place deux mécanismes de contrôle, ces derniers furent durant un temps limités à l’Europe occidentale mais leur vocation est de s’étendre sans limites :
    1) Contrôle économique avec l’UE (Union Européenne)
    2) Contrôle militaire avec l’OTAN

    Citons également l’anomalie de la gestion privée de la monnaie à travers la privatisation de la FED en 1910 avec le « complot » de l’ile Jekyll.

    La partie du monde non alignée (Chine, Russie, certaines nations arabes, etc) avec le bloc BAO fait partie des ennemis à intégrer ou à défaut à détruire. Cette assertion explique la majeure partie des conflits économiques ou géopolitiques que l’on constate aujourd’hui sur la planète comme par exemple en Syrie et en Ukraine.

    Coté européen, l’oligarchie avec la complicité de la classe politique [7] a usé de toute son influence pour jeter l’Europe de l’ouest sous la coupe d’institutions supra-nationales à la botte des États-Unis à travers ce qu’Annie Lacroix-Riz a nommé le « Carcan de l’Union Européenne » [8].
    L’Amérique possède aussi une arme de destruction massive de ses concurrents économiques à travers l’extraterritorialité du droit US basé sur l’utilisation mondiale du dollar (*) et une institution scélérate dénommée « Advocacy Center« .

    (*) Voir en particulier le scandale Alstom où l’état a laissé passer sous contrôle américain une partie de notre industrie nucléaire de défense [9] (résumé ici).

    Paradoxe remarquable, le président des États-Unis étant en quasi guerre civile avec l’état profond, ce sont les européistes qui sont maintenant les premiers défenseurs de l’idéologie de ce dernier !

    Les dernières élections françaises ont d’ailleurs donné des sueurs froides à l’oligarchie avec le risque d’échec de leur factotum local, cependant tout s’est bien terminé avec la  victoire de l’exécutant Macron [10].

    Autre paradoxe, la petite Grande Bretagne sortante de l’UE avec son Brexit est devenue le chef de file du bloc BAO dans sa mesquine politique de diabolisation de la Russie (*) pour cause de « trumpisme » pas vraiment aligné avec cette dernière.

    (*) Voir par exemple l’affaire Skripal ou les récentes frappes imbéciles contre la Syrie basées sur des fake news.

    L’organisation OTAN, émanation obsolète de la guerre froide avec l’URSS est devenue un outil de vassalisation militaire des USA vis à vis des nations d’Europe de l’ouest avec son extension jusqu’aux frontières de la Russie, violant ainsi la parole donnée à cette dernière.

    Pour cornaquer les masses populaires, la première phase consistait à prendre le contrôle des médias, c’est chose faite [5][6].
    La seconde phase consistait à mettre au point une rhétorique matraquée par ces derniers afin de masquer un totalitarisme qui ne dit pas son nom.

    Coup de chance, cette rhétorique existait déjà pour avoir été développée dans le cadre du management des entreprises sous le nom de « théorie de la (bonne) gouvernance ».

    Rhétorique de la gouvernance, médiocratie et extrême-centre

    Le philosophe Alain Deneault [11] a effectué un remarquable travail d’analyse des techniques manipulatoires modernes issues des travaux états-uniens menés dans les années 1970 sur le management des entreprises.

    Alain Deneault

    Après l’échec des techniques de management scientifique des grandes entreprises de l’après-guerre, les théoriciens de l’organisation se sont inspirés de la rhétorique théologique afin de construire un nouveau modèle de domination.

    Une théologie de l’entreprise fut alors élaborée suivant trois axes :
    . une religion de la marque
    . un personnel censé accorder une foi sans réserve dans l’activité de l’entreprise
    . un communautarisme d’entreprise incluant ses clients « consommateurs croyants »

    La mise en place de cette religion fut associée à une casuistique manipulatoire appelée « gouvernance » basée sur des termes creux mais à connotations laudatives : excellence, innovation, progrès, efficience, etc…

    Cette rhétorique lénifiante n’a en réalité d’autre but que de détourner l’attention du seul véritable objectif de l’entreprise qui est de tout donner à l’actionnaire (oligarchie) et de ne laisser que la part congrue au salarié selon un mécanisme bien expliqué par Paul Jorion. Le salarié est alors invité à laisser -s’il en possède- sa réflexion au vestiaire et à endosser l’habit du médiocre, qui signifie littéralement « dans la moyenne ».
    Le médiocre ne sera donc ni brillant ni totalement incompétent d’où le choix par Alain Deneault du terme « médiocratie ».

    Cette manipulation « incite » le collaborateur de l’entreprise à adhérer à la religion, ou du moins à faire semblant, sous peine d’excommunication se traduisant par un licenciement !

    En face des ces pratiques, Alain Deneault a identifié cinq typologie comportementales.
    On trouve d’abord le « cassé », incapable de s’intégrer au système et qui mène donc une existence précaire.
    Vient ensuite le « médiocre par défaut » qui croit naïvement aux mensonges dispensés.
    Le pire des profil est appelé « médiocre zélé », c’est une véritable plaie (sic) qui marche totalement dans le système dans le but d’en obtenir quelques faveurs, ce dernier possède en outre la capacité de reconnaitre immédiatement ses semblables pour se constituer en meutes de « petits chefs ».
    La quatrième typologie concerne le « médiocre malgré lui » qui n’est pas dupe mais qui doit cependant se nourrir et survit tant bien que mal dans un contexte délétère parfois à coup d’antidépresseurs !
    En dernier, on trouve le « rebelle », la tête brulée qui dénonce et qui peut au final être récupéré par le système sous la forme d’une star.

    Cette nouvelle forme de religion, parfaitement aliénante au sens orwellien du terme, a donc envahi dans un premier temps le champ de l’entreprise.

    L’oligarchie ayant quasiment pris le contrôle de tous les pouvoirs politiques et médiatiques, elle n’eut donc qu’à adapter le discours de la gouvernance à son usage pour le déverser à travers ces derniers.

    On observe donc une rhétorique apodictique avec ajout de quelques mots clés pour couvrir les champs politiques, économiques et médiatiques : progrès, réformes, privatisations, croissance, modernité, mondialisation heureuse, vérité, réalité…..

    On retrouve donc dans les discours politiques alignés et dans les médias associés la même rhétorique Potemkine que dans le bla bla de la communication des entreprises.

    Les typologies précitées se retrouvent peu ou prou dans les champs politiques et médiatiques avec un système opérationnel de contrôle suivant plusieurs axes.

    Des techniques de contrôle éprouvées

    Il n’a évidemment pas échappé à l’oligarchie que la MSM est un fantastique outil de formatage en masse des cerveaux, leur prise de contrôle fut des plus simples puisqu’il a suffit de les racheter progressivement en quasi totalité.
    Les oligarques ont alors juré la main sur le cœur qu’ils n’intervenaient en aucun cas dans les lignes éditoriales, ce pseudo débat a été définitivement tranché par Aude Lancelin, insider involontaire, qui a dénoncé en détail ce qu’elle a vécu durant ses 15 années dans la MSM [12].
    Pour la presse écrite, l’hémorragie de lecteurs due à une propagande devenant trop visible fut partiellement compensée par les scandaleuses subventions de l’état.
    Paradoxe de cette même presse croupion qui éructe à longueur de temps sur les assistés en oubliant que si elle ne l’était pas elle même, alors elle aurait disparu depuis longtemps.
    La situation actuelle est un retour à celle d’avant-guerre, une sorte de progrès inversé.

    Pour le cas de la classe politique, la prise de contrôle n’est cependant pas totale.
    L’oligarchie agit principalement à travers un lobbying très efficace à l’instar de celui qu’a décrit Philippe De Villiers au sein du parlement Européen (Interview ici). Ce dernier nous explique que les transnationales investissent environ trois milliards annuels pour financer une armée de plus de 30 000 lobbyistes destinés à contrôler les eurodéputés et autres bureaucrates qui établissent les législations rédigées directement par les multinationales.
    Une anecdote frappante concerne le classement des eurodéputés selon trois catégories, on distingue d’abord les jaunes qui sont les députés abordables et donc « compréhensifs », viennent ensuite les rouges dans la catégorie récalcitrants et enfin les gris « à démarcher avec doigté ».
    Les députés « jaunes » voient leur avenir post-mandat assuré avec en récompense pour services rendus des postes à hauts salaires dans un grand groupe privé, ces derniers peuvent même ensuite revenir en politique pour un nouveau cycle, on nomme ce système d’aller-retour public-privé des revolving doors.

    Coté bloc BAO, les atlantistes tentent de pérenniser le futur de leur idéologie en construisent des ponts entre les deux rives avec des programmes tels que les Young Leaders (France-USA) avec sa branche Italienne.

    Lorsque l’oligarchie propulse ses champions au pouvoir suprême

    Les partis traditionnels ayant épuisé leur crédibilité, des mouvements présentés comme nouveaux, jeunes et dynamiques sont apparus (En Marche). Ces derniers surfent en fait sur une pensée unique réactionnaire à l’identique de celle de ses prédécesseurs, seule la façade change.

    En effet ceux qui représentent en particulier la vraie gauche comme la France Insoumise sont qualifiés de partis extrémistes, d’autres sont traités de complotistes comme l’UPR de François Asselineau ostracisé par les médias malgré les obligations légales du CSA.

    Le cas du Front national est spécifique car ce parti dénoncé comme xénophobe par ses adversaires a subit durant la période Marine Le Pen une cure de dédiabolisation en particulier sous l’influence de Florian Philippot se réclamant proche des idées de Jean-Pierre Chevènement.

    Aujourd’hui, le parti LREM de Macron construit de toutes pièces pour gagner les élections avec le soutien total du bras armé médiatique de l’oligarchie est typiquement un parti qui communique avec un discours de l’extrême centre [11].
    Emmanuel Macron est un profil typique issu des grandes écoles françaises, il ne possède pas de pensée personnelle et ne sait qu’appliquer des consignes venues d’autorités supérieures. Le régime Macron est donc 100% favorable à ses sponsors comme on le constate dans les faits.
    Coté économie, il applique la politique dictée par l’Union Européenne (GOPE), et pour les affaires étrangères il suit une « politique Daladier » et virevoltante calquée sur celle des anglo-saxons en particulier des USA.
    Selon ses thuriféraires, sa communication absconse est l’illustration d’une « pensée complexe », d’autres analystes (probablement mauvaises langues !) parlent plutôt de logorrhée.

    Ce contexte d’une oligarchie occidentale dominante et internationalisée explique pourquoi l’on constate dans les principaux pays occidentaux un florilège d’imposteurs au pouvoir qui vont  du fou dangereux (W. Bush, Sarkozy) au parfait crétin (Hollande) en passant par le bavard médiocre (Macron).

    On fait quoi maintenant ?

    La lutte pour le pouvoir entre des classes dominantes minoritaires et des classes dominées majoritaires est vieille comme le monde.
    Depuis 1789, plusieurs révolutions ont eu lieu en France où une partie de la légitime souveraineté du peuple fut acquise grâce à l’avènement de la République associée au pouvoir des urnes.

    Aujourd’hui, le balancier penche une fois de plus en faveur de l’oligarchie avec en parallèle une lutte d’arrière garde de la dernière puissance impériale pour empêcher l’avènement d’un monde multipolaire.

    Les gouvernements d’Europe de l’ouest, en particulier de la France qui avait résisté jusqu’à la fin du XXe siècle, ont choisit le mauvais camp qui est celui de la vassalisation à une puissance en déclin.

    Pour ceux qui rêvent d’une nouvelle révolution violente, rappelons que ce type d’action est parfaitement inutile s’il n’existe pas un système de rechange intelligemment construit pour prendre le relais. Citons Soljenitsyne qui a rappelé les leçons de l’histoire avec des révolutions qui finissent souvent très mal comme celle de Russie avec 70 ans de totalitarisme et des millions de morts.

    Le visionnaire Orwell avait parfaitement anticipé un principe de novlangue aujourd’hui appliqué quotidiennement par nos élites au pouvoir : « l’ignorance c’est la force ».
    La véritable révolution consiste donc bien à casser ce mécanisme et à faire prendre massivement conscience de la situation réelle à la population. La première étape est de cesser de croire à la propagande médiatique, la seconde de faire usage de son droit de vote à bon escient pour reprendre sa souveraineté.
    Cependant, éjecter cette coterie ne suffira pas s’il n’existe pas une alternative crédible à la politique de classe de cette dernière.
    Il semblerait bien que cette alternative soit devant nos yeux !

    Liens
    [1] « Sur la télévision » – Pierre BOURDIEU – 1996
    [2] « La Fabrication consentement » – Noam Chomsky
    [3] Bras de fer «Coalition occidentale» contre «BRICS/OCS»: Point de situation et perspectives – Général Dominique Delawarde
    [4] « Le système peut il s’effondrer ? » – conférence Régis Chamagne 02/2018 ici.
    [5] « Le 4ième pouvoir a été racheté ! » – Sur ce site.
    [6] « Concentration des médias en France et ailleurs » – site Acrimed
    [7] « De Jeanne d’Arc à l’atlantisme européiste, 600 ans de trahisons des élites françaises » – Sur ce site.
    [8] « Aux origines du carcan européen » – Annie Lacroix-Riz – 2014
    [9] « Guerre Fantôme » – Reportage brillant sur le scandale Alstom
    [10] Qui contrôle les médias, contrôle les cerveaux…et les bulletins de vote ! – Sur ce site.
    [11] « Médiocratie, Politique de l’extrême centre, Gouvernance » – Alain DENEAULT
    [12]  « Le monde libre » – « La pensée en otage » –  Aude Lancelin

    v 1.2 – 3 699 (MAJ 28/05/2018)

    Cet article est publié sur Agoravox ici.

  • Instant Zéro

    Autre article tiré du blog de ZEVENGEUR sur l'instant Zéro du Big-Bang.

    Les physiciens n'ont adopté l'idée d'un univers en expansion que depuis 1929.

                                                                          ***

    Instant zéro, le plus grand mystère de l’Univers

    Télécharger l’article en PDF : PDF_logo

    Les observations ont montré que l’Univers n’était pas statique et que ce dernier évoluait au cours du temps dans le sens d’une dilatation. Une branche de l’astronomie appelée cosmologie [1] a donc été développée afin d’étudier son histoire.

    Cette discipline a permis de remonter dans le passé sur une durée de 13.7 Milliards d’années.
    A cette époque, l’Univers occupait un volume très réduit et était constitué de rayonnements pratiquement purs autrement dit il ressemblait à un océan de photons, tout ceci à très haute énergie car la température avoisinait les 1 500 milliards de degrés ! [2]
    A l’heure actuelle, nous continuons à baigner dans cet océan même si ce dernier a perdu presque toute son énergie lors de l’expansion de l’Univers. Il s’agit du fameux rayonnement cosmologique fossile.

    La question qui se pose est alors assez simple à formuler.
    En remontant le temps jusqu’à cette période, nous serions en présence d’un point de départ hypothétique de l’Univers que l’on pourrait appeler « instant zéro ».

    Or, ce fameux instant zéro pose un énorme problème conceptuel, en effet, ce dernier est-il issu d’un état antérieur (*) – hypothèse de l’immanence- ou alors est-il apparu « d’un seul coup » à partir d’un néant complet -hypothèse transcendante- [3] ?

    (*) En notant que cette formulation fait l’hypothèse qu’il existerait une sorte de temps absolu indépendant des particules qui s’agitent à la vitesse de la lumière.

     

    De la cosmogonie à la cosmologie

    L’astronomie ou science de l’observation des étoiles est âgée de plus de 5000 ans. C’est sans doute l’une des plus anciennes disciplines de la recherche humaine, cette dernière consiste à tenter de comprendre les mécanismes du fonctionnement des astres observés dans le ciel.
    De nombreuses cosmogonies naïves, la plupart du temps reliées aux religions, ont été établies au fil du temps. On trouve par exemple l’idée selon laquelle notre planète serait plate et portée sur le dos d’une tortue géante ou la croyance au créationnisme d’une terre étant apparue voici 6000 ans à l’aide d’un coup de baguette magique provoqué par un dénommé « Dieu » (cette croyance reste cependant muette sur l’origine de ce dernier) !

    Religion débile

    Cependant, la notion d’histoire de l’Univers avec un début et peut être une fin est récente. En effet, après la révolution Copernicienne les premières hypothèses scientifiques sérieuses furent basées sur un Univers infini et immobile, autrement dit statique.

    Cette vision a perduré jusque dans les années 1930, elle fut même partagée par Einstein durant le développement de sa théorie de la Relativité Générale (RG).
    Après avoir relié l’espace et le temps en un seul bloc, ce dernier établit sa fameuse équation qui modélise comment la matière/énergie modifie la géométrie de l’espace-temps.
    À l’instar de ses contemporains, Einstein croyait en un Univers statique et infini. Cependant son équation lui faisait apparaitre un comportement dynamique. Il ajouta alors arbitrairement un ingrédient « ad-hoc » à cette dernière avec la fameuse constante cosmologique « Lambda » pour coller à la croyance consensuelle de son époque.

    Cependant, un nouveau changement de paradigme eut lieu en 1929 lors de la découverte du décalage vers le rouge de la lumière des galaxies lointaines par l’astronome Edwin Hubble.
    Cette fois la seule explication plausible consistait à considérer un Univers en expansion isotrope avec une certaine vitesse proportionnelle à la constante de Hubble. En clair cela signifie que tous les amas de galaxies s’éloignent les uns des autres en étant entrainés par une sorte de création permanente d’espace.

    Coté mathématiques, la découverte des équations éponymes de Friedmann et Lemaitre confirmèrent que les équations de la RG admettaient des solutions non stationnaires.
    Albert Einstein supprima donc la constante cosmologique de son équation, il écrivit alors à son ami le physicien russe George Gamov qu’il avait commis « la plus grande erreur de sa carrière » avec l’introduction de cette dernière.

    Cette mini-révolution signa la naissance de cette nouvelle branche de l’astrophysique appelée « cosmologie ».

    La Cosmologie, une histoire d’expansion à partir d’un « point »

    Les grecs anciens considéraient que le monde était constitué de quatre éléments (air, terre, feu eau).
    A l’échelle de l’histoire humaine, cette conception primitive fut assez récemment  abandonnée au profit de celle de la physique moderne qui, curieusement, est également basée sur quatre interactions fondamentales. Ces dernières servent de « liant » à un bestiaire d’environ 50 particules matérielles identifiées appelées « Fermions » [4].
    Ces quatre interactions concernent d’abord la gravitation et la force électromagnétique agissant à toutes les distances, on distingue ensuite deux interactions nucléaires à très courte portée réservées aux liaisons dans les noyaux atomiques.

    Étant acquis que lUnivers observable [5] était en expansion au cours du temps, il devint évident qu’en un temps très reculé, ses dimensions étaient probablement beaucoup plus réduites. Les équations de la RG indiquant même que l’Univers aurait théoriquement été concentré en un point.

    Cependant, la RG ne faisait intervenir que la gravitation en négligeant les trois autres interactions. Cette approximation ne pouvait plus s’appliquer à une époque où l’Univers était tellement concentré que les autres interactions devenaient prépondérantes.

    De plus, les physiciens pensent qu’à de très hauts niveaux d’énergie tels qu’au voisinage de l’instant zéro dite « ère de Planck« , les quatre forces fondamentales n’en faisaient qu’une, il s’agit de la théorie de grande unification appelée GUT en anglais (Grand Unified Theory). Cette force primaire se serait alors rapidement séparée en quatre interactions selon un phénomène appelé rupture de symétries.
    Cependant cette théorie est loin d’être finalisée, elle ne concerne que la première fraction de seconde.
    Pour modéliser la période suivante concernant les premières minutes, il faut faire appel à la théorie quantique (TQ).

    A l’exclusion de l’ère de Planck, nous avons donc deux théories qui modélisent l’histoire de l’Univers.
    En premier lieu, juste après l’instant initial on utilise la Théorie Quantique (TQ) avec des particules en interactions permanentes et très proches les unes des autres. La Relativité Générale (RG) prend ensuite le relais  avec le comportement gravitationnel à grande échelle de l’Univers (*). La gravitation devient prépondérante lorsque les atomes sont formés et suffisamment éloignés les uns des autres sous l’effet de l’expansion.

    (*) Au voisinage de l’instant zéro, la densité d’énergie impactait vraisemblablement la topologie de l’Univers embryonnaire en lui induisant une courbure extrêmement importante.

    Pour simplifier, nous considérerons dans la suite quatre particules qui à elles seules concernent 99% de l’Univers observable. Ces particules sont les protons, neutrons  et électrons, constituants de base des atomes, puis les photons, vecteurs de l’interaction électromagnétique.

    Pour être en mesure d’aller plus loin, il s’agit maintenant de définir une convention sur ce que l’on entend par le terme « Univers » dont la sémantique ne fait pas consensus.

    Qu’entend-on exactement par le terme « Univers » ?

    Historiquement, l’Univers fut d’abord considéré comme étant le contenu d’un espace vide dans lequel se déroulent des événements, concept induisant implicitement la notion de temps et de dimensions spatiales.

    Point fondamental à noter, les interactions entre les particules constituant l’Univers obéissent à des règles dénommées « lois de la physique ». Ces dernières étant indépendantes du temps et de l’espace, elles peuvent être considérées comme étant extérieures au contenu de l’Univers.

    Comme déjà évoqué, Einstein a su regrouper l’espace et le temps en une seule entité avec en plus une notion de déformation de ce dernier sous l’effet de la matière/énergie, on parle alors d’espace-temps « courbé ».

    De son coté, la Théorie Quantique a montré que le vide n’était pas vraiment vide et qu’il contenait une fabuleuse quantité d’énergie, ce dernier fut alors dénommé « vide quantique » [6].
    Cette étrange forme d’énergie n’est pas directement accessible, de plus elle ne participe absolument pas à la courbure de l’espace-temps (*). En effet pour extraire des particules du vide, il est nécessaire de leur apporter de l’énergie. Ces dernières apparaissent alors fugitivement avant de retourner à leur état initial (exemple du boson de Higgs).

    (*) Le mystère de cette fabuleuse énergie sans effet apparent sur notre Univers fut appelé « catastrophe du vide« .

    Le vide quantique est donc à exclure du contenu de l’Univers dans la mesure où il ne participe ni à sa courbure ni à sa topologie.

    Aux origines de l’histoire de l’Univers, ce dernier était constitué d’un champ de rayonnements à très haute énergie qui lors d’un « tohu-bohu » [7] a généré des particules matérielles à hauteur d’environ 1% de l’énergie initiale.
    Ce dernier est d’ailleurs aujourd’hui toujours présent avec une densité d’énergie très faible sous la forme du fameux fond cosmologique résiduel.

    Notons enfin que nous ne détectons que la partie de l’Univers qui est visible, cette dernière est limitée par ce que l’on appelle l’horizon cosmologique. Au delà de ce dernier, la lumière de ce qui se trouve derrière ne nous est pas encore parvenue. Nous ne savons donc pas si l’Univers est fini ou infini [5].

    Horizon cosmologique

    Pour résumer, les entités que l’on a identifiées peuvent être classées en deux groupes selon qu’elles font ou non partie de notre définition de l’Univers.

    Ce qui est inclus dans l’Univers

    . Fond cosmologique fossile constitué de photons très fatigués !
    . Particules matérielles, atomes, étoiles, planètes, etc.
    . Photons émis par les réactions nucléaires des étoiles, galaxies, amas, etc.

    Ce qui n’est pas inclus dans l’Univers

    . Vide quantique
    . Lois de la physique

    La question de l’instant zéro

    L’histoire de l’Univers dont on vient de définir le contenu est assez bien comprise.
    Notons cependant que certaines questions fondamentales sont non résolues par le modèle cosmologique mainstream dit « ΛCDM » [8] et que ce dernier est sérieusement attaqué par un modèle concurrent appelé Janus [9] proposé par le physicien Jean-Pierre Petit, cependant les principes fondamentaux des deux modèles restent voisins (nucléosynthèse, expansion).

    Dans les premières minutes de l’Univers, la cosmologie se traduit par un formalisme mathématique basé sur la théorie quantique [4] avant de s’appuyer sur les équations de la Relativité Générale lors de la plus grande partie de son existence.
    Les physiciens travaillent donc sur une série d’équations qui traduisent en langage mathématique les fameuses lois de la physique et qui indiquent par le calcul l’état de l’Univers à chaque étape de son histoire.

    Les principes retenus pour ces modélisations sont basés sur les règles suivantes :
    . Conservation de l’énergie globale de l’Univers en fonction du temps
    . Conservation d’un ensemble de grandeurs comme le nombre de particules typées
    . Prise en compte d’une dizaine de constantes fondamentales de la physique
    . Utilisation des équations de la physique à savoir RG, TQ, QED, électromagnétisme et thermodynamique (*)

    (*) Équations de champs d’Einstein, Schrödinger, Boltzmann, Maxwell et Lagrangien du modèle standard.

    On constate immédiatement que l’un des principes fondamental de la physique repose sur la conservation de l’énergie. Cela signifie qu’à l’instant zéro ou du moins juste après, l’énergie de l’Univers actuel était déjà la même concentrée dans un volume beaucoup plus réduit.
    Cette loi induit donc qu’il est inutile de prendre en compte l’idée selon laquelle l’Univers serait apparu à partir de rien, n’en déplaise au pape Jean Paul II qui a déclaré -certes avec humour- au physicien Stephen Hawking :
    « Vous vous occupez de ce qui se passe après le Big Bang et moi de ce qui s’est passé avant ! » [10].

    Nous venons donc de voir que la physique ne sait pas prendre en compte l’hypothèse de la transcendance, il ne reste donc que celle de l’immanence.

    Une graine d’Univers qui aurait germé dans le vide quantique ?

    Nous avons vu que le vide quantique possède en théorie une densité d’énergie considérable [6], cependant cette dernière se trouve dans un état désincarné et quasiment inaccessible.

    L’idée vient alors immédiatement d’un état précédent l’apparition de l’Univers avec le vide quantique seul. Un événement fondateur non identifié aurait alors fait sortir de ce vide un champ de rayonnements à très haute énergie, ce dernier aurait en quelque sorte fait office d’une « graine d’Univers ».
    Ce champs étant alors celui que l’on a déterminé comme étant cet océan de photons à environ 1500 Milliards de degrés.

    Marchand de sablePeu de choses pertinentes peuvent être dites sur la première fraction de seconde de l’Univers (10-43 seconde !) dite « ère de Planck » (déjà citée), en effet la théorie quantique ne s’applique plus.

    Le problème de l’origine de l’Univers se déplace alors vers celui de la nature ce fameux vide quantique. Ce dernier, comme évoqué dans cet article, est un véritable nouveau continent à explorer [6].

    Toutes proportions gardées, nous sommes dans une situation similaire à celle de l’exploration maritime des océans au XVIe siècle. Des avancées technologique (caravelles, astrolabes) permirent alors de partir en exploration vers l’inconnu pour en arriver à la découverte du nouveau monde.
    Avant cette époque, la question de la topologie de la Terre restait ouverte avec ceux qui pensaient qu’elle pouvait être plate et d’autres qui la croyaient sphérique.

    La question de la topologie de l’Univers présente des similitudes avec les interrogations de cette période.
    En effet, les mesures de courbure effectuées par l’analyse du rayonnement fossile sembleraient montrer que l’Univers est Euclidien (plat) et peut-être infini.
    Certains chercheurs estiment cependant que ce dernier pourrait être fini et fermé avec une topologie courbe ou plate. Dans le premier cas on aurait à faire à un Univers hyper-sphérique, dans le second il pourrait ressembler à un hyper-tore.
    La figure ci-dessous représente une sphère et un tore qui sont des surfaces en deux dimensions, les hyper-surfaces sont construites en trois dimensions non représentables pour l’esprit humain.

    Tore et sphère

    Cette hypothèse est assez séduisante dans la mesure où un Univers fini et fermé pourrait être immergé dans un espace bien plus vaste de topologie Euclidienne. Ce dernier -qui pourrait être le vide quantique- comporterait au moins une dimension spatiale supplémentaire.
    Le théorème de plongement de Nash (*) démontre la validité mathématique de ce concept.

    (*) John Forbes Nash,  célèbre mathématicien américain souffrant de schizophrénie et titulaire d’un prix Nobel d’économie et de son équivalent en mathématiques, le prix Abel.

    Nous pourrions alors être en présence de plusieurs autres Univers voisins du notre qui cohabiteraient dans un même espace Euclidien associé au vide quantique, il s’agit de la théorie de cosmologie branaire.

    Certains physiciens émettent l’idée que ces Univers voisins pourraient être détectés par leur influence gravitationnelle sur le notre.
    La très faible intensité apparente de la gravitation s’expliquerait alors par le fait qu’elle se diffuserait dans au moins une dimension d’espace supplémentaire, à savoir dans quatre dimensions au lieu de trois. La réalité ontologique de cette quatrième dimension d’espace est quasiment démontrée à travers les expériences de NDE, voir ici.

    Pour avancer il est nécessaire d’en savoir plus sur le vide quantique. L’invention des caravelles, navires capables d’affronter la haute mer, a contribué à la découverte du « nouveau monde ».
    Les caravelles ont été remplacées par des accélérateurs de particules géants tels que le LHC de Genève et ses successeurs.
    Ces énormes moyens sont fondamentaux pour tenter de percer les secrets de la création.

    En résumé, la science n’envisage pas une création ex-nihilo mais plutôt un Univers qui serait né d’un ensemble immanent plus grand appelé vide quantique [10].
    L’instant zéro pourrait correspondre à un transfert d’énergie du vide constituant une « graine » qui se serait développée conformément aux lois de la physique.

    Le plus grand mystère de l’Univers est donc bien celui de cette poignée de photons jetée en dehors du vide quantique pour constituer notre niveau de réalité.
    En obéissant à des lois dont l’origine est par ailleurs inconnue, ces photons très énergétiques se sont transformés en un Univers matériel complet.
    Ce dernier a finit par faire apparaitre la vie, puis l’humanité sur une petite planète bleue (*) qui n’est qu’un grain de poussière perdu au milieu de ce vaste ensemble.

    (*) Et aussi très probablement ailleurs.

    Références
    [1] Histoire de l’univers – Partie 1 : Naissance et Topologie – sur ce site
    [2] « Les 3 premières minutes de l’univers » – Steven Weinberg (1977, réédition 1988)
    [3] « Discours sur l’origine de l’Univers » – 2010 – Étienne Klein
    [4] Histoire de l’univers – Partie 2 : Introduction à la physique fondamentale (pour les nuls !) – sur ce site
    [5] Mille milliards de soleils – sur ce site
    [6] Le vide quantique : un nouveau continent à explorer  – sur ce site
    [7] « Le Big Bang » BD Lanturlu de Jean Pierre Petit (Télécharger ici)
    [8] Histoire de l’univers – Partie 5 : Grandeur et décadence du modèle standard de la cosmologie – sur ce site
    [9] Histoire de l’Univers – Partie 6 : Modèle Janus, le futur de la cosmologie ? – sur ce site
    [10] « Y a t’il eu un instant zéro ?» – 2015 – Étienne Klein

    v1.2 – 2648 mots (MAJ 24/07/2018)

    Cet article est publié sur Agoravox ici.

    source première

  • Vampira et les ear cuffs...

    Extrait de l'Histoire des tours d'oreille  

    L'étonnante et "scandaleuse" Maila Nurmi

    Cette actrice finno-américaine créa le célèbre personnage de Vampira (série télévisée)dans les années 1954/56.
    Elle était présentatrice de "Movie Macabre" sur la chaîne ABC, où elle présentait des séances de films d'épouvante. Son personnage influença profondément l'esthétique du mouvement gothique ainsi que le mythe de la femme vampire.
    Pour l'adapter à son look, elle donna un coté futuriste/elfique aux tours d'oreille, en opposition au coté glamour des earrites.
    Une des premières punks avant l'heure.
    Amie de James Dean, elle fut mise sur liste noire à Hollywood vers 1956 pour ses opinions politiques et pour sa vie privée, jugée trop scandaleuse.

     Maila Nurmi, alias Vampira avec un tour d'oreille futuriste  Maila Nurmi,arbore un tour d'oreille  Maila Nurmi,arbore un tour d'oreille, pointu d'elfe noire



    Années 60 70

     

     Edie Sedgwick portant un tour d'oreille lors d'une fête à New York
    Andy Warhol avec son amie Edie Sedgwick portant un tour d'oreille lors d'une fête à New York en novembre 1965
    (photo walter Daran).

     Reproduction du tour d'oreille en étoile d'Edie Sedgwick
    Version contemporaine

    très inspirée du tour d'oreille

    en étoile d'Edie Sedgwick

     

    Lire la suite...

     

  • Jain: Alright

    Clip très travaillé, une fois de plus avec moults effets visuels...

    Jain naît le 7 février 1992 à Toulouse.

    Elle a des origines malgaches par son grand-père maternel. Elle parcourt le monde pour suivre les impératifs professionnels de son père, employé d'une compagnie pétrolière. À neuf ans, Jain part avec sa famille à Dubaï où son père est muté. C'est là qu'elle commence les percussions arabes. À l'âge de douze ans, elle se trouve au Congo-Brazzaville où elle découvre la batterie synthétique et trouve certaines de ses influences et son goût pour les mélodies dansantes. Au cours de ses diverses expériences dans les pays qu'elle fréquente, elle découvre des musiques différentes qui sont à l'origine du métissage de ses propres compositions. Elle apprend les percussions arabes au Moyen-Orient et la batterie en Occident (en France, à Pau). Elle passe son baccalauréat à Abu Dhabi. À dix-huit ans, elle se rend à Paris pour intégrer une école préparatoire en art.

    Elle choisit de prendre le pseudo Jaïn en référence à une phrase du jaïnisme, religion proche de l'hindouisme qui dit : « Ne sois pas désolé de perdre et ne sois pas fier si tu gagnes »

  • Anthesis

    Jason Barton


    «Anthesis» -

    «Sensory Overload» à la Corey Helford Gallery de Los Angeles.( Exposée du 21 janvier au 18 février 2017)

    04044f14dd0f2256899fea42f9e20dfc.jpg

  • Cosmologie et Janus 2/2

    Voici la suite (plus ardue mais avec quelques schémas simples et très parlants):

    même source

                                                                                            ***

    4. Le modèle Janus

    Ce chapitre va présenter la synthèse des modifications apportées par le modèle Janus aux théories actuelles en commençant par le modèle standard de la physique des particules.

    A. Enrichissement du modèle standard des particules

    Le Modèle standard de la physique « 1.0 »

    Le Modèle Standard de la physique [2] a établit un jeu de 25 particules différentes (*) qui suffisent à décrire tous les phénomènes constatés par la physique expérimentale sauf la gravitation qui est théorisée par la Relativité Générale.

    (*) Non comptées les particules d’antimatière de charge électrique inversée.

    Les 17 particules du modèle standardLes 25 particules à masse positive du modèle standard

    Les particules du Modèle Standard forment deux grandes familles avec d’une part les fermions (Quarks et Leptons), en gros des particules dites matérielles possédant une masse et d’autre part les bosons, particules sans masse (sauf les Z et W) qui sont les vecteurs d’interactions entre les fermions.

    Toutes ces particules possèdent plusieurs propriétés physiques dont nous retiendrons ici principalement :
    – la masse
    – l’énergie pour les particules de masse nulle
    – la charge électrique
    – des règles d’interaction

    La notion de masse
    La masse est une forme d’énergie concentrée, masse (m) et énergie (E) sont reliées par la célèbre formule d’Einstein E = mc2 (c = vitesse de la lumière).
    Intuitivement, la masse représente une quantité de matière mais il ne s’agit pas d’un concept aussi simple qu’on pourrait le croire.
    Elle est représentés selon deux formes en mécanique classique avec la masse gravitationnelle et la masse inertielle considérées comme égales en Relativité Générale.
    La physique quantique utilise également une notion de masse pour les particules qui serait acquise grâce au fameux boson de Higgs.

    Cependant, la masse quantique et la masse relativiste sont traitées indépendamment l’une de l’autre car ces deux théories sont incompatibles.

    Dans ces deux théories, la masse est cependant considérée comme toujours positive pour ce qui concerne la matière détectable.

    Énergie
    L’énergie est un concept assez complexe à définir, elle existe sous plusieurs formes : électromagnétique, cinétique, de masse, etc.
    Elle est également considérée aujourd’hui comme une grandeur toujours positive (+) qui se conserve lorsqu’elle change de nature à travers des transformations physiques.

    Charge électrique et antimatière
    La charge électrique est une propriété fondamentale des particules, elle est théorisée par l’électromagnétisme et la QED [6].
    Par convention, la charge électrique des particules de matière fut choisie négative pour l’électron et donc positive pour le proton afin que l’atome soit électriquement neutre. Il existe également des particules à charge inversée qui constituent l’antimatière (ex : le positron est l’antiparticule de l’électron, il possède les mêmes caractéristiques sauf sa charge électrique qui est positive).
    Chaque particule du modèle standard possède son antiparticule (*), en cas de rencontre elles se retransforment en photons.

    (*) Certaines particules sont leur propre antiparticule (ex : photon).

    Règles d’interactions entre les particules
    Les fermions possèdent des règles d’interactions parfaitement définies suivant les 4 forces fondamentales qui se manifestent par des bosons associés :
    – interaction forte (Bosons = gluons)
    – interaction faible (Bosons = W+, W-, Z0)
    – interaction électromagnétique (Boson = photon)
    – interaction gravitationnelle (Boson hypothétique = graviton)

    Lorsqu’une particule interagit suivant une ou plusieurs de ces 4 forces, cette interaction se produit par échanges de bosons associés. La seule interaction qui concerne 100% des particules -y compris les bosons- est la gravitation, cependant l’existence du graviton est loin d’être démontrée. La gravitation est pour l’instant uniquement décrite par la Relativité Générale.

    Interactions entre particules M+Les particules du modèle standard à masse positive (m+) et leurs interactions possibles

    Les quarks sont les constituants des hadrons (protons/neutrons), ils sont sensibles à toutes les interactions.
    Le neutrino n’est sensible qu’à l’interaction faible et à la gravitation, c’est la raison pour laquelle il est difficile à détecter.
    L’électron quand à lui est sensible à toutes les forces sauf l’interaction forte.

    Le modèle Janus ajoute alors un nouveau jeu de particules selon des principes similaires au modèle standard.

    La particularité de ces deux ensembles de particules est que, hormis pour la gravitation, elles interagissent uniquement entre particules de la même famille. Par exemple, les photons d’énergie négative γ(-) n’interagissent pas avec les électrons d’énergie positive e(+), ces photons « négatifs » sont donc indétectables par nos appareils de mesures… œil humain inclus !

    Janus, vers un Modèle standard de la physique « 2.0 »

    Les particules ajoutées par le modèle Janus sont donc presque des jumelles des particules du modèle standard ci-dessus avec des différence de masses/énergies et de charges électriques.

    Nouvelle espèce de particules m(-)

    25 nouvelles particules à masse négative

    On ajoute donc 25 nouvelles particules dont les particularités sont les suivantes :
    1) Masses ou énergies négatives : m(-) ou E(-)
    2) Valeurs absolues des masses m(-) et énergies E(-) beaucoup plus élevées que celles des particules ordinaires m(+) et E(+).
    3) Trois des quatre interactions de la physiques n’ont lieu qu’entre des particules de même signe de masse/énergie, les particules m(-) n’interagissent qu’avec les particules m(-), idem pour les particules m(+).
    4) Les particules des deux espèces m(+)γ(+) et m(-)γ(-) interagissent toutes ensembles à travers la gravitation.

    Cette partie reste à développer, remarquons à ce niveau que les deux espèces de particules n’en forment probablement qu’une seule et qu’elles ne font que changer de référentiel lors du changement de signe de leur masse/énergie avec un mécanisme dont le détail reste à préciser.

    Interactions m+ m-Interactions possibles entre les particules des deux espèces

    Coté interaction gravitationnelle, c’est le domaine de la Relativité Générale qu’il va cette fois falloir modifier

    B. Relativité Générale : Janus ajoute une seconde équation de champ

    Rappelons brièvement que la Relativité Générale est basés sur les trois points suivants :
    1) L’espace (3D) et le temps (t) sont reliés entres eux sous la notion d’espace-temps (3D+t)
    2) La matière-énergie courbe géométriquement l’espace-temps
    3) L’espace-temps impose les trajectoires de déplacement (*) à la matière et à l’énergie

    (*) Nommées « géodésiques ».

    Lors de la genèse de la Relativité Générale, Einstein a travaillé avec le grand mathématicien David Hilbert, ce dernier l’aurait grandement aidé pour la formulation de son équation de champs. N’oublions pas également la contribution déterminante à la RG des brillants travaux de Riemann sur les géométries courbes effectués un demi-siècle auparavant.

    Einstein et HilbertAlbert Einstein et David Hilbert

    Nous présentons ci-dessous la première forme de l’équation de champs d’Einstein telle que ce dernier l’a publiée le 25 novembre 1915.

    Equation Einstein 1915

    Cette notation en apparence barbare pour les non initiés se lit de la manière suivante :
    1) Le terme de droite définit le contenu de l’espace-temps en énergie-matière (Tμν = tenseur énergie-impulsion)
    2) Celui de gauche indique sa géométrie
    3) Le terme gμν est l’inconnue de cette équation, il s’agit de ce que l’on appelle une métrique. Une métrique permet de calculer des trajectoires (*) dans l’espace-temps.

    (*) Un exemple concret : la résolution de cette équation restreinte au cas du système solaire permettrait de calculer la trajectoire (métrique) d’une sonde naviguant entre les planètes, ces dernières courbant localement l’espace-temps.

    Dans le cas de la Relativité Générale, le terme de droite fut choisit avec de la matière de masse strictement positive m(+).

    -> La question de la constante cosmologique

    En 1915, la croyance partagée par les physiciens était basée sur un Univers stationnaire, en effet l’expansion n’avait pas encore été détectée.
    Pour « forcer » son équation à se plier à la vision de l’époque, Albert Einstein y ajouta donc un ingrédient mathématique ad-hoc appelé « constante cosmologique« . On voit dans cet exemple que la physique n’est autre qu’une « cuisine » que l’on modifie lorsque la saveur souhaitée n’est pas au rendez-vous des équations !

    En 1917, la seconde forme de l’équation de champs fut publiée :

    Equation de champs avec constante cosmo

    Au début des années 1920, coup de théâtre, l’astronome Vesto Slipher  découvre  le fameux décalage vers le rouge des nébuleuses lointaines. Cette découverte fut rapidement interprétée comme la signature d’un Univers en expansion par l’abbé Lemaître (article paru en 1927) avant que la paternité de cette découverte n’en revienne injustement à Edwin Hubble en 1929.

    Vesto Slipher Vesto Slipher

    Et donc en 1923, Einstein écrit au mathématicien Weyl :
    « Si l’Univers n’est pas statique, alors au diable la constante cosmologique ! ».

    D’après le russe Georges Gamov, Einstein fit même une déclaration apocryphe sur le fait que l’introduction de cette constante fut la plus grande erreur de sa carrière.

    On ne parla plus de cette fameuse constate cosmologique durant presque un siècle lorsqu’elle fut ressortie du placard avec le modèle ΛCDM [1] dans les années 2000.
    Dans ce modèle, la constante cosmologique permet de prendre en compte l’accélération de l’expansion découverte en 1998 par Perlmutter, Schmidt et Riess (prix Nobel 2011).

    -> Le modèle JANUS remplace l’équation de champs de la Relativité Générale par deux équations

    Le physicien Jean-Pierre Petit est donc parti de l’équation de champs d’Einstein pour la transformer en un système de deux équations à deux inconnues.

    Les équations de champs de Petit sont les suivantes :

    Equations PetitLes équations de Petit

    Elles se présentent sous la forme d’un système de deux équations dont les deux inconnues sont les métriques g(+)μν et g(-)μν. La métrique g(+)μν s’applique aux particules d’énergie positives et la métrique g(-)μν à celles d’énergie négative (*).

    On distingue dans le membre de droite de chaque équation le tenseur énergie-impulsion « Tμν« , il s’agit de la contribution de l’énergie totale de l’Univers constituée de celle qui est positive  T(+)μν et de celle qui est négative T(-)μν..

    (*) On simplifie la terminologie en ne parlant ici que de particules d’énergie. En effet, cette dernière se présente soit sous forme de rayonnements sans masses (photons), soit sous forme de particules matérielles de masse m avec la relation E=mc2.

    Cette formulation traduit bien le fait que les masses positives ET les masses négatives courbent toutes les deux l’espace-temps.

    Tout corps solide ou gazeux ne peut être constitué que de matière dont la masse possède le même signe (+) ou (-) car, comme vu précédemment, seules les particules dont l’énergie est de même signe peuvent s’assembler entres elles.

    Il existe dons deux cas de figure selon que nous percevions les masses positives (c’est notre cas) ou les masses négatives :
    1) Étant dans un état de type « masses positives », nous détectons dans le cosmos un excès de courbure (g(+)μν) induit par les masse négatives nous étant invisibles.
    2) Si l’on arrivait à inverser notre masse de manière à passer en « masses négatives », alors on détecterait « symétriquement » la contribution des masses positives à la courbure inverse (g(-)μν) que l’on percevrait. A la place des vides détectés entre les amas de galaxies lumineuses, nous percevrions de gigantesques sphéroïdes rougeoyants constitués de matière négative attractive pour la matière m(-) et répulsive pour la matière m(+).

    Cas où la matière de masse positive est prépondérante

    On remarque que dans une zone de l’espace où la densité de matière négative est négligeable devant celle de matière positive, alors le terme T(-)μν sera proche de zéro.
    On retrouve alors la formulation de l’équation de champs initiale d’Einstein « vue depuis les masses positives » sans constante cosmologique :
    Equations Petit 1 - Approx RG
    Concernant la seconde métrique g(-)μν issue de la seconde équation, cette dernière représente alors les trajectoires d’une particule de matière négative « égarée » dans une zone de matière positive.

    Les constantes G et c sont différentes pour les deux familles de particules

    Les constantes telles que vitesse de la lumière ou gravitation  sont de valeurs différentes entre les deux types d’environnements, en effet, pour les particules d’énergie négative, ces dernières sont beaucoup plus élevées.

    (Voir la vidéo de JPP JANUS 15).

    -> Le modèle JANUS fait disparaitre le paradoxe de l’effet Runaway

    Le calcul de Bondi qui menait au paradoxe Runaway consistait à appliquer aux masses positives et aux masses négatives une équation unique, soit l’équation de champs d’Einstein.
    Cette fois, nous appliquons une équation différente aux masses positives et aux masses négatives, et alors le calcul montre que le paradoxe Runaway disparait.

    Pour retrouver la notion de forces, on effectue ce que l’on nomme une approximation Newtonienne qui consiste à considérer de faibles courbures de l’espace-temps (cas du système solaire par exemple), alors on trouve les relations suivantes :

    Les masses positives s’attirent selon la loi de Newton
    Les masses négatives s’attirent selon la loi de Newton
    Les masses de signes opposés se repoussent selon « anti-Newton »

    On obtient donc cette fois un modèle physiquement cohérent :

    Modèle Janus - Approximation NewtonienneModèle Janus

    © Travaux publiés en 2014 [JPP2014-1].

    -> Compatibilité ascendante des théories gravitationnelles de Newton, Einstein et Petit

    En synthèse, nous obtenons un nouveau modèle plus général qui assure une compatibilité ascendante avec les modèles précédents :

    Compatibilité 3 modèles cosmologiquesCompatibilité ascendante des trois modèles de la gravitation

    C. Instant zéro et constantes variables

    -> Le problème du temps à l’instant zéro

    Le problème de l’instant « zéro » a été abordé dans l’article ici [7].

    Le modèle standard de la cosmologie évoque un temps infinitésimal dit « temps de Planck », en deçà duquel la théorie quantique ne s’applique plus car nous sommes en dessous du « plus petit élément possible de temps ».

    Cependant, la notion de temps n’a plus de sens dans une soupe primordiale où toutes les particules sont proches de la vitesse de la lumière, en effet à cette vitesse, le temps ne s’écoule plus !

    JPP Chronologicon (BD)
    La mesure du temps se fait usuellement en comptant le nombre de tours d’une aiguille sur une pendule. Afin de redonner un sens physique à la notion de temps au tout début de la vie de l’Univers, JP Petit propose une horloge conceptuelle constituée de deux particules en rotation autour de leur centre de gravité.

    Horloge élémentaire
    On pourra alors calculer le nombre de tours de cette horloge au voisinage de l’instant zéro.

    -> Un modèle à constantes variables

    Nous avons vu dans l’article précédent [1] que les calculs de la progression de l’horizon cosmologique durant l’expansion montraient que cet horizon n’avait pas permis d’échanges d’informations entre toutes les particules du fond cosmologique. En conséquence, sa remarquable homogénéité en température était inexplicable.
    C’est pourquoi le concept controversé « d’inflation » fut proposé.

    Il existe une autre explication, en effet, si l’on suppose que la vitesse de la lumière fut plus élevée durant la phase radiative, alors les particules auraient pu interagir pour homogénéiser leur température.

    Cependant, dans cette hypothèse, les équations de la physique (thermodynamique, quantiques, ….) ne fonctionnent plus….sauf si l’on suppose que toutes les « constantes » varient en même temps pour :
    1) Conserver la validité des équations (*).
    2) Assurer la conservation de l’énergie.

    (*) Équations de Schrödinger, de champs d’Einstein, de Boltzmann et de Maxwell.

    Constantes physique variablesVariation des constantes durant l’ère radiative

    Avec ce modèle, la taille de l’horizon cosmologique « suit » l’expansion de l’Univers jusqu’à la date de 380 000 ans, date où laquelle les constantes se stabilisent.
    Le problème de l’homogénéité du fond cosmologique fossile disparait alors sans faire appel à l’inflation.

    (Voir la vidéo de JPP JANUS 23).

    -> Instant zéro

    Avec ce modèle, si l’on calcule le nombre de tours de notre horloge élémentaire en se rapprochant de l’origine, on trouve que ce dernier tend vers l’infini !

    L’Univers n’aurait donc pas de début…

    D. Dissymétrie matière/antimatière

    Ce mystère n’est pas à proprement une nouveauté apportée par le modèle Janus, cette partie reprend en fait les travaux du prix Nobel Andreï Sakharov.

    Sakharov est en effet le premier a avoir proposé un premier niveau d’explication au mystère de l’absence d’antimatière de masse positive.

    D’après ce dernier, la nucléosynthèse des quarks et antiquarks aurait produit en quantité égale ces deux espèces.
    S’est alors ensuivie la Baryogénèse ou formation des protons et neutrons (baryons) ainsi que de leurs antiparticules (antibaryons) formés par l’assemblage de trois quarks.
    A travers les trois conditions dites de Sakharov, ce dernier émet alors l’hypothèse que l’assemblage des baryons serait un peu plus rapide que celui des antibaryons, et donc lorsque la température de l’Univers descendit en dessous du seuil de création de ces derniers [1], il serait resté un excédent de baryons (dont l’utilité ne fait aucun doute !) ainsi qu’un résidu d’antiquarks « libres » ne s’étant jamais assemblés entre eux, ce dernier résidu serait alors toujours présent.

    QuarksDes antiquarks encore présents à l’état libre ?

    Ce problème est loin d’être résolu, cependant des expériences telles que « BaBar » semblent avoir mis en évidence l’une des conditions de Sakharov, soit la violation de symétrie CP (PDF).
    Les recherches sont en cours sur cette question qui pourrait avoir un impact majeur sur le modèle standard de la physique.

    (Voir la vidéo de JPP JANUS 12).

    5. Modifications apportées par Janus sur l’histoire de l’Univers

    Le déroulé de l’histoire de l’Univers décrit dans le modèle standard [1] reste valable dans ses grandes lignes.

    Cependant, la « soupe cosmique » initiale présente maintenant deux populations de particules distinctes qui n’interagissent pas entres elles (*) :
    – les particules d’énergie positive
    – les particules d’énergie négatives

    (*) Un peu comme si l’on secouait un mélange d’eau et d’huile dans un flacon.

    Particules principales 2 familles

    L’énergie individuelle des particules négatives est cependant très supérieure à celle d’énergie positives. Cette caractéristique se retrouvera alors sur les masses des particules de types « fermions négatifs » créées par collisions de photons à hautes énergies négatives.
    Le différentiel des masses  m(-) est pour l’instant estimée entre 8 et 64 fois la masse m(+) des particules « ordinaires ». Cette valeur reste à mesurer précisément à l’aide d’observations indirectes des masses de matière négatives.

    Avant la transition de l’Univers vers la phase matière, la gravitation était négligeable devant les trois autres interactions possibles entre les particules. Comme vu plus haut, les particules d’énergie négatives eurent une histoire très voisine de celles des particules positives.

    Les deux familles de particules évoluent indépendamment

    Horloge cosmique→ Environ 34 minutes après le big bang
    A l’issue de la phase radiative nous avons donc la situation suivante :
    ⇒ famille énergie positive
    . Fermions m(+) : noyaux d’hydrogène prépondérants, noyaux d’hélium, électrons
    famille énergie négative
    . Fermions m(-) (*) : noyaux d’hydrogène prépondérants (*), noyaux d’hélium, électrons

    (*) Il s’agit en fait d’anti-fermions de charges électriques inversées, mais nous oublierons pour l’instant cet aspect afin de ne pas complexifier l’explication.

    Horloge cosmique→ Transition vers la phase matière : 380 000 ans après le big bang
    Dans cette phase, nous avons donc un double découplage photons/électrons avec :
    . la libération des électrons de masse (+) permettant la constitution des atomes m(+) d’hydrogène et d’hélium
    . la libération des électrons de masse (-) permettant la constitution des atomes m(-) d’hydrogène et d’hélium

    Avec une densité des particules de masses négatives très supérieure à celle des particules de masse positive.

    Situation à la sortie de la phase radiative

    A la sortie de la phase radiative, la situation de l’Univers est la suivante :
    . Famille de particules de masse positive : 87% d’hydrogène m(+) et 13% d’Hélium m(+)
    . Famille de particules de masse négative : hydrogène m(-) et Hélium m(-), les ratios sont à déterminer
    . Un fond cosmologique de photons à énergie positive E(+)
    . Un fond cosmologique de photons à énergie négative E(-), indétectable pour nous.

    Pour être complet, signalons qu’il reste également des fond de quarks et de neutrinos dans les deux familles d’énergie.

    Les bases du modèle Janus étant posées, voyons maintenant comment ce dernier explique les huit principales questions non résolues par le modèle ΛCDM.

    6. Janus répond aux questions sans réponses de ΛCDM

    Question 1 : instant zéro

    D’après ΛCDM, le premier intervalle de temps de l’Univers (temps de Planck) est hors des lois de la physique connue, nous sommes donc dans une singularité, terme employé pour nommer un inconnu total.

    Avec le modèle Janus à constantes variables, cette barrière disparait car le temps de Planck (quanta) diminue au fur et à mesure de l’approche du « point zéro ».

    Comme vu précédemment avec notre horloge conceptuelle, une image didactique de l’Univers ressemblerait à un livre d’épaisseur finie où la page en cours est le présent, les pages suivantes le futur.
    Lorsque l’on tourne les pages vers le passé, ces dernières sont de plus en plus minces et leur nombre tend vers l’infini lorsque l’on se rapproche de la page 1 !

    Livre de l'Univers
    Cette première page contiendrait le liminaire de l’Univers où serait présenté tout ce qui va suivre, elle serait donc à jamais inaccessible…

    Question 2 : dissymétrie entre matière et antimatière

    Comme on l’a vu précédemment, pour une famille de particules, la vitesse de fabrication des particules de matière à partir des quarks serait différente de celle des particules d’antimatière.

    Coté masses positives, le résultat est donc un léger surplus de matière (*) avec un fond résiduel d’antiquarks correspondant.

    Coté masses négatives, à l’inverse on obtient un léger surplus d’antimatière avec un fond résiduel de quarks de masses négatives correspondant.

    On remarque une symétrie entre la famille résiduelle de particules à masses positives constituée de matière et la famille résiduelle à masses négatives constituée d’antimatière. Les nombres baryoniques et leptoniques de l’Univers entier seraient ils nuls ?

    (*) constituant tout de même tout l’Univers visible !
    (**) Ne pas confondre la masse et la charge électrique.

    Question 3 : homogénéité du rayonnement fossile

    Grace au modèle à constantes variables dans le début de la vie de l’Univers, l’horizon cosmologique a suivi l’expansion permettant une communication à vitesse luminique entre les particules expliquant la température homogène du rayonnement fossile.

    On remarque que la vitesse de la lumière tend vers l’infini lorsque l’on se rapproche de l’instant zéro.

    (Voir les vidéos de JPP JANUS 18 et JANUS 19).

    Question 4 : structure de l’Univers matériel en éponge avec de grands vides sphéroïdaux

    La fabrication des grandes structures

    Horloge cosmique  → Horloge cosmique : de 380 000 ans à ~0.5 Milliards d’années

    Après le double découplage, l’instabilité gravitationnelle théorisée par James Jeans commence à jouer son rôle, les premiers effondrements de nuages d’hydrogènes ont lieu d’abord pour la matière négative du fait de sa plus importante densité.
    Les premières grandes structures constituées de proto-étoiles (*) d’hydrogène de masse négative m(-) vraisemblablement regroupées en amas forment des sphéroïdes plus ou moins réguliers constituant la charpente de l’Univers.
    Ces structures tendent alors à repousser la matière positive qui prend une forme alvéolaire (effet « emmental ») favorable au refroidissement ultérieur du cœur des proto-étoiles.
    Ce n’est que dans un second temps que les nuages d’hydrogène « positifs » vont s’effondrer à leur tour pour constituer cette fois des étoiles qui vont « s’allumer ».

    (*) Les proto-étoiles de masse négatives seront à jamais incapables de démarrer des réactions de fusion pour constituer de véritables étoiles à cause de leur masse gigantesque.

    Simulations informatiques

    Des simulations  2D effectuées en 1992 sur le système informatique du centre DESY de Hambourg ont été effectuées par un jeune chercheur en contact avec Jean-Pierre Petit.
    En appliquant l’approximation Newtonienne sur 5000 points-masses de matière négative et  5000 points-masses de matière positive avec un facteur de densité relative de 64, les simulations ont donné un résultat conforme aux observations astronomiques.

    C’est le seul modèle capable de représenter la genèse de l’Univers observable.

    Simulation Univers avec 2x 5000 points-masseSimulations de 1992 sur 10 000 points masses de matières (+) et (-)

    On distingue sur la vue de gauche les agglomérats de matière négative se constituant en premiers, ces derniers repoussent la matière positive créant ainsi une géométrie alvéolaire (image centrale).
    La vue de droite montre l’ensemble des deux familles de matière.

    Ces simulations demanderaient à être poursuivies en travaillant cette fois en 3D et avec prise en compte de l’expansion cosmique (*). Les capacités de traitement des machines actuelles permettent de travailler sur un nombre de points masses de plusieurs milliards qui permettraient d’obtenir une grande précision dans les résultats.

    © Travaux publiés publiés en 1995 dans la revue  « Astrophysics and Space Science » [JPP1995].

    (*) La question des conditions aux limites serait aisément résolue en travaillant sur une hypersphère S3.

    Question 5 : stabilité des galaxies en rotation

    -> Janus explique la stabilité des galaxies spirales en rotation

    Contrairement à ce que l’on pourrait croire, la rotation des galaxies spirales sur elles mêmes pose un énorme problème. En effet, un calcul simple d’attraction gravitationnelle montre que les étoiles périphérique devraient être éjectées de leur orbite sous l’effet de la force centrifuge induite par leur rotation (*).

    (*) L’année galactique du soleil (un tour complet) vaut environ 250 millions d’années.

    Le modèle Janus répond à ce problème jamais résolu en considérant que les galaxies sont confinées par un environnement extérieur de  matière de masse négative.

    Les simulations 2D effectuées également en 1992 montrent la genèse d’une galaxie à partir d’un nuage de gaz condensé qui se met en rotation puis se stabilise et perdure durant des dizaines de tours, soit une durée supérieure à l’age de l’Univers.

    Simulation galaxie spiraleSimulation d’une galaxie spirale (droite) à partir d’un nuage de gaz (gauche)

    Résultat à comparer avec l’exemple de la galaxie NGC 1300 observée par le télescope Hubble :

    Galaxie NGC 1300Galaxie NGC 1300

    Le principe sous-jacent à ce modèle de galaxies en rotation est celui de la tasse de café avec un nuage de lait (confiné par la tasse) !

    Tasse de café et galaxie

    Question 6 : accélération de l’expansion cosmique

    -> Janus explique l’accélération de l’expansion de l’Univers

    A la sortie de l’ère dite radiative, soit à 380 000 ans après le début, nous nous trouvons en présence de deux Univers de poussière qui évoluent conjointement.

    Une solution exacte des deux équations de champs de Petit démontre que l’accélération de l’expansion est due à l’influence des masses négatives.

    L’expansion sera cependant vue différemment selon que l’on considère la métrique associée aux masses positives ou celle des masses négatives.

    © Travaux publiés en 2014 [JPP2014-1].

    Point de vue des masses positives

    L’expansion « vue depuis les masses positives » obéit à une équation découverte par le mathématicien Wiliam Bonnor.

    La courbe obtenue avec cette équation montre une accélération de l’expansion se confondant parfaitement avec les observations :

    Accélération Univers selon JanusObservations et courbe Janus

    Point de vue des masses négatives

    L’expansion « vue depuis les masses négatives » quand lui décélère et obéit à un modèle classique de Friedman.
    Le fait que l’on détermine une décélération est certes contre intuitif, mais reste parfaitement cohérent à partir du moment où l’on a deux métriques différentes qui déterminent deux manières différentes de mesurer les distances.

    Coté masses positives, on a une vitesse de la lumière et une certaine mesure des distances et coté masses négatives, une vitesse de la lumière plus élevée et des distances apparentes….plus courtes !
    (Voilà du grain à moudre pour les philosophes).

    (Voir la vidéo de JPP JANUS 16).

    © Travaux publiés en 2014 [JPP2014-2].

    Question 7 : mystère du « Great Repeller » et des sondes Pioneer

    Le Great Repeller découvert en 2016 (PDF) est tout simplement constitué d’un conglomérat de masses négatives (cluster) qui repousse les masses positives dans son voisinage selon « anti-Newton ».

    Great Repeller selon JanusLe mystère du « Great repeller » résolu

    Et pour le cas du ralentissement des sondes Pioneer, ces dernières sont entrées dans une zone où il existe une relativement faible densité de matière négative suffisante cependant pour induire un ralentissement de ces dernières.

    (Voir la vidéo de JPP JANUS 17).

    Question 8 : courbures locales de l’espace anormalement importantes

    Considérons une galaxie A placée derrière un amas B qui, d’après la Relativité Générale courbe l’espace dans son voisinage. L’observateur X va donc constater un effet de lentille gravitationnel supposé lié uniquement à l’influence de l’amas B.

    Courbure espace masse +Cependant, les calculs à partir de l’équation d’Einstein montrent que la quantité de matière détectée dans l’amas B ne suffit pas à expliquer la courbure constatée en C.

    Le modèle ΛCDM fait l’hypothèse d’une matière noire supplémentaire B’ située au même endroit que B afin que la masse totale (B +B’) corresponde à la courbure constatée.
    ⇒ C’est cette matière noire qui est recherchée depuis plus de 20 ans sans succès…

    Le modèle Janus postule quand à lui que notre amas B est entouré d’un halo de matière négative C qui va « repousser » l’espace au voisinage de B, il s’agit d’un effet gravitationnel inverse de celui que provoque la matière ordinaire.

    Courbure espace masse -

    La contribution à la courbure de l’amas B seul sera faible par rapport à celui de la matière du halo D.
    Tout ceci est vérifié cette fois par le calcul de la métrique des masses positives g(+)μν.

    A ce niveau, remarquons que pour un observateur fait de masses négatives, la lumière (énergie négative) émise par un conglomérat négatif D serait déviée dans l’autre sens par le halo C et dans une moindre mesure par l’amas B (calculable avec la métrique g(-)μν).

    Point de vue observateur masse -

    (Voir la vidéo de JPP JANUS 20).

    7. Conclusion

    Le modèle Janus est royalement ignoré par la majorité de la communauté cosmologique devenue de nos jours une sorte de coterie particulièrement sclérosée.
    Fait aggravant, il n’existe aucune autre théorie aussi aboutie qui répond à la plupart des questions non résolues par ΛCDM.

    Ce n’est pas la première fois (et à coup sur pas la dernière) qu’un scientifique aura eu raison contre l’ensemble de la communauté, l’épistémologie regorge d’exemples allant dans ce sens.
    Citons le cas de Galilée qui défendit le modèle héliocentrique de Copernic contre d’une part les tenants des théories aristotéliciennes et d’autre part le puissant pouvoir religieux de l’époque (la laïcité était encore loin).
    Autre cas, celui de Ludwig Boltzman fervent partisan de l’atomisme ayant eu raison avant tout le monde et qui finit par se suicider devant l’hostilité de ses pairs.

    Le fait de proposer une théorie à contre courant ne suffit pas bien entendu pour en déduire qu’elle est meilleure que celle qu’elle remplace. Cependant, à partir du moment où une théorie est conceptuellement explicite et mathématiquement robuste, et surtout capable de proposer des explications là où sa concurrente ne dit rien, alors elle mérite à minima d’être prise au sérieux et examinée de près.

    L’histoire des sciences nous a également montré que même si une bonne théorie ne s’impose pas toujours d’elle même, ce sont ses détracteurs qui finissent par disparaitre, ce n’est peut être qu’une question de temps pour que la Relativité Générale soit remplacée par le modèle Janus et l’équation de champs d’Einstein par les équations de Petit !

    Liens :
    [1] Histoire de l’univers – Partie 5 : Grandeur et décadence du modèle standard de la cosmologie
    [2] Histoire de l’univers – Partie 4 : Le Modèle standard de la physique
    [3] Mille Milliards de soleils (Sur ce site)
    [4] Site officiel de Jean-Marie Souriau ici.
    [5] Structure des systèmes dynamiques – JM Souriau (1970)
    [6] Histoire de l’univers – Partie 3 : QED…vous avez dit QED ? (Sur ce site)
    [7] Instant zéro, le plus grand mystère de l’Univers (Sur ce site)
    [8] Site Jean-Pierre PETIT ici.

    Documents publiés par Jean-Pierre PETIT en relation avec le modèle Janus :
    Chaine Youtube JPP (23 vidéos Janus) ici.
    https://www.youtube.com/user/JPPETITofficiel

    Site JPP : modèle cosmologique Janus ici.
    http://www.jp-petit.org/science/JANUS_COSMOLOGICAL_MODEL/JMC.htm

    Bande dessinée JPP : « L’Univers gémellaire » – PDF ici.

    « Modèle Janus – 40 années de travail » – PDF ici.
    « L’Univers Janus – Partie 1 » – PDF ici.
    « L’Univers Janus – Partie 2 » – PDF ici.

    Livres :
    « On a perdu la moitié de l’Univers » – JP Petit (Albin Michel 1997)
    « OVNI L’extraordinaire découverte – JP Petit & JC Bourret (Trédaniel 2017)

    Articles JPP dans revues à comité de lectures :

    [JPP1995] J.P.Petit : « Twin Universe Cosmology »
    Astrophysics and Space Science (1995) – p. 226, 273‐307.

    [JPP 2014.1] J.P.Petit and G.D’Agostini : « Negative mass hypothesis and the nature of dark energy« .
    Astrophysics and Space Science (2014) 354 : 611-615 20 sept 2014 DOI 10.1007/s10509-014-2106-5

    [JPP 2014.2] J.P.Petit and G.D’Agostini : « Cosmological bimetric model with interacting positive and negative masses and two different speeds of light in agreement with the observed acceleration of_the Universe ».
    Modern Physics Letters A. – Vol. 29, No. 34 (24 oct. 2014) 1450182 (15 pages) DOI: 10.1142/S021773231450182X

    [JPP 2015.1] J.P.Petit and G.D’Agostini : « Cancellation of the singularity of the Schwarzschild solution with natural mass inversion process« .
    Modern Physics Letters A – vol. 30 n°9 2015

    [JPP 2015.2] J.P.Petit and G.D’Agostini : « Lagrangian derivation of the two coupled fields equations in the Janus cosmological model ».
    Astrophysics and Space Science –
    (2015) 18 apr 2015, 357:67

    Cet article est publié sur Agoravox ici.