Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

26/12/2016

Chine, à l'origine des inventions...

Vous croyez que l'imprimerie a été découverte par Gutenberg?

Pas vraiment.

C'est en Chine que sont nées les 4 grandes inventions qui ont changé la face du monde:

  l'imprimerie, le papier, la boussole et la poudre à canon.

-Imprimerie:

Avant d'être une invention de Johannes Gutenberg, la Chine avait déjà connu l'imprimerie à caractères mobiles (au IXe siècle) bien longtemps avant que la Corée et l'Occident ne re-découvrent cette dernière (au XVe siècle).

Cette technique a été abandonnée par les Chinois à l'époque car ce système n'était pas adapté à l'écriture chinoise (les idéogrammes) alors qu'en Occident, l'alphabet, par le nombre très réduit de signes auxquels il fait appel, se prête admirablement à l'imprimerie.

Les premières traces de papier imprimé retrouvées sont celles des dhāranī, en langue chinoise, de l'impératrice Shōtoku au Japon, datant du VIIIe siècle apr. J.-C. L'impression de ces premiers textes est généralement considérée comme relevant de l'influence chinoise, très forte en cette époque de pénétration de la culture et du bouddhisme chinois au Japon10,11.

« Selon les auteurs chinois, on aurait commencé à pratiquer l'impression tabellaire ou fixe sur planchettes de bois vers la fin du VIe siècle de notre ère. Dès 1317, un livre coréen est déclaré imprimé à l'aide de caractères fondus; malheureusement, on manque de preuves concrètes à l'appui. En 1403, un décret royal de Htai-Tjong prescrit l'extension du procédé, mais l'Occident n'en a rien su12. »

boussole,imprimerie,chine,poudre a canon,papier

-Papier:

Le papier  le plus ancien connu à ce jour, découvert en Chine, serait daté de -8, sous la dynastie des Han de l'Ouest (-206, 25). Il s'agit d'un fragment de lettre dont le papier est fait à partir de fibres de lin, sur laquelle une vingtaine de sinogrammes anciens ont été déchiffrés. Il a été trouvé en 2006 à Dunhuang, dans la province du Gansu, et a été daté en fonction d'autres documents écrits trouvés au même endroit de la fouille.

D'après une tradition chinoise, on pensait que le papier était apparu au IIIe siècle av. J.-C. en Chine, sous le règne de Qin Shi Huang (fondateur de la dynastie Qin). Une histoire racontait que des personnes auraient alors repéré les dépôts blancs d'écume sur les rochers à la suite des crues et auraient tenté de le reproduire.

D'après une autre tradition chinoise, ce serait Cai Lun, ministre de l'agriculture qui, en 105, aurait codifié pour la première fois l'art de fabriquer du papier et en aurait amélioré la technique afin de le produire en masse.

-Boussole

La boussole permet de situer la direction : nord, sud, est et ouest. C'était un instrument essentiel pour l'orientation et les voyages.

Il y a quelques désaccords sur la date imprécise à laquelle fut inventée la boussole. Il existe des références littéraires dignes d'attention qui mettent en évidence son antiquité :

-la première référence littéraire chinoise citant le « magnétisme » se trouve dans un ouvrage du IVe siècle av. J.-C. intitulé Livre du maître de la vallée du diable  : « la magnétite fait venir le fer à lui, ou l'attire ».Pierre Germa indique dans le dictionnaire des inventions :« La boussole vient de Chine ; au Ier siècle avant notre ère, les chinois utilisaient un instrument capable d'indiquer la direction du Sud : c'est la cuillère-montre-sud. »

-la première mention de « l'attraction d'une aiguille par un aimant » se trouve dans un ouvrage chinois composé entre 70 et 80 apr. J.-C. (Lunheng ch. 47): « La magnétite attire une aiguille » (de fer). Ce passage de Louen-heng est le premier texte chinois mentionnant l'attraction d'une aiguille par un « aimant ».En 1948, le savant Wang Chen Tuo construisit un « compas » sous la forme d'une cuillère indiquant le sud sur la base de ce texte. Cependant, « on ne trouve pas de mention explicite d'un aimant dans le Louen-heng ».

-La première référence à un « instrument d'orientation » magnétique spécifique se trouve dans un livre écrit sous la dynastie des Song et daté de 1040-1044. Il y a la description d'un « poisson indiquant le sud » en fer, flottant dans un bol d'eau, et se dirigeant vers le sud. Cet instrument est décrit comme un moyen de s'orienter « dans l'obscurité de la nuit ».

Model_Si_Nan_of_Han_Dynasty.jpg

-Poudre à canon

La poudre à canon est généralement reconnue comme ayant été inventée en Chine vers le IXe siècle, durant la Dynastie Tang (618-907). La découverte semble avoir pour origine des recherches d'élixir faites dans les milieux taoïstes de l'époque des Táng, mais fut bientôt suivie par une application militaire dans les années 904-906. Il s'agissait alors de projectiles incendiaires nommés "feux volants" .

La première mention de la formule de la poudre à canon (charbon, salpêtre et soufre) apparaît dans le Wǔjīng zǒngyàode 1044, près de 250 ans avant qu'un texte européen y fasse allusion, en 1285.

La poudre à canon fut une invention majeure car elle permit ensuite l'invention de la fusée, du lance-flammes, des feux d'artifice, des mines terrestres et marines, des premières armes à feu, du canon ou encore du mortier.

 

boussole,imprimerie,chine,poudre a canon,papier

(source wikipédia)

 

29/11/2016

Divers systèmes d'élections...

16/11/2016

Réchauffement climatique ou pas?

marcel_leroux2.jpg

"Le réchauffement climatique est un mythe"

Marcel Leroux, professeur en climatologie à l’université Jean Moulin de Lyon III et directeur depuis 1986 du Laboratoire de Climatologie, Risques, Environnement (CNRS), est l’auteur du premier livre de climatologie en français traduit en anglais, La Dynamique du temps et du climat (éditions Dunod, 1996). Après la parution de The Meteorology and Climate of tropical Africa, aux Editions Springer en 2001, il a achevé son troisième ouvrage, Global Warning, myth or reality, disponible depuis décembre 2006.

Pour ce climatologue iconoclaste, qui conteste la validité des modèles informatiques actuels, les variations climatiques s’expliquent tout naturellement, lorsque l’on prend en compte ce qu’il appelle les anticyclones mobiles polaires (AMP), vastes lentilles d’air glacial de 1500 mètres d’épaisseur et de 2.000 à 3.000 km de diamètre, générées quotidiennement par les pôles et se déplaçant vers l’équateur.

Un Entretien avec Marcel Leroux   en 2004.

Tout le monde s’accorde à dire que la planète se réchauffe.
Qu’en pensez-vous ?

En me parlant de réchauffement, vous voulez sûrement me faire peur, moi qui ai vécu 40 ans en Afrique ! Personnellement, je souhaite que la terre se réchauffe. C’est d’ailleurs la position de la Russie, qui considère qu’un réchauffement serait bénéfique. En effet, cela nous ferait faire d’immenses économies de chauffage, et donc de matières premières comme le pétrole. En outre, nous gagnerions de larges étendues de terres cultivables en direction des régions subpolaires, comme cela fut le cas dans les années 1930 à 60. A l’époque, les exploitations agricoles du nord du Canada et de la Scandinavie s’étaient en effet déplacées vers le nord. Dans les années 1970, lorsqu’il était plutôt à la mode de parler du retour du petit « âge de glace », elles ont rétrogradé vers le sud. La même chose s’est d’ailleurs produite en Afrique subsaharienne, où les éleveurs se sont d’abord déplacés vers le nord, puis sont redescendus vers le sud, lorsque la sécheresse a commencé dans les années 1970. Car lors de toute période chaude, à l’échelle paléoclimatique comme à l’échelle récente, les pluies tropicales sont plus abondantes. Ce qui veut dire que paradoxalement, si le réchauffement était effectif, la sécheresse cesserait dans le Sahel ! Mais malheureusement, ce n’est pas le cas.

Pourquoi parle-t-on alors de réchauffement climatique ?

Parce ce que tout le monde accorde foi à la courbe de température globale publiée tous les ans par l’OMM (Organisation Météorologique Mondiale) et le GIEC (Groupe intergouvernemental sur le changement climatique). Or, cette courbe n’est autre qu’une moyenne des températures mesurées dans 7.000 stations de la planète, traitées à l’Université d’East Anglia, à Londres, sous la direction de Philipp Jones. L’augmentation serait de 0,6° de 1860 à nos jours, soit la différence de température qu’on observe à l’échelle moyenne annuelle entre Nice et Marseille. Quel extraordinaire bouleversement ! Une telle valeur, donnée avec une fourchette de précision de plus ou moins 0,2° sur un siècle et demi, est ridicule, car elle est de l’ordre de la précision de la mesure. Cette courbe n’est d’ailleurs pas validée par les mesures récentes effectuées par les capteurs de satellites qui, depuis 1978, ne montrent au contraire aucune évolution notoire, pas plus que les mesures issues de millions de radio-sondages.

En outre, comment parler de moyenne à l’échelle globale en mélangeant des températures marines, continentales, urbaines et surtout des températures de régions qui se refroidissent alors que d’autres se réchauffent ? Par exemple, l’Arctique occidental (au nord du Canada) se refroidit, alors que l’Arctique au nord de la mer de Norvège se réchauffe. Que fait-donc alors vraiment l’Arctique ? On ne peut pas du tout dire avec certitude que la terre se réchauffe.

Les modèles ne prévoient-ils pas pourtant une augmentation de la température de 2 à 6°C d’ici l’an 2100 ?

On n’a pas besoin de modèle pour faire une telle prédiction. Le chimiste suédois Svante Arrhénius (1859-1927) avait déjà « prédit » exactement la même chose en 1903 ! Il avait appliqué une règle de trois entre le taux de CO2 de son époque, celui du futur et la température correspondante. C’est exactement ce que font les modèles informatiques en insistant sur l’effet de serre. Un modèle n’est qu’un super calculateur qui dépend entièrement des données qu’on lui fournit et de la démarche qu’on lui impose pour traiter ces données. Il ne faut pas prêter aux modèles des vertus « magiques », d’autant plus qu’ils ne donnent qu’une vision très incomplète et déformée de la réalité météorologique. En particulier, ils ne tiennent pas compte de la circulation générale de l’atmosphère, de son organisation et de son mouvement. Pour ces modèles, les discontinuités, pourtant présentes partout dans la nature, ne sont tout simplement pas prises en considération. Les modèles utilisés pour la prédiction climatique sont fondés sur les mêmes principes que ceux utilisés pour la prévision météorologique. Or, ces derniers se trompent constamment : ils n’ont pas été capables de prévoir les tempêtes de 1999, les inondations de Nîmes ou Vaison la Romaine, la canicule de 2003 et l’été pourri de 2004. Comment pourraient-ils être fiables à l’horizon de 2100 ? D’ailleurs, comme le rappelle l’océanographe Robert Stevenson, ces modèles prévoyaient une augmentation de la température de 1,5° pour l’an 2000 ; or, c’est six fois plus que ce que l’on a observé.

Pourtant, il y a unanimité chez les climatologues pour dire que le réchauffement est une réalité ...

Non, on insiste sur un prétendu consensus chez les climatologues, alors que celui-ci n’existe pas. Ensuite, il y a plusieurs sortes de « climatologues ». Prenons le GIEC, présenté comme l’autorité en la matière. En réalité, il s’agit d’un groupement intergouvernemental, c’est-à-dire que la nomination de ses membres est politique, et ne répond pas à des critères scientifiques. D’ailleurs, la grande majorité de ses membres ne sont pas climatologues, à l’instar de Michel Petit, ingénieur en télécommunications, ou bien Jean Jouzel, qui est un excellent chimiste glaciologue, mais dont les connaissances scientifiques sur le climat sont limitées. Depuis l’avènement de l’informatique, nombre de ceux qui s’autoproclament « climatologues » sont en réalité des informaticiens-modélisateurs, qui accordent de très loin la préférence à la statistique et aux téléconnexions, sans se préoccuper des liens physiques réels. Il existe toutefois des climatologues météorologues, comme le spécialiste suédois de l’élévation du niveau de la mer Nils-Axel Mörner, ou encore le météorologiste canadien Madhav Khandekar, qui en revanche se préoccupent en priorité de l’observation des phénomènes réels et des principes physiques qui les relient. C’est aussi, naturellement, le souci premier de notre laboratoire. Ces derniers sont loin d’être convaincus par les résultats des modèles. Même parmi les modélisateurs, certains, comme l’Américain Richard Lindzen, restent très sceptiques concernant l’hypothèse du réchauffement climatique. Le problème du GIEC, comme d’ailleurs de Météo France, c’est que depuis les années 1980, ces organismes sont dominés par les modélisateurs, vedettes des médias. Les climatologues réellement soucieux de l’analyse du temps se sont d’ailleurs regroupés en association, dont l’une particulièrement active est intitulée « climat sceptics ».

Le rôle nocif sur le climat des gaz à effet de serre est quand même une donnée objective ?

Il n’y a rien de moins objectif qu’une telle affirmation ! Mettre l’accent sur les gaz à effet de serre donne une vision très simpliste du climat, alors que d’autres facteurs sont beaucoup plus importants ; en particulier, ceux qui déterminent la dynamique de l’atmosphère, les transferts méridiens d’air et d’énergie, et pour faire simple, les transferts d’air froid et d’air chaud. Chacun est capable d’observer que la température est fonction de ces brusques changements, et qu’elle n’évolue pas de façon linéaire. L’important, c’est d’abord de savoir pourquoi et comment des masses d’air froid se forment et se déplacent ; pourquoi elles remplacent ou sont remplacées par de l’air chaud - autrement dit de préciser le mécanisme de la machine atmosphérique. Le temps dépend au jour le jour de ces changements de masses d’air ; en revanche, sur le long terme, la variation dépend de l’activité solaire (tâche, magnétisme, éruption et vent solaires), des projections volcaniques, de la turbidité de l’air, des paramètres astronomiques, etc... Comment voulez-vous que leur responsabilité dans le climat puisse être mise en évidence dans des modèles qui ne prennent tout simplement pas en compte l’ensemble de ces paramètres ? L’effet de serre est donc totalement marginal, sinon même insignifiant, d’autant plus que le principal effet de serre n’est pas réalisé par le CO2 ou le CH4, mais par la vapeur d’eau. Or, même la part réelle de la vapeur d’eau dans l’effet de serre n’est pas considérée à sa juste valeur dans les modèles.

Qu’observe-t-on alors à l’échelle globale ?

On n’observe rien, car il n’y a pas de « climat global ». En revanche, on connaît parfaitement l’évolution des climats régionaux qui suivent des évolutions fort dissemblables. D’ailleurs, il est très révélateur de constater que, de l’aveu même du GIEC, leurs modèles sont incapables de restituer ces variations régionales ! Dans son deuxième rapport de 1996, le GIEC écrit : « Les valeurs régionales des températures pourraient être sensiblement différentes de la moyenne globale, mais il n’est pas encore possible de déterminer avec précision ces fluctuations. » Cela signifie que les modèles du GIEC seraient capables de donner une valeur moyenne sans connaître les valeurs régionales qui permettent d’établir précisément cette moyenne ! Ce n’est pas très sérieux !

Dans l’Atlantique Nord, on observe un refroidissement de la façade ouest (Canada, Etats-Unis à l’est des Rocheuses), alors que l’Europe occidentale se réchauffe, notamment la Scandinavie. L’Europe centrale, elle, se refroidit, comme la Méditerranée orientale, ou comme la Chine. Ces différences de comportement résultent de la dynamique aérologique. Cela dépend en effet des trajectoires des anticyclones mobiles polaires (AMP). Ceux-ci sont de vastes lentilles d’air glacial de 1500 km de rayon, générées quotidiennement par les pôles. Ces lentilles glissent au ras du sol, sous les couches d’air chaud plus légères, contournant les reliefs pour se diriger vers l’équateur. Sur leurs faces avant, elles provoquent le retour vers leur pôle respectif de l’air réchauffé sous les tropiques. Les AMP représentent l’exemple même de discontinuité que les modèles informatiques refusent d’incorporer. En outre, ils pointent du doigt le comportement particulier et l’importance des régions polaires qui, contrairement aux prédictions des modèles, ne se réchauffent pas, mais au contraire se refroidissent.

Vous voulez dire qu’il n’y a pas de fonte des calottes glaciaires ?

C’est un fait incontestable ! Cependant, évitons de généraliser : dans le détail, la glace de mer fond au nord de la mer de Norvège ou dans la région des Aléoutiennes dans le Pacifique nord, où arrivent de l’eau marine et de l’air chauds. En revanche, la banquise ne varie pas au Nord du Canada. Comme l’écrit correctement M. Postel-Vinay, rédacteur de la revue La Recherche, « le gros de la calotte antarctique n’a pas fondu depuis sa formation, voici 60 millions d’années. » L’observation satellitale montre même qu’au cours de la période 1979-1999, qui est celle de la plus forte hausse supposée de la température, la surface de la banquise a globalement augmenté autour du continent antarctique. Au Groenland, certaines régions fondent, notamment sur les pourtours, mais la masse de glace augmente au centre de l’île, comme la masse de la plupart des glaciers scandinaves. Le refroidissement des pôles a atteint 4 à 5°C pendant la période 1940-90 - c’est-à-dire plus de la moitié, mais en négatif, de la valeur prévue pour 2100 ! C’est le démenti le plus flagrant apporté aux prévisions des modèles. Il est d’ailleurs surprenant que ceux-ci aient pu concevoir un tel réchauffement alors qu’il n’y a aucune raison physique qui puisse le justifier ! Est-ce seulement pour faire peur aux gens avec une prétendue montée des eaux qui en résulterait ?

En revanche, ce qui est sûr, c’est que comme les pôles se refroidissent, la puissance et la fréquence des AMP augmentent, les contrastes de températures s’élèvent, les confrontations entre l’air froid et l’air chaud sont plus vigoureuses et le temps devient de plus en plus violent et de plus en plus contrasté dans nos latitudes. Il devient aussi toujours plus irrégulier, avec des périodes étendues de froid puis de chaud, des pluies abondantes et des sécheresses. Des records de chaleur comme de fraîcheur sont d’ailleurs constamment dépassés.

Par exemple, le Canada a subi la pire tempête de verglas de son histoire en 1998, et la Mongolie a connu deux hivers successifs tellement rigoureux que l’Etat a dû faire appel à l’aide internationale. Il serait donc plus judicieux de tenir compte de cette évolution réelle, plutôt que d’un hypothétique scénario à l’horizon 2100, pour assurer, par exemple, une meilleure gestion de l’eau, notamment dans le domaine agricole. La France n’est pas plus épargnée qu’une autre région du monde. Nous avons déjà eu des chutes de neige sur la forêt méditerranéenne, en 2002. La canicule de l’été 2003 est encore un autre exemple, bien qu’elle ait été présentée comme la preuve du réchauffement climatique par M. Besson, Président de Météo France. Cette erreur de jugement est à la base de la mise en place du plan anti-canicule pour l’été 2004, canicule qui n’a bien sûr pas eu lieu. J’avais pourtant adressé, en août 2003, une note rectificative aux principaux médias écrits et audiovisuels pour expliquer les causes de la canicule. Il s’agissait tout simplement d’une hausse de pression, elle-même conséquence d’une augmentation de fréquence des AMP, visibles sur les images satellitales, mais dont les modélisateurs ne veulent pas entendre parler !

Un article paru dans le quotidien Le Monde du 18 septembre explique que la violence du cyclone Ivan constitue précisément une preuve du réchauffement climatique.

C’est très ironique car Ivan a connu des prédécesseurs plus redoutables que lui, comme Hugo, ou Andrews. En outre, le GIEC, dans les années 1990, prétendait que les modèles sont incapables de prévoir l’évolution de la cyclogenèse, qui ne montre aucune tendance à la hausse sur l’Atlantique Nord depuis un siècle. Les modèles annonçaient alors que le réchauffement allait nous apporter une plus grande clémence climatique : « Les tempêtes aux latitudes moyennes (...) résultent de l’écart de température entre le pôle et l’équateur (...). Comme cet écart s’affaiblira avec le réchauffement (...), les tempêtes aux latitudes moyennes seront plus faibles », écrivait le GIEC en 1990. Mais aujourd’hui, puisque le temps n’est pas conforme aux prévisions, le même GIEC oublie ses propres dires et récupère la violence - plus médiatique - du temps, en annonçant qu’il est précisément dû au réchauffement.

Comment expliquez-vous une telle désinformation sur ce sujet ?

Prédire le temps a toujours été une passion. Or, prédire que rien d’alarmant ne va se produire n’est pas très intéressant. Au début du XXe siècle, les prédictions alarmistes étaient déjà très à la mode.

Cependant, elles n’ont jamais réussi à s’imposer, car tous les faits les contredisaient. C’est seulement à partir des années 1985 que sont réapparus, lorsque la climatologie a été monopolisée par les informaticiens, les scénarios les plus catastrophistes. Oubliant tout simplement la météorologie, les modélistes ont appliqué des calculs en vérité extrêmement simplistes dans des modèles super sophistiqués pour imposer leurs concepts. Mais les hypothèses sur le réchauffement climatique n’ont jamais été vérifiées par l’observation, pas plus au début du XXe siècle qu’au début du XXIe. La fameuse courbe du GIEC n’est qu’un artefact, constamment démenti par les mesures et les observations satellitaires.

En réalité, le problème dit du climat est en permanence confondu avec celui de la pollution, deux domaines pourtant bien séparés, qui ne seront bien traités l’un et l’autre que lorsqu’ils seront dissociés. Il sert également de prétexte pour imposer une restriction à l’activité humaine, considérée à tort comme à l’origine du réchauffement climatique. La connexion d’intérêt qui s’est établie entre certains laboratoires, plusieurs institutions internationales et certains hommes politiques, a imposé la notion de réchauffement global. Suivre aveuglément les « recommandations pour décideurs » du GIEC fait passer à côté des phénomènes réels, dépenser vainement des sommes colossales pour des réunions par définition inutiles, et n’autorise pas des mesures de prévention efficaces contre les véritables aléas climatiques que nous allons connaître. A quoi sert de préparer l’économie d’un pays à un réchauffement, alors que tous ses thermomètres signalent un refroidissement ?

Finalement, le réchauffement climatique revêt de plus en plus un caractère de manipulation, qui ressemble vraiment à une imposture « scientifique », et dont les premières victimes sont les climatologues qui ne perçoivent de financements que lorsque leurs travaux vont dans le sens du GIEC.

 

source Agriculture et environnement

 

 

20/06/2016

Mécanique quantique...

Quelques éléments de réflexion sur les paradoxes et les mystères de la mécanique quantique.

 

Le billet écrit plus précis, sur le blog...

 

12/05/2016

Neurones miroirs

Les neurones miroirs (découverts en 1990) semblent constituer une découverte contemporaine majeure en neurosciences et ouvrent des pistes pour expliquer comment on entre en résonance avec l'autre...

ou comment on apprend...

 

Les neurones miroirs sont une catégorie de neurones du cerveau qui présentent une activité aussi bien lorsqu'un individu (humain ou animal) exécute une action que lorsqu'il observe un autre individu exécuter la même action, ou même lorsqu'il imagine une telle action( d'où le terme miroir).

Un sportif s'entraine déja concrétement quand il regarde un autre s'entrainer ou quand il se visualise en train de s'entrainer... Puisqu'il agit sur ses neurones moteurs qui constituent un élément clef de toute action.

Les neurones miroirs semblent jouer un rôle essentiel dans l'apprentissage par imitation, dans le désir (mimétique) mais aussi dans les processus affectifs  ou encore dans l'identification à des personnages, des sportifs, des acteurs etc...

Par exemple, la partie antérieure du lobe de l'insula, est active aussi bien quand la personne éprouve du dégoût que lorsqu'elle voit quelqu'un exprimant du dégoût. Cela éclaire d'un jour nouveau le phénomène connu de contagion émotionnelle et les effets de masse.

Concernant l'autisme ou l'empathie, l'implication des neurones miroirs est controversée (cf conférence de  Benoit Kullmann tout en bas)

 

article de clefs

 

Le point de vue critique de Benoit Kullmann relativisant la portée de cette découverte...( concernant l'implication des neurones-miroirs dans l'empathie plus particulièrement)

Narcisse, Echo, et le mythe des neurones miroirs.  (expérience des neurones vers 26 mn)

04/05/2016

Biomimétisme...

 

Le biomimétisme désigne un processus d'innovation qui s'inspire du vivant pour tirer parti des solutions et inventions produites par la nature.

 

               

 

lotus.jpg

Lotus: l’effet de répulsion des gouttelettes d’eau par les feuilles de lotus. Cet effet est cité systématiquement dans les communications en tout genre sur le biomimétisme. Ceci est justifié par les avancées sur la réalisation de surfaces autonettoyantes, technologies passives, qui permettent de fortes économies d’eau et de produits nettoyants.

Morpho_didius_Male_Dos_MHNT.jpg

 Papillon Morpho : On trouve sur les ailes du papillon Morpho et les feuilles de capucine, en plus des structures nanométriques similaires à celles du lotus, des nervures et des plis qui forment des crêtes.

Quand une goutte d’eau de pluie tombe sur ce type de surface elle rebondit et se divise en plusieurs gouttelettes. Les chercheurs ont observé que le temps de rebond avec division était plus court de 40% que sans division (sur les feuilles de lotus). La goutte reste donc moins longtemps en contact avec la surface. A des températures très froides, l’eau rebondi sur la surface avant qu’elle n’ait eu le temps de geler – une propriété utile pour les moteurs et ailes d’avions, les pâles d’éoliennes, etc.

 

 

1024px-Textile_cone.JPG

         Cone venimeux (Toison d'or) coquillage très toxique en raison de son petit dard empoisonné mais facile à récolter avec des gants.

"La toxine de ce petit coquillage sert dans les neurotechnologies. Elle coûte 800 millions de dollars au kg,
soit 800 dollars le milligramme. (En comparaison, l’or coûte 30 000€ le kg )

Le niveau 0 du biomimétisme, c’est d’extraire la substance.

Le niveau 1, c’est de la fabriquer nous-mêmes sans faire exactement comme la nature.

Le niveau 2, c’est de la fabriquer exactement comme elle, avec le même process industriel.

Le niveau 3, qui n’a encore jamais été atteint, c’est de reproduire tout l’écosystème. C’est-à-dire intégrer
l’usine de production de la toxine avec le récif de corail de sorte que toutes les usines se parlent entre
elles et ne produisent plus de déchets. "

 

 

 

660px-Xanthoria_polycarpa_%28Pin-cushion_sunburst_lichen%29_on_Arctium_sp._%28Burdock%29%2C_Westenschouwen%2C_the_Netherlands.jpg

Ce lichen du genre Xanthoria  survit en milieu très sec et à une exposition intense aux UV grâce à l'association entre l'algue unicellulaire et le champignon qui le constituent.

Ce sont les crochets de cette bardane qui ont inspiré l’inventeur du Velcro

 

 

 

495px-Avion_III_20050711.jpg

L'avion chauve-souris de Clément Ader.

 

 

byssus3-WEBb.jpg

Byssus de moule constituant une colle biologique fine en chirurgie.

 

 

requin.jpg

La peau de requin. Ce ne sont pas des écailles sur cette photo mais de minuscules dents dont les requins sont recouverts.
Il s’agit du meilleur revêtement anti-turbulences au monde. Meilleur que le revêtement des sous-marins
nucléaires fabriqués par l’armée pendant la guerre froide. Meilleur aussi que le revêtement produit par
les meilleurs avionneurs. Airbus s’est inspiré de la peau des requins pour fabriquer l’A380 et l’A350, ce qui
permet d’économiser 5% de carburant. On s’en est également servi pour fabriquer des maillots de bain
qui ont fini par être interdits aux JO de Pékin. Il s’agit également du meilleur revêtement antifouling pour
des bateaux produits par une entreprise allemande.

 

 

 

mitochondrie.jpg

Une diatomée vue au microscope (c’est du phytoplancton). Son squelette est en silicium.

La distance entre les branches de cette diatomée est de 10 nanomètres. Les puces fabriquées par Intel, l’un des meilleurs fabricants de semi conducteurs au monde ont des espaces de 32 nanomètres.:

 

 

OdontodactylusScyllarus2.jpg

Stomapodopa, la crevette-mante caractérisée par ses pattes ravisseuses très perfectionnées

et sa vision exceptionnellement élaborée...

***Leur frappe délivre une puissance équivalente à près de 100 kg en 2 millièmes de seconde sur une surface très réduite, ce qui équivaut à une accélération proche de celle d'une balle de pistolet. Ces coups sont tellement rapides qu'ils provoquent des bulles de vapeur explosive (phénomène de cavitation), dont l'implosion provoque une seconde onde de choc, capable à elle seule d'assommer une proie qui aurait échappé au coup. Cette force de frappe permet aux crevettes-mantes de briser facilement les coquilles les plus dures et d'atteindre ainsi leur nourriture (bivalves, gastéropodes, arthropodes...), mais aussi de se défendre contre d'éventuelles menaces, notamment des mains de plongeurs ou des caissons d'appareil photo sous-marin. Il a déjà été rapporté que ces animaux sont capables de briser des vitres d'aquarium ou des caissons d'appareil photo sous-marin grâce à ce coup.

***La crevette-mante possède probablement la meilleure vision connue de tout le règne animal. Leurs yeux bougent en pivotant indépendamment l'un de l'autre sur une amplitude permettant de lui offrir une vision de 360°.
Chaque œil est composé de 3 sections, chacune ayant une pseudo-pupille indépendante, qui lui permettent de réaliser une triangulation de l'objet visualisé, et de connaître avec précision sa distance et sa profondeur, en n'utilisant qu'un seul œil : leur cornée en 3 bandes donne à chaque œil une vision tridimensionnelle, en relief.
Leurs yeux sont également particulièrement développés pour voir la lumière polarisée sous ses deux formes, linéaire et circulaire, et peut la convertir d'une forme à l'autre.
Leur capacité à voir les couleurs est tout à fait exceptionnelle :
Chaque œil dispose d'au moins une douzaine de photopigments (contre 3 pour l'œil humain, et 4 pour les oiseaux).
De plus, ces crustacés possèdent 3 capteurs différents de lumière ultraviolette, et peuvent voir jusqu'à une longueur d'onde de 300 nm.
Certaines espèces ont jusqu'à 16 photopigments : 12 d'entre eux analysent les couleurs dans les différentes longueurs d'onde (y compris 4 d'entre eux dans l'ultraviolet) et 4 autres pour la lumière polarisée.
Enfin, cet animal peut facilement détecter la lumière fluorescente.

 

ormeaux-166x300.jpg

L'ormeau. Sa coquille est un matériau constitué de nombreuses petites feuilles empilées. On sait en science
des matériaux que cette structure a la propriété d’être très résistante aux déchirements. Il suffit d’essayer
de déchirer une ramette de papier pour s’en rendre compte.  La structure visible sur cette photo est capable de blinder un char d’assaut

 

 

sepionide.jpg

Un petit sépionide étudié par Samsung car c’est le meilleur écran du monde.

"Meilleure résolution, meilleur taux de rafraîchissement, meilleure diversité de couleurs, consommation d’énergie
extrêmement basse et possible changement de texture. En plus il est flexible et il s’auto-répare sans
cicatrices. Dans la technologie des écrans plats, on a eu le plasma, le LCD, puis le LED, puis l’AMOLED. On
se dirige vers les méta-matériaux optiques. Vous avez sous les yeux le meilleur méta-matériau optique au
monde connu de l’homme aujourd’hui. Donc on le copie."

 

 

Plus d'info

En savoir plus

23/04/2016

Le projet "Conscience globale"

Le "Projet Conscience Globale" est une expérience parapsychologique débutée en 1998 à l'Université de Princeton dans le New Jersey.

Cette expérience cherche à mesurer d'éventuelles anomalies dans la génération de nombres aléatoires, qui seraient corrélées avec d'importantes émotions collectives lors d'événements mondiaux.

Il s’agit d’un réseau de générateurs numériques aléatoires qu'il a mis en place en divers endroits du globe (voir ci-dessous en rouge)  et qui sont connectés entre eux par Internet.

1585833559.jpg

Plusieurs personnes rassemblent continuellement des informations provenant de ce réseau mondial de générateurs de nombres aléatoires (GNA) situés sur 65 sites à travers le monde. Les archives contiennent plus de 10 années de mesures réalisées par des appareils synchronisés qui produisent 200 tirages aléatoires de nombres par seconde (soit un 1, soit un 0).

 

Roger D Nelson prétend avoir obtenu des résultats prometteurs lors d'événements, comme l'enterrement de la Princesse Diana et celui de Mère Teresa, ou encore l'accident du sous-marin russe Koursk.Mais l'exemple le plus caractéristique semble être celui du 11 septembre 2001, jour des attentats du World Trade Center de New York.

Sur l'ensemble du réseau, en effet, on note ce jour-là une sorte de signal de détresse à l'échelle planétaire...

conscience globale,nelson, gna

 

21/04/2016

Etudes scientifiques...

"L’analyse de nombreuses études publiées dans les grandes revues médicales et scientifiques le montre : elles sont souvent fausses. La majorité d’entre elles n’est pas réplicable. C’est flagrant en psychologie, en pharmacie et d’une manière générale dans les sciences humaines, mais le phénomène touche aussi une science dure comme la physique des particules. La proportion des études fiables régresse."

 

Un article de First Thing secoue le milieu des épistémologues américains. Son auteur, l’informaticien William A. Wilson, se fondant sur plusieurs études d’études et sur les travaux de John Ioannidis, professeur à l’école de médecine de l’université de Stanford, tire la sonnette d’alarme : selon lui, la science régresse et les études publiées par les revues scientifiques renommées telles Nature sont fausses en majorité. Plus, le phénomène n’est pas passager, il est structurel.