À l’heure où François Bayrou a annoncé son intention de lancer un nouveau débat sur l’identité nationale, il convient de ne pas se réjouir trop vite. Il y a fort à parier que, comme en 2009, sous Nicolas Sarkozy, qui avait d’ailleurs confié l’affaire à un socialiste – Éric Besson –, on ne sortira pas du petit périmètre de la nation-contrat et du trop fameux « plébiscite permanent » de Renan.
Cette formule est tirée de l’excellente conférence Qu’est-ce qu’une nation ? (1882), que tout le monde cite sans jamais la lire… et l’on peut, là encore, s’attendre à ce que la Macronie, ses nouveaux alliés socialistes (qui se sont déclarés ouverts au débat proposé) et ses conquêtes à droite, comme Monsieur Retailleau, ronronnent tranquillement sur l’air des valeurs républicaines et du vivre-ensemble, prolongeant ainsi le contresens sur le plébiscite permanent ; contresens parce que Renan, contrairement à ses épigones contemporains, démontre dans sa conférence qu’il n’y a pas de « consentement actuel » à la nation (le fameux plébiscite) sans, je cite, « la possession en commun d’un riche legs de souvenirs », autrement dit sans qu’il existe un peuple formé par la longue Histoire, qui lui procure une solide conscience de lui-même et une unité qui, dans le cas de la France, je cite à nouveau Renan, « a été réalisée par une dynastie ».
Jamais Renan n’aurait légitimé une réduction de l’identité nationale à l’adhésion à quelques vagues idées générales sur la laïcité ou à la récitation d’une devise ou d’un hymne, jamais non plus il n’aurait considéré qu’on pût sans péril soumettre ces « vieux organismes » (expression qui en dit long sur sa conception au fond assez traditionnelle de la société) que sont les nations à des modifications aussi brutales et aussi rapides de leur composition que celles que nous connaissons aujourd’hui.
Mais il n’est heureusement pas impossible que ce débat lancé d’en haut, sur la base de faux principes, provoque des controverses qui alimenteront une saine réaction dans le sens contraire à celui souhaité par ses initiateurs. Rappelons-nous, par exemple, comment le bicentenaire de 1789 avait donné un souffle nouveau à la réflexion contre-révolutionnaire et au royalisme en 1989.
Profitons donc de l’occasion pour faire mieux comprendre et aimer la France réelle, la France charnelle, que n’est jamais totalement parvenu à éradiquer le pays légal.
En 2006, le film d’Al Gore « Une vérité qui dérange » qui annonçait un cataclysme climatique a obtenu un grand retentissement mondial. Depuis lors on observe une déferlante médiatique qui martèle ad-nauseam que les émissions de CO2 produits par l’activité humaine provoqueraient un effet de serre induisant un réchauffement climatique dit anthropique qui aura demain des conséquences catastrophiques. En 2007, la justice britannique a démenti un grand nombre d’assertions du film mais cet événement fut quasiment passé sous silence. Le principal argument d’autorité des médias est basé sur les rapports du GIEC dont on laisse entendre qu’il serait constitué d’une armée de scientifiques totalement indépendants. Ces rapports prétendent qu’il y aurait consensus scientifique sur un réchauffement climatique dont la source est liée à la production de CO2 d’origine humaine. Par conséquent des mesures drastiques de réduction de ces émissions sont obligatoires sous peine d’apocalypse à court terme. Malheureusement pour ces derniers, depuis la médiatisation du film « fondateur » qui commence à dater, nous n’avons toujours rien vu venir, les catastrophes restent toujours annoncées pour le lendemain.
A défaut de « consensus scientifique » qui est un oxymore, il serait plus juste de parler de « consensus médiatique ».Nous allons voir dans ce papier que les assertions concernant les effets délétères du CO2 anthropique ne reposent sur aucune base scientifique sérieuse car il existe de puissants phénomènes physiques ignorés du GIEC qui régulent la température de la planète [1].
1. La théorie dominante (dans les médias)
Les médias mainstream affirment que le GIEC collecte des milliers d’études scientifiques qui concordent toutes pour démontrer que le CO2 anthropique induit le réchauffement climatique actuel. Ces derniers se gardent bien de tenter de vulgariser le contenu de ces études qui, comme dans pratiquement tous les domaines, échappent à leurs compétences. Nous sommes donc dans un système de panique organisée qui n’est pas sans rappeler les terreurs et autres superstitions de nos ancêtres n’ayant aucune connaissance scientifique. En substance, la théorie mainstream considérée comme canonique est basée sur la différence entre l’énergie solaire reçue par la Terre et celle qu’elle réémet dans l’espace. Cette dernière affirme que c’est le CO2 injecté artificiellement dans l’atmosphère qui absorbe une partie du rayonnement sortant induisant donc une augmentation de la température moyenne du globe puisque la Terre émettra alors moins d’énergie qu’elle n’en reçoit. Pour tenter d’y voir plus clair, il est indispensable d’entrer dans quelques considérations techniques.
La Terre reçoit en permanence une certaine quantité de chaleur du soleil qui est proportionnelle à la distance Terre-Soleil. D’après la théorie du corps noir découverte en 1900 par Max Planck, la Terre réémet vers l’espace l’intégralité de cette chaleur sous la forme d’ondes électromagnétiques. Le profil idéal en fréquences de la courbe d’émission d’un corps quelconque appelé « spectre de Planck » ne dépend que de la température. On remarque en passant que pour ce qui concerne le soleil dont la température de surface est d’environ 5500 K, la courbe d’émission de ce dernier correspond exactement à la plage couverte par l’œil humain ou « lumière visible » :
Courbes d’émissions types fonctions de la température
Dans le cas de la Terre, sa courbe d’émission a été mesurée par le réseau de satellites Nimbus. On constate alors des « trous » dans le profil de la courbe (voir figure ci-dessous) liés à des plages d’absorptions énergétiques dans l’atmosphère par effet de serre. Ces derniers correspondant à la vapeur d’eau ainsi qu’au fameux CO2 qui absorbent une partie du rayonnement émis à certaines longueurs d’ondes.
Mesures effectuées par Nimbus 4
La théorie défendue par le GIEC considère que si le taux de CO2 augmente artificiellement, alors l’absorption afférente augmentera également et diminuera donc la quantité de rayonnement réémis induisant un réchauffement global de la Terre.
Cette théorie est basée sur le modèle de Syukuro Manabe proposé dès les années 1960, il fut depuis lors la base de simulations informatiques successives avec une sophistication croissante liée aux progrès techniques des calculateurs. Le principal défaut de ce modèle est de ne prendre en compte que les mécanismes liés à l’effet de serre atmosphériques. Il omet de considérer le système global atmosphère-océans ainsi que les multiples boucles de contre-réactions régulatrices de la température qui se cumulent pour éviter les sauts climatiques brutaux.
La chaleur solaire reçue par la Terre est évacuée par cette dernière selon trois mécanismes fondamentaux que sont le rayonnement, la conduction et la convection [2]. Ces mécanismes sont à la base de la compréhension scientifique de la machine climatique. Les modèles des « réchauffistes » anthropiques négligent la plupart de ces derniers.
2. Régulation par le rayonnement de Planck, le colosse océan et le lutin atmosphère
En premier lieu, l’atmosphère ne peut être isolée d’un ensemble qu’elle constitue avec les océans qui couvrent environ 70% de la surface de la Terre. Cet ensemble avec son énorme surface d’échange est le premier régulateur de température. En effet, il faut savoir que la masse totale des océans est estimée à 250 fois la masse totale de l’atmosphère. Par ailleurs la capacité thermique de l’eau de mer est environ 4 fois supérieure à celle de l’atmosphère, en clair cela signifie qu’à masse égale pour augmenter la température de 1 degré il faut 4 fois plus d’énergie pour l’eau que pour l’air. Ces deux paramètres simples montrent que les océans constituent un colosse d’inertie thermique 1000 fois plus puissant que le nain atmosphère.
Même les membres du GIEC seront incapables de réchauffer leur piscine avec un sèche-cheveux !
Le second paramètre à considérer est le comportement de corps noir déjà évoqué plus haut. Il indique que tout corps qui reçoit de l’énergie est chauffé à une certaine température, il renvoie alors 100% de cette dernière vers l’extérieur selon des profils spectraux vus plus haut. D’après la loi de Stefan-Boltzmann, cette énergie réémise est proportionnelle à la puissance 4 de la température moyenne du corps, cela signifie que si la température augmente de 1%, alors l’énergie émise augmente de 4% donc beaucoup plus fortement.
La Terre reçoit son énergie du soleil, environ 30% de cette dernière est réfléchie et les 70% restants sont absorbés. La Terre renvoie ensuite 100% de l’énergie absorbée vers l’espace et si sa température moyenne venait à augmenter alors l’énergie émise augmenterait fortement. De plus, le spectre d’émission de Planck mesuré par satellite possède aux moins trois cheminées (flèches oranges) d’écoulements énergétiques totalement indépendants des effets de serre (flèches bleues). Si un effet de serre venait à s’accentuer alors l’énergie transmise augmenterait à son tour de la même quantité dans ces cheminées.
Orange : évacuation thermique Bleu : absorption par effet de serre
Une augmentation de la température et donc de l’énergie émise induirait donc un refroidissement et à l’inverse si la température baissait, l’énergie émise diminuerait et la Terre se réchaufferait. On constate que la température de la Terre et donc son climat sont liés à la quantité d’énergie solaire reçue, cette énergie étant principalement absorbée et réémise par les océans.
La loi de Boltzmann montre donc en premier lieu un effet stabilisateur majeur sur la température de la Terre. Cette température est principalement liée à la distance Terre-Soleil qui varie elle même selon des cycles que l’on évoquera plus loin.
L’effet suivant concerne la dissipation de la chaleur par conduction dans l’atmosphère.
3. Régulation par conduction dans l’atmosphère, loi de Fourier
Les océans avec leur énorme inertie thermique ont une température qui va de 0-2°C environ dans les grands fonds à une température d’équilibre thermique avec l’air en surface. Cette température de jonction vaut en moyenne 14.3° C. La loi éponyme établie vers 1820 par Joseph Fourier permet de modéliser le phénomène de conduction thermique dans un corps qu’il soit solide, liquide ou gazeux. C’est l’agitation permanente des molécules d’air dans l’atmosphère qui induisent un phénomène de conduction de la chaleur du point chaud vers le point froid. La température n’est en fait que la caractérisation de cette vitesse où les particules s’entrechoquent à environ 300 mètres/s à température ambiante. La loi de conduction de Fourier définit un déplacement de l’énergie thermique des parties chaudes d’un système vers les parties froides. Mathématiquement, ce phénomène est modélisé par un ensemble de deux équations différentielles qui admettent une solution linéaire très simple. Concrètement si l’on applique cette loi à l’atmosphère, alors elle indique que la température chute en altitude de 6.5°C par kilomètre. Si l’on considère par exemple une température au sol de 20°C (point chaud) alors on constatera une température de -58°C à la limite moyenne de la troposphère située à une hauteur de 12 kilomètres (point froid).
Il faut retenir que si la température du point chaud augmente, alors le flux de conduction thermique augmentera lui aussi afin de le refroidir et vice-versa.
4. Régulation par convection
Le troisième effet modérateur de la température concerne le phénomène de convection thermique. Le principe de cette dernière est le suivant : lorsqu’un fluide liquide ou gazeux possède de grandes masses dont la température est supérieure à sa moyenne, alors ces dernières se déplaceront sous l’effet de la poussée d’Archimède. On constate dans l’atmosphère terrestre trois phénomènes induits par ce principe appelés cellules de Hadley, Ferrel et polaires. Ces derniers forment des boucles de circulations atmosphériques qui se manifestent en surfaces océaniques par des vents réguliers. Les fameux Alizés bien connus des navigateurs sont issus des cycles de Hadley qui transfèrent par convection vers une hauteur d’environ 12 kilomètres des masses d’air chaud générées à l’équateur, ces masses se refroidissent alors à cette altitude pour retomber au niveau des tropiques et revenir à leur point de départ formant une boucle de ventilation thermique en circuit fermé.
Dans le cas où la température proche du sol augmenterait, alors ces cellules de convection accélèreraient et auraient pour effet de refroidir le sol.
On doit également citer à ce niveau les phénomènes appelés El Niño et La Niña. Le phénomène El Niño d’une durée de 9 à 12 mois ou « anomalie chaude » concerne le déplacement selon des cycles de 2 à 7 ans d’énormes masses d’eau d’est en ouest dans l’océan Pacifique. Ce phénomène induit ici des pluies torrentielles et là de violentes sécheresses avec des pics de températures allant jusqu’à +2°C. Chaque épisode El Niño est presque toujours suivi du phénomène inverse La Niña ou « anomalie froide » qui remet en quelque sorte les pendules à zéro.
Les phénomènes El Niño et La Niñasont pour l’instant sans explication scientifique claire, de plus aucune corrélation entre la fréquence ou l’amplitude de ces derniers avec le taux de CO2 n’a été constatée.
5. Lorsque le GIEC inverse la cause et l’effet
La question de la corrélation entre réchauffement et taux de CO2 se pose non seulement sur le court terme (échelle du siècle) mais également sur le long terme (échelle 500 000 ans). Le physicien Pascal Richet a publié en 2021 un article [3] qui réfute la doxa de la fameuse corrélation mais l’éditeur a subit des pressions pour retirer son article ! Ce dernier est cependant toujours accessible ici.
La température moyenne de la Terre a effectivement augmenté d’environ 1 °C depuis 1850, soit le début de l’ère industrielle, en parallèle le taux de CO2 dans l’atmosphère a également augmenté continument en partie seulement à cause de l’activité humaine. Cependant, cette corrélation n’est qu’apparente car si l’on observe les courbes, on constate qu’entre 1880 et 1910 la température a baissé pour remonter jusqu’en 1942 avant de baisser à nouveau jusqu’en 1978 pour remonter à nouveau depuis cette date [L4]. S’il y avait corrélation, on aurait constaté une croissance continue et linéaire de la température en parallèle de celle du CO2.
Température moyenne mesurée entre 1880 et 2020
Pire, l’étude ici [4] montre que si l’on prend en compte l’augmentation annuelle du taux de CO2, on constate que ce sont les pics de CO2 qui suivent les pics de températures avec une très bonne corrélation. Cela pourrait s’expliquer par un phénomène de dégazage de CO2 des océans sous l’effet de la température décrit en 1803 par la loi de Henry.
Les pics de CO2 sont générés par les pics de température !
Sur le long terme soit selon une période de 500 000 ans environ, on constate la même chose.
L’étude des carottes de glaces en Antarctique a montré une réelle corrélation entre la température et le taux de CO2. Les pics de CO2 ont toujours suivi (et non précédés) les pics de températures. A nouveau, on observe que ce sont les augmentations de températures qui induisent une augmentation du taux de CO2 atmosphérique. Ces observations s’expliquent également par la loi de Henry qui indique un probable dégazage de CO2 des océans sous l’effet de la température. Pour la période récente, l’étude de 2022 des professeurs Belges Van den Broek et Masson établit également un modèle corrélatif qui indique que c’est la concentration de CO2 qui dépend de la température.
Contrairement à ce que prétend la doxa, des études sérieuses et indépendantes indiquent que ce sont les augmentations de températures qui induisent des augmentations du taux de CO2 et non l’inverse !
6. C’est le soleil qui règle le climat
Comme vu précédemment, la quantité d’énergie solaire reçue par la Terre dépend de l’activité solaire et de la distance Terre-Soleil. Une découverte fondamentale concerne des variations cycliques de l’orbite de la Terre et donc de cette distance selon des périodes allant de 25 000 à 400 000 ans. Il s’agit des trois cycles dits de Milankovitch qui engendrent d’importantes variations climatiques telles que des périodes glaciaires ou interglaciaires. Cette théorie des paramètres orbitaux (les paramètres de Milankovitch) s’applique également à toutes les planètes du système solaire. Le second facteur qui induirait une augmentation de la température du globe concerne l’activité solaire, si le soleil émet plus d’énergie alors la Terre se réchauffera proportionnellement. Cette variation de la puissance émise est liée à l’observation des taches solaires, lorsqu’elles apparaissent alors la température de surface du soleil augmente.
En synthèse, pour que la Terre augmente sa température il faut que sa distance au soleil diminue ou alors que ce dernier augmente son émission d’énergie.
7. La question de l’élévation des niveaux marins
Sous l’effet d’un échauffement, tous les corps se dilatent en volume et l’eau de mer obéit également à cette règle. Par ailleurs la fonte des glaces peut en théorie avoir également un effet sur l’élévation des niveaux par ajout de liquide dans l’ensemble [5]. Sur cette question, il faut distinguer deux cas de figure.
Considérons d’abord la banquise constituée de glaces flottantes sur l’eau qui en cas de fonte et selon le principe d’Archimède n’aura aucun impact sur le niveau de la mer. En second lieu, les glaciers ou calottes glacières des pôles pourraient faire monter les niveaux par déversement d’un nouveau volume d’eau dans les mers. Cependant ces phénomènes sont pour l’instant négligeables car sur la période récente, seuls les glaciers de montagnes ont eu tendance à se liquéfier modérément à certaines périodes. Coté dilatation de l’eau de mer, sur le siècle écoulé on a mesuré une augmentation de température moyenne de 0.6 degré ainsi qu’une élévation du niveau des mers de 15 centimètres environ. Le calcul de dilatation de l’eau des océans est basé sur une hauteur d’eau limitée par une profondeur critique en deçà de laquelle il n’y a plus d’échanges de chaleur avec la surface et donc de variation de température. Cette barrière appelée Thermocline est située à environ 1000 mètres de la surface. Il est alors facile de calculer l’augmentation du niveau moyen des mers en fonction de la température, on trouve une élévation de 15.6 centimètres par degré de réchauffement.
La concordance entre les mesures et le calcul de dilatation démontre le rôle négligeable de la fonte des glaciers dans l’élévation du niveau des mers [5].
8. Pour qui roule le GIEC ?
Le GIEC fut mandaté initialement pour étudier l’influence de l’activité humaine sur le climat, c’est donc sa raison d’être. Le GIEC est couplé avec le CMIP qui est un projet mondial synchronisant les différentes recherches concernant les modèles climatiques couplés. C’est donc le CMIP qui diffuse les données climatiques destinées aux analystes. Le GIEC se charge alors de l’évaluation des modèles [6]. Un conflit d’intérêt a cependant été mis en évidence en 2003 par une scientifique indienne, en effet les personnes qui rédigent les rapports finaux du GIEC sont les mêmes que celles qui au CMIP élaborent et priorisent les choix de scénarios à modéliser [6]. Par ailleurs, le CMIP est sponsorisé par des entreprises impliquées dans la finance verte, tout ce petit monde a donc intérêt à la diffusion de mauvaises nouvelles. Les groupes de travail WG1 (WorkGroups 1) du GIEC s’occupent des bases physiques du sujet. Dans leurs rapports à fréquence de 5 à 10 ans dont le volume est de 3000 à 4000 pages et que presque personne ne lit, il n’est nulle part évoqué une quelconque urgence climatique. Ces travaux sont ensuite synthétisés à destination des décideurs politiques à travers un rapport appelé « Summary For Policymakers » (SPM). Ce dernier résume en une trentaine de pages les travaux du WG1 et c’est seulement à ce niveau que l’on trouve des alertes sur des tendances climatiques catastrophiques. Le moins que l’on puisse dire est que ces SPM ont donc une forte connotation politique [6] ! (Vidéo Eric Verrecchiaici). De nombreux scientifiques contestent les méthodes et conclusions du GIEC comme par exemple Steven Koonin l’ancien conseiller d’Obama, voir ici et ici [7].
9. Conclusion
De même que la carte n’est pas le territoire, les simulations informatiques ne sont pas la réalité. Nous avons vu dans ce papier que la théorie du changement climatique anthropique ne prend en compte qu’une approche très partielle liée au seul CO2 en ignorant les multiples mécanismes qui construisent et régulent le climat. Cette théorie n’est par ailleurs pas falsifiable selon les critères de réfutabilité de Popper. Popper a proposé un moyen d’augmenter indirectement la validité d’une théorie en supposant que l’on puisse imaginer des expériences permettant de réfuter ladite théorie. Si ces expériences échouent, alors la théorie en sortira renforcée. Dans notre cas, il est impossible de concevoir de telles expériences pour réfuter le modèle dominant. Par ailleurs, le climat est un domaine qui doit être observé sur le long terme et regarder à la loupe quelques dizaines d’années n’a pas de sens. N’en déplaise à certains « journalistes », il n’a jamais été démontré que les quelques parties par millions (PPM) de molécules de CO2 rejetées par l’homme dans l’atmosphère suffisent à expliquer par effet de serre l’augmentation modérée de la température moyenne du globe d’environ 1 degré Celsius sur un siècle et demi. A l’inverse, certaines études indiquent que ce sont les variations de température qui feraient fluctuer le taux de CO2. Une modélisation exhaustive prenant en compte tous les facteurs connus qui pilotent le climat étant hors de notre portée, les « réchauffistes » se sont contentés de modèles simplifiés qui omettent les principaux facteurs régulateurs de température. Il est donc complètement illusoire de prétendre que l’on serait capable de prévoir la température sur une plage de 10 à 50 ans. De plus, sur le temps long on a constaté des variations climatiques très importantes sur lesquelles le CO2 anthropique ne pouvait avoir la moindre influence puisque l’activité humaine n’en produisait pas.
Autour du GIEC s’est développé au fil du temps un écosystème associé au lobby des énergies renouvelables renforcé par l’écologie politique dont les membres se distinguent par un niveau d’ignorance scientifique crasse. Cette situation qui s’apparente plus à une religion qu’à de la science a conduit à des décisions politiques aberrantes prises par l’Union Européenne (UE). En évoquant l’UE, nous entrons dans un monde de fous et de corrompus avec les écologistes-bobos à la manœuvre. Sous prétexte de mesures indispensables pour réduire les émissions de CO2, les irresponsables de cette organisation ont décidé de mettre en œuvre une « transition énergétique » basée sur des énergies dites renouvelables. Des centaines de milliards ont déjà été dépensés pour l’installation généralisées des fameuses et inutiles éoliennes. La production électrique de ces dernières étant intermittente, il est indispensable de les doubler par des centrales à énergie classiques comme par exemple en Allemagne avec la réouverture massive de centrales à charbon ultra-polluantes. Il ne se passe d’ailleurs pratiquement pas une journée sans que les bureaucrates de l’UE n’inventent de nouvelles législations farfelues et mortifères. Après les éoliennes, citons l’interdiction en 2035 des voitures à moteurs thermiques au profit de l’électrique, mesure prise sans la moindre étude d’impact. Si cette décision n’est pas ajournée au plus vite, alors ce sera la ruine des industries automobiles européennes ainsi qu’à celle de la majorité des citoyens incapables de s’offrir ces onéreux véhicules. De plus, la technologie des voitures électriques est loin d’être au point. Citons en particulier l’autonomie et les problèmes de recharge, sans compter la question de l’extraction particulièrement polluante des terres rares pour les batteries. Leur dernière folie en date concerne les fameuses Zones à Faibles Émissions (ZFE) qui constituent un véritable Pass Climatique et une ségrégation sociale. Cette mesure totalement inique va interdire aux citoyens à revenus modestes de circuler les empêchant en particulier de se rendre à leur travail. Et ce n’est pas fini, on parle d’un retour du marché du carbone pour 2027 alourdissant encore les taxes sur les combustibles fossiles.
Si cette politique dystopique n’est pas stoppée de toute urgence, l’Europe occidentale se dirige à toute vitesse vers une catastrophe économique et humaine majeure. Pour mémoire rappelons que pour échapper à ce sombre futur, une solution simple consisterait pour la France à sortir de l’UE à travers le Frexit !
Si parmi les dizaines de cartes militaires reproduites dans le rapport de Georgetown1, objet de nos trois précédents et brefs chapitres, figurent des renseignements topographiques d’une extrême exactitude, celles-ci ne devaient pas être à disposition des soldats US en tournée vraisemblablement anthropo-archéologique fin mars 20252 proche de la frontière biélorusse. S’aventurant dans une tourbière profonde à l’état semi-liquide, ils ont trouvé moyen de s’enliser et d’y disparaître. Pendant une semaine des centaines de ressortissants US qui passaient tout à fait par hasard par là, se sont efforcés de retrouver les siens. Sort terrible et que l’on ne souhaite à personne, sauf que… les Dieux exigent des sacrifices humains avant tout assaut sur la Russie.3
Ah le Fool’s Based International Order – gli Zanni4 ! I Pazzi ! I Bizzarri ! Histrions de rue5, qui soulèveraient la risée sauf que… Au nom de la Guerre, du Pisse et du Feint-Esprit ?6
Parmi tous ces grotesques le préféré de Mendelssohn c’est tout de même celui du Musée Carnavalet (1580), Lo Zanni dei gelosi, couteau aiguisé dans la manche. Tellement plus actuel.
Au point d’entendre le ricanement des Zanni en divulguant leur dernière Non-Révélation connue de tous : l’Amériloque debout sur ses deux pattes arrière tout en haut de la «Kill Chain» (sic) en ex-Ukraine depuis le début de la SMO en 2022.7
Sauf que … la «Kill Chain» remonte aux années cinquante.
Ouvrons alors le 4ème et dernier (bref) chapitre sur le rapport datant de 1957 de Georgetown University : Resistance Factors & Special Forces Area – Ukraine.
En plein effritement du prétendu accord US-Russie sur un cessez-le-feu touchant le réseau électrique, accord que l’ex-Ukraine s’est fait une joie de ridiculiser dans les 24 heures8, remontons le temps pour feuilleter le chapitre dudit rapport de Georgetown concernant les sabotage des centrales électriques.
Ici encore les rédacteurs de Georgetown se soucient explicitement de sélectionner des cibles, plus précisément les cibles sensibles, susceptibles de porter un préjudice général au réseau d’approvisionnement de l’Ukraine soviétique. Un détail sur lequel glissent nos rédacteurs : leurs propositions correspondent à des actes de guerre : sabotage et terrorisme contre des infrastructures civiles.
Faut-il rappeler ici que dès le début des années ‘50 l’URSS possédait l’arme atomique, la doctrine d’usage étant préventive9. Par conséquent, le parti pris en faveur d’actes de sabotage, harcèlement et provocation qu’adoptent les rédacteurs de Georgetown, travaillant pour le compte d’une section du Ministère US de la Défense qui, sauf erreur, serait bientôt absorbée dans la CIA, traduit une décision déjà consolidée en haut lieu : tendre vers la conquête physique de la Russie au risque d’une confrontation nucléaire qui faillit d’ailleurs se produire en 1962. À leurs yeux, l’Ukraine soviétique n’étant qu’un bout de terre sur lequel s’adonner à leurs rites sacrificiels.
Accessoirement, ce qui doivent reconnaître les rédacteurs du rapport de Georgetown est l’état d’industrialisation avancée de l’Ukraine soviétique : multiplication de travaux publics, de centrales électriques et hydroélectriques, de travaux portuaires et de constructions civiles à échelle gigantesque. Leurs cibles.
«20% de la capacité électrique de l’URSS se trouve en Ukraine. … principalement dans le Donbass, puis dans le Coude du Dniepr… les principaux consommateurs étant la base industrielle desdites régions (suit la description minutieuse de toutes les installations électriques par zone et par puissance installée ndlr)… Puisque les centrales sont situées au cœur des zones minières (charbon) et que les plus grandes centrales sur la Dniepr sont hydroélectriques, interrompre (par actes de sabotage – ndlr) le courant en coupant le combustible s’avère impraticable. Par contre, Kiev et Kharkov dépendent respectivement du charbon du Donbass et du gaz de Chebelinka10. La plupart des autres grandes centrales utilisent le charbon du Donbass sauf pour Lvov. Par conséquent, le courant fourni par ces centrales pourrait être coupée, indirectement, en entravant l’arrivée de combustible, mais sauf pour Kiev et Kharkov, ces centrales ne représentent pas une capacité significative, et ne fournissent pas de courant à des installations essentielles. Quant aux ports et bases navals, ils sont encore moins vulnérables, car le combustible arrive par voie terrestre ou maritime, ou encore en cas d’urgence, au moyen de la Flotte soviétique ou des vaisseaux de fret déjà spécialement aménagés, à l’instar de ce qui s’est produit lors de Guerre mondiale, en mer Noire.
(Suit une description des lignes de haute tension dans le Donbass et Coude du Dniepr – ndlr). Dans lesdits systèmes l’intégration des centrales et la multiplicité des lignes de transmission rendra particulièrement ardu l’interruption du courant au moyen du sectionnement des lignes de transmission. Par contre, une très grande capacité est concentrée au sein de deux ou trois centrales, de sorte que la perte d’une seule de ces grandes centrales se ferait sentir partout dans le réseau électrique.
… Aux fins de la présente étude nous n’avons pointé que des centrales de 5000 kw et au-delà, car rares sont les installations industrielles majeures alimentées par de petites centrales. De toute façon, les petites centrales seront sans tarder remplacées par des centrales mobiles s’il le fallait. Dans des régions bien servies par un réseau de courant, perdre une petite centrale de 5000 kw ou moins n’entraînerait pas de conséquences suffisamment graves, et d’ailleurs, il faudrait sans doute cibler des centrales encore plus grandes pour le Donbass et le Coude du Dniepr».
Venons-en donc aux dernières menaces de Trompe proférées contre l’ex-Ukraine11. La thèse présidentielle : les USA ont soutenu de manière désintéressée l’Ukraine ; cette dernière doit maintenant hypothéquer ses actifs utiles restants pour repayer le généreux donateur. Sauf que, le Zeppelin Trompien en Ukraine est percé de toute part12 : l’issue de la guerre est incertaine, sauf que la Russie atteindra ses objectifs ; sauf que ce qui restera de l’ex-Ukraine n’est pas spécialement bien pourvu de minéraux convoitables ; sauf que, ruine des infrastructures aidant, toute exploitation dans l’immédiat est irréaliste ; sauf que les Suspects habituels aux USA se sont enrichis à un degré qui ne souffre comparaison qu’avec les Empereurs romains.13,14,15,16,17
Inexploitable, irréaliste – même à supposer que les propositions Trompiennes dussent reposer sur quelque fondement moral. Sauf que leur immoralité contredit aussi les vérités historiques, dont nous venons de lire un échantillonnage.
Punir la victime des manigances US et UK, la menacer, mentir sur les origines du chaos dans lequel est plongé l’ex-Ukraine … Miliekowsky-Netanyahou et son équipe ont été à bonne école.
Et pour finir, changeons non de sujet mais d’ambiance : Roberto Trizio sur la privatisation de l’Empire romain sous l’empereur Septimius Severus (145-211 apr. JC) ; venu au pouvoir suite à une série de ventes aux enchères – littéralement – du rôle d’Empereur et au « business» grassement monnayé d’assassinat d’empereurs par la Garde prétorienne, accroché au pouvoir moyennant l’assassinat systématique des sénateurs de camp contraire.18
Sous le titre «Le Partenariat : L’histoire secrète de la guerre en Ukraine», le New York Times a publié un long article qui a fait grand bruit. Il s’agit d’un long article annoncé – avec une lourdeur qui trahit une politique étriquée – comme «l’histoire inédite du rôle caché de l’Amérique dans les opérations militaires ukrainiennes contre les armées d’invasion de la Russie».
Et il aspire clairement au sensationnel : une révélation qui a un parfum des fameux Pentagon Papers qui, lorsqu’ils ont été divulgués au même New York Times et au Washington Post en 1971, ont révélé à quel point la guerre du Viêt Nam était un fiasco de massacres.
Pourtant, en réalité, le New York Times propose cette fois quelque chose de bien moins impressionnant. Et le problème n’est pas que les Pentagon Papers étaient plus longs. Ce qui rend «Le Partenariat» si décevant, ce sont deux caractéristiques : Il est d’un conformisme embarrassant, se lisant comme un long exercice de promotion de l’équipe locale, les États-Unis, par le biais du journalisme d’accès : Basé sur des centaines d’entretiens avec des personnes influentes, il s’agit en fait du type d’«enquête» qui se résume à donner à toutes les personnes interrogées une tribune pour se justifier autant qu’elles le peuvent et autant qu’elles le souhaitent.
À d’importantes exceptions près. Car la stratégie clé de la disculpation est simple. Une fois que l’on a dépassé le jargon assez stupide de la thérapie de groupe, à savoir l’érosion tragique de la «confiance» et les tristes malentendus, ce sont les Ukrainiens qui sont blâmés pour le fait que les États-Unis n’ont pas gagné leur guerre contre la Russie, dans leur pays et sur leurs cadavres.
En effet, l’un des concepts fondamentaux du «Partenariat» est que la guerre aurait pu être gagnée par l’Occident, par l’intermédiaire de l’Ukraine. Ce qui ne semble même pas avoir effleuré l’esprit de l’auteur, c’est le simple fait que cette entreprise a toujours été absurde. En conséquence, l’autre élément qui n’apparaît pratiquement pas sur son écran radar est l’importance cruciale des actions et des réactions politiques et militaires de la Russie.
Il s’agit donc d’un article qui, en fait, explique la perte d’une guerre contre la Russie sans jamais remarquer que cela a pu se produire parce que les Russes étaient en train de la gagner. En ce sens, il s’inscrit dans une longue tradition : Qu’il s’agisse de la campagne ratée de Napoléon en 1812 ou de l’écrasement d’Hitler entre 1941 et 1945, trop d’observateurs occidentaux contemporains ou postérieurs ont commis la même erreur : Pour eux, c’est toujours la météo, les routes (ou leur absence), le timing et les erreurs des adversaires de la Russie qui sont en cause. Pourtant, il ne s’agit jamais des Russes. Cela reflète des préjugés anciens, persistants et massifs sur la Russie, dont l’Occident ne peut se défaire. Et, en fin de compte, c’est toujours l’Occident qui finit par en souffrir le plus.
Dans le cas de la guerre en Ukraine, les principaux boucs émissaires, dans la version du «Partenariat», sont désormais Volodymyr Zelensky et son protégé et commandant en chef, le général Aleksandr Syrsky, mais il y a de la place pour des attaques dévastatrices contre le vieux rival de Syrsky, Valery Zaloujny, et quelques autres moins importants.
Le seul officier ukrainien qui semble toujours bien dans «Le Partenariat» est peut-être Mikhail Zabrodsky, c’est-à-dire celui – surprise, surprise – qui a travaillé le plus étroitement avec les Américains et qui avait même le don d’imiter de façon flatteuse leurs manœuvres de la guerre de Sécession. Le général Yury Sodol est un autre bénéficiaire, moins important, de ces éloges condescendants. Il est présenté comme un «consommateur avide» des conseils américains qui, bien sûr, finit par réussir là où des élèves moins dociles échouent.
Zabrodsky et Sodol peuvent très bien être des officiers honnêtes qui ne méritent pas cet éloge offensant et condescendant. Zelensky, Syrsky et Zaluzhny méritent certainement de nombreuses critiques très sévères. Ils méritent même d’être jugés. Mais construire autour d’eux une légende de coup de poignard dans le dos, dans laquelle les Ukrainiens sont les principaux responsables de la perte par les États-Unis d’une guerre que l’Occident a provoquée, est pervers. Aussi pervers que les dernières tentatives de Washington de transformer l’Ukraine en une colonie de matières premières, en guise de récompense pour avoir été un mandataire aussi docile.
Malgré tous ses défauts fondamentaux, «Le Partenariat» contient des détails intrigants. On y trouve, par exemple, un chef du renseignement européen reconnaissant ouvertement – dès le printemps 2022 – que les officiers de l’OTAN étaient devenus «partie prenante de la chaîne de l’assassinat», c’est-à-dire qu’ils tuaient des Russes avec lesquels ils n’étaient pas, en réalité, officiellement en guerre.
Ou encore que, contrairement à ce que certains pensent, les Occidentaux n’ont pas surestimé mais sous-estimé les capacités russes dès le début de la guerre : Au printemps 2022, la Russie a rapidement déployé des «forces supplémentaires à l’est et au sud» en moins de trois semaines, alors que les officiers américains pensaient qu’il leur faudrait des mois. Dans le même esprit d’arrogance aveugle, le général Christopher Cavoli – en substance, le vice-roi militaire de Washington en Europe et une figure clé dans la promotion de la guerre contre la Russie – a estimé que les troupes ukrainiennes n’avaient pas besoin d’être aussi bonnes que les Britanniques et les Américains, mais simplement meilleures que les Russes. Encore ces préjugés stupides et nuisibles.
L’«histoire inédite» du New York Times est également extrêmement prévisible. Malgré tous les détails, rien dans «Le Partenariat» n’est surprenant, du moins rien d’important. Cette enquête sensationnelle ne fait que confirmer ce que tous ceux qui n’ont pas été endormis par la guerre de l’information occidentale savaient déjà : dans la guerre d’Ukraine, la Russie n’a pas simplement – si c’est bien le mot – combattu l’Ukraine soutenue par l’Occident, mais l’Ukraine et l’Occident.
D’aucuns pourraient penser que cette distinction n’a pas d’importance. Mais ce serait une erreur. En effet, c’est le genre de distinction qui peut faire la différence entre être et ne pas être, même à l’échelle planétaire.
En effet, si Moscou se bat contre l’Ukraine, alors que cette dernière bénéficie du soutien de l’Occident, cela signifie que la Russie doit surmonter une tentative occidentale de la vaincre par une guerre par procuration. Mais combattre l’Ukraine et l’Occident signifie que la Russie est en guerre contre une coalition internationale dont les membres l’ont tous attaquée directement. La réponse logique et légitime à cette situation aurait été de les attaquer tous en retour. Ce scénario aurait été appelé la Troisième Guerre mondiale.
«Le Partenariat» montre en détail que l’Occident ne s’est pas contenté de soutenir indirectement l’Ukraine. Au contraire, à maintes reprises, il l’a aidée non seulement en lui fournissant des renseignements que l’Ukraine n’aurait pas pu recueillir seule, mais aussi en participant directement non seulement à la fourniture d’armes, mais aussi à la planification de campagnes et à la mise à feu d’armes qui ont fait un grand nombre de victimes parmi les Russes. Encore une fois, Moscou a dit que c’était le cas depuis longtemps. Et Moscou avait raison.
C’est pourquoi, d’ailleurs, le Telegraph britannique s’est définitivement trompé sur un point dans sa couverture du «Partenariat» : Les détails de l’implication américaine qui viennent d’être révélés ne sont pas, en fait, «susceptibles d’irriter le Kremlin». Du moins, ils ne le mettront pas plus en colère qu’auparavant, car la Russie sait certainement depuis longtemps à quel point les États-Unis et d’autres pays – en premier lieu la Grande-Bretagne, la France, la Pologne et les pays baltes – ont contribué, directement et indirectement, à l’assassinat de Russes.
En effet, s’il y a un point important à retenir de l’exposition fière du New York Times de ce qui est extrêmement peu surprenant, c’est que le terme «guerre par procuration» est à la fois fondamentalement correct et insuffisant. D’une part, il correspond parfaitement à la relation entre l’Ukraine et ses «soutiens» occidentaux : Le régime de Zelensky a vendu le pays dans son ensemble et des centaines de milliers, voire plus, de vies ukrainiennes à l’Occident. L’Occident les a utilisées pour faire la guerre à la Russie dans la poursuite d’un objectif géopolitique primordial : infliger à la Russie une «défaite stratégique», c’est-à-dire une rétrogradation permanente au rang de pays de second rang, de facto non souverain.
Ce qui précède n’est pas une nouvelle, sauf peut-être pour les nombreuses personnes qui ont subi un lavage de cerveau de la part des guerriers de l’information occidentaux, de l’historien devenu apôtre de la guerre Tim Snyder aux agitateurs du X de moindre envergure dont les profils arborent des drapeaux ukrainiens et des tournesols.
Ce qui est moins étonnant, mais un peu plus intéressant, c’est que, de l’autre côté, l’expression «guerre par procuration» est encore faussement bénigne. Le critère essentiel pour qu’une guerre soit une guerre par procuration – et non son contraire, qui est, bien sûr, directe – est, après tout, que les grandes puissances utilisant des procurations se limitent à un soutien indirect. Il est vrai qu’en théorie et dans la pratique historique, cela n’exclut pas totalement l’ajout d’une action directe limitée.
Et pourtant : Dans le cas de la guerre actuelle en Ukraine, les États-Unis et d’autres nations occidentales – et n’oubliez pas que le «Partenariat» n’aborde guère toutes les opérations secrètes également menées par eux et leurs mercenaires – ont clairement, de manière flagrante, dépassé le stade de la guerre par procuration. En réalité, l’Occident fait la guerre à la Russie depuis des années.
Cela signifie que deux choses sont vraies : l’Occident a failli déclencher la troisième guerre mondiale. Et s’il ne l’a pas fait – pas encore, du moins – c’est grâce à la retenue inhabituelle de Moscou qui, croyez-le ou non, a en fait sauvé le monde.
Voici une expérience de pensée : Imaginez que les États-Unis combattent le Canada et le Mexique (et peut-être le Groenland) et qu’ils apprennent que les officiers russes jouent un rôle essentiel dans le déclenchement de frappes massives et dévastatrices sur leurs troupes. Que pensez-vous qu’il se passerait ? Tout à fait. Et si cela ne s’est pas produit pendant la guerre d’Ukraine, c’est parce que Moscou est l’adulte dans la pièce. Cela devrait vous faire réfléchir.