Tous les articles par Markus

Record !

Rafael Nadal est sur le point d’égaler, puis de dépasser les vingt victoires en Grand Chelem de Roger Federer ! Mais Novak Djokovic va probablement les devancer tous les deux dans les 2 ou 3 années à venir. Serena Williams parviendra-t-elle à gagner son vingt-quatrième titre de Grand Chelem en simple, afin d’égaler Margaret Court ? Et Mikaela Shiffrin est en passe de menacer l’incroyable record de 86 victoires Coupe du Monde de Ingemar Stenmark. Lewis Hamilton va-t-il effacer des statistiques Michael Schumacher ? Quand Armand Duplantis va-t-il passer 6 mètres 20 à la perche ?

Le sport et les records à battre vont de pair; désolé, M. le Baron Pierre de Coubertin, l’essentiel n’est pas de participer, mais de gagner. Et de gagner « mieux » que tous les précédents, quitte à se faire à son tour « ringardiser » par son successeur peu de temps après.

Tout à fait vulgairement, je dois avouer que je me fous complètement que Federer détienne ou non le record du nombre de victoires en Grand Chelem. D’ailleurs, à vrai dire, tout le monde s’en balance, car même si Djokovic parvient à gagner vingt-cinq tournois, il y a fort à parier qu’il n’aura jamais l’aura de Rodger, ce « quelque chose » qui lui permet de remplir des stades avec plus de cinquante mille personnes simplement pour un match sans enjeu particulier en Afrique du Sud ou en Amérique australe. Les records sont faits pour être battus, les détenteurs de record sont faits pour être oubliés; seules les personnes (ou les personnalités ?) présentent un intérêt susceptible de transcender l’événement.

J’ai longtemps cru que certaines activités de plein air ne deviendraient jamais réellement un sport, ou à tout le moins, échapperaient à la comptabilité des records. Le ski-alpinisme et l’alpinisme, par exemple; j’aurais dû me souvenir que l’alpinisme avait été sport olympique en son temps. Plusieurs premières et aussi quelques drames de la haute montagne sont à imputer à la compétition que livraient les alpinistes allemands et autrichiens aux autres à l’époque du troisième Reich, avec en perspective une éventuelle distinction (par le Bundeskanzler Hitler en personne !) aux Jeux Olympiques de Berlin… Quant aux records, il suffit de songer à quelques compétitions classiques comme la Patrouille des Glaciers pour constater que la soif des records est ici aussi présente: moins de 6 heures pour un trajet qu’à une époque il est vrai reculée, j’avais eu le privilège de parcourir en une longue et merveilleuse semaine émaillée d’instants magiques faits de contemplations, d’émotions et de rencontres aussi enrichissantes qu’improbables… La performance tue l’aventure.

Nirmal Purja dit « Nims » gravit en 2019 les 14 sommets de plus de 8000 mètres de la planète en une saison. Longtemps, l’ascension des 14 sommets à plus de 8000 mètres de la planète Terre a été l’oeuvre d’une vie, ou de plusieurs années. Grâce à l’hélicoptère, l’apport d’oxygène, de la pharmacopée moderne et une équipe de traceurs, cette entreprise se voit réduite en une entreprise saisonnière. Nécessité de record oblige ! Quel sera le prochain record ? Cinq mois au lieu de sept ? Sans oxygène ? Mais après tout, qui s’en soucie ?

En février 2020, le continent Antarctique a vécu pour la première fois (depuis que l’on tient à jour des statistiques) une température supérieure à 20 degrés. En été 2019, l’Arctique avait également constaté une fonte de la banquise exceptionnelle. Des événements similaires sont constatés dans nos régions. Ces records-là sont appelés à être battus. Assez rapidement, probablement… Et là, il va falloir qu’on s’en soucie.

Partager :

Skolstrejk

for Klimatet (Grève étudiante pour le climat). Ces quelques mots de suédois sont devenus indissociables de la jeune égérie de la contestation climatique Greta Thunberg, personnalité de l’année 2019 pour le Time Magazine. Au-delà de son combat pour la problématique du climat, elle a popularisé la manifestation non-violente comme moyen pour les jeunes de se faire entendre. Considérée comme légitime par les uns et illégale, voire antidémocratique par d’autres. cette manière de faire a divisé profondément les opinions récemment. Un procès retentissant ayant très provisoirement débouché sur un acquittement des manifestants accusés a crée un buzz monumental, totalement hors de proportion avec la manifestation incriminée qui s’apparenterait plutôt à une aimable plaisanterie de potaches, n’était la gravité de la thématique abordée.

Plusieurs débats ont abordé ce jugement surprenant du point de vue légal; je n’ai suivi que celui organisé par la RTS dans l’émission Infrarouge; y participaient notamment (à part une jeune activiste dans le rôle d' »accusée ») Céline Vara, Philippe Nantermod et Peter Rothenbühler, ancien rédacteur en chef du quotidien « Le Matin ». L’avocat libéral-radical Nantermod était il y a quelques années un brillant jeune politicien bourré d’idées et de convictions : j’ai retrouvé un politicien ayant incontestablement pris de la bouteille (aussi bien en termes d’expérience qu’au niveau de la ceinture) et figé sur ses positions, avec l’attitude fermée typique (épaules légèrement voûtées, bras croisés) du procédurier sûr de la légitimité que lui apporte un texte de loi par essence indiscutable. Un fonctionnaire parfaitement maître d’un règlement justifiant sa propre existence, en d’autres termes. L’avocate écologiste Céline Vara s’est d’ailleurs rapidement laissé enfumer par M. Nantermod : en guise de défense de la jeune activiste présente autour de la table, elle ne trouva à dire, en substance, que « pour sa part, elle avait choisi un autre mode de lutte que l’activisme ». Bravo madame, fermez le ban et votez pour le parti écologiste.

La critique la plus insidieuse venait de M. Rothenbühler : son discours paternaliste et condescendant décrédibilise les activistes plus sûrement que les tirades légalistes de Nantermod. A la fin de l’émission, une tirade de Philippe Nantermod sur la démocratie et le fait que les électeurs n’avaient pas voulu élire plus de représentants verts et donc que le parti libéral-radical poursuivait ses propres objectifs fut particulièrement mal venue : implicitement, M. Nantermod avoue que le climat ne figure pas parmi les préoccupations politiques de son parti (on s’en doutait bien, notez) et néglige le fait que les partis écologistes ont obtenu un résultat exceptionnel lors des dernières élections en Suisse. Mme Vara aurait pu au moins relever ce trait de mauvaise foi…

En fin d’émission, tout le monde semblait d’accord (on n’a pas trop posé de questions à la jeune activiste visiblement intimidée) et on s’est quitté ainsi. Je pense pour ma part (et j’espère) qu’il y aura d’autres occasions de débattre de ce genre d’activisme à l’avenir. Que reproche-t-on à ces activistes dans ce cas particulier ? D’avoir joué à la baballe dans une succursale de la banque « Crédit Suisse » pour dénoncer les investissements dans les énergies fossiles. Ils n’ont rien cassé, au contraire de certains activistes antispécistes qui se livrent à des déprédations inadmissibles de boucheries ou de fast-food, et ont permis d’attirer l’attention sur une problématique qui concerne tous les habitants de cette planète (sauf ceux qui ne veulent absolument pas se sentir concernés, comme apparemment M. Nantermod).

Pour ma part, je souhaiterais qu’il y ait d’autres manifestations de ce genre à l’avenir (bien que je ne les approuve pas forcément). Un pique-nique salades dans l’entrée de Philip Morris à Neuchâtel, une marelle devant l’UBS à Lausanne, un tournoi de roller dans un endroit improbable, un grand garage par exemple… Et je souhaiterais que, pour le plus grand plaisir de M. Nantermod, on sanctionne ces actions. Ceux qui émettent ces jugements sanctionnent leurs propres enfants, pour une action qu’ils ont eux-même, par les impérities de leur génération (la mienne, par la même occasion), provoquée. Les politiciens censés voter les lois qui permettent de sanctionner ces activistes partagent entièrement cette responsabilité : qu’on le leur dise et le répète. ils condamnent leurs enfants parce ces derniers manifestent contre un état de faits dont leurs juges et parents sont directement responsables. On peut espérer que ces braves gens développent un sentiment de culpabilité à force de condamner leur propre descendance. Et que M. Nantermod ne vienne pas répéter qu’il n’y a qu’à voter au lieu de manifester : nombre de ces manifestants n’ont pas le droit de vote, et le parti de M. Nantermod est opposé à leur accorder ce droit : on devine aisément pourquoi.

Peut-être que les Trump, Bolsonaro, Köppel ou autres Nantermod peuvent garder l’inconscience tranquille devant cet état de fait; mais les gens normaux, et conscients de leur responsabilité envers les générations futures ?

Si nous arrêtions toute émission de CO2 demain (enfin, celle due aux énergies fossiles, parce qu’il faut bien que nous continuions à respirer), une inversion de la tendance au réchauffement climatique n’interviendrait probablement pas avant l’an 2500. Du moins, c’est ce que les modèles climatiques actuels prédisent. Au mieux, on pourrait stabiliser la température vers 2060 ou 2100; pour améliorer les choses, il faudrait recourir à des solutions technologiques de récupération du CO2. Technologies coûteuses et terriblement complexes, mais les jeunes activistes actuels devront probablement en passer par là.

En attendant, rappelons-nous que les énergies fossiles, ce sont les restes des forêts de l’ère justement appelée Ere Carbonifère. Le développement des grandes forêts permit alors d’absorber le CO2 et de rendre possible l’avènement d’espèces vivantes terrestres. C’est ce CO2 que nous relâchons actuellement dans l’atmosphère. Ce CO2 que la nature a mis 100 millions d’années à absorber, nous le rejetons en moins d’un siècle ! A charge de nos enfants et petits-enfants de se débrouiller pour refaire ce que la nature a mis tant de temps à réaliser… Mais M. Nantermod et les autres ont fondamentalement raison: ce n’est pas notre problème, c’est celui de nos descendants. Et les lois doivent être respectées et appliquées. Jusqu’à en crever.

Partager :

Qubits…

En 1977, Ronald Rivest, Adi Shamir et Leonard Adleman décrivent l’algorithme nommé RSA d’après leurs initiales. RSA a été breveté par le Massachusetts Institute of Technology (MIT) en 1983 aux États-Unis (brevet échu en 2001). Avec le développement d’Internet et du commerce électronique, cet algorithme est devenu l’un des plus importants et les plus utilisés du monde. Il propose une solution au problème élémentaire suivant :

Soit deux partenaires A (un vendeur, par exemple) et B (un client) qui, bien qu’ils ne se connaissent pas, désirent échanger des informations mais ne souhaitent pas être écoutés par une tierce personne.Ne se connaissant pas, ils n’ont aucun moyen de s’entendre préalablement sur de quelconques conventions de codage de l’information qui mettraient leurs échanges à l’abri des indiscrets ou des pirates informatiques désireux de voler des coordonnées bancaires ou d’autres informations confidentielles ou sensibles. Comment garantir alors la possibilité d’une transaction confidentielle entre ces deux partenaires potentiels ?

RSA permet de définir un encodage (ou cryptage) asymétrique : la méthode de chiffrement utilise un paramétrage (on parle de clé) différent de la méthode de déchiffrage. La clé de chiffrement peut être publiée pour une utilisation par tout un chacun (on parle de clé publique), mais seul celui qui possède la clé de déchiffrement (la clé privée) peut lire les messages ainsi codés. La situation est similaire à ce que l’on connaît avec une porte d’entrée d’immeuble ou d’hôtel : on peut sortir en tournant le bouton du verrou (clé publique), mais il faut une clé physique ou un digicode pour entrer. Si l’on possède la clé publique, on ne peut en déduire la clé privée.

A vrai dire, il est théoriquement possible dans le cadre de RSA de trouver la clé privée à partir de la clé publique; mais l’opération est si complexe que même les meilleurs ordinateurs du monde, mis ensemble sur le « cassage » d’une clé de 4096 bits, n’y parviendraient vraisemblablement pas avant que le soleil ne devienne une nova. De toutes manières, la probabilité pour que l’information ait encore une quelconque valeur après l’opération est nulle. Alors bon, me direz-vous, quel est l’intérêt de cette dissertation qui ne fait qu’enfoncer des portes ouvertes sans même utiliser de clé publique ou privée ?

En 2019, Google annonce avec Sycamore l’avènement de l’ordinateur quantique « utilisable ». IBM qui possède un prototype comparable s’empresse de contester, mais la nouvelle fait grand bruit dans les milieux spécialisés: il semble désormais possible de construire des ordinateurs quantiques. Sycamore est à un ordinateur commercialement exploitable ce qu’ENIAC a jadis (1945) été pour le petit bijou ultraportable sur lequel vous lisez ces quelques lignes. Quelle importance pour l’algorithme RSA ? Un ordinateur quantique ne fonctionne pas comme un ordinateur classique. Au lieu de bits valant 0 ou 1, il utilise des qubits dont l’intérêt principal est de permettre la superposition d’états. Peu intuitive (et c’est peu dire !), cette propriété des qubits permet d’imaginer des algorithmes aux performances inatteignables à l’informatique classique. A l’heure actuelle, peu d’algorithmes connus se prêtent à l’implémentation en qubits; mais l’un d’eux est la factorisation de très grands nombres : et c’est précisément là le coeur du problème du « cassage » d’une paire de clés publique/privée RSA.

Là où un (voire de nombreux) ordinateur classique mettrait des milliers d’années à casser une clé, un algorithme basé sur la superposition d’états peut en principe parvenir au résultat en quelques heures. Théoriquement du moins, RSA ne garantit plus désormais la sécurité des communications sur Internet.

Non seulement le téléachat ou le télé-banking, mais aussi le vote électronique, les billetteries Internet, les sites protégés, et même les distributeurs de monnaie ou les lecteurs de cartes de crédit ne garantissent plus la sécurité de la transaction. Et actuellement, il n’y a pas d’alternative à court terme à l’algorithme RSA.

Bon, ce n’est pas encore demain que tout un chacun disposera d’un ordinateur quantique chez lui, si tant est que cela soit possible un jour (en l’état, c’est fort peu probable, mais après tout, les ordinateurs ultra-portables d’aujourd’hui n’étaient guère envisagés par les utilisateurs privilégiés d’ENIAC en 1945). Mais à terme, il est probable que la capacité de calcul d’un ordinateur quantique soit mise à disposition sur le cloud, La puissance de calcul nécessaire au cassage d’une clé RSA en quelques minutes devient dés lors disponible à chaque utilisateur averti, ouvrant la voie à toutes les escroqueries imaginables.

Ces faits sont largement connus depuis que l’on parle d’ordinateurs quantiques, mais de manière intéressante, les recherches de solutions sont plutôt confidentielles. De fait, le cryptage asymétrique n’a pas connu de développement théorique majeur depuis 1977. Pas plus que les protocoles de base Internet comme TCP ou même IP (on a introduit IPv6 dans les années 1990, mais les adresses IPv4 restent largement utilisées). Pire encore, les systèmes d’exploitation utilisés restent des constructions bancales, plus ou moins élaborées à partir de versions de VMS (Windows) ou UNIX (Mac OS), voire Linux (Android) lui-même un clone de UNIX. A croire que l’informatique s’est arrêtée dans les années 70-80, et que depuis, tout n’est plus qu’applications… jusqu’à ce qu’un événement majeur impose le changement, souvent dans la douleur.

La physique quantique (à laquelle je ne comprends pas grand-chose, mais je crois être en bonne compagnie) introduit beaucoup de notions peu intuitives, voire carrément paradoxales, comme l’apparente remise en question du principe de causalité. La superposition des valeurs dans un qubit ouvre des perspectives vers une informatique que l’on n’avait jamais imaginée, avec des algorithmes qui n’avaient jamais été écrits ou même envisagés ; mais peu d’instituts de recherche y sont préparés… Cette procrastination rappelle étrangement une autre attitude qui elle aussi trouve quelque origine dans les années 1970-80 : le club de Rome avait pronostiqué les problèmes écologiques que notre planète rencontre actuellement; mais en 2020, rien dans le discours des plus puissants de ce monde ne donne à penser que l’on envisage une réaction, même 50 ans plus tard… Wait and see… or not ?

Partager :

Fake…

L’actuel président des Etats-Unis a popularisé l’expression « Fake News« , en les dénonçant d’une part, mais surtout en en générant une pléthore au gré de ses « tweets » parfois inconsidérés. Donald Trump n’est hélas de loin pas le seul à générer des informations souvent approximatives, parfois fausses, voire carrément malhonnêtes à force d’être mensongères. Chacun se souvient de ses déclarations fantaisistes sur la foule présente lors de sa prestation de serment. Ses homologues brésiliens, britanniques ou italiens (jusqu’il y a peu) ne sont pas en reste, quand ils ne le dépassent pas largement !

Comment font donc ces personnalités pour survivre à des mensonges autrement plus évidents que les petits errements de nos politiciens suisses mis au pilori, comme Pierre Maudet ou Géraldine Savary ? Comment leur électorat peut-il continuer à leur faire confiance ?

Avant de continuer, j’aimerais rappeler à tout un chacun que je ne suis pas un politologue; mais que, en revanche, j’ai beaucoup travaillé avec l’information et l’informatique au cours de ma carrière; en conséquent, je connais raisonnablement bien les méthodes servant à collecter, trier, analyser et sélectionner les informations, et c’est cet aspect du problème que je souhaite aborder ici.

Lorsqu’un politicien décide un jour de se faire élire, il doit trouver un nombre suffisant (une majorité, idéalement) de personnes pour qui il représente le candidat idéal. A défaut de trouver une majorité, il devra rechercher à s’assurer le soutien aussi fort que possible d’un groupuscule qui portera ses opinions. Mais comment trouver un groupe de personnes adéquat ? C’est un problème assez connu en informatique, faisant partie de la grande famille des algorithmes de « matching », ou de recherche de correspondances. Selon que l’on connaît plus ou moins d’informations sur les parties à mettre en correspondance (les partenaires du « matching »), les solutions différeront notablement. Dans le cas d’une élection conventionnelle, le candidat d’un parti traditionnel (libéral, centriste, gauche modérée) ne dispose pas d’informations très précises sur son électorat potentiel; il va donc afficher un profil pas trop caractéristique qui devrait lui permettre de trouver une correspondance avec un maximum de personnes, même si cette correspondance est parfois assez faible. On parle alors de « weak matching« . Une telle correspondance est susceptible d’être facilement brisée, par exemple si le candidat déçoit, par une mauvaise décision, une alliance jugée inappropriée ou un mensonge. A l’inverse,si le candidat connaît dans les moindres détails ses électeurs potentiels, il peut tenter d’adapter son propre profil de manière à mieux correspondre aux attentes de ses électeurs, et atteindre ainsi un « strong matching« , voire même un « optimal matching« . Une telle relation est susceptible de résister à de nombreuses péripéties, mais comment l’organiser dans le cas d’une élection ?

Matteo Salvini n’est peut-être pas le meilleur exemple, puisqu’en fin de compte il a été chassé (temporairement ?) du pouvoir, mais son parcours est caractéristique de la méthode utilisée par ces nouveaux « démocrates » dopés aux technologies de l’information. Il est accompagné d’un expert en communications qui est aussi un informaticien de renom, et qui aurait développé un algorithme appelé « La Bête ». Cet algorithme permettrait d’analyser les profils des membres de la Lega de manière à permettre au candidat Salvini d’affiner sa rhétorique pour mieux correspondre aux aspirations des électeurs de la Lega : en termes informatiques, assurer un meilleur « matching« , une meilleure correspondance. Cette recherche de correspondance peut aller jusqu’à dicter des comportements spécifiques au candidat, comme par exemple se promener sur des plages en tong et maillot de bain. Bien sûr, on ne peut atteindre une bonne correspondance qu’avec des profils bien définis (qui sont aussi plus aisément délimitables par un algorithme); c’est le cas de tendances politiques plutôt extrémistes, ou polarisées sur des problèmes particuliers (comme les réfugiés, ou l’appartenance à l’Europe, etc…). Ce qui peut expliquer en partie pourquoi plusieurs pays où des dirigeants de ce type sont à l’oeuvre vivent une situation de conflit potentiel, où les « pro » et les « contra » ne parviennent plus à discuter ensemble. Voir par exemple l’actuelle « relation » entre démocrates et républicains aux Etats-Unis.

Bien sûr, les algorithmes utilisés pour favoriser et consolider cette correspondance sont tenus dans la plus stricte confidentialité, et on ne peut que faire des hypothèses sur leur existence et leur fonctionnement. Mais si personnellement, j’avais à diriger l’équipe de développement d’un tel algorithme, je définirais les étapes suivantes :

  1. Définir les éléments-cible de la correspondance. Connaissant le candidat, déterminer des groupes de personnes susceptibles de se reconnaître au moins partiellement dans un sous-ensemble raisonnable de thématiques chères au candidat. Comment déterminer ces éléments ? Les réseaux sociaux (Facebook, Instagram, ou autre) constituent une mine d’or et si l’on a la chance de disposer, comme la LEGA, d’un fan’s club dédié, cela simplifie les choses.
  2. Déterminer les thèmes réellement importants aux yeux des éléments-cible. Ce seront les thèmes mis en exergue par le candidat, bien sûr. Contrairement à un objectif de « weak matching« , où on cherchera des objectifs plutôt vagues et susceptibles d’intéresser de nombreuses personnes (le prix de l’assurance-maladie, les énergies renouvelables), on privilégiera les thèmes avec une forte connotation conflictuelle (expulser les réfugiés, interdire la burka). Ces thèmes bien identifiés serviront de base à la dialectique du candidat, générant ainsi,on l’espère, une très forte adhésion de la part des éléments-cible (strong matching).
  3. Cerner les habitudes et les comportements des éléments-cible. On se servira de ces informations pour influer sur le comportement du candidat, de manière à ce que les éléments-cible se reconnaissent mieux en lui. Matteo Salvini s’affiche en maillot de bain, Bolsonaro en treillis ou en salopettes : le principe est le même, il faut que les « disciples » puissent s’identifier au leader.

Ce que l’on appelle en informatique un strong matching est en principe difficile à défaire. En d’autres termes, une telle correspondance est digne de confiance, et l’algorithme va désormais être convaincu que cette correspondance est persistante. C’est ce type de correspondance que recherchent (avec plus ou moins de réussite) les algorithmes d’authentification, par exemple. Votre banque vous demande des preuves d’identité, et passé ce test, elle est convaincue que vous « correspondez » bien à un compte donné. De manière similaire, les éléments-cibles vont désormais avaler toutes les couleuvres que leur proposera le candidat; mieux même, ils les reprendront à leur compte. Vous pouvez désormais utiliser des informations douteuses (fake news, mensonges, etc…) à votre aise, dans la mesure où ces informations correspondent à la relation établie avec vos disciples.

Bien sûr, en politique, on peut atteindre un tel résultat sans avoir besoin d’aide informatique. Hitler ou Napoléon n’ont pas utilisé d’ordinateurs pour envoyer à la mort des centaines de milliers d’allemands et de français à priori pas plus méchants ni plus stupides que les citoyens des pays voisins. Mais ils ont su s’appuyer sur un petit groupe de partisans convaincus pour entraîner une majorité de personnes insatisfaites de la situation générale dans un délire extrémiste et violent. L’informatique permet de détecter et d’isoler plus aisément les partisans potentiels, grâce aux réseaux sociaux, essentiellement. Et les algorithmes permettent de mettre en évidence les propositions qui auront la meilleure audition dans un groupe donné. Ainsi, lorsque le groupe est formé et parfaitement fidélisé, l’utilisation d’informations biaisées ou difficilement vérifiables permet d’influencer efficacement le plus grand nombre jusqu’à obtenir une éventuelle majorité.

Bien sûr, il y aura plein de gens pour détecter les fraudes et les mensonges; mais rappelons tout de même l’exemple des créationnistes. Leurs affirmations sont bourrées d’approximations et de fausses découvertes, de relation de faits impossibles et que sais-je encore. Néanmoins, le créationnisme est désormais enseigné dans pas mal d’écoles, comme alternative à la théorie darwinienne de l’évolution, voire même comme théorie unique dans certains milieux. De nombreux mensonges, même avérés, ne suffisent apparemment pas à discréditer une idée, fût-elle fumeuse, si il se trouve un public suffisamment important pour la soutenir…

Mais les algorithmes et les réseaux sociaux permettent de faire mieux. Selon le même principe, et avec l’aide des réseaux sociaux et d’algorithmes performants, il est devenu possible d’influer de manière significative sur les élections. Tout le monde se souvient de l’affaire Cambridge Analytica, mais ce n’est pas un cas isolé. Ce genre d’influence est insidieux, parce que pratiquement invisible, ou en tous cas difficile à mettre en évidence. Mais ses effets n’en sont pas moins réels, et dangereux si initiés par la malveillance. Le plus grand risque ne provient peut-être pas de Trump, Bolsonaro, Salvini ou consorts, mais de leur absence.

Mise à jour 08.06.2020 : Suite à une aimable remarque d’une lectrice, je me permets d’ajouter le lien suivant, en ces temps de coronavirus. Dans un contexte un peu différent (pas forcément des intox !) on a beaucoup utilisé Tinder pendant la période de confinement. Encore des algorithmes de matching… 🙂

Partager :

Information et Désinformation

Au dix-neuvième siècle, les Etats-Unis d’Amérique constituaient une confédération d’Etats séparés les uns des autres par des distances parfois considérables, et ne disposant pas de moyens de communications efficaces. Transmettre les volontés du président des Etats-Unis de Washington D.C. au gouverneur de la Californie demandait un temps considérable (quand le message parvenait à destination, ce qui était loin d’être une évidence). De fait, même quand le message parvenait au destinataire, il y avait quelque chance que son contenu ne soit devenu obsolète entre temps. Les tiraillements entre les Etats (prémices de la Guerre de Sécession) rendaient le besoin de moyens de communication efficaces de plus en plus vital pour le gouvernement.

En 1860, Hiram Sibley (alors président de la Western Union) reçut l’autorisation de déployer le premier câble télégraphique transcontinental américain. Il signait l’arrêt de mort de systèmes de transmission d’informations plus anciens, mais parfois aussi plus pittoresques, comme le Pony Express. Le coût des messages ainsi transmis était prohibitif, et l’absence de systèmes d’amplification ou de régénération du signal imposait la réécriture du message à chaque station-relais. La probabilité d’erreurs était relativement élevée, et la vitesse de transmission se mesurait (de bout en bout) en bit/minute (Par comparaison, le Pony Express, moyen le plus rapide jusque là, aurait pu se targuer de vitesses de transmission de l’ordre du bit par jour, quand le message arrivait). Néanmoins, le télégraphe représenta une avancée technologique considérable, et joua un rôle essentiel dans la consolidation de la jeune nation américaine en rapprochant la côte Atlantique et la côte Pacifique : désormais, les nouvelles essentielles parvenaient de part et d’autre pratiquement en temps réel. On pouvait lire à New York dans le journal du lendemain les événements significatifs de la veille à San Francisco. Un des premiers messages à transiter sur ce nouveau câble était un message du gouverneur de la Californie à destination du président des Etats-Unis pour l’assurer du soutien des Etats du Pacifique dans la Guerre de Sécession qui s’annonçait.

Aujourd’hui, nous avons dans nos poches de petites merveilles technologiques capables de se connecter sur des réseaux sans fil à très grand débit (plusieurs centaines de mégabits par seconde, parfois), et ceci pour un prix symbolique. L’actuel président des Etats-Unis est un fervent adepte du message court (inspiré par les anciens SMS ou texto, et géré actuellement par la société Twitter). On estime que Donald Trump génère plusieurs dizaines de tweet chaque jour, et leur pertinence est souvent très contestée. Ces réseaux de haute performance dont se sert le président sont aussi utilisés par des applications dites sociales (Facebook, Instagram, WhatsApp, WeChat, etc…) dont certaines ont été directement mises en cause pour avoir servi de support à des fraudes électorales (voir par exemple cet article du Figaro). De support de cohésion à la démocratie qu’ils ont été par le passé, voici que les outils de communication sont devenus des menaces pour les processus démocratiques !

Cette « évolution » n’est pas vraiment récente : plusieurs dictateurs ont ainsi utilisé les moyens de communication à leurs propres fins; mais ce n’est que depuis peu qu’Internet et les réseaux sociaux sont devenus des vecteurs de désinformation, et des outils de manipulation de l’opinion publique. Et Internet a pu évoluer dans ce sens grâce à son universalité et à la facilité d’accès au réseau que nous connaissons. Or, cette facilité d’accès est le fait de progrès technologiques réalisés pour l’essentiel entre les années 1970 à 1990, c’est-à-dire par la génération 1940-1960 : ma propre génération, en somme. Les ingénieurs en communication et en technologies de l’information de cette génération ont – sous couvert de progrès techniques extraordinaires – contribué au développement d’outils qui ont apparemment péjoré les systèmes de communication existants jusqu’à les rendre parfois néfastes.

Qu’avons-nous fait faux ?

Comment est-il possible de rendre un système de communication fonctionnellement plus mauvais alors qu’on l’a massivement amélioré techniquement ?

Tout d’abord, il convient de préciser que tout n’est pas néfaste dans les technologies de l’information actuelles. Beaucoup d’applications proposées sont réellement géniales, et influent profondément la société dans une dynamique positive. Mais une application peut être détournée de ses buts originaux si elle est insuffisamment protégée, ou/et si quelqu’un y trouve un quelconque intérêt. Mais il ne s’agit pas ici de discuter de sécurité informatique, même si le sujet mériterait que l’on s’y arrête. Une autre fois, sûrement !

Dans les années 1970, en pleine guerre froide, et aussi au plus fort du développement d’internet, on pensait que le libre accès à l’information permettrait de combattre efficacement la dictature en général, et le communisme en particulier. Il suffisait en effet que les victimes de régimes politiques totalitaires disposent d’une information non biaisée sur ce qu’il se passait ailleurs pour qu’ils se révoltent contre leurs autorités. Un libre accès à l’information permettrait ainsi d’éradiquer le totalitarisme et d’imposer la démocratie partout, et sans effusion de sang (Enfin, chez nos « boys », parce que les dégâts d’une guerre civile, c’est chez les autres, on s’en fout). Des initiatives comme Radio Free Europe relèvent de cette réflexion. Les développeurs d’Internet étaient persuadés du bien-fondé de cette hypothèse, et maintenant encore, la gratuité des applications Internet, ainsi que l’accès aux sites fournissant des informations est fréquente, voire presque normale. Cette politique permet à chacun l’accès à l’information, mais quelle valeur doit-on donner à une information gratuite ? Si le prix d’une denrée ne garantit pas sa qualité, la gratuité tend à déprécier les efforts consentis par un rédacteur pour composer son article, vérifier ses sources, valider ses références, et enfin rédiger un texte cohérent. Inversement, la gratuité tend à favoriser le rédacteur malhonnête : comment critiquer une information qui est mise gracieusement à disposition ?

Mais au fait, quelle est la valeur d’une information ? Actuellement, en dépit de certains travaux méritoires, mais assez anecdotiques, il n’y a pas de réponse objective à cette question. Claude Shannon, le père de ce que l’on a convenu d’appeler la théorie de l’information, était un (très brillant) physicien, et sa principale préoccupation était la représentation de l’information pour la transmettre et la stocker. La théorie de l’information est en réalité une théorie du codage et de la transmission de l’information. Les notions d’entropie et de quantité d’information, telles que définies par Shannon sont totalement indépendantes du contenu sémantique de l’information : du point de vue du physicien dont le problème est la représentation aussi fidèle que possible de l’information, cette attitude est tout à fait pertinente; mais ceci implique aussi que, potentiellement du moins, n’importe quelle information peut parvenir à n’importe qui, quel que soit le contexte. L’information peut être fausse, anonyme, falsifiée sans que le réseau de transmission ne s’en formalise, car il ne possède aucune connaissance qui lui permettrait de catégoriser ou de qualifier son contenu. Pour certains, c’est heureux : combien de discours de politiciens ou de publicistes deviendraient impossibles dans le cas contraire ? Pour la plupart, c’est quelque peu déstabilisant: cet e-mail qui parvient dans ma boîte de réception, c’est du lard ou du cochon ? Cette évaluation du restaurant « Le cochon gras double » est-elle authentique, ou est-ce une pub ?

Je ne prétends pas détenir des réponses. Mais l’absence de métrique de la qualité de l’information, associée à la facilité de l’accès (en tant que producteur ou consommateur) favorisent certainement l’usage abusif des technologies de l’information. Les dérives actuelles ont indubitablement aussi d’autres causes, mais les problèmes évoqués ci-dessus constituent des failles dans lesquelles des malveillants n’auront guère de scrupules à s’engouffrer…

Il ne serait pas raisonnable de limiter l’accès à l’information tel que nous le connaissons. Imposer des mesures pour garantir l’authenticité, l’origine et la conformité d’une information relèvent plus du pouvoir politique que de l’ingénierie, encore que la volonté politique ne puisse s’accomplir sans le savoir-faire de l’ingénieur. Mais les préoccupations politiques (donc, électorales) actuelles concernent plus l’écologie que l’information…

Au fait, saviez-vous que Claude Shannon a aussi défini, dans le cadre de sa mal-nommée théorie de l’information, une relation d’équivalence entre l’information et l’énergie ? Peut-être n’en êtes-vous que peu conscients, mais chaque e-mail ou consultation de page web consomme de l’énergie : et cette affirmation ne prend même pas en compte la consommation de votre propre ordinateur personnel ou smartphone qui vous permet de vous assurer que votre pénis peut être agrandi au besoin. Si Internet était un Etat, ce serait le troisième consommateur d’énergie de notre planète. Et la tendance n’est pas à la baisse…

L’information continuera vraisemblablement a être utilisée de manière abusive, même si on édicte des lois qui n’ont que peu de valeur à l’échelle mondiale. Une législation mondiale, si tant est qu’elle puisse être envisagée et quel’on sache ce qu’il faut modifier, est sans doute inappropriée. Mais une sérieuse prise de conscience ne serait sans doute pas inutile…

Internet est l’un des plus fantastiques outils que l’Humanité ait inventé. Comme tout outil efficace, il peut être mal utilisé. Je ne sais pas comment garantir qu’il soit toujours bien utilisé. Je ne sais pas non plus comment empêcher quelqu’un d’utiliser un couteau pour assassiner un proche au lieu d’émincer des oignons. Il ne fait pas de doute qu’il est actuellement mal utilisé; mais les utilisateurs ont certainement le pouvoir d’améliorer la situation. Et peut-être qu’accepter de payer un prix, aussi minime soit-il, pour obtenir une information de qualité, de source avérée, et rédigée par un professionnel permettrait de faire évoluer la situation vers une amélioration souhaitable ?

Partager :

Ecohérences

Les mouvements écologistes ont beaucoup gagné en force récemment, et c’est une bonne chose pour le monde et ses habitants, hormis peut-être quelques-uns de ses membres les plus malvoyants et fermement désireux de l’être et de le rester.

Il me semble toutefois que les préoccupations écologiques sont actuellement polarisées autour du climat, et que les problématiques (pas toujours indépendantes, d’ailleurs) de la biodiversité, des micro-polluants et des perturbateurs endocriniens, pour ne citer que ces quelques thèmes, sont largement passés sous silence. Ceci n’étant pas fait pour déplaire à de nombreux acteurs (états ou entreprises, voire particuliers) libres ainsi de continuer à exercer leur « business« , « as usual« .

De plus, les « solutions » proposées (rares, il est vrai) sont souvent peu réfléchies, et sans grande valeur pratique. « Abandonnez la voiture, prenez le train ». Oui, mais au vu de l’occupation actuelle des chemins de fer, il y a du boulot pour développer le réseau jusqu’à ce qu’il soit en mesure de digérer un surcroît d’occupation tel que le générerait un transfert massif de la route vers le rail.

Montrée du doigt comme le principal coupable des excédents de CO2 dans l’atmosphère, l’automobile subit des évolutions assez chaotiques et parfois peu cohérentes. Ainsi, certains se donnent une bonne conscience en échangeant leur SUV contre une automobile électrique type Tesla; ils sont du coup persuadés d’avoir fait une bonne action et de ne plus polluer, et continuent de rouler avec la certitude d’être de bons citoyens responsables ou éco-responsables. Mais leur vieux SUV, revendu d’occasion, va continuer à polluer dans les mains d’un autre propriétaire, pas assez fortuné pour s’offrir une voiture neuve, et surtout pas une Tesla modèle Machin. Dans le pire des cas, son vieux véhicule sera exporté dans un pays où les normes anti-pollution moins sévères impliquent un prix de carburant moins dissuasif. Dans ce pays, les contrôles anti-pollution des véhicules sont peut-être plus laxistes que dans le pays d’origine, voire inexistants. Sur le bilan final, l’achat d’une voiture électrique se révélera donc plus néfaste que l’entretien de l’ancien véhicule pendant encore quelques années: il aurait au moins économisé toute l’énergie grise utilisée pour produire la fameuse Tesla.

Comme je l’avais mentionné dans un article précédent, je ne considère pas la technologie Tesla comme un progrès. Basée sur une ressource non durable (le lithium), n’exploitant que médiocrement les spécificités de la traction électrique et persistant dans l’idée d’une automobile objet de luxe doté d’une puissance inutile sinon comme argument de vente, cette technologie n’a que peu d’avantages écologiques à faire valoir. Du point de vue rendement énergétique, utiliser une part importante de la puissance du moteur pour propulser la charge des batteries est peu rationnel (et je pèse mes mots…). On manque encore de recul pour juger du nombre maximal de recharges des batteries au Li-ION que l’on peut appliquer à une automobile construite autour de cette technologie, mais ce nombre n’est pas infini, surtout avec les chargeurs ultra-rapides utilisés : les possesseurs de smartphones à batterie non amovible en savent quelque chose…

De fait, à l’heure actuelle et à ma connaissance, seul l’hydrogène constitue une solution écologiquement viable à moyen et long terme. Mais c’est une technologie qui doit encore s’affiner pour devenir réellement exploitable à grande échelle; les problèmes de distribution, en particulier, sont loin d’être maîtrisés de manière satisfaisante. Une technologie de transition intéressante à court terme résiderait dans l’utilisation à large échelle des carburants de synthèse (e-carburants). Neutres du point de vue du bilan carbone (dans une très large mesure, puisque synthétisés essentiellement à partir d’eau, de soleil et de CO2), ils pourraient être distribués via le réseau existant de stations d’essence et utilisés (avec quelques restrictions) dans les moteurs des automobiles que nous utilisons actuellement. Hélas, le développement des e-carburants est actuellement fortement ralenti par les filières basées sur le gaz de schiste, et pratiquement pas encouragé par le pouvoir politique souvent noyauté par les acteurs des filières traditionnelles…

Notons par ailleurs que les e-carburants pourraient aussi être utilisés comme solution transitoire dans l’aviation, la navigation et probablement aussi les huiles de chauffage; mais bon, il semble que cette solution ne soit pas vraiment d’actualité dans un avenir proche… Actuellement, hormis de remarquables avancées réalisées par un institut de l’EPFZ, seul le constructeur allemand AUDI investit sérieusement dans cette technologie, l’agence ARPA-E, crée sous la présidence d’Obama, et ayant réalisé de très prometteuses avancées dans ce domaine se préoccupe actuellement (en fait, depuis l’arrivée de l’équipe républicaine de Trump) plutôt de fracking.

Dans un autre domaine, l’utilisation immodérée de pesticides a largement contribué à une diminution massive de la biodiversité. Pourtant, nombre d’autorités gouvernementales continuent à défendre l’utilisation de produits phytosanitaires dénoncés par bon nombre de laboratoires pour leurs toxicités… La problématique est ancienne, car dans les années 70, on parlait déjà des menaces que faisaient planer des molécules comme le DDT. Les néonicotinoïdes ne sont certainement pas plus rassurants, bien qu’ils continuent à être largement utilisés. Les gouvernements trouvent beaucoup de mauvaises raisons pour ne pas interdire ou limiter drastiquement des composants pourtant fortement soupçonnés d’être cancérogènes. Curieusement, cette problématique est beaucoup moins mise en exergue que la question climatique, même dans les milieux qui se réclament d’une forte conscience écologique. Mais cette problématique est-elle vraiment moins urgente que la maîtrise de la dérive climatique ? Je ne sais, mais je ne le crois pas.

On pourrait discuter aussi des plastiques et des perturbateurs endocriniens, ainsi que nombre d’autres problèmes liés à une surconsommation de ressources. Mais cela n’ajouterait sans doute pas grand-chose à notre propos. Le discours écologique actuel est peu cohérent, et cela nuit énormément à son efficacité. Les Bolsonaro, Trump ou Köppel de service ont ainsi beau jeu de dégager en corner les questions embarrassantes.

En Suisse, les dernières élections ont vu le succès sans précédent des partis dits « verts », c’est-à-dire se réclamant d’objectifs écologiques ou présentés comme tels. Ce succès dénote d’une prise de conscience écologique de la part des électeurs, prise de conscience que les pouvoirs en place sont censés prendre en compte dans leur politique. Mais le conseil fédéral (plus haute autorité politique en Suisse) nouvellement constitué par le Parlement ne comprend aucun ministre « vert ». Surprenant,non ? Bon, c’est vrai que la « campagne » des Verts n’était pas un modèle du genre; mais l’argument de « stabilité » invoqué par certains des partis au pouvoir pour maintenir le statu quo est absurde, voire tenant de la négligence grave (en allemand : fahrlässig). Que dirait-on d’une personne qui, voyant son immeuble brûler, refuserait de laisser entrer les pompiers sous prétexte d’éviter un risque d’instabilité ? Bon, après, on peut mettre en doute la compétence des pompiers, mais c’est là un autre discours, plus délicat à défendre face à des électeurs qui ont justement décrété que ces pompiers-là étaient les gens qu’ils voulaient voir tenter d’éteindre l’incendie…

Cette incohérence au plus haut niveau de la gouvernance helvétique n’a curieusement pas suscité de réaction parmi les mouvements les plus concernés et les plus actifs, comme par exemple Extinction-Rébellion. Ils réclament une action politique, et ils ne s’inquiètent même pas de la non-élection des personnalités qui devraient pourtant agir dans le sens qu’ils souhaitent ! Étonnant… Il est peut-être plus facile de bloquer le pont Bessières à Lausanne que la place Fédérale à Berne ? Bon, je suis probablement injuste, ils réagiront peut-être plus tard; mais les élections, c’était le 11 décembre 2019…

Ces incohérences helvétiques ne sont probablement que peu de chose eu égard aux problèmes que posent et poseront les centrales à charbon de Chine et d’ailleurs, la déforestation en Amazonie, ou l’exploitation des gaz de schiste en Amérique du Nord et autre part. Mais il serait dommage que certains puissent se réclamer d’une telle attitude pour proclamer que « Ailleurs, ils ne font pas autrement ! »

Partager :

Les Pets des Dinosaures

A la fin de l’ère Mésozoïque, la température était beaucoup plus chaude (environ 10 degrés, semble-t-il, soit même plus que ce que l’on nous promet pour la fin du siècle) qu’aujourd’hui. Pourquoi ? Plusieurs théories mettent en cause les flatulences des dinosaures. Ce qui n’aurait d’ailleurs rien de très surprenant : on accuse bien les bovidés d’élevage de porter une lourde responsabilité dans l’excès de gaz à effet de serre actuellement; or, au Mésozoïque, les herbivores étaient probablement encore plus nombreux, et aussi beaucoup plus gros ! De plus, ils ont eu plusieurs dizaines de millions d’années, alors que Homo Sapiens n’en a eu que deux, au mieux… Des projections forcément très grossières indiquent que les sauriens émettaient à eux seuls autant (et probablement bien plus) de méthane que nous autres, toutes sources confondues. Il n’est pas impossible que, si les dinosaures avaient survécu, la planète ait continué à se réchauffer sous l’effet de l’accumulation de méthane, jusqu’à devenir trop chaude pour la survie des animaux et des plantes dont ils se nourrissaient. Les scénarios d’un telle évolution sont hypothétiques : dans le pire des cas, notre planète saturée de gaz à effet de serre aurait pu évoluer comme sa voisine Vénus, où la température de surface est de l’ordre de 400 degrés, malgré le fait que cette planète soit dans la zone habitable probable (bien qu’un peu chaude) du Soleil. Dans le meilleur des cas, la planète se réchauffe assez pour éliminer les coupables, mais pas assez pour détruire complètement la végétation qui pourra reconstituer une atmosphère utilisable au fil des quelques millions d’années suivants. Cette atmosphère reconstituée donnera la possibilité à la vie de se développer, et… on pourra recommencer l’exercice avec d’autres acteurs.

Au fait, comment s’en sont sorti les dinosaures ? Eh bien, ils ne s’en sont pas sorti, enfin pas vraiment indemnes, puisque leurs (lointains) descendants actuels sont les oiseaux. La planète les a éliminés, d’abord en produisant des prédateurs de plus en plus gros (comme Tyrannosaurus Rex, apparu tout à la fin de l’ère Mésozoïque), et comme cela n’a apparemment pas suffi, en se réchauffant exagérément pour éliminer les sources de nourriture de ces usines à flatulences qu’étaient les dinosaures herbivores. Il semble que cela n’a finalement pas été assez rapide, et la planète a trouvé le moyen de croiser la route d’un astéroïde un peu plus gros que d’habitude (entre 10 et 100 kilomètres de diamètre tout de même), causant un choc auquel peu d’êtres vivants ont survécu.

Il n’est pas impossible que l’impact de l’astéroïde ayant crée le cratère du Chicxulub ait finalement, en provoquant probablement l’extinction des dinosaures, sauvé la vie sur Terre.

La situation que nous vivons actuellement serait donc similaire à ce que la planète a vécu il y a quelques 60 millions d’années. Sauf que les primates « intelligents » que nous nous targuons d’être avons la conscience (enfin, certains d’entre nous…) de ce qui se passe, et probablement les moyens de limiter les dégâts. Encore faut-il s’y prendre assez tôt pour éviter que la phénomène ne devienne irréversible. Peut-être qu’un astéroïde de bonne taille est déjà sur une orbite intéressante, mais je pense qu’il n’est pas vraiment raisonnable de l’attendre pour se poser des questions…

Partager :

Club de Rome

Le Club de Rome est un groupe de réflexion réunissant des scientifiques, des économistes, des fonctionnaires nationaux et internationaux, ainsi que des industriels de 52 pays, préoccupés des problèmes complexes auxquels doivent faire face toutes les sociétés, tant industrialisées qu’en développement. (Source : Wikipédia).

Réunie pour la première fois en avril 1968, l’organisation acquiert une notoriété mondiale à l’occasion de la publication de Les Limites à la croissance en 1972, aussi connue sous le nom de rapport Meadows, qui constitue la première étude importante mettant en exergue les dangers, pour la Terre et l’humanité, de la croissance économique et démographique que connaît alors le monde. (Source : Wikipédia)

Il est intéressant de relire ce rapport actuellement, alors que de nombreux faits qu’il prédit se sont déjà produits ou sont sur le point de se produire. Le document met en cause l’illusion d’une croissance infinie (démographique et économique) dans l’espace fini que constitue la planète, et les risques que fait courir cette croissance sur la situation environnementale de la planète : pollution, dérèglement climatique, pénurie de ressources, instabilité sociale et politique, etc…. La mise en parallèle de ce rapport avec la réalité actuelle est pour le moins édifiante : le monde a suivi le scénario « business as usual » depuis lors, comme si les ressources de la planète étaient infinies. Pour rappel, le rapport décrit un certain nombre de scénarios, parmi lesquels trois scénarios sont particulièrement mis en avant. Outre le déjà cité « business as usual« , le rapport mentionne également un scénario basé sur une technologie de plus en plus sophistiquée, et un scénario basé sur une croissance zéro, voire une décroissance.

Dans ses conclusions, le rapport mentionne qu’un scénario purement technologique ne fait que retarder l’échéance, que la seule solution réellement durable est une croissance zéro (aussi bien économique que démographique). De surcroît, plus on retarde le moment où l’on arrive à une croissance zéro ou négative, plus on aura besoin de technologies sophistiquées et d’investissements massifs pour éviter une dérive catastrophique de la situation (pénuries, guerres, migrations, catastrophes écologiques, extinctions massives, etc…). Le rapport ne mentionne pas les détails des causes effectives de ces catastrophes; ainsi, l’excès de CO2 induit par la combustion d’hydrocarbures fossiles, la pollution par pesticides ou plastiques ne sont pas citées nommément par le rapport qui se borne à parler de ressources disponibles et de pollution de l’environnement induite par une surconsommation de ces ressources.

Il n’en reste pas moins que la situation qu’il anticipe décrit assez fidèlement la réalité que nous vivons actuellement. Si, grâce à des recherches incessantes, on a pu reculer le moment inéluctable où l’on ne disposera plus d’hydrocarbures fossiles, d’autres ressources commencent à manquer. Parmi elles, l’eau constitue la plus préoccupante, mais d’autres secteurs sont menacés de disette, comme le sable, par exemple. Cette pénurie prévisible n’a cependant pour l’instant pas beaucoup d’influence sur le comportement : la mobilité électrique est actuellement encore basée sur le lithium (pour les batteries de stockage), une denrée pas très rare il est vrai, mais dont les réserves sont limitées à moyen terme. Or, actuellement, le lithium des batteries en fin de vie n’est pas récupéré (bien que cela ne soit pas très compliqué à réaliser), pour des raisons économiques ! Business as usual

A la lumière des projections énoncées dans le rapport Meadows, il ne semble plus guère possible de douter de l’influence humaine sur la situation environnementale que nous vivons actuellement. Si des scientifiques ont pu décrire avec une remarquable précision les problèmes actuels avec cinquante ans d’avance, c’est que les modèles utilisés sont raisonnablement pertinents et fiables. Il est de ce fait assez surprenant de constater que certaines personnes continuent à mettre en doute l’influence humaine sur le dérèglement climatique. Parmi ces « climatosceptiques » figurent des personnes (comme M. Roger Köppel, par exemple) ayant suivi des études avancées, dont on pourrait attendre une bonne capacité de compréhension de la démarche scientifique. Il y a même quelques spécialistes de phénomènes climatiques, dont quelques prix Nobel. D’autres (comme le président des Etats-Unis d’Amérique) ont largement de quoi s’entourer de conseillers ayant le niveau scientifique et culturel requis, leur nation figurant parmi les plus avancées de la planète; mais ils ne le font pas.

Bien sûr, il n’y a pas que les « climatosceptiques » qui tendent à douter des conclusions scientifiques (surtout lorsque cela sert à leurs intérêts, d’ailleurs). Sans trop parler des géocentristes, des adeptes du modèle de la Terre plate et d’autres hurluberlus du même tonneau, on a pu constater aussi que plusieurs détenteurs de doctorats en biologie (par exemple Denis O. Lamoureux, professeur à l’Université d’Edmonton, Alberta, Canada) étaient adeptes du créationnisme, alors que l’évolutionnisme de Darwin est amplement démontré par des faits scientifiques indiscutables. De hautes études ne sont pas une garantie de compétence, apparemment.

L’érudition n’implique pas l’intelligence…
L’intelligence n’implique pas la sagesse…

Malheureusement, ces controverses liées à l’incompétence, voire à la stupidité ou la mauvaise foi laissent à penser qu’une action concertée à l’échelle de la planète en faveur d’une croissance zéro n’est pas pour demain. Il est déjà assez difficile d’entamer une action concertée pour le « simple » problème du réchauffement climatique lié à l’excès de CO2 (Ce n’est pas cette charmante et brillante, mais parfois un peu crispante, Greta Thunberg qui me contredira), alors décider d’une décroissance à l’échelle mondiale…

America First, pour ne citer que cet aspect du problème…

Partager :

Gogo Google

Vous avez sans doute vu passer cette information il y a quelque temps :Google sanctionne le site Viagogo en le rétrogradant dans les rankings de ses résultats de recherche. Viagogo est un site de vente en ligne de tickets pour des manifestations, concerts, etc… Il paie (probablement très cher) Google pour que les recherches le fassent apparaître en tête de liste; ainsi, jusqu’il y a peu, taper « billets fête des Vignerons » dans le moteur de recherche faisait apparaître cette page en tête de liste au lieu de celle-ci, qui est la page officielle. La controverse est liée à des pratiques peu recommandables de Viagogo qui vend parfois des billets à un tarif nettement surévalué, voire des billets invalides.

A priori, on devrait donc féliciter le moteur de recherche pour sanctionner un comportement peu scrupuleux de l’un de ses clients. Mais cette anecdote laisse également planer un léger malaise : plusieurs plaintes ont été déposées contre Viagogo, mais la première sanction provient d’un acteur privé plutôt que d’une entité juridique reconnue. Idéalement, on aurait peut-être préféré qu’une décision légale condamne le site de vente de billets, et qu’en conséquence Google décide de sanctionner un acteur jusque là protégé par la présomption d’innocence. Sauf que d’ici qu’il y ait une décision juridique (et de la part de quelle autorité de quel pays, au juste ?) de très nombreux avocats vont pouvoir s’offrir de très belles villas avec de non moins spectaculaires dream-cars stationnées à côté d’une piscine peuplée de naïades à la plastique avantageuse…

Il ne s’agit bien sûr pas de critiquer la décision (à mon humble avis judicieuse) de Google, même si elle est bien davantage motivée par un souci d’image qu’un souci de probité ou de justice; mais on ne peut s’empêcher de constater que (dans le monde de l’information en tous cas) les décisions sont de moins en moins le fait d’autorités officiellement reconnues, de plus en plus fréquemment remplacées par des décisions prises de manière unilatérale par des acteurs privés.

Autre exemple,le cas du Nutri Score. Un code de couleurs sur le modèle de l’étiquette énergie, simple, lisible et facile à interpréter. Sauf que le nutri score fait l’objet de débats controversés : trop simple, peu précis, ne donne pas les raisons qui font qu’un soda est déconseillé, etc… L’obligation de mentionner les ingrédients serait nettement préférable, selon certains; le fait que cette mention soit faite en lettres lilliputiennes de couleur noire sur fond rouge foncé et comporte (pour autant qu’on parvienne à les déchiffrer dans un supermarché encombré et sans les lunettes restées dans la voiture) des indications claires et précises comme « anti-agglomérants (E535) » ne semble pas perturber les détracteurs du nutri score. Notons au passage que l’étiquette énergie fait moins débat, bien que techniquement elle souffre des mêmes inconvénients, car un mauvais score énergétique d’une automobile ne permet pas de savoir si le problème réside dans les rejets de CO2 ou la pollution en NOx (oxydes d’azote), par exemple…

Récemment, devant les tergiversations des autorités compétentes (ou s’autoproclamant comme telles), des entreprises privées (Nestlé, pour ne citer que celle-ci) ont décidé d’adopter le nutri score à large échelle pour leurs produits. Il aurait probablement été plus avantageux, du point de vue du consommateur, que le législateur impose la présence de cet étiquetage sur tous les produits, plutôt que de voir les articles de quelques producteurs (non des moindres, il est vrai) ainsi évalués.

Il y a de nombreux autres exemples que l’on pourrait citer, notamment dans le domaine de la sécurité informatique : pourquoi l’Europe n’a-t-elle pas encore été en mesure de définir une crypto-monnaie basée sur l’Euro, alors que Facebook définit de son côté le Libra ? On peut trouver d’autres cas de figure, même dans le cadre pourtant brûlant (sans jeu de mots) du domaine écologique. Dans chacun de ces cas, le pouvoir politique et législatif, théoriquement seul habilité à définir le cadre légal associé à une activité touchant le domaine public, est dépassé par l’initiative d’une entreprise souvent multinationale. Le fait que cette initiative soit ou non judicieuse n’est en l’occurrence pas significatif; mais le fait est que notre environnement social se trouve de plus en plus souvent défini par l’initiative privée. Or, les intérêts d’une multinationale diffèrent des intérêts de la population d’un pays. Une entreprise doit en toute logique d’abord considérer son propre développement avant de se préoccuper du bien-être de la population. Même si, dans de nombreux cas, ces intérêts peuvent coïncider, ils peuvent aussi parfois diverger considérablement. C’est le rôle du pouvoir politique d’anticiper ces divergences par l’usage d’un cadre légal judicieux.

La tendance actuellement constatée est une certaine démission du pouvoir politique, en particulier dans le domaine, très mouvant il est vrai, des technologies de l’information. Considéré comme peu sensible jusqu’il y a une dizaine d’années, ce domaine devient de plus en plus prépondérant dans notre civilisation du vingt-et-unième siècle. Omniprésent dans notre cadre social, l’environnement numérique constitue encore en grande partie une zone de non-droit où les arnaques restent majoritairement impunies, et où les mécanismes de régulation sont presque uniquement contrôlés par les grands groupes informatiques ou des sociétés spécialisées. Et je ne suis pas certain que cela constitue une préoccupation majeure pour notre ministre de l’Information en Suisse, ministre d’ailleurs inexistant et dont la responsabilité serait à chercher quelque part entre le Département Fédéral de Justice et Police (DFPJ) , le Département fédéral de l’environnement, des transports, de l’énergie et de la communication  (DETEC) et le Département fédéral de la défense, de la protection de la population et des sports (DDPS). Trois ministères pour une problématique largement commune… On pourrait argumenter qu’il faut bien cette redondance pour faire face à la complexité du problème. Les mauvaises langues diront qu’avec trois ministères concernés, il est plus facile de se « refiler la patate chaude« . De quelque manière que l’on considère la situation, le constat reste le même : alarmant…

Le gouvernement suisse n’a par ailleurs pas l’apanage de l’incompétence dans ce domaine. Il existe peu de gouvernements dotés de structures réellement compétentes en la matière. Tout au plus essaie-t-on timidement de récupérer quelques miettes des fortunes que les GAFA rapatrient aux Etats-Unis, et ceci de manière plutôt frileuse, et sans grand espoir. A quand un gouvernement mondial piloté par Google ? Ou est-ce déjà le cas ?

Partager :

BREXSHIT

Mère Teresa (May, bien sûr) écartée d’un poste de premier ministre à l’allure de sacerdoce, les Boris Johnson ou autres Nigel Farage ont désormais les coudées franches pour finaliser les effets de leurs mensonges. Parce qu’il faut le dire explicitement : le Brexit a été voté sur la base d’informations mensongères relayées par les partis nationalistes. Des mensonges tellement graves qu’ils devraient en toute logique conduire leurs auteurs derrière des barreaux solides et ceci pour une durée respectable. En tous cas, dans le monde normal -le vôtre ou le mien-, un tel délit est punissable : essayez,pour voir, d’accuser votre voisin de vous soutirer de l’argent, alors que c’est faux. Il ne se fera pas faute de vous démentir et de vous demander raison et réparation de vos mensonges; or, c’est exactement ce qu’ont fait les Johnson et autre Farage, avec des conséquences potentiellement beaucoup plus catastrophiques que ce que vous ou moi aurions pu atteindre. En toute logique, ils auraient dû être condamnés par un tribunal adéquat. Mais dans le monde de la politique, on est tellement habitué aux mensonges que pas grand-monde ne songe à s’en formaliser; tout au plus entendra-t-on l’une ou l’autre remarque du genre « Ah oui,ils ont menti, ce n’est pas bien, si j’avais su, j’aurais peut-être réfléchi, etc… ». Finalement, la politique récompense le mensonge : il y a en effet fort à parier que les menteurs en question se retrouvent aux rênes du pouvoir prochainement.

C’est ainsi qu’un parti à priori minoritaire au départ parvient à créer une majorité populaire en mêlant plus ou moins habilement mensonges et approximations; en Suisse, l’UDC était ainsi parvenue à faire passer son initiative restreignant la libre circulation des personnes contre l’avis de tous les autres partis. Des recettes bien connues également en France, en Italie et partout où les partis souverainistes ont quelque succès.

Il est clair que les réseaux dits « sociaux » permettent à ces démagogues modernes d’atteindre une efficacité sans pareille dans la diffusion de fausses nouvelles; et depuis que l’on sait que les fameuses « fake news » sont potentiellement plus faciles à diffuser que les vraies informations, les politiciens peu scrupuleux (mais y en a-t-il de scrupuleux ? on aimerait l’espérer…) ne se privent pas de cette caisse de résonance efficace et bon marché.

Le projet européen est ainsi remis en question par des groupes majoritairement d’extrême-droite qui exploitent les inquiétudes réelles et justifiées d’une partie défavorisée de la population pour détruire la construction communautaire sans rien proposer de valable comme alternative. Dés qu’ils sont au pouvoir, ces gens font immanquablement montre de leur incapacité à construire quelque chose de cohérent; même en Suisse, on a pu constater que mettre un trublion de ce genre de mouvance au pouvoir décrédibilise durablement la mouvance en question. Mais dans l’intervalle, beaucoup de mal est fait ! Je ne suis pas certain que les Britanniques ne vont pas regretter amèrement leur vote pour le Brexit, et devoir attendre de constater les dégâts pour essayer de reconstruire ce que les menteurs auront détruit d’ici quatre ou cinq ans…

Une chance pour le projet européen, c’est peut-être le problème écologique. Pour parvenir à contenir éventuellement le réchauffement climatique, et limiter l’appauvrissement de la biodiversité, les solutions nationales sont largement illusoires; il est nécessaire de penser au moins à l’échelle d’un continent pour espérer une quelconque efficacité. Il n’est d’ailleurs guère surprenant que les mouvements dits souverainistes (UDC suisse comprise) soient largement climato-sceptiques. Lors des dernières élections européennes, les partis « verts » ont réalisé des scores prometteurs. Le projet européen sera peut-être finalement sauvé par l’écologie. En tous cas, le problème du réchauffement climatique ne sera sûrement pas maîtrisé sans une Europe unie et solidaire. Dans cette optique, le Brexit est un désastre; un Brexshit, si vous me permettez ce pauvre jeu de mots. Mais il paraît d’ailleurs certain que l’Europe seule n’y suffira pas, ce qui ne laisse pas que d’inquiéter lorsque l’on jette un coup d’œil du côté de Trump ou de Bolsonaro…

Partager :