Tous les articles par Markus

Chassez l’avion

Madame Viola Amherd a entamé sa campagne de promotion en vue de l’achat de nouveaux avions de combat pour l’armée suisse. Une initiative visant à renoncer à cet achat, ou à tout le moins à diminuer le montant budgété avait préalablement été déposée, et a abouti : le peuple suisse se prononcera sur cette initiative au début de l’automne 2020. Le sujet de la votation fédérale, lui, ne porte pas sur le type ou le nombre d’avions de combat, mais sur un montant global de CHF 6 milliards, auquel il convient d’ajouter par la suite les coûts d’exploitation actuellement passés sous silence, mais estimés par certaines sources à un montant largement équivalent au prix d’achat.

Cette dépense arrive à un moment assez peu judicieux, après des dépenses massives pour soutenir l’économie durement impactée par la crise liée à la pandémie COVID-19. La décision d’achat est néanmoins soutenue par le conseil fédéral, département militaire en tête bien sûr. Cette dépense est également soutenue par les partis de droite, mais combattue par les partis de gauche et les partis écologistes. Le motif invoqué pour le crédit de 6 milliards est l’usure de la flotte actuelle composée de FA-18 et de Tiger, arrivant doucement en fin de vie.

Il y a bien sûr pas mal de questions à se poser sur ce type d’achat pour un pays comme la Suisse dans le contexte géopolitique mondial actuel. En particulier, on se demande à quoi peut bien servir un avion supersonique dans un territoire de moins de 42000 kilomètres carrés (pour comparaison, la France métropolitaine, c’est 552000 km2). Je suppose que les pilotes au moins ont du plaisir à manipuler ces jouets, à ce prix-là, c’est la moindre des choses… Des machines moins performantes ne pourraient-elles pas convenir, voire être plus adéquates ? Bien sûr, je n’y connais rien, mais comme nombre de mes congénères, j’aimerais qu’on m’explique, et les arguments que l’on me présente sont le plus souvent du genre « C’est ainsi… ».

Pour les rôles de police aérienne, on a tout de même l’impression (malgré les dénégations de Mme Amherd) que des avions moins prestigieux devraient suffire; en revanche, pour défendre l’espace aérien suisse, on peut se demander si même ces avions ultra-sophistiqués sont suffisants. On peut aussi se demander contre qui il conviendrait de défendre cet espace aérien : il paraît assez peu probable que nos voisins immédiats nous agressent prochainement, encore que l’instabilité politique actuelle dans le monde, avec la montée rapide du souverainisme (Bolsonaro, Trump, Erdogan) et de l’extrême-droite puisse inquiéter. Mais si une agression a lieu de ce côté, il paraît plus que probable qu’elle ne sera pas simplement militaire : il existe actuellement des méthodes plus sophistiquées et moins coûteuses pour déstabiliser un pays que l’usage de la force brute. Le mensonge, la désinformation ou le sabotage logiciel ne coûtent pratiquement rien et ont démontré leur efficacité à maintes reprises. Mais c’est vrai que c’est moins spectaculaire qu’un jet au décollage…

Un argument qui a aussi été mis sur le tapis est que des avions moins sophistiqués ne voleraient pas assez haut. On ne sait pas ce que signifie « pas assez« ; mais on n’est pas persuadé de l’intérêt d’une intervention au-dessus de 5 à 6000 mètres d’altitude. On n’est pas non plus persuadé de l’intérêt d’une intrusion à cette altitude sur un pays comme la Suisse…

Les considérations écologiques mériteraient également d’être prises en compte; quel est l’impact sur la santé des émanations toxiques d’une flotte d’avions de chasse militaire ? La sécurité apportée par quelques avions de chasse en cas de conflit armé hypothétique contrebalance-t-elle les dommages écologiques et sanitaires (hélas certains, ceux-ci) causés par cette même flotte ?

Par ailleurs, les logiciels contrôlant ces avions ne sont pas vraiment « Open Source« , et sont de ce fait difficilement vérifiables par des experts internationaux. Il y a fort à parier (en réalité, il s’agit d’une certitude !) que la plupart de ces avions ultra-sophistiqués disposent de portes dérobées (backdoors) dans leurs logiciels de gestion, activables à distance et permettant de prendre le contrôle de tout ou partie de l’appareil en cas d’intérêts divergents entre fabricant et utilisateur; je ne parierais de ce fait pas exagérément sur l’apport de sécurité inconditionnel d’un appareil fourni par un pays tiers, fût-il un « ami » de longue date. Comme le dit justement Mme Amherd, la situation géopolitique peut changer rapidement, et l’ami d’hier peut ne plus le rester demain.

Le peuple suisse n’aura pas la possibilité de se prononcer sur le type d’avions. Raisonnable. Mais les modèles envisagés incluent le Rafale , l’Eurofighter, le F/A 18, et le F-35A. Est-il vraiment raisonnable d’envisager d’acquérir des avions américains, alors que nos voisins européens (qui assurent aussi notre défense, soit dit en passant) en fabriquent d’excellents, et que nous avons tout intérêt à entretenir de bonnes relations avec nos voisins immédiats, plutôt que de flatter l’ego surdimensionné d’un Donald Trump qui n’a rien à fiche de tout ce qui ne s’appelle pas « United States of America » (ou plus exactement, ses électeurs) ? Ou alors, pourquoi n’avoir pas aussi envisagé, neutralité oblige, un jet comme le Soukhoï SU-57 ou similaire : après tout, on peut aussi faire un petit plaisir au tsar Vladimir Poutine, n’est-ce pas ?

Finalement, la question la plus brûlante d’actualité a peut-être été initiée par la cheffe du département militaire, madame Amherd elle-même, lorsqu’elle a affirmé (en substance) qu’il n’y avait pas de plan B, et qu’en cas de refus de ce crédit par les votants, il faudrait repenser le rôle de l’armée en Suisse. Cela fait plus de trente ans que l’on se pose régulièrement la question de savoir quel rôle l’armée doit jouer en Suisse. Refuser le crédit serait l’occasion rêvée de forcer nos politiciens, fervents adeptes de la procrastination en la matière, à se poser sérieusement la question et à redéfinir ce rôle. Bon, c’est vrai que c’est du boulot, mais nous les payons pour ce faire, après tout. Peut-être y a-t-il mieux à faire avec la jeunesse de ce pays que d’apprendre à tirer au fusil et à marcher au pas. Peut-être que les cyberattaques et le terrorisme peuvent être combattus autrement qu’avec un avion de combat supersonique (lui-même susceptible d’être rendu inopérant par une cyberattaque) ? Peut-être que la notion même de sécurité a un peu changé depuis la deuxième guerre mondiale ? L’émergence des unités de combat robotisées et dopées à l' »intelligence » artificielle rend peut-être à terme certains types d’armements lourds inefficients ?

Je voterai contre ce crédit de CHF 6 milliards, pour de nombreuses raisons; pour ceux qui me connaissent un peu, ce n’est pas un scoop. Je remercie néanmoins Mme Amherd de m’avoir fourni une raison supplémentaire de refuser ce crédit, afin d’essayer d’initier une réflexion plus fondamentale sur le rôle de l’armée dans ce pays qui se proclame neutre qu’est la Suisse.

Télécom…

Le 14 février 1876 était inventé le téléphone, par Alexander Graham Bell et Elisha Gray. Le second déposa le brevet deux heures après, et perdit donc le bénéfice de ses recherches; il se consola avec l’invention du télégraphe musical, sorte d’ancêtre du synthétiseur. Le téléphone constitua l’un des plus importants développements techniques du dix-neuvième siècle, et fut l’un des grands moteurs de la révolution industrielle au vingtième siècle. Il eut également une influence très significative dans les grands conflits de la première moitié du vingtième siècle.

Très tôt, on se rendit compte qu’il n’était guère envisageable de relier tous les utilisateurs entre eux par des connexions filaires permanentes, et en conséquence on développa la notion de réseau avec des nœuds de commutation d’abord manuels, puis automatiques à partir de 1891 et l’invention de l’autocommutateur par Almon Strowger, un entrepreneur de pompes funèbres (!).

Au cours du vingtième siècle, on développa le réseau téléphonique qui devint petit à petit automatique, au niveau mondial; on lui ajouta, de manière indépendante, un réseau télex pour la transmission de textes écrits et plusieurs réseaux semi-privés de transmission de données. Le terminal téléphonique était alimenté à distance de sorte que la fonction téléphonie reste utilisable en cas de panne du secteur : une fonctionnalité jugée de première nécessité en ces périodes de guerre froide et de menaces nucléaires, ainsi que dans des régions pas toujours alimentées en énergie de manière fiable.

Dans les années 1990, on se trouve dans une configuration assez hétéroclite en Suisse, ainsi d’ailleurs qu’en Europe Occidentale. Le réseau téléphonique est largement numérique (Réseau Numérique à Intégration de Services RNIS, réseau à commutation de circuits) mais il reste encore beaucoup de raccordements analogiques conventionnels. Le trafic de données est assuré par un réseau indépendant (Telepac, commutation de paquets) basé sur le protocole X.25, et compatible avec les réseaux de données des pays voisins (en particulier le français TRANSPAC, support du célèbre MINITEL). Le réseau mobile numérique nouvellement introduit (NATEL-D, correspond à ce que l’on appellerait 2G aujourd’hui) remplace progressivement le réseau mobile analogique (NATEL-C). Le réseau télex est en voie d’abandon, remplacé par l’application téléfax sur le réseau téléphonique. Il y a encore très peu d’utilisateurs raccordés directement à Internet; la majorité utilise des modems de connexion pour accéder, via le réseau téléphonique analogique ou numérique, à une passerelle de raccordement. La vitesse de connexion à Internet est limitée à 14.4 kbit/s sur raccordement analogique (56.6 kbit/s en mode compression) et 64 ou 128 kbit/s sur raccordement RNIS. Certains privilégiés expérimentent des raccordements à plus haut débit (2 Mbit/s) par ADSL, mais le réseau en arrière-plan (backbone) n’est pas toujours à la hauteur.

Il faut insister sur le fait que ces divers réseaux sont indépendants; les éventuelles interactions (par exemple un utilisateur RNIS téléphonant à un utilisateur avec un ancien téléphone analogique) nécessite une passerelle de conversion. La loi sur les télécommunications garantit à l’opérateur national l’exclusivité des infrastructures de télécommunications. Le coût de connexion est prohibitif, les performances peu brillantes. La maintenance du réseau fait l’objet d’un réseau indépendant, de manière à garantir la possibilité d’intervention en cas de défaillance de l’un ou l’autre des réseaux d’exploitation.

En 2020, il ne reste pratiquement plus qu’un réseau semi-public, basé sur le protocole fondateur d’Internet, IP, et qui intègre les services de voix (fixe et mobile, à partir de la 4G) et de données sur un réseau à commutation de paquets. Les services liés à la téléphonie ne constituent plus qu’un type de données parmi d’autres. D’un opérateur national, on est passé à une multitude d’opérateurs disposant (ou pas) d’une infrastructure matérielle de connexion pour les utilisateurs. Le matériel est largement homogène, partagé grosso modo entre quelques opérateurs majeurs qui privilégient chacun leurs fournisseurs préférés (à l’exemple de la 5G qui s’appuie sur Ericsson pour Swisscom et sur Huawei pour Sunrise).

L’intégration de tous les services sur un seul et même réseau a des avantages économiques évidents; en particulier au niveau organisationnel et pour la maintenance. Un opérateur peut s’appuyer sur un seul fournisseur, il a moins d’interlocuteurs, le matériel largement composé d’éléments identiques lui permet d’entretenir des équipes de maintenance plus restreintes et de négocier des prix plus avantageux. Les incompatibilités dans le réseau qu’il doit gérer sont inexistantes ou à tout le moins rares.

L’intégration massive des services alliée au développement de câbles à fibre optique de très grande capacité permet aussi de faire évoluer la structure du réseau. De largement maillé, il évolue vers une structure étoilée, plus facile à mettre en oeuvre, moins gourmande en travaux de génie civil pour enterrer les câbles, et aussi plus en adéquation avec la philosophie d’adressage et de routage du protocole Internet. Corollairement, le réseau est devenu moins coûteux et plus facile à gérer.

Tout va donc pour le mieux dans le meilleur des mondes, avec une maximisation des bénéfices et un service de qualité (offre de débits très élevés à la clé) pour l’opérateur.

Sauf que… l’informatique moderne a pris l’habitude de livrer des produits pas toujours très bien finis. Les possesseurs de matériel informatique sont accoutumés aux « mises à jour » généralement intempestives; il n’en va pas différemment des divers équipements de télécommunications modernes, comme les routeurs IP, par exemple. Les routeurs ne sont d’ailleurs que des ordinateurs dédiés avec des systèmes d’exploitation similaires à celui de votre PC ou smartphone favori. Que ce soit pour améliorer les fonctionnalités ou mettre à jour les piles de protocole, ces éléments sont fréquemment soumis à des correctifs logiciels. Dans un réseau homogène, pratiquement tous les éléments reçoivent le même correctif au même moment. Si la mise à jour présente un problème, il sera répercuté dans tout le réseau, conduisant dans certains cas, heureusement rares il est vrai, à la panne totale de tous les services. Comme pour certaines pannes récentes de Swisscom (tout de même à trois reprises entre janvier et juin 2020), où même le 144 (urgences médicales), le 117 et le 118 (police et pompiers, respectivement) sont parfois devenus inatteignables: une panne gravissime.

Ce genre de panne affectant un réseau homogène est de fait très complexe à gérer : les outils de télémaintenance ne peuvent plus être utilisés sur un réseau inopérant; et puis, comment communiquer avec les équipes de maintenance alors que ni le téléphone (fixe ou mobile), ni Internet (email, What’s App, etc…) ne fonctionnent ? A l’ère de la 2G (GSM) le réseau mobile était indépendant du réseau fixe ou du réseau IP, mais actuellement, tous les services de communication transitent sur le réseau IP… Même les canaux qui devraient servir à la maintenance du réseau !

Dans un autre ordre d’idées, un pirate informatique a plus de possibilités de nuire dans un réseau homogène. Attaquer un réseau implique l’attaque de composants vulnérables du réseau, or, il est difficile de mettre au point un virus informatique capable de perturber le fonctionnement de composants différents : un virus pour Macintosh est généralement inopérant sur des machines Windows et vice-versa. Mais un réseau largement homogène offre des perspectives à l’informaticien malveillant. Un virus informatique pourrait potentiellement infecter un très grand nombre d’éléments d’un réseau composé d’une grande proportion de dispositifs identiques. Mettre à genoux un réseau de télécommunications (ou du moins sérieusement le perturber) est devenu envisageable pour une équipe de hackers désireux de déstabiliser un état ou une région. Paradoxalement, un tel exploit est devenu plus facile à réaliser que trente ans plus tôt.

La structure étoilée du réseau a aussi montré ses lacunes lors de la panne ayant affecté la région de Bulle en avril 2020 : une maladresse d’un opérateur de pelleteuse mécanique a privé de communications une région entière pendant plus de 24 heures. Une structure maillée -donc possédant des liens redondants entre les nœuds du réseau- aurait sans doute permis un service certes réduit, mais utilisable au moins pour les communications urgentes…

Moins efficace, un réseau hétérogène est généralement moins vulnérable aux pannes totales; la diversité des composants fait qu’il y en a toujours quelques-uns qui restent fonctionnels. Cette constatation ne se limite pas aux seuls systèmes de traitement ou de transmission de l’information : de manière tout à fait générale, les grands systèmes composés de nombreux éléments hétérogènes font preuve de davantage de résilience que des systèmes de dimensions comparables mais plus simples (et éventuellement plus performants). Ainsi, un grand domaine agricole qui ne concentrerait sa production que sur une culture unique se verrait à la merci d’une période de mauvais temps lors de la germination, ou de l’attaque d’un parasite spécifique. Dans cette optique, la baisse drastique de la biodiversité constitue un risque probablement inacceptable pour la vie sur notre planète.

Les systèmes que nous avons mis sur pied ne sont pas libérés de ces « contraintes » Nous avons crée un réseau de télécommunications incroyablement performant, mais qui se révèle aussi plus fragile que ce dont nous disposions jusqu’ici. L’un des grands principes directeurs ayant présidé à la création de nos systèmes d’information (KISS, Keep It Simple and Stupid) est-il finalement inapproprié, ou l’avons-nous mal interprété ? La privatisation des services de télécommunications a-t-elle entraîné une négligence de critères sécuritaires jugés – peut-être à tort – un peu excessifs ?

La réponse à ces questions dépasse le cadre de cet article, ainsi que les compétences de l’auteur. Mais les questions restent, et sont quelque peu préoccupantes. Surtout en ces temps difficiles où le coronavirus à l’origine de Covid-19 (Coronavirus Disease 2019) confère une nouvelle portée aux systèmes de télécommunications : téléconférences au cours desquelles des secrets d’entreprises ou des options politiques peuvent être discutés, télétravail imposant le partage et la mise à jour de documents potentiellement confidentiels, utilisation intensive de structures de cloud dont la sécurité peut parfois poser problème, et tout ceci sur des infrastructures dont la fiabilité laisse à désirer…

On a longtemps espéré pouvoir développer le télétravail pour de multiples raisons : économie pour les entreprises, moins de pollution dues aux transports, amélioration de la qualité de vie des usagers… Mais une panne générale du réseau dans une entreprise fonctionnant en télétravail peut représenter des pertes considérables. Cette société de télétravailleurs vers laquelle un virus au doux nom de SARS Cov 2 tend à nous faire basculer ne pourra se faire sans une infrastructure de télécommunications certes très performante, mais également fiable et sûre. En l’état, ce n’est pas encore gagné…

Bureau en désordre

Au cours de ma carrière, et maintenant encore, j’ai eu régulièrement des querelles avec des proches au sujet de l’organisation (ou la désorganisation) de mon bureau. Mon bureau, outre un clavier d’ordinateur, une souris et un écran, comprend en effet plusieurs piles de livres et de documents divers qui sont « gérés » comme suit : Le dernier document consulté est remis systématiquement au sommet de la pile; lorsque je cherche un document, je regarde dans la pile et en retire le document voulu qui va après utilisation se retrouver au sommet de la pile. Si un document ne se trouve pas dans la pile, une recherche fastidieuse dans la bibliothèque ou une armoire permettra de le localiser et de le mettre à son tour au sommet de l’une des piles après utilisation. Si la pile devient trop grande et menace de s’écrouler, il deviendra alors nécessaire d’interrompre l’activité en cours (avec un soupir de lassitude) pour mettre quelques livres ou documents dans l’armoire ou la bibliothèque (je choisis ceux qui sont au bas de la pile), de préférence en les rangeant dans un ordre plus ou moins prévisible dans l’armoire.

On m’a régulièrement vanté tel ou tel collègue dont le bureau est parfaitement net, ou même le clavier et la souris sont rangé sur un support intégré à l’écran, en me disant qu’il fallait prendre exemple sur cette personne, qu’elle était organisée, « elle », et puis que le bureau était du coup plus facile à nettoyer. Sur ce dernier point, je n’ai aucune objection. Sur les autres reproches possibles, je me permettrai toutefois une timide objection.

Le problème du classement de l’information a été de tous temps une des tâches élémentaires de l’informatique, et de nombreuses théories et de plus nombreux algorithmes ont été développés dans ce sens. L’idée était de retrouver rapidement un document sur la base d’un critère quelconque. A cela s’ajoutait le fait, toujours actuel d’ailleurs, que le lieu de stockage n’est pas innocent. Tel document très actuel devrait idéalement être accessible immédiatement, alors que tel autre pourrait aisément être archivé dans une localisation externe, quitte à devoir faire un effort considérable pour le retrouver. Ainsi s’est développée la notion de mémoire hiérarchisée : les documents les plus utiles sont accessibles rapidement, alors que les moins utiles demandent un temps parfois considérable (serveur éloigné, voire banque d’archivage offline) pour devenir consultables. Mais comment décider quel document est plus utile que les autres ?

Différentes stratégies ont été développées, en particulier en relation avec la notion de mémoire cache, que l’on retrouve dans tous les ordinateurs modernes, smartphones compris. La méthode la plus efficace pour la gestion de ce genre de mémoire répond au doux nom de LRU ou Least Recently Used. Le document le moins souvent consulté est chassé de la mémoire cache et remis dans une mémoire moins performante, mais probablement plus volumineuse. Difficile à implémenter pour de grandes quantités de documents, cet algorithme semble en moyenne le plus performant. Coïncidence, une pile de documents où le dernier document consulté est remis au sommet, et où on range dans une armoire les documents situés en bas de la pile implémente grosso modo une stratégie LRU.

Mon bureau, relativement à l’armoire, est comparable à une mémoire cache : je peux accéder aux documents qui y sont empilés beaucoup plus rapidement que s’ils étaient dans la bibliothèque ou aux archives. Ma méthode de « classement » sur mon bureau est du point de vue de l’informatique, l’une des meilleures. Mon bureau en désordre est donc beaucoup plus efficace que le bureau bien rangé de mon collègue.

Bon, reste à persuader mon entourage… Mais heureusement, je suis à la retraite, alors c’est moins urgent.

Cookies

Lors de la campagne présidentielle américaine de 2008, qui allait conduire à l’élection de Barack Obama comme 44ème président des Etats-Unis, la récolte de fonds par le biais du site web du candidat Obama s’avéra être un succès remarquable, puisque les sommes récoltées avoisinèrent les 57 millions de dollars. Pourtant, le design du site violait plusieurs des règles graphiques communément admises pour ce genre de site. En particulier, le bouton qui incitait les partisans de Barack Obama à un don en espèces pour sa campagne était un gros bouton rouge vif ! La couleur rouge étant considérée un peu partout comme la couleur de l’interdit, cela semblait a priori peu judicieux. Mais cela s’est finalement avéré nettement plus efficace qu’un traditionnel bouton vert, ou de toute autre couleur. Comment le designer du site est-il parvenu à ce résultat peu intuitif ?

Le designer en question n’était pas n’importe qui : Dan Siroker était un transfuge de Google qui a aujourd’hui fondé sa propre entreprise (Scribe.ai). Il a utilisé une technique abondamment utilisée chez Google, qui est le le Test A/B, ainsi que ses dérivés (Test A/Z, Test MVT, etc…). Ces tests sont actuellement utilisés de manière quasi systématique par les sites professionnels et consistent à comparer les résultats de plusieurs pages au design légèrement différent, et de garder celle qui engendre les meilleurs résultats. En l’occurrence, le gros bouton rouge s’avéra à l’usage le plus judicieux.

Depuis, les infrastructures de mise sur pied de sites web ont abondamment repris cette technique, et l’ont affinée. Le problème n’est plus seulement de proposer la page qui génère le plus de « clics » favorables, mais de proposer une page personnalisée qui incitera l’individu que vous êtes à effectuer le « clic » rémunérateur; mais ceci implique que l’on puisse déterminer qui vous êtes, ou à tout le moins vous classer dans un groupes d’utilisateurs identifiable, sur lequel on pourra composer une page optimisée. L’utilisateur est-il démocrate ? Est-ce une personne de sexe féminin, et de surcroît mère ou future mère ? Est-ce une personne aisée ? Est-il noir ? A-t-il déjà fait une contribution ?

Le problème de profilage de l’utilisateur est délicat, car il touche la sphère privée; pour éviter d’avoir à collecter ces renseignements de manière trop intrusive, on va essayer de déduire les informations de profilage du comportement de l’utilisateur, et comme on ne peut guère consulter son historique de navigation, on va essayer de la reconstituer en déposant des « traces de connexion » sur l’ordinateur personnel de l’utilisateur; ceci permettra de se souvenir ultérieurement que cette personne est déjà passée par ce site, et de reconstituer ainsi son parcours sur le site.

Vous connaissez tous les cookies; pas les petits gâteaux, mais ces petits fichiers texte que tous les sites commerciaux déposent sur votre disque système, qu’on appelle aussi parfois des témoins de connexion. Parfois (souvent), vous recevez un avertissement à ce sujet lors de la première visite d’un site donné, du genre :

L’exemple ci-dessus est relativement explicite (encore faut-il avoir la patience de le lire et de comprendre ce qui se cache derrière les mots), mais certains sont plus laconiques. Ces avertissements sont relativement récents: pendant de longues années, les sites ont utilisé des cookies sans en avertir leurs utilisateurs, et maintenant encore, un tel comportement peut être justifié si on peut démontrer que ces fichiers sont indispensables au fonctionnement du site (exemple d’un site de télé-achat où le fonctionnement du panier d’achat est lié à l’existence d’un cookie de session, voire d’un cookie multi-sessions). L’avertissement doit (en principe, il n’y a pas de législation en la matière) être donné à la première visite d’un site par un utilisateur si ces témoins de connexion (ou certains d’entre eux) n’ont pour seul but que d’apporter des « services » ajoutés (aide à la navigation, personnalisation du site, récolte de données statistiques, par exemple). Il faut être conscient qu’il n’y a guère de contrainte légale à l’introduction d’un tel avertissement, Internet restant dans une large mesure une zone de non-droit, ou à tout le moins une zone « grise » du point de vue de la législation.

Par eux-même, ces cookies sont relativement inoffensifs : le fichier texte de quelques kilo bytes déposé sur votre disque système ne saurait contenir de virus ou de programme malveillant risquant de mettre en danger votre ordinateur ou vos données personnelles. Mais une phrase de la figure ci-dessus devrait toutefois vous alerter : on y parle de partenaires de médias sociaux, et de combiner les informations collectées. En clair, si vous cliquez « Ok », vous autorisez le site web à collecter des informations sur votre utilisation du site et sur les renseignements que vous donnez, et de combiner ces données avec celles que d’autres sites « partenaires » auraient collectées précédemment, ou au cours de la même session grâce à ce que l’on appelle des cookies partenaires (third party cookies, une technique utilisée par exemple à l’importation d’un bouton « Like » de Facebook). Quelle utilité ? A cette question, la réponse est généralement « améliorer l’expérience utilisateur » en mettant en place des aides à la navigation et en composant des pages plus dynamiques et mieux adaptées à votre profil utilisateur. Ce n’est pas faux. Mais ce n’est pas non plus une explication exhaustive, tant s’en faut.

Se voir proposer systématiquement une publicité pour un produit pertinent dans l’état physique, moral ou social dans lequel on se trouve présentement constitue sans doute une « amélioration » de l’expérience utilisateur; mais cela implique aussi une connaissance très précise de l’individu ciblé. Connaissance qui peut d’ailleurs s’avérer erronée ou à tout le moins biaisée. Ainsi, j’ai récemment effectué une recherche Internet pour mon épouse, et depuis, lorsque je consulte le Huffington Post , Google insère dans les pages critiquant l’impéritie de M. Macron des publicités pour de la lingerie féminine…

Ceci dit, il n’est pas forcément à la portée de n’importe qui d’exploiter ces cookies et de combiner de manière pertinente les informations que l’on peut en extraire. Les géants de l’Internet, surtout Google et Facebook, ont acquis une véritable expertise dans ce domaine, ainsi que quelques entreprises spécialisées comme Cambridge Analytica qui se servent généralement d’informations collectées par Google ou Facebook. Mais cette difficulté n’est pas forcément rassurante…

Au fait, pourquoi a-t-on introduit ces fameux cookies ? Pourquoi les systèmes d’exploitation tolèrent-ils qu’un site web inconnu dépose quelques bytes d’information sur le disque système ? La réponse est trop longue et trop technique pour être développée ici, et remonte aux années 1980. Mais essayons d’abréger en quelques phrases. Les télécommunications dans le monde étaient alors déchirées entre deux modèles, l’un mis en avant par l’Europe Occidentale, et basé sur une interprétation plutôt stricte du modèle OSI, l’autre prôné par les Etats-Unis d’Amérique, fort d’une implémentation déjà relativement large basée sur la pile de protocoles d’Internet, TCP-IP. Cette pile de protocoles est beaucoup plus simple, et n’implémente pas de service de session, pourtant indispensable à l’implémentation, par exemple, d’un caddy dans un site de télé-achat. Vous savez quelle pile de protocole a finalement gagné : en l’absence de soutien politique de la part de nos dirigeants éclairés, TCP-IP a balayé les systèmes de télécommunications européens et les fabricants de centraux téléphoniques, détruisant au passage nombre de grandes entreprises européennes au profit d’entreprises comme Cisco Systems. Le réseau de télécommunications mondial est désormais homogène, routé au lieu de commuté, et… nous avons des cookies sur nos ordinateurs.

Les applications ont été en effet condamnées à bricoler pour implémenter le paradigme du panier d’achats; le protocole HTTP, probablement le plus simpliste des protocoles de la famille TCP-IP qui en compte pourtant de nombreux, n’offre en effet aucun secours en la matière. La solution adoptée a été de déposer ces petits fichiers contenant un identifiant de connexion, lisibles par un serveur éloigné et qui permet de récupérer la liste des requêtes précédentes (le panier d’achats). Et accessoirement, ces témoins de connexion permettent, on l’a vu, de récupérer bien d’autres choses et de poursuivre des résultats peu avouables, sans que cela soit forcément voulu de la part de l’utilisateur, ni même des développeurs chargés de l’implémentation du service.

Comme influencer le résultat d’une élection que l’on pensait parfaitement démocratique…

Quoi de neuf, docteur ?

Traditionnellement, la médecine, le droit et dans une moindre mesure la chimie sont des filières d’étude où l’obtention d’un titre de docteur est presque indispensable. N’appelle-t-on pas « docteur » son médecin ? Même si ce titre peut cacher diverses variantes, il est devenu tellement implicite que l’on a pris coutume d’aller « chez le docteur ». D’aucuns vont même « au » docteur, mais il s’agit là d’une impropriété. De langage, généralement…

De manière intéressante et un peu surprenante, on a constaté depuis la fin du vingtième siècle une assez nette recrudescence des candidats au titre de docteur (le plus souvent PhD) dans des filières de formation où ce titre n’était requis que pour briguer des postes dans des instituts de recherche privés ou affiliés à des universités prestigieuses. Quel intérêt peut-il y avoir pour un jeune étudiant de prolonger ses études de quelques années pour obtenir un titre qui ne lui rapportera vraisemblablement rien, ni du point de vue salarial, ni (ou si peu) du point de vue des opportunités professionnelles ? A moins bien sûr que le jeune universitaire ait un plan de recherche bien établi, et l’ambition de finir comme chercheur de haut niveau; mais les places sont fort chères, et mon expérience ne parle guère en faveur de motivations de ce genre… Alors, pourquoi entreprendre un doctorat ?

A la fin du vingtième siècle, on a cherché à uniformiser quelque peu les grades universitaires de manière à ce qu’ils deviennent comparables, et que les détenteurs de diplômes d’étude supérieure puissent être reconnus comme tels dans d’autres pays. Alors que jusque là, l’ingénieur micro-mécanicien ETS de l’école technique de Saint-Imier (Suisse, canton de Berne) devait expliquer parfois péniblement à un employeur potentiel de Besançon (France, Doubs, à moins de 100 km de Saint-Imier) à quoi correspondait sa formation, il peut désormais postuler comme bachelor ou master en ingénierie, orientation micro-mécanique. Le principe d’équivalence devrait lui permettre de voir sa formation considérée à l’égal de son homologue français tout droit sorti de l’ISIFC (Institut supérieur d’ingénieurs de Franche-Comté).

A priori, on peut considérer qu’il s’agit d’une bonne idée; mais en y regardant de plus près, on remarque que ce changement est accompagné d’effets de bord pas tout à fait anodins. L’employeur potentiel pour commencer, qui engageait jusqu’alors des ingénieurs, et qui va désormais engager des bachelors ou des masters. Mais un bachelor en provenance d’une HES (par exemple la HES-SO) n’a pas les mêmes potentialités qu’un bachelor en provenance d’une université ou d’une EPF ! Le bachelor HES dispose d’une formation professionnelle, alors que la formation de l’universitaire est théorique. Engager un bachelor universitaire dans une entreprise n’a guère de sens, alors que le bachelor HES peut représenter une alternative intéressante. De manière similaire, un titulaire de master EPF devrait en principe être considéré comme équivalent au possesseur d’un titre homonyme délivré par une HES, ce qui fait grincer des dents du côté des EPF… Comme me le disait très sérieusement et péremptoirement un collègue de l’EPFL alors que j’enseignais à la HEIG-VD :  » Tu formes les futurs subordonnés de mes étudiants « . Peut-être, mais avec une équivalence des titres, cela devient difficilement défendable ! Il est vrai que j’ai également entendu quelqu’un de mon entourage (incidemment titulaire d’un doctorat PhD délivré par une institution universitaire, mais non chercheur lui-même) décréter l’incompétence globale de l’EPFL et de ce genre d’écoles. Je n’ai jamais demandé à ce personnage son avis sur les HES, et cet avis ne m’intéresse d’ailleurs que médiocrement.

Il y a également un malaise du côté des étudiants : à quoi bon fréquenter une université prestigieuse, souvent éloignée de son chez-soi, alors que le titre que l’on obtiendra sera équivalent à celui conféré par la HES sise à trois cents mètres de son domicile ? Et comment ensuite valoriser un titre de « master » décerné par une école plutôt que par une autre ?

Un autre effet de bord, auquel on pouvait s’attendre, provient des institutions universitaires elles-mêmes. Comment se démarquer désormais, si l’on délivre des titres équivalents à ceux que décernent les écoles concurrentes, parfois plus petites ou moins réputées ? Une partie de la réponse réside dans le ranking des universités et des écoles supérieures. Un classement qui permet aux institutions de niveau universitaire de se comparer à de prestigieuses enseignes du monde entier. Mais qui dit classement dit critère de comparaison, et c’est la recherche qui est ici chargée de servir de référence pour l’établissement du classement. La recherche est caractérisée (à tort ou à raison, mais ce n’est pas le débat) par la publication d’articles dans les revues spécialisées; il faut donc publier un nombre aussi élevé que possible d’articles; mais pour cela, il faut disposer de chercheurs… On va donc tendre à encourager les étudiants à entreprendre un travail de doctorat, même si l’étudiant n’est visiblement pas un chercheur dans l’âme, même si le futur maître de thèse a déjà bien trop de doctorants sous sa responsabilité pour être en mesure de les « coacher » de manière crédible. Souvent, on « persuade » l’étudiant avec la complicité des parents ou des proches, conquis par l’idée d’avoir une progéniture affichant « PhD » sur sa future carte de visite. Voilà donc formée une petite armée de doctorants qui vont régulièrement pondre des articles pour un salaire de miséreux dans le but d’améliorer le ranking de l’institution. Soyez sans crainte, ils finiront par obtenir leur titre : c’est à la portée de l’immense majorité des étudiants qui parviennent au grade de master. Mais quant à savoir ce qu’ils vont faire de ce titre… De chercheur passionné qu’il était il y a vingt ans, le doctorant devient un tâcheron sans génie et avec des débouchés incertains !

Hormis de prestigieux instituts de recherche déjà abondamment fournis, le besoin en chercheurs de haut niveau est en effet très limité. Un nouveau débouché qui s’est présenté dans les dix dernières années en Suisse est l’enseignement en HES : à tel point que dans certains instituts ou départements, on impose le titre de doctorat comme condition à l’engagement comme enseignant : on préfère engager de jeunes doctorants sans expérience et sans contacts avec le tissu socio-économique local plutôt qu’un homme de métier expérimenté et disposant d’un réseau de relations locales bien fourni; et ceci en dépit de la vocation pratique et proche du tissu industriel local affichée de la HES… La stratégie d’engagement basée sur le titre académique réalise parfois des détours que la raison a quelque peine à appréhender. Bref…

Même avec le quelque peu discutable mais providentiel débouché des postes d’enseignants HES, beaucoup de doctorants ne trouvent pas de travail. Une vaine fuite en avant leur permet parfois de trouver une bourse pour réaliser un post-doc de durée limitée dans une université étrangère (avec toujours le souci du ranking de ladite université !). Sur-qualifiés, mais incapables d’assumer le rôle que leur institution ou leurs proches ont voulu leur assigner, ils sont conscients qu’ils ont coûté très cher à la société et à leur famille, mais n’ont que peu d’espoir ou de motivation de rentabiliser cet investissement afin d’apaiser leur malaise… Au mieux, ils finiront obscurs profs de physique/chimie dans un lycée d’une agglomération provinciale (à condition toutefois de suivre un cours complémentaire pédagogique); au pire…

La recherche de l’excellence a de tout temps été mise en avant comme une chose souhaitable. « Le mieux est l’ennemi du bien ». Mais un titre académique de fin d’études, aussi prestigieux soit-il, ne saurait être un objectif, mais au mieux une porte d’entrée dans la vie professionnelle. Actuellement, on a un peu l’impression que les institutions universitaires et/ou les proches de l’étudiant tendent à oublier cette évidence pour d’autres critères moins favorables ou carrément contre-productifs à l’étudiant. Et on n’insistera pas trop sur le coût prohibitif (pour la société, pour les proches, et pour l’étudiant lui-même) d’un tel cursus académique finissant en queue de poisson… A commencer par la nécessité pour le jeune PhD d’obtenir un poste avec un salaire permettant de se constituer plus tard une retraite décente, sachant que la période de cotisation a été nettement plus restreinte !

What’s up, Doc ? aurait pu demander Bugs Bunny à ces titulaires de doctorats coûteux et à l’utilité pour le moins discutable. La réponse serait probablement à l’unisson de la conclusion des dessins animés du célèbre lapin : That’s all, Folks !

Maslow, toujours

Abraham Maslow (1908-1970) était un psychologue américain connu pour son expression humaniste des besoins de l’homme. Ces besoins sont souvent représentés sous la forme d’une pyramide à 5 niveaux, la pyramide de Maslow, aussi appelée pyramide des besoins.

Pyramide de Maslow

  1. Les besoins physiologiques : respirer, manger, boire, dormir; besoins vitaux, pour l’essentiel.
  2. Les besoins sécuritaires : un environnement prévisible, un cadre de vie stable.
  3. Le besoin d’appartenance : affection des autres, amour, bien-être en société des autres.
  4. Le besoin d’estime : confiance et respect de soi, reconnaissance et appréciation des autres.
  5. Le besoin d’épanouissement : Besoin d’accomplissement de soi, de progression.

Ce modèle bien connu, et souvent enseigné, en particulier dans le cadre du management, est critiqué pour son excessive simplicité; par corollaire, la communauté scientifique le considère actuellement comme erroné; néanmoins, il définit une hiérarchie intéressante qui peut être rapidement mise en évidence par quelques éléments très concrets. La hiérarchisation sous-entend que les besoins « élevés » sont mieux considérés que les besoins « élémentaires ». Cette hiérarchie peut être illustrée par la réticence que l’on peut avoir à payer ses impôts ou son assurance maladie alors même que l’on n’hésite pas trop à acheter un véhicule dont les performances excèdent probablement l’usage que l’on va en faire. Pourtant, les impôts servent (ou devraient servir, mais c’est là un autre débat) à satisfaire des besoins vitaux, alors que le gros SUV qui passe 90% du temps au garage… Ici, c’est clairement le besoin d’estime qui prend le pas sur les besoins physiologiques et sécuritaires. Quant à discuter du bien-fondé de l’utilisation d’un véhicule automobile, aussi prestigieux soit-il, comme signe de valorisation personnelle… c’est une question qu’on laissera à l’appréciation de chacun.

Le besoin d’estime et le besoin d’accomplissement de soi sont souvent liés, dans l’esprit des gens, à la puissance que confère la possession d’importants biens matériels. Ceci peut peut-être expliquer le désir immodéré et irrationnel d’enrichissement de certains, déjà tellement fortunés qu’il n’ont pratiquement aucune chance de parvenir à profiter de leurs richesses dans le temps qu’il leur reste à vivre.

La pyramide de Maslow permet aussi de fournir de précieux indices sur le comportement des consommateurs, en particulier dans le secteur des technologies de l’information. Les réseaux sociaux tablent sur le besoin d’appartenance, dans un premier temps (si t’es pas sur Facebook, t’es rien), puis, lorsque vous vous êtes fait des « amis », sur le besoin d’estime en fournissant aux utilisateurs des outils pour se mettre en évidence. Apple vend ses iPhone haut de gamme 5 ou 6 fois plus cher que certains appareils fonctionnellement équivalents, et d’une espérance de vie similaire parce que conditionnée par l’obsolescence programmée justement développée à un niveau presque artistique par ce même constructeur californien… Mais l’image d’Apple reste depuis Steve Jobs une image valorisante et innovatrice, même si l’entreprise n’a pratiquement jamais innové, se contentant de racheter et d’intégrer (remarquablement bien, il faut le souligner) des technologies novatrices introduites par de jeunes start-up en mal de financement. Un consommateur qui achète un iPhone participe à cette image valorisante que met en avant Apple.

De fait, on peut transposer la pyramide de Maslow dans le monde des technologies de l’information; plusieurs propositions ont été faites (comme par exemple celle-ci), mais il n’y a pas de consensus sur ce sujet. Tout au plus retrouve-t-on généralement les éléments physiques d’Internet en bas de la pyramide, les systèmes d’exploitation et les éléments de sécurité au deuxième niveau, puis (dans un ordre disparate, mais en remontant vers le haut de la pyramide) les systèmes de développement, les applications, les infrastructures de publication web et les réseaux sociaux.

Comme l’intérêt des utilisateurs est plus orienté vers les fonctionnalités valorisantes (en haut de la pyramide), il est logiquement plus avantageux de développer un applicatif qu’une infrastructure de communications ou un système d’exploitation : ces deux composants sont en effet considérés comme implicites par les utilisateurs, et leur utilisation n’est guère valorisante. Il n’en a pas toujours été ainsi; longtemps, le système d’exploitation et la connexion réseau ont été des éléments revêtant une importance certaine pour l’utilisateur. Actuellement, les fonctionnalités proposées par les rares acteurs survivants étant équivalentes, le système d’exploitation n’a plus qu’une importance marginale. Ainsi, après avoir bâti sa fortune sur Windows et Office, Microsoft s’est désormais mué en entreprise de services dans le domaine du « cloud computing ».

Pourrait-on appliquer aussi le schéma de Maslow à des Etats ? Des Etats pourraient-ils privilégier des investissements à l’utilité peu évidente pour des raisons de prestige ? Les Jeux Olympiques de Sotchi à la gloire du tsar Vladimir sont encore dans les mémoires et semblent malheureusement confirmer l’hypothèse si besoin était. Et il n’est pas jusqu’à un petit Etat comme la Suisse qui ne se laisse tenter par des investissements inutilement dispendieux. Le peuple suisse va prochainement voter un budget (six milliards de francs tout de même, investissements d’entretien non comptabilisés, mais d’envergure équivalente) pour l’achat de nouveaux avions de combat, mais les machines envisagées sont-elles réellement adéquates pour un pays si restreint que les avions les plus rapides ont tout juste le temps de décoller de leur base avant de virer pour éviter de violer l’espace aérien d’un pays voisin ? Une alternative moins onéreuse ne permettrait-elle pas de remplir les missions envisagées avec une pollution bien moindre ? Une initiative dans ce sens a été lancée et devrait aboutir. Mais le coronavirus est venu interrompre ce processus, et il n’est pas sûr que les évidences de l’hiver 2020 restent d’actualité à la sortie de la crise dans laquelle le monde entier se trouve plongé.

La pyramide de Maslow constitue un modèle pas très encourageant pour notre société. Mon ego passe avant tout… Aux Etats-Unis, un président improbable a fait de ce postulat un argument électoral imparable : America First ! La crise mondiale du coronavirus pourrait, selon les modèles les moins optimistes (que chacun espère erronés), causer des dizaines de millions de morts, des personnes comme l’auteur de ces lignes, par exemple, doublement personne à risques… Mais cette même crise pourrait aussi déboucher sur une prise de conscience sociale qui permettrait de placer la solidarité au-dessus de la promotion personnelle. On peut rêver.

On peut rêver d’une pyramide de Maslow inversée, du moins en partie. Ou les valeurs essentielles prennent plus d’importance en regard des objectifs de valorisation personnelle. Il y a eu plusieurs visions de la société qui ont tenté, par le passé, de modifier l’ordonnance de cette pyramide. Marx et Engels, pour ne citer que les plus connus, avaient imaginé le communisme, en renversant simplement la pyramide, avec le résultat que l’on connaît.

Finalement, est-il nécessaire de hiérarchiser les besoins de l’être humain ? Ne suffirait-il pas de les mettre pêle-mêle dans un nuage d’où on pourrait les faire émerger en fonction des situations rencontrées ? Il paraît évident que pour la génération à laquelle j’appartiens (1945-1960, peu après la guerre), une telle attitude relève de l’utopie, sauf conditions exceptionnelles comme une guerre ou une pandémie, par exemple. Mais la génération 1995-2010 ? Celle de Greta Thunberg, et d’autres pas encore suffisamment médiatisés… on ne peut que souhaiter qu’ils parviennent à changer de paradigme de société. Au nom du climat, au nom de l’équité sociale, au nom de l’humanité, au nom de la planète et de son écosystème… au nom de leur propre bien-être, simplement.

Record !

Rafael Nadal est sur le point d’égaler, puis de dépasser les vingt victoires en Grand Chelem de Roger Federer ! Mais Novak Djokovic va probablement les devancer tous les deux dans les 2 ou 3 années à venir. Serena Williams parviendra-t-elle à gagner son vingt-quatrième titre de Grand Chelem en simple, afin d’égaler Margaret Court ? Et Mikaela Shiffrin est en passe de menacer l’incroyable record de 86 victoires Coupe du Monde de Ingemar Stenmark. Lewis Hamilton va-t-il effacer des statistiques Michael Schumacher ? Quand Armand Duplantis va-t-il passer 6 mètres 20 à la perche ?

Le sport et les records à battre vont de pair; désolé, M. le Baron Pierre de Coubertin, l’essentiel n’est pas de participer, mais de gagner. Et de gagner « mieux » que tous les précédents, quitte à se faire à son tour « ringardiser » par son successeur peu de temps après.

Tout à fait vulgairement, je dois avouer que je me fous complètement que Federer détienne ou non le record du nombre de victoires en Grand Chelem. D’ailleurs, à vrai dire, tout le monde s’en balance, car même si Djokovic parvient à gagner vingt-cinq tournois, il y a fort à parier qu’il n’aura jamais l’aura de Rodger, ce « quelque chose » qui lui permet de remplir des stades avec plus de cinquante mille personnes simplement pour un match sans enjeu particulier en Afrique du Sud ou en Amérique australe. Les records sont faits pour être battus, les détenteurs de record sont faits pour être oubliés; seules les personnes (ou les personnalités ?) présentent un intérêt susceptible de transcender l’événement.

J’ai longtemps cru que certaines activités de plein air ne deviendraient jamais réellement un sport, ou à tout le moins, échapperaient à la comptabilité des records. Le ski-alpinisme et l’alpinisme, par exemple; j’aurais dû me souvenir que l’alpinisme avait été sport olympique en son temps. Plusieurs premières et aussi quelques drames de la haute montagne sont à imputer à la compétition que livraient les alpinistes allemands et autrichiens aux autres à l’époque du troisième Reich, avec en perspective une éventuelle distinction (par le Bundeskanzler Hitler en personne !) aux Jeux Olympiques de Berlin… Quant aux records, il suffit de songer à quelques compétitions classiques comme la Patrouille des Glaciers pour constater que la soif des records est ici aussi présente: moins de 6 heures pour un trajet qu’à une époque il est vrai reculée, j’avais eu le privilège de parcourir en une longue et merveilleuse semaine émaillée d’instants magiques faits de contemplations, d’émotions et de rencontres aussi enrichissantes qu’improbables… La performance tue l’aventure.

Nirmal Purja dit « Nims » gravit en 2019 les 14 sommets de plus de 8000 mètres de la planète en une saison. Longtemps, l’ascension des 14 sommets à plus de 8000 mètres de la planète Terre a été l’oeuvre d’une vie, ou de plusieurs années. Grâce à l’hélicoptère, l’apport d’oxygène, de la pharmacopée moderne et une équipe de traceurs, cette entreprise se voit réduite en une entreprise saisonnière. Nécessité de record oblige ! Quel sera le prochain record ? Cinq mois au lieu de sept ? Sans oxygène ? Mais après tout, qui s’en soucie ?

En février 2020, le continent Antarctique a vécu pour la première fois (depuis que l’on tient à jour des statistiques) une température supérieure à 20 degrés. En été 2019, l’Arctique avait également constaté une fonte de la banquise exceptionnelle. Des événements similaires sont constatés dans nos régions. Ces records-là sont appelés à être battus. Assez rapidement, probablement… Et là, il va falloir qu’on s’en soucie.

Skolstrejk

for Klimatet (Grève étudiante pour le climat). Ces quelques mots de suédois sont devenus indissociables de la jeune égérie de la contestation climatique Greta Thunberg, personnalité de l’année 2019 pour le Time Magazine. Au-delà de son combat pour la problématique du climat, elle a popularisé la manifestation non-violente comme moyen pour les jeunes de se faire entendre. Considérée comme légitime par les uns et illégale, voire antidémocratique par d’autres. cette manière de faire a divisé profondément les opinions récemment. Un procès retentissant ayant très provisoirement débouché sur un acquittement des manifestants accusés a crée un buzz monumental, totalement hors de proportion avec la manifestation incriminée qui s’apparenterait plutôt à une aimable plaisanterie de potaches, n’était la gravité de la thématique abordée.

Plusieurs débats ont abordé ce jugement surprenant du point de vue légal; je n’ai suivi que celui organisé par la RTS dans l’émission Infrarouge; y participaient notamment (à part une jeune activiste dans le rôle d' »accusée ») Céline Vara, Philippe Nantermod et Peter Rothenbühler, ancien rédacteur en chef du quotidien « Le Matin ». L’avocat libéral-radical Nantermod était il y a quelques années un brillant jeune politicien bourré d’idées et de convictions : j’ai retrouvé un politicien ayant incontestablement pris de la bouteille (aussi bien en termes d’expérience qu’au niveau de la ceinture) et figé sur ses positions, avec l’attitude fermée typique (épaules légèrement voûtées, bras croisés) du procédurier sûr de la légitimité que lui apporte un texte de loi par essence indiscutable. Un fonctionnaire parfaitement maître d’un règlement justifiant sa propre existence, en d’autres termes. L’avocate écologiste Céline Vara s’est d’ailleurs rapidement laissé enfumer par M. Nantermod : en guise de défense de la jeune activiste présente autour de la table, elle ne trouva à dire, en substance, que « pour sa part, elle avait choisi un autre mode de lutte que l’activisme ». Bravo madame, fermez le ban et votez pour le parti écologiste.

La critique la plus insidieuse venait de M. Rothenbühler : son discours paternaliste et condescendant décrédibilise les activistes plus sûrement que les tirades légalistes de Nantermod. A la fin de l’émission, une tirade de Philippe Nantermod sur la démocratie et le fait que les électeurs n’avaient pas voulu élire plus de représentants verts et donc que le parti libéral-radical poursuivait ses propres objectifs fut particulièrement mal venue : implicitement, M. Nantermod avoue que le climat ne figure pas parmi les préoccupations politiques de son parti (on s’en doutait bien, notez) et néglige le fait que les partis écologistes ont obtenu un résultat exceptionnel lors des dernières élections en Suisse. Mme Vara aurait pu au moins relever ce trait de mauvaise foi…

En fin d’émission, tout le monde semblait d’accord (on n’a pas trop posé de questions à la jeune activiste visiblement intimidée) et on s’est quitté ainsi. Je pense pour ma part (et j’espère) qu’il y aura d’autres occasions de débattre de ce genre d’activisme à l’avenir. Que reproche-t-on à ces activistes dans ce cas particulier ? D’avoir joué à la baballe dans une succursale de la banque « Crédit Suisse » pour dénoncer les investissements dans les énergies fossiles. Ils n’ont rien cassé, au contraire de certains activistes antispécistes qui se livrent à des déprédations inadmissibles de boucheries ou de fast-food, et ont permis d’attirer l’attention sur une problématique qui concerne tous les habitants de cette planète (sauf ceux qui ne veulent absolument pas se sentir concernés, comme apparemment M. Nantermod).

Pour ma part, je souhaiterais qu’il y ait d’autres manifestations de ce genre à l’avenir (bien que je ne les approuve pas forcément). Un pique-nique salades dans l’entrée de Philip Morris à Neuchâtel, une marelle devant l’UBS à Lausanne, un tournoi de roller dans un endroit improbable, un grand garage par exemple… Et je souhaiterais que, pour le plus grand plaisir de M. Nantermod, on sanctionne ces actions. Ceux qui émettent ces jugements sanctionnent leurs propres enfants, pour une action qu’ils ont eux-même, par les impérities de leur génération (la mienne, par la même occasion), provoquée. Les politiciens censés voter les lois qui permettent de sanctionner ces activistes partagent entièrement cette responsabilité : qu’on le leur dise et le répète. ils condamnent leurs enfants parce ces derniers manifestent contre un état de faits dont leurs juges et parents sont directement responsables. On peut espérer que ces braves gens développent un sentiment de culpabilité à force de condamner leur propre descendance. Et que M. Nantermod ne vienne pas répéter qu’il n’y a qu’à voter au lieu de manifester : nombre de ces manifestants n’ont pas le droit de vote, et le parti de M. Nantermod est opposé à leur accorder ce droit : on devine aisément pourquoi.

Peut-être que les Trump, Bolsonaro, Köppel ou autres Nantermod peuvent garder l’inconscience tranquille devant cet état de fait; mais les gens normaux, et conscients de leur responsabilité envers les générations futures ?

Si nous arrêtions toute émission de CO2 demain (enfin, celle due aux énergies fossiles, parce qu’il faut bien que nous continuions à respirer), une inversion de la tendance au réchauffement climatique n’interviendrait probablement pas avant l’an 2500. Du moins, c’est ce que les modèles climatiques actuels prédisent. Au mieux, on pourrait stabiliser la température vers 2060 ou 2100; pour améliorer les choses, il faudrait recourir à des solutions technologiques de récupération du CO2. Technologies coûteuses et terriblement complexes, mais les jeunes activistes actuels devront probablement en passer par là.

En attendant, rappelons-nous que les énergies fossiles, ce sont les restes des forêts de l’ère justement appelée Ere Carbonifère. Le développement des grandes forêts permit alors d’absorber le CO2 et de rendre possible l’avènement d’espèces vivantes terrestres. C’est ce CO2 que nous relâchons actuellement dans l’atmosphère. Ce CO2 que la nature a mis 100 millions d’années à absorber, nous le rejetons en moins d’un siècle ! A charge de nos enfants et petits-enfants de se débrouiller pour refaire ce que la nature a mis tant de temps à réaliser… Mais M. Nantermod et les autres ont fondamentalement raison: ce n’est pas notre problème, c’est celui de nos descendants. Et les lois doivent être respectées et appliquées. Jusqu’à en crever.

Qubits…

En 1977, Ronald Rivest, Adi Shamir et Leonard Adleman décrivent l’algorithme nommé RSA d’après leurs initiales. RSA a été breveté par le Massachusetts Institute of Technology (MIT) en 1983 aux États-Unis (brevet échu en 2001). Avec le développement d’Internet et du commerce électronique, cet algorithme est devenu l’un des plus importants et les plus utilisés du monde. Il propose une solution au problème élémentaire suivant :

Soit deux partenaires A (un vendeur, par exemple) et B (un client) qui, bien qu’ils ne se connaissent pas, désirent échanger des informations mais ne souhaitent pas être écoutés par une tierce personne.Ne se connaissant pas, ils n’ont aucun moyen de s’entendre préalablement sur de quelconques conventions de codage de l’information qui mettraient leurs échanges à l’abri des indiscrets ou des pirates informatiques désireux de voler des coordonnées bancaires ou d’autres informations confidentielles ou sensibles. Comment garantir alors la possibilité d’une transaction confidentielle entre ces deux partenaires potentiels ?

RSA permet de définir un encodage (ou cryptage) asymétrique : la méthode de chiffrement utilise un paramétrage (on parle de clé) différent de la méthode de déchiffrage. La clé de chiffrement peut être publiée pour une utilisation par tout un chacun (on parle de clé publique), mais seul celui qui possède la clé de déchiffrement (la clé privée) peut lire les messages ainsi codés. La situation est similaire à ce que l’on connaît avec une porte d’entrée d’immeuble ou d’hôtel : on peut sortir en tournant le bouton du verrou (clé publique), mais il faut une clé physique ou un digicode pour entrer. Si l’on possède la clé publique, on ne peut en déduire la clé privée.

A vrai dire, il est théoriquement possible dans le cadre de RSA de trouver la clé privée à partir de la clé publique; mais l’opération est si complexe que même les meilleurs ordinateurs du monde, mis ensemble sur le « cassage » d’une clé de 4096 bits, n’y parviendraient vraisemblablement pas avant que le soleil ne devienne une nova. De toutes manières, la probabilité pour que l’information ait encore une quelconque valeur après l’opération est nulle. Alors bon, me direz-vous, quel est l’intérêt de cette dissertation qui ne fait qu’enfoncer des portes ouvertes sans même utiliser de clé publique ou privée ?

En 2019, Google annonce avec Sycamore l’avènement de l’ordinateur quantique « utilisable ». IBM qui possède un prototype comparable s’empresse de contester, mais la nouvelle fait grand bruit dans les milieux spécialisés: il semble désormais possible de construire des ordinateurs quantiques. Sycamore est à un ordinateur commercialement exploitable ce qu’ENIAC a jadis (1945) été pour le petit bijou ultraportable sur lequel vous lisez ces quelques lignes. Quelle importance pour l’algorithme RSA ? Un ordinateur quantique ne fonctionne pas comme un ordinateur classique. Au lieu de bits valant 0 ou 1, il utilise des qubits dont l’intérêt principal est de permettre la superposition d’états. Peu intuitive (et c’est peu dire !), cette propriété des qubits permet d’imaginer des algorithmes aux performances inatteignables à l’informatique classique. A l’heure actuelle, peu d’algorithmes connus se prêtent à l’implémentation en qubits; mais l’un d’eux est la factorisation de très grands nombres : et c’est précisément là le coeur du problème du « cassage » d’une paire de clés publique/privée RSA.

Là où un (voire de nombreux) ordinateur classique mettrait des milliers d’années à casser une clé, un algorithme basé sur la superposition d’états peut en principe parvenir au résultat en quelques heures. Théoriquement du moins, RSA ne garantit plus désormais la sécurité des communications sur Internet.

Non seulement le téléachat ou le télé-banking, mais aussi le vote électronique, les billetteries Internet, les sites protégés, et même les distributeurs de monnaie ou les lecteurs de cartes de crédit ne garantissent plus la sécurité de la transaction. Et actuellement, il n’y a pas d’alternative à court terme à l’algorithme RSA.

Bon, ce n’est pas encore demain que tout un chacun disposera d’un ordinateur quantique chez lui, si tant est que cela soit possible un jour (en l’état, c’est fort peu probable, mais après tout, les ordinateurs ultra-portables d’aujourd’hui n’étaient guère envisagés par les utilisateurs privilégiés d’ENIAC en 1945). Mais à terme, il est probable que la capacité de calcul d’un ordinateur quantique soit mise à disposition sur le cloud, La puissance de calcul nécessaire au cassage d’une clé RSA en quelques minutes devient dés lors disponible à chaque utilisateur averti, ouvrant la voie à toutes les escroqueries imaginables.

Ces faits sont largement connus depuis que l’on parle d’ordinateurs quantiques, mais de manière intéressante, les recherches de solutions sont plutôt confidentielles. De fait, le cryptage asymétrique n’a pas connu de développement théorique majeur depuis 1977. Pas plus que les protocoles de base Internet comme TCP ou même IP (on a introduit IPv6 dans les années 1990, mais les adresses IPv4 restent largement utilisées). Pire encore, les systèmes d’exploitation utilisés restent des constructions bancales, plus ou moins élaborées à partir de versions de VMS (Windows) ou UNIX (Mac OS), voire Linux (Android) lui-même un clone de UNIX. A croire que l’informatique s’est arrêtée dans les années 70-80, et que depuis, tout n’est plus qu’applications… jusqu’à ce qu’un événement majeur impose le changement, souvent dans la douleur.

La physique quantique (à laquelle je ne comprends pas grand-chose, mais je crois être en bonne compagnie) introduit beaucoup de notions peu intuitives, voire carrément paradoxales, comme l’apparente remise en question du principe de causalité. La superposition des valeurs dans un qubit ouvre des perspectives vers une informatique que l’on n’avait jamais imaginée, avec des algorithmes qui n’avaient jamais été écrits ou même envisagés ; mais peu d’instituts de recherche y sont préparés… Cette procrastination rappelle étrangement une autre attitude qui elle aussi trouve quelque origine dans les années 1970-80 : le club de Rome avait pronostiqué les problèmes écologiques que notre planète rencontre actuellement; mais en 2020, rien dans le discours des plus puissants de ce monde ne donne à penser que l’on envisage une réaction, même 50 ans plus tard… Wait and see… or not ?

Fake…

L’actuel président des Etats-Unis a popularisé l’expression « Fake News« , en les dénonçant d’une part, mais surtout en en générant une pléthore au gré de ses « tweets » parfois inconsidérés. Donald Trump n’est hélas de loin pas le seul à générer des informations souvent approximatives, parfois fausses, voire carrément malhonnêtes à force d’être mensongères. Chacun se souvient de ses déclarations fantaisistes sur la foule présente lors de sa prestation de serment. Ses homologues brésiliens, britanniques ou italiens (jusqu’il y a peu) ne sont pas en reste, quand ils ne le dépassent pas largement !

Comment font donc ces personnalités pour survivre à des mensonges autrement plus évidents que les petits errements de nos politiciens suisses mis au pilori, comme Pierre Maudet ou Géraldine Savary ? Comment leur électorat peut-il continuer à leur faire confiance ?

Avant de continuer, j’aimerais rappeler à tout un chacun que je ne suis pas un politologue; mais que, en revanche, j’ai beaucoup travaillé avec l’information et l’informatique au cours de ma carrière; en conséquent, je connais raisonnablement bien les méthodes servant à collecter, trier, analyser et sélectionner les informations, et c’est cet aspect du problème que je souhaite aborder ici.

Lorsqu’un politicien décide un jour de se faire élire, il doit trouver un nombre suffisant (une majorité, idéalement) de personnes pour qui il représente le candidat idéal. A défaut de trouver une majorité, il devra rechercher à s’assurer le soutien aussi fort que possible d’un groupuscule qui portera ses opinions. Mais comment trouver un groupe de personnes adéquat ? C’est un problème assez connu en informatique, faisant partie de la grande famille des algorithmes de « matching », ou de recherche de correspondances. Selon que l’on connaît plus ou moins d’informations sur les parties à mettre en correspondance (les partenaires du « matching »), les solutions différeront notablement. Dans le cas d’une élection conventionnelle, le candidat d’un parti traditionnel (libéral, centriste, gauche modérée) ne dispose pas d’informations très précises sur son électorat potentiel; il va donc afficher un profil pas trop caractéristique qui devrait lui permettre de trouver une correspondance avec un maximum de personnes, même si cette correspondance est parfois assez faible. On parle alors de « weak matching« . Une telle correspondance est susceptible d’être facilement brisée, par exemple si le candidat déçoit, par une mauvaise décision, une alliance jugée inappropriée ou un mensonge. A l’inverse,si le candidat connaît dans les moindres détails ses électeurs potentiels, il peut tenter d’adapter son propre profil de manière à mieux correspondre aux attentes de ses électeurs, et atteindre ainsi un « strong matching« , voire même un « optimal matching« . Une telle relation est susceptible de résister à de nombreuses péripéties, mais comment l’organiser dans le cas d’une élection ?

Matteo Salvini n’est peut-être pas le meilleur exemple, puisqu’en fin de compte il a été chassé (temporairement ?) du pouvoir, mais son parcours est caractéristique de la méthode utilisée par ces nouveaux « démocrates » dopés aux technologies de l’information. Il est accompagné d’un expert en communications qui est aussi un informaticien de renom, et qui aurait développé un algorithme appelé « La Bête ». Cet algorithme permettrait d’analyser les profils des membres de la Lega de manière à permettre au candidat Salvini d’affiner sa rhétorique pour mieux correspondre aux aspirations des électeurs de la Lega : en termes informatiques, assurer un meilleur « matching« , une meilleure correspondance. Cette recherche de correspondance peut aller jusqu’à dicter des comportements spécifiques au candidat, comme par exemple se promener sur des plages en tong et maillot de bain. Bien sûr, on ne peut atteindre une bonne correspondance qu’avec des profils bien définis (qui sont aussi plus aisément délimitables par un algorithme); c’est le cas de tendances politiques plutôt extrémistes, ou polarisées sur des problèmes particuliers (comme les réfugiés, ou l’appartenance à l’Europe, etc…). Ce qui peut expliquer en partie pourquoi plusieurs pays où des dirigeants de ce type sont à l’oeuvre vivent une situation de conflit potentiel, où les « pro » et les « contra » ne parviennent plus à discuter ensemble. Voir par exemple l’actuelle « relation » entre démocrates et républicains aux Etats-Unis.

Bien sûr, les algorithmes utilisés pour favoriser et consolider cette correspondance sont tenus dans la plus stricte confidentialité, et on ne peut que faire des hypothèses sur leur existence et leur fonctionnement. Mais si personnellement, j’avais à diriger l’équipe de développement d’un tel algorithme, je définirais les étapes suivantes :

  1. Définir les éléments-cible de la correspondance. Connaissant le candidat, déterminer des groupes de personnes susceptibles de se reconnaître au moins partiellement dans un sous-ensemble raisonnable de thématiques chères au candidat. Comment déterminer ces éléments ? Les réseaux sociaux (Facebook, Instagram, ou autre) constituent une mine d’or et si l’on a la chance de disposer, comme la LEGA, d’un fan’s club dédié, cela simplifie les choses.
  2. Déterminer les thèmes réellement importants aux yeux des éléments-cible. Ce seront les thèmes mis en exergue par le candidat, bien sûr. Contrairement à un objectif de « weak matching« , où on cherchera des objectifs plutôt vagues et susceptibles d’intéresser de nombreuses personnes (le prix de l’assurance-maladie, les énergies renouvelables), on privilégiera les thèmes avec une forte connotation conflictuelle (expulser les réfugiés, interdire la burka). Ces thèmes bien identifiés serviront de base à la dialectique du candidat, générant ainsi,on l’espère, une très forte adhésion de la part des éléments-cible (strong matching).
  3. Cerner les habitudes et les comportements des éléments-cible. On se servira de ces informations pour influer sur le comportement du candidat, de manière à ce que les éléments-cible se reconnaissent mieux en lui. Matteo Salvini s’affiche en maillot de bain, Bolsonaro en treillis ou en salopettes : le principe est le même, il faut que les « disciples » puissent s’identifier au leader.

Ce que l’on appelle en informatique un strong matching est en principe difficile à défaire. En d’autres termes, une telle correspondance est digne de confiance, et l’algorithme va désormais être convaincu que cette correspondance est persistante. C’est ce type de correspondance que recherchent (avec plus ou moins de réussite) les algorithmes d’authentification, par exemple. Votre banque vous demande des preuves d’identité, et passé ce test, elle est convaincue que vous « correspondez » bien à un compte donné. De manière similaire, les éléments-cibles vont désormais avaler toutes les couleuvres que leur proposera le candidat; mieux même, ils les reprendront à leur compte. Vous pouvez désormais utiliser des informations douteuses (fake news, mensonges, etc…) à votre aise, dans la mesure où ces informations correspondent à la relation établie avec vos disciples.

Bien sûr, en politique, on peut atteindre un tel résultat sans avoir besoin d’aide informatique. Hitler ou Napoléon n’ont pas utilisé d’ordinateurs pour envoyer à la mort des centaines de milliers d’allemands et de français à priori pas plus méchants ni plus stupides que les citoyens des pays voisins. Mais ils ont su s’appuyer sur un petit groupe de partisans convaincus pour entraîner une majorité de personnes insatisfaites de la situation générale dans un délire extrémiste et violent. L’informatique permet de détecter et d’isoler plus aisément les partisans potentiels, grâce aux réseaux sociaux, essentiellement. Et les algorithmes permettent de mettre en évidence les propositions qui auront la meilleure audition dans un groupe donné. Ainsi, lorsque le groupe est formé et parfaitement fidélisé, l’utilisation d’informations biaisées ou difficilement vérifiables permet d’influencer efficacement le plus grand nombre jusqu’à obtenir une éventuelle majorité.

Bien sûr, il y aura plein de gens pour détecter les fraudes et les mensonges; mais rappelons tout de même l’exemple des créationnistes. Leurs affirmations sont bourrées d’approximations et de fausses découvertes, de relation de faits impossibles et que sais-je encore. Néanmoins, le créationnisme est désormais enseigné dans pas mal d’écoles, comme alternative à la théorie darwinienne de l’évolution, voire même comme théorie unique dans certains milieux. De nombreux mensonges, même avérés, ne suffisent apparemment pas à discréditer une idée, fût-elle fumeuse, si il se trouve un public suffisamment important pour la soutenir…

Mais les algorithmes et les réseaux sociaux permettent de faire mieux. Selon le même principe, et avec l’aide des réseaux sociaux et d’algorithmes performants, il est devenu possible d’influer de manière significative sur les élections. Tout le monde se souvient de l’affaire Cambridge Analytica, mais ce n’est pas un cas isolé. Ce genre d’influence est insidieux, parce que pratiquement invisible, ou en tous cas difficile à mettre en évidence. Mais ses effets n’en sont pas moins réels, et dangereux si initiés par la malveillance. Le plus grand risque ne provient peut-être pas de Trump, Bolsonaro, Salvini ou consorts, mais de leur absence.

Mise à jour 08.06.2020 : Suite à une aimable remarque d’une lectrice, je me permets d’ajouter le lien suivant, en ces temps de coronavirus. Dans un contexte un peu différent (pas forcément des intox !) on a beaucoup utilisé Tinder pendant la période de confinement. Encore des algorithmes de matching… 🙂