Amazon ne construit pas l’Internet que nous voulons 28 février 2021
Par Thierry Klein dans : Speechi.Lu 6 fois | ajouter un commentaire
Amazon censure aujourd’hui les livres
C’est passé à peu près inaperçu mais la semaine dernière Amazon a changé ses conditions générales. Le site se permet dorénavant de censurer « tout ouvrage contenant du contenu incitant à la haine ou tout autre matériel que nous jugeons impropre ou offensant » (sic).
La première « victime » de cette nouvelle clause est un livre critique de l’idéologie du genre, qui probablement va du coup très bien se vendre via des canaux alternatifs du fait de la publicité qu’Amazon lui a fait : « When Harry became Sally, Responding to the transgender moment« . (1)
Tout libraire indépendant, arguera Amazon, a le droit de sélectionner les livres qu’il propose au public. Tel libraire se spécialisera dans les bandes dessinées, un autre dans les livres marxistes, un autre dans les livres religieux… Mais Amazon représente 83% du marché du livre aux Etats-Unis et à ce niveau de dominance, le refus de vendre un livre correspond à une censure de fait. Aucun éditeur ne publiera un livre qu’Amazon refuse de commercialiser.
Les ouvrages refusés par Amazon sont de fait et au sens propre « mis à l’index », vous ne pourrez plus les lire. Amazon a recréé, pour un objectif idéologique qui lui est propre, l’index des livres censurés élaboré par l’Eglise Catholique au XVIème siècle. Les idées présentes dans les livres censurés par Amazon seront comme effacées de notre société, avec une efficacité que l’Eglise catholique n’a jamais atteinte (Voltaire, Luther étaient à l’Index et cela n’a jamais empêché qu’ils soient lus).
Il n’est pas certain que la censure des idées ou des œuvres soit jamais une bonne chose, il est certain en revanche que sa mise en œuvre éventuelle doit procéder de la loi, dans un cadre démocratique, et non pas du bon vouloir d’une société commerciale. Nous avons donné des droits bien trop importants à Amazon.
Ce problème rejoint celui récemment constaté de la censure des contenus exercée par Google, Facebook et Twitter, allant jusqu’à censurer le compte du Président des Etats-Unis lui-même (1′). Les conditions générales de ces sociétés leur permettent d’agir ainsi et tout media a, a priori, la liberté de décider du contenu qu’il publie. Mais la position de dominance des GAFAM est telle que la règle définie avant l’ère de l’Internet ne peut plus s’appliquer. L’Humanité peut censurer un homme politique de droite ou le Figaro une idée de gauche, c’est leur droit. Mais bannir de YouTube (92% de part de marché) ou de Facebook un contenu a un impact médiatique bien supérieur à lui interdire toute la presse française, d’un seul coup, télévision comprise. Le pluralisme ne joue plus quand on parle de media à ce point dominants, rassemblant plus de 90% du trafic ou du temps passé sur Internet.
Nous avons là encore donné des droits bien trop importants à de simples sociétés commerciales, qui menacent aujourd’hui non seulement nos libertés mais nos idées et l’accès au savoir. La censure (éventuelle) des contenus proposés par YouTube, Google, Facebook, Amazon doit absolument revenir aux Etats et être exercée selon des lois que nous aurons votées (2).
Le concept juridique à introduire dans la loi est celui de « dominance ». A partir d’un certain degré de dominance, les conditions commerciales ou générales habituelles ne peuvent plus s’appliquer et l’Etat est fondé à les modifier, pour les adapter à sa loi. Ce concept est la conséquence juridique directe de la « scalabilité » recherchée par les acteurs de l’Internet, qui leur permet d’établir cette domination.
Le numérique qui nous est concocté actuellement par ces sociétés ne correspond en rien à la promesse qui nous a été faite (et qui nous est vendue jusqu’à la nausée par les GAFAM) : de plus grandes libertés, un plus grand accès au savoir. Il nous ramène au contraire au passé dans ce qu’il a pu avoir de pire, « panem et circenses » (la gratuité et la débilité ludique des contenus), et l’Inquisition idéologique.
C’est l’exact contraire du numérique que nous voulons.
Dans son dernier ouvrage, « Une rencontre », Milan Kundera évoque la fin de l’illusion cinématographique. Né il y a 100 ans. Le cinéma qui promettait, le nouveau moyen d’expression culturel (sans même parler du cinéma en tant que nouvelle forme artistique) a aujourd’hui presque totalement disparu. Il est devenu un des principaux vecteurs de l’abêtissement général.
Luttons pour qu’Internet ne soit pas une nouvelle illusion.
(1) Je n’ai pas lu ce livre et précise que ce billet n’est en rien un soutien de son contenu éventuel. La position que je prends est « par principe ». Je note par ailleurs que « Mein Kampf » reste disponible sur Amazon; son contenu n’est donc probablement ni inapproprié ni offensant.
(1′) Là encore, ce billet n’est en rien un soutien éventuel au Président américain concerné. La position que je prends est “par principe”.
(2) Techniquement, cette proposition est très facile à réaliser. Il suffit d’imposer aux acteurs dominants du numérique de mettre à disposition du Juge français des interfaces (API) lui permettant de mettre en œuvre instantanément toute décision de justice, lui permettant aussi d’avoir accès, selon nos lois, au moyens de preuve nécessaires tels que les adresses IP permettant d’identifier l’origine de certains contenus, etc.
Billets associés :- Ca y est, Amazon censure les livres
- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
- Ne pas déprécier l’initiative du MIT / Do not undervalue the MIT initiative
- Nomadisme, religion, mécanique quantique et enseignement
- Ne pas lire au Salon du Livre
Sciences Po: de la discrimination positive à la « culture du viol » 16 février 2021
Par Thierry Klein dans : Aliénation,Politique.Lu 1 830 fois | ajouter un commentaire
Il y a actuellement à gauche une tendance à faire du vice, ou de toute tendance affective personnelle, un système élaboré de « valeurs ». Dans les années 80, ces valeurs étaient « la libération sexuelle », surjouée, forcée – avec les abus inévitables qui font que ces valeurs ont aujourd’hui été transformées en « me too ». Ceux qui portent ces valeurs sont les mêmes personnes et si je puis dire, la Vanessa Springora des années 80, icone consentante sur l’autel de la libération sexuelle, annonce celle des années 2020, icone consentante sur l’autel « me too ». Elle est le niveau à bulle de l’époque, ayant pour fonction d’être un reflet. J’ai entendu Jack Lang l’autre jour condamner violemment, presqu’en larmes, une pétition qu’il avait signée dans les années 80 en faveur de l’inceste.
Idem pour Sciences Po. Dès lors qu’un seul élève est rentré de façon injuste à Sciences-Po (discrimination positive), c’est tout un système qui a été transformé, d’une hiérarchie de compétences vers une hiérarchie aristocratique, privilégiant l’origine, la position, le mensonge et le népotisme. La « culture du viol » est présente dès l’époque Descoings, qui séduit des élèves de 17 ans, et dès cette époque, tout le monde se tait. Cet enchainement est très compréhensible et simplement une dérive banale, qu’on a vue dans de multiples établissements d’enseignement supérieur politiquement corrects aux US. J’avais pu moi-même la constater à Stanford dans les années 90.
Mais ce matin, Alexandre Kouchner au micro d’Europe 1 fait de cette dérive un système général. « Non, nous dit-il, la dérive du viol n’est pas propre à Sciences Po mais à toute la société ». On voit comment cette théorie se fait jour dans son esprit. Il y a d’abord la dérive névrotique d’une organisation, à laquelle il a participé de façon active ou, plus probablement, lâche. Il y a le contexte familial du viol toléré, sinon encouragé et là aussi, il a fallu détourner le regard – et comme c’était impossible, se forcer à ne pas penser, ce mécanisme étant caractéristique de ce que Simone Weil nomme « attachement » (à sa famille, à ses amis, à son groupe de pensée, tout ceci étant, dans le cas de Kouchner, presque confondu).
Ensuite il y a le refus de regarder sa réalité en face et la projection de ses propres turpitudes sur autrui, sous forme de rationalisation a posteriori : « toute le société est gangrénée, Sciences Po n’a rien d’exceptionnel ». En ceci, il est exactement comme un cardinal qui refuserait d’admettre le problème de la pédophilie ecclésiastique au prétexte qu’elle concernerait toute la société. Ou comme un Tartuffe (mais ici, un Tartuffe probablement inconscient), qui demande à couvrir ce sein (transformation du désir personnel en norme de comportement générale).
Ce mécanisme définit actuellement de façon très profonde la gauche, dans ce qu’elle a de plus woke. Elle est plus une fidélité à un groupe, un attachement, qu’une pensée. La recherche systématique d’un racisme « systémique » (qui n’a plus rien à voir avec le racisme), de la « culture » du viol, de la « violence symbolique » à l’école, de la « violence coloniale systémique » sont des névroses de type paranoïde projetées sur l’ensemble de la société, déclarée malade par les malades eux-mêmes. Ces termes nous parlent de ceux qui les emploient plus que de notre société. Ces théories seraient risibles si elles n’étaient pas aussi répandues. Cliniquement, la gauche woke est une forme de paranoïa décomplexée.
(Je pense profondément que la « pourriture » n’est pas une question de couleur politique, et donc il y a sans doute une proportion constante de pourris à droite et à gauche.
Mais un violeur de droite ne ferait pas tous ces chichis. Il ne chercherait sans doute qu’à se cacher. Difficile de savoir si c’est par manque d’intelligence, par lucidité sur soi-même, par égoïsme ou par indifférence.)
Billets associés :- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
- Interview : six questions sur le Capital Altruiste
- Mac Kinsey : l’enfant monstrueux de la gauche, de la droite, de l’Europe et d’Hollywood.
- Quelques causes morales de la crise des élites françaises
- Vos photos sont des clichés
Lupin (la série) et la gauche woke 23 janvier 2021
Par Thierry Klein dans : Non classé.Lu 2 322 fois | ajouter un commentaire
En France, tout délinquant de couleur est aujourd’hui une victime supposée du racisme policier. Les premiers épisodes de la série Lupin n’ont visiblement choqué personne.
La série – insignifiante par ailleurs – respecte assez bien l’esprit de l’œuvre de Maurice Leblanc, mais elle y ajoute des clichés victimaires « woke ». Le père (noir) de Lupin est victime, dès le 1er épisode, d’une erreur judiciaire complètement caricaturale, mais tellement dans l’air de notre temps si vous êtes lecteur de Mediapart, du Monde ou de Libé. Chez Leblanc, la police est nulle, pataude mais pas raciste. Arsène Lupin, s’il est en manque affectif, n’est pas une victime même indirecte d’un supposé « racisme policier ». Alors qu’Assane devient cambrioleur du fait d’un ressentiment justifié – l’arrestation à tort de son père qui l’a mené au suicide.
Dès le 2ème épisode de la série, le cliché est repris et amplifié. On comprend que le père de Lupin a été piégé par un policier (évidemment blanc) avec l’aide involontaire d’une bourgeoise incapable qui cherche à se donner bonne conscience. Ceux là même qui dénoncent les stéréotypes à tout va en ont créé un très gratiné.
Episode 4: Lupin cambriole un appartement bourgeois et on retrouve de nouveau le cliché de la bourgeoise totalement stupide (forcément) qui donne elle-même ses bijoux à Lupin, bien que celui-ci utilise un mode d’escroquerie très peu convaincant. Mais ce qui met mal à l’aise, c’est la justification du vol. La morale est sauve parce que l’origine de la richesse du mari de la victime est « le Congo Belge ». Comme il s’agit d’une accumulation de richesse coloniale, (et du fait qu’Assane est noir ?), on tente de faire apparaître le vol comme un juste retour des choses.
Cancel culture, insert culture
On connaît l’attention paranoïaque de la gauche woke aux soi-disant clichés, qui conduit par exemple à la censure des dessins animés de Disney (Peter Pan ou Les Aristochats) au nom de la ‘protection contre les stéréotypes’. On est en train d’assister à la naissance de séries grand public ou les clichés dominants de cette gauche « woke » sont insérés comme on insère, dans un James Bond, des produits à titre publicitaire. Une propagande de nature subliminale, en somme.
Billets associés :- Docteur House, Tintin de laboratoire
- Le contrôle au faciès est humiliant, mais n’est pas discriminatoire par nature
- Wokisme et islamisme : histoire d’une haine commune
- Les formes élémentaires de l’aliénation (réponse à Enzo)
- L’extrême-droite est-elle vraiment plus antisémite que l’extrême-gauche ?
Préjugés sociologiques universitaires : le poids de l’Islam 17 janvier 2021
Par Thierry Klein dans : Politique.Lu 1 633 fois | ajouter un commentaire
(Une critique de l’article Stéréotypes sexistes dans le monde : le poids de la religiosité, paru dans « The Conversation »)
J’ai rédigé une critique de ce papier intéressant, non pas par ses conclusions mais parce que ce genre d’article est très révélateur des biais de la sociologie universitaire.
De quoi parle-t-on ?
Denise Bombardier fait le lien, nous le verrons à juste titre, entre Islam et préjugés sexistes en s’appuyant sur une publication de l’ONU (http://hdr.undp.org/sites/default/files/hd_perspectives_gsni.pdf, table A1 page 20).
Pour les auteurs, ce lien correspond visiblement à une stigmatisation inacceptable de l’Islam. L’article vise donc à amoindrir la responsabilité de l’Islam et prétend donner à cette défense un argument scientifique – on n’est pas sociologue pour rien. L’article paraît dans « The Conversation », magazine qui est une sorte de niveau à bulles de la sociologie politiquement correcte, de gauche.
Quel est le raisonnement ?
Les auteurs constatent bien (comment faire autrement ?) le lien entre Islam et sexisme : les 23 pays musulmans affichent un niveau de préjugés sexistes « plus élevé » que les 52 autres pays analysés. A noter que le terme « plus élevé » est un euphémisme: selon la mesure utilisée, le sexisme en pays musulman est jusqu’à deux fois supérieure à celle des pays non musulmans (https://hal.archives-ouvertes.fr/hal-02903144v2/document, figure 4)
Les auteurs introduisent alors 2 autres variables :
- La religiosité du pays (selon les réponses à un questionnaire demandant aux habitants quelle est l’importance de la religion dans leur vie. L’index varie de 1 « sans importance » à 4 « très importante »)
- Le « niveau de développement humain » du pays
Faisant alors appel à un « modèle » mathématique, ils concluent alors que l’Islam a peu ou pas d’impact sur le sexisme. En réalité, la religiosité du pays et le niveau de développement humain sont les facteurs les plus importants. Toutes les religions sont donc aussi coupables que l’Islam… Prétendre le contraire tient sans doute de l’islamophobie. Circulez, y’a rien à voir !
(Cette technique qui consiste, non pas à nier les excès de l’Islam mais à les relativiser en les étendant à d’autres religions, et en particulier au christianisme est par ailleurs un symptôme d’islamo-gauchisme. On va par exemple comparer le voile des musulmanes à celui des bonnes soeurs, le burkini à la soutane, etc. L’islamo-gauchisme n’est pas mon sujet ici, mais je le mentionne car j’ai l’intention d’en caractériser les principales caractéristiques dans de prochains billets)
Quelles sont les erreurs des auteurs ?
Les erreurs commettent en réalité une erreur indigne d’un élève de Terminale, ce qui fait qu’il est difficile de penser que cette erreur n’est pas due à leur idéologie, difficile aussi de penser que l’erreur n’est pas volontaire.
Pour effectuer leur analyse, les auteurs ont supposé que leurs trois variables (Islam, religiosité, niveau de développement humain) étaient indépendantes. Or elles ne le sont évidemment pas. Par exemple, aucun pays musulman n’a un indice de religiosité inférieur à 3 (indice très élevé). Les pays ayant des indices inférieurs à 2,5 sont des pays chrétiens, ou asiatiques (notion de religion différente), ou des pays où la liberté religieuse n’existe pas. Cela est tout à fait compréhensible car on peut sortir sans problème de la religion chrétienne (qui est donc compatible avec une faible religiosité) et non de la religion musulmane (ce qui entraîne évidemment un biveau de religiosité supérieur). Par conséquent, on voit bien que les variables « pays musulman » et « religiosité » sont intimement liées. En réalité, ce que les auteurs ont introduit sous le nom de religiosité, c’est, très largement, l’Islam sous un autre nom.
Le lien entre indice de développement humain (HDI) et islam est aussi évident. Le HDI prend en compte le niveau de vie et d’éducation. Les pays musulmans, non démocratiques sauf exception, ont un niveau de vie plus faible (on peut imaginer que l’Islam joue un rôle) et un niveau d’éducation faible (il est certain que l’Islam joue un rôle). Là aussi, ce que les auteurs observent, à travers cette deuxième variable, c’est très largement l’Islam.
Qu’auraient dû faire les auteurs ?
La technique de base à utiliser pour ce genre d’analyse est non pas l’impact des variables sur la variance, comme l’ont fait les auteurs mais une analyse en composantes principales (ACP). Une telle analyse, couplée à des techniques de regroupement des variables redondantes (grâce par exemple à une « matrice des corrélations » ou à un « cercle des corrélations »), d’élimination des critères non pertinents et éventuellement de clusterisation permettrait d’obtenir une idée réellement objective de l’impact de l’Islam sur le sexisme et de la quantifier.
Elle conclurait évidemment que l’impact de l’Islam est extrêmement fort, une simple lecture attentive des données, telle que celle que j’ai faite plus haut, suffit à s’en convaincre. Il faut sans doute être sociologue universitaire pour ne pas faire le lien.
Pourquoi donc Denise Bombardier arrive-t-elle, sans utilisation d’aucun modèle, à de meilleures conclusions que les savants auteurs de The Conversation ?
Parce que
Billets associés :« Ceux qui n’ont aucune science sont dans une situation meilleure, et supérieure, par leur prudence naturelle, que ceux qui, en raisonnant de travers ou en faisant confiance à ceux qui raisonnent faussement, parviennent à des règles générales fausses et absurdes »
(Thomas Hobbes, Leviathan, chapitre 5 « De la raison et de la science »).
- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
- Une discussion intéressante (enfin !) sur Twitter
- L’esprit perdu de l’article 28 de la loi de 1905
- Ci-gît le progressisme [1633-2020]
- Non, Mr McAuley, vous n’avez pas compris l’idéal français.
Vaccin ARN: ne recommençons pas le coup du Thomson T07 3 janvier 2021
Par Thierry Klein dans : Speechi.Lu 1 938 fois | ajouter un commentaire
Au début des années 80, l’Education nationale a décidé d’équiper les écoles en ordinateurs dans le cadre du plan « Informatique pour tous ». Il y avait 2 choix possibles: l’Apple II, un ordinateur personnel révolutionnaire et le Thomson T07, matériel dépassé, inutile, dont l’unique avantage était d’être français. Et bien entendu, « soucieux des intérêts industriels nationaux », le Ministre a décidé d’équiper les écoles en Thomson T07.
Une chance inestimable s’était envolée. On aurait pu donner à une génération d’élèves français le goût de l’informatique et certains, apprenant à programmer sur un matériel « état de l’art » auraient dans doute participé à la création d’une industrie nouvelle dont personne n’envisageait alors l’ampleur qu’elle allait prendre. Au-lieu de ça, on a dégoûté les élèves, les professeurs et on a vite rangé les ordis Thomson dans les placards. Ils n’en sont jamais ressortis. On n’a même pas sauvé, évidemment, l’industrie française des ordinateurs, qui a disparu corps et âmes quelques années plus tard.
Mon père s’était intéressé à l’informatique. J’avais eu la chance rare en France, bien avant le bac d’avoir un Apple II à la maison. J’avais appris à programmer dessus et je me souviens encore de ce livre extraordinaire, « La programmation du 6502« , écrit par un Centralien émigré aux USA, Rodnay Zaks, avec qui j’ai eu la chance d’échanger des dizaines d’années plus tard. J’avais vu qu’il avait fait un Master en Informatique à Berkeley et dès la classe de première, j’avais envie de partir étudier l’informatique aux Etats-Unis. J’ai obtenu mon Master en Computer Science américain en 1990 (non pas à Berkeley mais à Stanford).
A Stanford, plus de la moitié des étudiants en Master d’informatique (nous devions être une centaine en Master, dont seulement 2 français) avaient eu accès à un Apple II dans leurs études secondaires. Cette proportion extraordinaire montre bien la dynamique qu’a pu avoir cet ordinateur, les vocations qui ont été créées et l’opportunité que l’Education Nationale a ratée. En croyant, à court terme, privilégier les intérêts français, elle a de fait contribué à la nullité française en informatique et nous a empêché de créer notre industrie.
Aujourd’hui, je vois la Ministre de l’Enseignement Supérieur et de la Recherche faire la même erreur, avec le vaccin ARN, que celle que nous avons faite en 1980 avec l’Apple II. Il s’agit d’attendre « le bon vaccin » (entendez le vaccin français, celui de Sanofi).
Mais Sanofi connaît probablement sa faiblesse en la matière depuis le début. Comment expliquer, sinon, qu’un industriel choisisse deux stratégies de développement différentes, montrant ainsi qu’il n’a confiance en aucune ? On n’enfonce pas une porte avec deux béliers de petite taille mais avec un gros bélier, dans lequel on a mis tous ses moyens.
Non seulement donc ce choix industriel ne rendra pas Sanofi compétitif mais des vies seront en outre perdues, ce qui est évidemment une conséquence encore plus grave qu’un simple retard industriel. Pour paraphraser Churchill: « Vous avez voulu sauver votre industrie au détriment de vies ? Vous perdrez et votre industrie et les vies. »
En outre, nous ne nous donnons pas les moyens de regagner notre retard technologique, au contraire nous allons le creuser. Pourquoi ?
La mise au point de nouveau vaccin ARN, même si elle ne s’est pas faite en France, constitue une avancée aussi importante que la découverte du vaccin contre la variole ou de la pénicilline. Aujourd’hui, il s’agit d’une prouesse technique mais la technologie de conception étant de nature logicielle, il sera de plus en plus facile – et rapide – de développer de tels vaccins.
Ceux qui maîtrisent ce logiciel ont réussi à développer le vaccin avec une rapidité jamais vue jusqu’à présent, mais dans quelques années, ce travail ne sera plus une question de mois ou d’années, mais d’heures ou de jours. C’est simplement une nouvelle manifestation de la pénétration de la révolution numérique et du pouvoir universel du software dans des sciences fondamentales telles que la biologie (l’autre exemple important étant Crispr, lui aussi de nature logicielle).
Ce vaccin est en fait le premier vaccin numérique.
Plutôt que de retarder son utilisation, le Ministre de l’Education Nationale, la Ministre de l’Enseignement supérieur, devraient veiller à ce que les principes fondamentaux de ce vaccin, qui ne sont pas si complexes, comme je l’ai développé ici dans un billet « Nature is code », soient expliqués dès l’année prochaine à tous les élèves de Terminale. Il faudrait pour ceci remettre la biologie dans le tronc commun des élèves, qu’elle n’aurait jamais dû quitter. Et si l’on n’a pas le temps de bien aborder la génétique, qu’on débarrasse la biologie de tout le prêchi-prêcha écologiste qu’on impose à nos élèves dès le primaire. Crispr, le vaccin ARN, valent bien quelques pensums sur la biodiversité et sur les éoliennes.
Qu’on permette aussi aux étudiants qui ont choisi informatique de faire le lien. On peut introduire des TP basés sur Crispr ou sur le vaccin ARN dès la spécialité informatique de Terminale, au pire en licence ou en classes préparatoires.
Nous avons raté cette découverte. Au lieu de faire un calcul d’épicier, on ferait mieux de donner à la génération qui vient l’envie et le savoir pour en faire de nouvelles.
Billets associés :- “Nature is code” : un message d’espoir pour 2021
- Grandeur et faiblesses de l’enseignement de spécialité informatique en classe de première : une analyse critique
- Que signifie la création d’un CAPES informatique ?
- L’Open Source est-il de gauche ?
- Dialogue en faveur de l’évaluation
“Nature is code” : un message d’espoir pour 2021 31 décembre 2020
Par Thierry Klein dans : Speechi.Lu 6 fois | ajouter un commentaire
En cette fin d’année 2020, il est difficile d’envoyer des vœux positifs. Le COVID a tué environ 1 personne sur 1000 en France et aux Etats-Unis (série en cours) ; la crise économique qui s’annonce risque d’avoir des conséquences directes ou indirectes encore plus graves – souvenons-nous de la crise de 1929 et de ses conséquences, en particulier la 2ème guerre mondiale.
Je voudrais pour ma part revenir sur l’immense espoir que représente la mise au point du vaccin ARN pour l’avenir. Ce vaccin a été développé et mis au point en moins d’un an, ce qui constitue une prouesse technique sans égal. Mais cette prouesse en annonce bien d’autres car la raison de cette rapidité de développement est la suivante : le vaccin ARN mis au point par Pfizer est le premier vaccin numérique. La technologie de conception étant de nature logicielle, il sera de plus en plus facile – et rapide – de développer de tels vaccins.
Le vaccin est structuré comme un code informatique. Quand vous échangez des données entre systèmes informatiques, vous le faites souvent sous forme de messages, qui sont structurés ainsi :
Entête | Contenu | Fin |
---|---|---|
O1O1001 | 01001001100011010 | 111111 |
« Entête » sert par exemple à indiquer au récepteur du message qu’il s’agit bien d’un message à interpréter et qu’il s’agit par exemple de données provenant du système comptable qui lui sont bien destinées. « Contenu » contiendra l’ensemble de ces données et « Fin » lui indiquera que les données ont été transmises. Les données sont envoyées sous forme binaire (des « 0 » et des « 1 »).
La structure du vaccin ARN de Pfizer est strictement identique à ce schéma. Il s’agit ni plus ni moins d’un bout de code contenant ces éléments. La principale différence est que ces données ne sont pas de nature binaire mais quaternaire : les éléments de base sont les briques du vivant, au nombre de 4 : les bases A, C, G et U.
Faire un vaccin ARN, c’est donc concevoir un message informatique. Ce message sera ensuite synthétisé très facilement à l’aide d’imprimantes à ADN.
L’entête
L’entête du vaccin contient différentes informations de type « métadonnées » qui vont indiquer à la cellule où, quand et comment les données génétiques (le contenu du message) doivent être utilisées. Une des prouesses techniques importante pour la réalisation du vaccin est la suivante : la base « U » est remplacée par une base de synthèse nommée Ψ. Cette astuce a pour conséquence principale d’inactiver le système immunitaire. Le message ne sera pas attaqué ni détruit et pourra pénétrer dans la cellule. Ensuite, cette base Ψ est une base de synthèse, qui n’appartient pas au « monde du vivant ». Elle ne peut être synthétisée par l’organisme. Aucun virus connu ne peut l’incorporer pour se cacher. Cette molécule Ψ est donc à la fois une des clés de l’efficacité et de la sécurité du vaccin.
Le contenu du message
Le contenu du message contient environ 4 000 lettres représentant le code génétique de la protéine « Spike », caractéristique du COVID. L’ARN ayant pénétré dans la cellule, la protéine « Spike » sera ainsi générée et le système immunitaire commencera à produire des anti-corps permettant à l’organisme de détruire le COVID 19, qui expose cette molécule. C’est le mécanisme classique des vaccins, à ceci près qu’ici ce n’est pas le vaccin affaibli qui est introduit dans l’organisme, mais sa signature (la protéine Spike).
Là aussi, je passe rapidement sur les prouesses techniques. Pour augmenter le rendement du vaccin, pour optimiser la façon dont la protéine va se configurer, on modifie astucieusement quelques lettres du code génétique. Le vaccin de Pfizer ne fait pas que reproduire la nature, il est plus efficace que la nature.
La fin du message
La fin du message est une répétition de termes, de type « FINFINFINFIN… » qui se dégrade au fur et à mesure que l’ARN est utilisé. Au bout de quelques dizaines d’utilisation, l’ARN est dégradé et sera détruit.
Prouesses technologiques mises à part, que constate-t-on ?
L’entête et la queue du message sont essentiellement des constantes. Ils sont à peu de choses près réutilisables pour tout vaccin.
Les données internes du message contiennent l’information du vaccin, son « contenu ». Il suffit pour obtenir celui-ci d’analyser la molécule et un de ses éléments caractéristiques, puis de synthétiser le tout via une imprimante ADN par exemple.
Ceux qui maîtrisent ce processus logiciel ont réussi à développer le vaccin avec une rapidité jamais vue jusqu’à présent, mais dans quelques années, ce travail ne sera plus une question de mois ou d’années, mais d’heures ou de jours. On le réalisera sans doute intégralement à l’aide d’un simple ordinateur relié à l’imprimante ADN. La partie la plus longue sera alors la validation du vaccin (vérification de l’efficacité et surtout essais cliniques de phase 1, 2 et 3).
Nous assistons ici, tout simplement, à une nouvelle manifestation de la pénétration de la révolution numérique et du pouvoir universel du software dans des sciences fondamentales telles que la chimie (voir un précédent billet) ou ici la biologie (l’autre exemple important en biologie étant Crispr, lui aussi de nature logicielle). Ce vaccin est le premier d’une longue série, qui permettront de générer à volonté de nouveaux vaccins de façon très rapide, avec une très grande souplesse et à un coût très réduit. Les GAFAM nous ont appris à notre détriment, selon l’heureuse expression de Lawrence Lessig, que « Code is law ». Avec ce vaccin, nous constatons que « Nature is Code» et c’est une excellente nouvelle pour l’avenir de l’humanité.
Dans nos écoles Algora, nous essayons depuis 2017 de faire comprendre aux enfants, et aujourd’hui aux adultes, toutes les conséquences de cette révolution numérique. Nous abordons tous les sujets: automatisation, intelligence artificielle et compréhension de la nature.
Voici le vrai message d’espoir qui nous vient de l’année 2020.
Meilleurs vœux à tous
Billets associés :- Vaccin ARN: ne recommençons pas le coup du Thomson T07
- Les conséquences sociales des évaluations sur les enseignants et sur la liberté pédagogique
- Pourquoi il s’est trompé : la vérité sur l’affaire Bourdieu
- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
- Interview : six questions sur le Capital Altruiste
Non, Mr McAuley, vous n’avez pas compris l’idéal français. 11 décembre 2020
Par Thierry Klein dans : Politique.Lu 2 214 fois | 2 commentaires
(En réponse à la tribune sur la laïcité de James McAuley, journaliste au Washington Post, publiée dans le Monde du 5 décembre dernier).
Pour comprendre la différence fondamentale de perspective entre la France et l’Amérique vis-à-vis des religions, il faut se souvenir que les Etats-Unis ont été fondés par des bigots persécutés, qui ont avant tout cherché à ce que cette situation ne se reproduise jamais sur le sol américain.
Aux Etats-Unis, la religion est au centre, sur les billets de banque mêmes, et toutes les religions sont également favorisées. Votre pays est religieux par défaut.
Au contraire, les français ont cherché avant tout à se protéger contre les excès d’une religion dominante et omniprésente, le catholicisme. Cette lutte contre l’emprise politique du catholicisme, achevée par la république en 1905 avec la laïcité, avait été initiée sous la royauté, au moins depuis Philippe le Bel. La position française est une position de méfiance envers les excès des religions et bien qu’une communication politique malheureuse et récente, que vous reprenez James McAuley, l’affadisse en la réduisant à « la liberté de croire et de ne pas croire », l’article réellement révolutionnaire du texte, dont tout l’esprit de la laïcité découle, est bien l’article 2 qui précise que « la République ne reconnaît aucun culte ».
Ainsi, les religions ont en France le simple statut de superstitions tolérées. Comme la notion de culte n’est pas reconnue, la notion de blasphème ne peut l’être. Blesser un croyant en critiquant son culte n’a pas non plus de sens légal.
En France, la religion est à la périphérie et toutes les religions sont également déconsidérées. Mon pays est agnostique par défaut, voire athée. Je chéris ce principe d’un pays débarrassé de l’omniprésence religieuse. Je n’échangerais pour rien au monde cette position avec la position américaine. Avec l’arrogance française qui me caractérise, je pense que notre perspective, découlant directement de l’esprit des Lumières, est philosophiquement supérieure.
En temps normal, les différences concrètes entre ces deux positions sont minimes, presque folkloriques. Chaque français apprend ainsi avec étonnement, grâce à Jules Ferry ou grâce à Hollywood, que les témoins d’un procès sont tenus au Etats-Unis de jurer sur la Bible. Mais le plus important, de part et d’autre de l’Atlantique, reste l’égalité de traitement des religions et la liberté de croyance, qui garantit le bonheur de tous les citoyens des deux côtés de l’Atlantique : ceux qui croient au ciel et ceux qui n’y croient pas.
Le discours français sur l’universalisme, contrairement à ce que vous pensez, Mr Mc Auley, a toujours été dur et même parfois très violent. C’est la loi de 1905 qui de fait met fin à la persécution des religieux catholiques en France. Auparavant, Napoléon avait intégré les juifs en tant que citoyens français en leur imposant de façon très ferme la primauté des lois françaises. En particulier, les juifs devaient admettre le principe du mariage mixte, de la monogamie, et regarder leur France comme leur patrie. Trois points qui, l’actualité récente l’a montré, posent encore problème aujourd’hui à beaucoup de musulmans.
Des débats parlementaires en 1905, il se dégage que les députés, enfants de Marx, avaient compris remarquablement tôt que l’emprise politique de la religion repose entre autres sur l’omniprésence, en quelque sorte publicitaire, du signe religieux. Ils ont cherché par tous les moyens à limiter ces signes. Toute religion visible dans l’espace public est susceptible de peser socialement sur les individus, de nuire à leur liberté de conscience ainsi qu’à la séparation du religieux et du politique. L’article 28, visant évidemment la religion catholique, est une mesure de prophylaxie radicale à cet égard. Il interdit « d’élever ou d’apposer aucun signe ou emblème religieux sur les monuments publics ou en quelque emplacement public que ce soit […] ». Ainsi, les français n’ont pas été aussi loin que les talibans, ils n’ont pas détruit leurs monuments religieux, mais ils se sont arrêtés juste avant le fanatisme en empêchant l’édification de nouveaux signes religieux. L’article 28 permet de bien sentir en quoi la position française de bornage strict du domaine religieux est radicalement différente de la position américaine, qui est une position de bienveillance envers la religion.
Dans cet esprit, il paraît tout à fait naturel que lorsqu’une nouvelle religion apparaît sur le sol français, les « laïcards », dans l’esprit de la loi de 1905, cherchent à limiter cette visibilité et à contraindre cette religion à se soumettre à l’esprit de la loi. Or l’Islam est une religion devenue aujourd’hui hyper visible dans l’espace public – ne serait-ce que par le port du voile. Pour les laïcards, il ne s’agit donc pas de pointer du doigt l’Islam mais simplement de lui imposer un traitement comparable à celui qu’ont connu les autres grandes religions. Car même si le législateur de 1905 a cherché à être universel dans son principe, il ne pouvait prévoir la force que prendrait l’Islam en 2020 sur le sol français.
Le plus étonnant, en fait, c’est que les laïcards aient pu se diviser sur cette question. Comment des hommes de gauche, et souvent d’extrême gauche, ont-ils pu oublier que la religion était « l’opium du peuple » – au point de laisser un temps à la droite le monopole de la défense de la laïcité ? J’ai longuement réfléchi à cette question et je propose ici une explication, qui éclairera aussi à mon sens le terme « islamo-gauchisme » que James McAuley juge flou et « aux connotations historiques sinistres » (cherchant ainsi, de façon rhétorique à diaboliser l’expression en faisant référence au terme raciste « judéo-bolchevisme », largement utilisé par les nazis).
La loi de 1905 est effectivement une loi de tolérance mais beaucoup à gauche n’y ont vu qu’une façon de lutter contre l’influence de l’Eglise catholique, église honnie en tant que symbole bourgeois, colonial, réactionnaire, etc. On les croyait laïcards universels mais ils n’étaient que des bouffeurs de curés intolérants et la laïcité servait d’alibi à leur intolérance. Ils n’ont eu aucun problème pour laisser tomber les principes laïcs car ils n’en avaient pas. L’Islam a été vue comme la religion des défavorisés, des victimes du colonialisme et comme une force d’opposition à l’église catholique.
Les représentants de l’Islam politique ont utilisé cette sensibilité avec habileté pour entrer dans le sein des partis de gauche – là est l’origine et la signification profonde du terme « islamo-gauchisme » qui ne fait nullement référence aux musulmans dans leur ensemble mais évidemment uniquement à l’Islam politique, à l’Islamisme. Il faut évidemment le distinguer du terme « judéo-bolchevisme », qui faisait référence aux juifs en tant que personnes. Et la confusion entre Islam et Islamisme, c’est donc vous, James McAuley qui la faites en introduisant cette comparaison. Vous qui la faites en utilisant par exemple le terme « islamophobie » dans de nombreux articles, alors que ce terme entretient la confusion entre ceux qui luttent contre l’influence politique de l’Islam, forme d’anti-cléricalisme parfaitement dans la tradition laïque française et ceux qui veulent s’en prendre aux musulmans, discrimination raciste totalement contraire à l’idéal universel de la France. Vous qui la faites encore en qualifiant d’organisations « musulmanes » le CCIF et Baraka City, alors que ce sont des organisations islamistes, jouant elles aussi abondamment sur l’ambigüité du terme « islamophobie » pour essentialiser tous les musulmans.
Contrairement à ce que vous affirmez, la projection des caricatures sur les murs ne viole en rien la neutralité de l’Etat. Les cultes n’étant pas reconnus, les caricatures ne sont pas projetées en référence à une religion, mais en tant que symboles de la liberté d’expression. Projeter ces caricatures ne signifie même pas qu’on soit en accord avec leur contenu – pour ma part, je trouve qu’elles sont médiocres. Cela signifie simplement, selon le mot de Voltaire, que même si nous ne sommes pas d’accord avec le contenu des caricatures, nous nous battrons jusqu’à la mort pour qu’elles puissent exister.
Comme vous l’écrivez, il existe une composante universaliste admirable au sein des trois grandes religions du Livre. Cet idéal universaliste n’est en rien mis en danger par la laïcité. C’est uniquement la composante sectaire, obscurantiste, superstitieuse que nous, les « laïcards », combattons lorsque, devenant visible, publique, omniprésente, elle fait peser, comme l’écrit Tocqueville, français qui avait compris l’Amérique mieux que vous n’avez compris la France, « une immense pression de l’esprit de tous sur l’intelligence de chacun ».
Billets associés :- L’esprit perdu de l’article 28 de la loi de 1905
- René Girard, Kundera, Galilée et le Progrès : l’avenir imprévu d’une illusion
- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
- René Girard : l’avenir imprévu d’une illusion
- Ci-gît le progressisme [1633-2020]
Une discussion intéressante (enfin !) sur Twitter 24 septembre 2020
Par Thierry Klein dans : Covid-19.Lu 3 178 fois | ajouter un commentaire
Au début du confinement, j’ai ouvert un compte perso « pour voir » sur Twitter. Les discussions Twitter sont, en règle générale, incroyablement peu intéressantes (90% des gens en ont conscience et donc se masquent derrière un pseudo) et incroyablement addictives (sans doute à cause du format court des tweets, qui entraine des échanges sans fin).
J’ai eu ma première conversation intéressante le week-end dernier, et elle a tourné autour d’une étude réalisée à l’IHU Marseille sur le traitement hydroxychloroquine (HCQ) / Azithromycine (AZI), traitement dont j’ai beaucoup parlé dans ce blog. La discussion touche à des problèmes de fond sur la méthodologie des études, la façon dont on doit analyser cette méthodologie et la façon dont se crée l’opinion. Raisons pour lesquelles j’en parle ici.
Dans cette étude (lien), 3737 patients ont été traités selon le schéma ci-dessous. Le point discuté sur Twitter concerne les 218 patients qui ont reçu HCQ moins de 3 jours.
Pourquoi les auteurs font-ils un groupe séparé avec ces 218 patients ? Parce que HCQ est un médicament réputé pour ne pas pouvoir agir en moins de 3 jours. Les patients ayant reçu HCQ pendant moins de 3 jours n’ont donc pas pu, selon les auteurs, bénéficier du moindre effet positif lié à ce soin. Par ailleurs, ces patients pèsent beaucoup (négativement) sur les statistiques de guérison. En effet, si le traitement HCQ a été interrompu, c’est soit que les patients sont morts, soit que leur état s’est aggravé et que le médecin a estimé que HCQ devenait contre-productif (HCQ semble effectivement devenir contre-indiqué lorsque le COVID franchit un certain stade), soit qu’une comorbité quelconque est apparue. De fait, le % d’hospitalisation de ces patients est 3 fois plus élevé que dans le groupe ayant reçu le traitement de base.
Dans leur traitement statistique, les auteurs ont alors comparé le groupe de test (3119 patients traités avec HCQ + AZI) aux autres groupes (parmi lesquels les 218 patients traités moins de 3 jours). Ceci a généré une levée de boucliers dont Twitter est friand. Les principales accusations envers les auteurs (autrement dit Raoult) sont la fraude, l’incompétence.
Pour ma part, j’avais rapidement lu cette étude lors de sa sortie et cela ne m’avait pas choqué. J’avais effectivement pensé que la méthode était certes optimiste, mais qu’on ne pouvait cependant pas imputer au débit d’un traitement qui n’agit qu’après 3 jours les conséquences cliniques négatives constatées sur des gens qui ne l’ont reçu que moins de 3 jours. Pour pouvoir raisonner ainsi, il faut évidemment supposer que le traitement est aussi sans danger – ce que les auteurs supposaient à l’époque et ce qui a largement été confirmé depuis lors.
Mais lors des discussions, ce qui était reproché à Raoult n’était pas seulement d’avoir « séparé » ce groupe critique du groupe de traitement dans les calculs, mais de l’avoir, « en plus » reversé dans le groupe « other treatments » sans avoir « fait de même » dans le groupe « others treatments »
(A noter que je ne sais pas très bien ce que signifie « faire de même » dans le groupe « others ». Je pense que Pierre Prot, l’auteur du tweet veut dire qu’il enlèverait du groupe « others » tous les événements négatifs (hospitalisation et décès) observés durant les 3 premiers jours. Mais un tel retraitement ne serait pas « faire de même ». En effet, les patients ôtés du groupe HCQ/AZI > 3 jours n’ont pas tous été hospitalisés (seuls 40% l’ont été) et encore moins hospitalisés dans les 3 premiers jours. Pierre Prot cherche donc à rétablir une sorte d’équilibre, de « justice », mais échoue à le faire.)
Et là, Pierre Prot m’envoie cet exemple, que je trouve très intéressant, pour montrer que la méthode utilisée est « pourrie » (et frauduleuse selon lui). Dans le traitement ci-dessous, HCQ et Placebo ont exactement les mêmes résultats, pourtant avec la méthode appliquée par les auteurs de l’IHU, on conclut à la supériorité de HCQ > 3 j
Thibaut m’indique, à juste titre, qu’avec cette méthode, on peut prouver l’importe quoi.
Pierre en rajoute et m’envoie un dernier argument qui ne manque pas de sens:
Ca montre bien sûr, en plus, ma nullité et même mon aveuglement volontaire. Tous ceux qui pensent (1) que HCQ fonctionne ont un jour ou l’autre ont été traités de croyants désespérés, recherchant à tout prix le réconfort dans un espoir illusoire, sur Twitter. C’est un argument qui rassure celui qui le tient sur son objectivité sans faille, sa grande capacité à affronter lucidement le malheur.
Et finalement, Lebon confirme cette position.
Et Lebon, pour moi, est vraiment un bon. Au début, quand il donnait des infos ou communiquait des analyses, je les vérifiais, mais après avoir vérifié une dizaine de fois, j’ai arrêté. Lebon est beaucoup plus compétent que moi et va beaucoup plus loin dans l’analyse statistique des études, donc je lui fais confiance.
Et donc j’étais quasi-convaincu à ce moment que le traitement était illégitime. Je l’aurais probablement admis, dans un grand moment de solitude, si j’avais été sur un plateau télé, mais là, c’était Twitter, il était tard et je suis parti me coucher, suivant pour une fois le sage (mais intéressé) conseil que me donnait Pierre Prot.
J’y ai repensé le lendemain, et encore ce soir, et je pense que finalement j’ai raison dans cette discussion. Je voudrais m’en servir pour expliquer l’angle qu’il faut avoir quand, non spécialiste d’un domaine, on essaie de comprendre l’approche qu’a pu avoir un spécialiste. Il y a 3 principes à mon avis fondamentaux à respecter :
- essayer de comprendre la logique du spécialiste, se mettre à sa place
- réfléchir avec bienveillance, ne pas supposer le spécialiste fraudeur
- réfléchir avec confiance, ne pas supposer le spécialiste mauvais
Ces principes sont à l’exact opposé de ce que le mouvement « pro-science » (je mets ce terme entre guillemets car je suis moi-même profondément pro-science, mais totalement opposé à ce mouvement, qui se nomme aussi #noFakeMed sur Twitter) applique. Pour les #noFakeMeds:
- Raoult ne respecte pas la sacro-sainte méthodologie et c’est inadmissible (alors que la bonne attitude est d’essayer de comprendre pourquoi il ne la respecte pas, cette dernière question est nettement plus fructueuse, voir ci-dessous)
- Raoult est un fraudeur a priori
- Il est mauvais et donc on ne lui reconnaît aucune autorité
La logique de cette étude
La priorité de Raoult est médicale. Raoult a mis en place un protocole de soin et décrit principalement la gestion clinique des patients, le but ayant été d’en sauver le plus possible. La priorité n’était pas de rapporter des données, mais de sauver des patients. Les données issues de l’étude viennent en plus, « par surcroît ». Cette logique est totalement différente d’une étude randomisée avec placebo, par exemple, où le but est d’obtenir une preuve fiable, même si cela occasionne des événements négatifs, pouvant aller jusqu’à la mort, pour certains patients.
Il faut imaginer les médecins de l’IHU prescrivant a priori à tous les malades possibles leur traitement « de référence » (HCQ / AZI) et n’excluant que les malades pour lesquels ce traitement était contre-indiqué. En parallèle sont récoltées les données, qui ne sont pas le but principal de l’opération. Le but principal est le soin. Puis on regardera les données.
Imaginons alors qu’un médecin regarde les données obtenues après coup et imaginons de plus que ce médecin n’appartienne pas à l’IHU et dispose d’un testeur miracle, lui permettant de voir si le malade a reçu de l’HCQ pendant plus de 3 jours ou pas (je rappelle qu’on suppose que HCQ pendant une durée < 3 j n’a absolument aucun effet thérapeutique). Ce médecin est tout à fait fondé à séparer des autres tous les malades ayant reçu le traitement plus de 3 jours, du fait qu’il aura un point de vue rétrospectif. Peu lui importe pourquoi tel ou tel malade n’a pas reçu le traitement, le fait est qu’il ne l’a pas reçu. Et justement, on nous indique dès le départ que cette étude est une étude rétrospective, les termes n’ont pas été choisis au hasard.
S’il s’agissait d’un essai clinique (par exemple double aveugle randomisé), il serait bien sûr absolument injustifiable de définir de tels groupes et de les changer « en cours de route ». Mais ici, le but des auteurs est simplement de décrire leur protocole de soin de façon rétrospective. Les conclusions de l’étude ne font d’ailleurs qu’une place très réduite à l’HCQ, et aucune statistique n’est donnée; c’est avant tout le protocole de soin complet qu’on a cherché à valider.
La perversité médicale d’un retraitement différent
Le but de ce traitement statistique n’est donc pas de fournir une donnée dont on pourrait se servir pour quantifier le taux de mortalité un d’hospitalisation d’un échantillon de personnes traitées à l’HCQ / AZI. A aucun moment les auteurs ne prétendent calculer ceci. S’ils avaient procédé autrement, en cherchant à optimiser la performance statistique du traitement sans ce retraitement, les effets auraient été potentiellement pervers pour les malades. En effet, les médecins auraient pu avoir tendance à exclure certains patients « par précaution ». Ainsi, peut-être y a-t-il eu 500 patients « tangents » (auxquels on hésitait à donner le traitement ), dont 218 finalement exclus. Mais les 282 qui restent ont eu accès au traitement. Alors que si on avait dit aux médecins que cela aurait un impact négatif sur les statistiques de l’étude, ils auraient peut être exclu 500 patients. Et eu plus de morts sur la série totale.
La fraude des auteurs
Et donc, non seulement je ne suppose pas la fraude, mais le traitement statistique proposé ne me paraît pas illégitime. Au contraire, il y a un grand bon sens à avoir procédé ainsi mais il s’agit d’un bon sens médical, qui sauve des vies, qui n’a rien à voir avec le « bon sens » un peu fou des partisans de l’essai randomisé en double aveugle qui tue des patients, avec l’espoir très incertain d’en sauver ensuite. La discussion à laquelle j’ai participé sur Twitter n’est qu’un symptôme de plus du délire méthodologique et de l’importance prise par les essais randomisés: même quand on est en dehors de ce cadre, on tend à appliquer aux études le traitement « standard ».
Raoult est-il un mauvais ?
Pour que cette analyse ait le moindre sens il faut quand même admettre au moins 2 choses:
- HCQ / AZI ne présente aucun danger dans le cadre médical où il a été prescrit
- HCQ a besoin d’être donné au moins 3 jours pour avoir le moindre effet
Le point 1 a fait l’objet d’une désinformation énorme depuis mars puisque tous les #noFakeMeds ont cru – et fait croire – que HCQ était un médicament dangereux. Ce faisant, ils ont gravement nui toutes les études ayant confirmé l’innocuité du traitement Raoult avec le suivi qu’il a préconisé. Critique qui, sauf à être meilleur que lui en la matière, manquait totalement de bon sens, compte tenu de l’expérience de Raoult avec l’HCQ. Il faut reconnaître l’autorité quand elle existe, c’est un gain de temps.
Et donc pour les mêmes raisons, je fais confiance sur le point 2. Non pas aveuglément, mais jusqu’à avoir la preuve du contraire, je ne vais pas chercher à critiquer Raoult sur ce point. Pour le faire, je dois être spécialiste or je ne le suis pas.
Pour conclure ce papier assez long, je tiens à signaler que tout ce travail a sans doute été fait presqu’instinctivement, très rapidement par les auteurs, qui ont l’habitude de publier de telles études. C’est simplement le fait de « redécouvrir les principes » qui demande un peu de réflexion. Je comprends que les auteurs en aient marre de devoir expliquer leurs positions à des non spécialistes, qui ne font aucun effort pour les comprendre, les prennent pour des fraudeurs et des mauvais – alors que leur niveau est nettement inférieur aux leurs. En fait, les auteurs doivent être stupéfaits des réactions que leurs papiers engendrent.
Quand aux #noFakeMeds, ils mettront tout ce billet sur le compte de mon endoctrinement et de mon refus d’ouvrir les yeux.
(ajout) Une petite expérience sophiste
Pour finir une petite expérience.
Sur un cercle de 10 m de périmètre, 200 conducteurs malades au départ (parce qu’ils sont un temps de réaction de 2 seconde, alors qu’un conducteur sain à un temps de réaction de 1 s) roulent à 1 m/s. 100 ont été traités avec du placebo (P), 100 avec un traitement ayant une efficacité de 100% (S). La distance de freinage nécessaire pour qu’une voiture s’arrête ) partir du moment où le conducteur freine est de 0,5 m, la vitesse de la voiture étant constante jusqu’au dernier moment.
A un moment, un mur jaillit et leur coupe la route. Tous ceux qui touchent le mur meurent. On compte les morts.
T = 1 s P = 10 S=10
T=2 s P=10 S=5
T=3 s P=5 S=0
Si je décide d’enlever la ligne 1, le traitement semble deux fois plus efficace que le Placebo. En réalité, par hypothèse, le traitement est efficace à 100%.
Or d’après
Donc la méthode de Pierre Prot est viciée.
(1) Aujourd’hui, on peut dire « tout ceux qui savent ». Les études confirmant l’efficacité des traitements HCQ, complétés par AZI et/ou Zn, donnés au plus tôt, à un stade modéré de la maladie tombent presque chaque jour.
Billets associés :- Grandeur et failles de l’étude Lancet
- L’idolâtrie du protocole
- Ci-gît le progressisme [1633-2020]
- « Je ne suis pas Dr House, mais… »
- Elon Musk et Twitter: vers la création du 1er réseau social conservateur
Progressisme et obscurantisme 15 juin 2020
Par Thierry Klein dans : Covid-19.Lu 1 690 fois | ajouter un commentaire
Quand on croit que l’instruction se résume à la transmission de « codes » servant inconsciemment la reproduction sociale (Bourdieu), il est alors facile de croire que la science ne repose que sur des règles formelles, partagées par les « experts » (ceux qui ont les fameux codes) et dont le consensus forme la vérité. On est alors à 2 doigts déjà de croire que la science n’est qu’une « méthode ». De confondre le respect des règles et du protocole avec la vérité. On a une vision formelle, presque militaire de la science.
En vérité, une telle opinion est un abaissement de la notion même de science et de vérité. L’obscurantisme est inscrit dans le progressisme moderne (j’appelle ainsi la déconstruction), alors qu’il se pense scientifique.
Billets associés :- Pourquoi il s’est trompé : la vérité sur l’affaire Bourdieu
- De Rawls à Macron, en passant par l’école. De quoi le social-libéralisme est-il le nom ?
- L’e-learning et le goût du RISC / E-learning and the taste for RISC
- Ci-gît le progressisme [1633-2020]
- Marie Drucker peut-elle, déontologiquement, coucher avec Béatrice Schönberg ?
Les essais randomisés ne sont pas la panacée pendant les épidémies
Par Thierry Klein dans : Covid-19.Lu 1 725 fois | ajouter un commentaire
Un petit papier de l’IHU Marseille avec un exemple historique intéressant :
5 patients ont prouvé au départ l’efficacité de la pénicilline.
« Quand même des données scientifiques imparfaites montrent un effet positif trivialement évident (« obvious »), il n’est pas éthique de réaliser un essai randomisé parce qu’il met les malades devant l’alternative de ne pas être soignés (groupe de contrôle) ou d’être soignés avec une molécule efficace.
Il a fallu 5 patients à Sir Edward Abraham pour démontrer définitivement que la pénicilline sauvait 100% des patients atteints de staphylocoque ou de streptocoque.
Aujourd’hui,il ne viendrait évidemment à l’idée de personne de tester l’efficacité de la pénicilline sur les pneumonies à pneumocoque contre un placebo. »
Le choix de cet exemple n’est pas anodin. Pour rappel, Raoult s’est décidé sur 6 patients pour sa bithérapie, patients pour lesquels il a observé une annulation de la Charge Virale en 5 jours, événement au départ improbable puisque cette CV est censée mettre 10 à 15 j pour s’annuler sans traitement.
Je rappelle que si on prend un dé, tomber sur le 6 est un événement improbable qui a 17% de chances de se réaliser. Si vous lancez 6 fois un dé, il y a 1 chance / 47 000 qu’il tombe 6 fois de suite sur le 6.
Si cela se passe et que vous êtes un scientifique digne de ce nom, vous DEVEZ conjecturer que le dé est pipé. Dans le cas de Raoult, même chose. Il DEVAIT conjecturer un lien entre sa bithérapie et la baisse observée de la CV, tenter de soigner sur cette base tout en confirmant expérimentalement son observation initiale « au fil de l’eau ». Je ne peux même pas comprendre comment, en raison, ceci peut lui être reproché.
Billets associés :- Grandeur et failles de l’étude Lancet
- Une discussion intéressante (enfin !) sur Twitter
- « Je ne suis pas Dr House, mais… »
- Ci-gît le progressisme [1633-2020]
- L’idolâtrie du protocole