Jacques Chevalier le désinformateur

En 2008, j'ai écrit un livre sur la désinformation dans le domaine de l'accidentologie intitulé : "Insécurité routière - des mensonges qui tuent". Il a été publié dans la collection Sciences du risque et du danger - éditions Lavoisier. Il est important dans un domaine aussi banalisé que la sécurité routière de faire la différence entre :

Ce livre avait pour particularité de ne pas se contenter de décrire des incompréhensions ou des erreurs liées à des déficits de connaissance, mais de mettre en évidence une désinformation assumée dans des écrits qui ne relèvent pas du journalisme, mais de la volonté de recruter des lecteurs qui trouvent dans ces écrits une justification de leur délinquance routière.Il y a un aspect passionnel dans l'usage d'une voiture ou d'une moto. Il s'agit d'un produit de l'intelligence et du savoir faire humain qui est indiscutable. J'ai travaillé pendant la quasi-totalité de ma vie de chercheur avec les constructeurs automobiles, pour contribuer à la sécurité de leurs productions et je ne l'aurais pas fait si je ne m'intéressais pas à cet instrument de liberté et de mort.

Extrait de mon livre : pages 115 à 130

La spécialisation des rôles
 
Le Figaro est à mes yeux le quotidien généraliste qui juxtapose les formes les plus opposées d’articles sur le sujet. Les uns informés et objectifs sur l’économie de l’industrie automobile, le marché du pétrole et l’évolution du climat, les autres privilégiant les  positions défendues depuis longtemps par Jacques Chevalier qui ont une double caractéristique. La première est de plaider directement pour l’acceptation de vitesses élevées sur les routes. Elle est sincère et peut être débattue si l’on reconnaît ses effets adverses. La seconde est de le faire avec des arguments très divers qui relèvent de la désinformation pure et simple. Quand il écrit en 1989 : « A quoi servent les progrès de l'automobile ? A quoi servent des anti-blocages de freins et les quatre roues motrices si c'est pour se traîner sur la route ? »  ou : « les quatre roues motrices et l'ABS, qui procurent sécurité et tranquillité d'esprit en toutes circonstances... il utilise les expressions des publicitaires qui finissent par convaincre que l’on peut obtenir « la sécurité et la tranquillité d’esprit en toutes circonstances » par des moyens techniques, ce qui est objectivement faux.
 
Je vais utiliser une page du Figaro du 27 janvier 2003 pour analyser les procédés exploités pour affirmer les stéréotypes les plus destructeurs. Le sujet traité est le risque d’accidents sur les autoroutes. L’actualité qui le justifiait était la décision du gouvernement italien de porter à 150 km/h la vitesse maximale autorisée sur certains tronçons autoroutiers à trois voies. Il s’agissait d’une décision du gouvernement Berlusconi qui se situait dans la ligne libérale extrême, laissant l’individu plus libre de ses choix, quitte à le sanctionner ensuite quand les fautes que l’on a favorisées tuent. Ce choix est  à l’opposé de celui des sociétés plus solidaires qui tentent d’organiser la réduction des risques par des contraintes collectives strictes quand le dommage peut atteindre non seulement celui qui s’y expose, mais également les autres.
 
Cette page de plaidoyer pour la vitesse avait pour titre « Sécurité routière ; plusieurs Etats remettent en cause le rôle de la vitesse dans les accidents » Elle comprenait deux articles décrivant et interprétant les faits, signés de Gérard Nicaud, et un point de vue de Jacques Chevalier au titre provocant : « Rouler à 130, un archaïsme meurtrier », dont le premier paragraphe annonce clairement l’objectif : «C’est une antienne qui a la vie dure, et à laquelle on n’a jamais tordu le cou « la vitesse tue ». En renvoyant  à l’incontournable «  ½ mv2 » qui a causé tant de cauchemars de lycéens, le rôle de la vitesse a définitivement coulé ses fondations dans des esprits cartésiens, par nature réceptifs. La vitesse, cause première des accidents, est ainsi devenue une évidence, un dogme, une image d’Epinal, une vérité incontestable, un intouchable tabou. Et une erreur majeure d’appréciation des problèmes de sécurité routière depuis 1973, date des premières limitations ». Les rôles sont partagés, Gérard Nicaud va faire l’inventaire du problème de la vitesse sur les autoroutes et Jacques Chevalier va en tirer les conséquences.
 
La première partie de l’analyse du risque sur les autoroutes utilise des données statistiques souvent inexactes exprimées dans un langage imprécis et inadapté. Elle indique que : « à populations égales, il y a plus de morts sur les autoroutes américaines où sont pratiquées des limitations de vitesse draconiennes que sur les françaises. Celles-ci se révèlent à leur tour plus accidentogènes que les allemandes où la vitesse est le plus souvent libre ». Le critère « à populations égales » n’a aucune utilité pour comparer le risque auquel on s’expose sur différents réseaux autoroutiers, la longueur et l’usage de ce type de voie n’étant pas comparables dans les trois pays. Si le réseau autoroutier est dense et très utilisé, le taux de mortalité sur autoroute par millions d’habitants sera plus élevé. A la limite de l’usage de ce critère, un pays du tiers monde avec cinq kilomètres d’autoroute entre la capitale et son aéroport sera le meilleur au monde ! L’indicateur n’est pas pertinent pour établir un classement de la circulation autoroutière sur une échelle de risque. Le bon critère est le nombre de tués par milliard de kilomètres parcourus.
 
En outre le classement indiqué est faux,  rapportée à la population, c'est-à-dire par million d’habitants, la mortalité sur les autoroutes allemandes en 2002 était plus élevée que sur les autoroutes françaises. Il y a eu cette année là 521 tués en France sur les autoroutes soit 8,76 tués par million d’habitants et 857 sur les autoroutes allemandes, soit 10,42 tués par million d’habitants. Donner la dernière place aux USA sur ce critère est également faux, ce sont les USA qui ont le taux le plus faible. L’erreur habituelle des commentateurs qui ne sont pas familiarisés avec l’accidentalité de ce pays est de prendre en considération le nombre de tués sur l’ensemble des « highways » alors que les véritables autoroutes à chaussées séparées sont les « interstate highways », qualifiées parfois de « divided highways » pour indiquer la séparation des chaussées. Une « federal highway » ou une « state highway » correspondent habituellement à notre réseau de routes nationales et de routes départementales à grande circulation qui ont une mortalité trois fois supérieure à celle d’une autoroute à chaussées séparées. Nous avons donc en cinq lignes à la fois des données fausses et une interprétation dépourvue de signification fondée sur un mauvais indicateur.
 
Le paragraphe suivant aggrave le désastre dans l’usage des concepts les plus élémentaires de l’accidentalité : «  Et si l’on combine ces données avec la densité du réseau autoroutier, les résultats sont encore plus parlants : il y a moins de deux voitures de tourisme par kilomètre aux Etats-Unis, environ trois en France et quatre en Allemagne ».  La notion de « densité du réseau autoroutier » désigne habituellement le nombre de kilomètres d’autoroutes divisé par la superficie d’un pays (km/1000 km2), ou plus rarement par la population (km/million d’habitants). Il semble s’agir ici de la désignation en termes impropres de la densité moyenne de la circulation, c'est-à-dire du nombre moyen de véhicules se trouvant simultanément sur un kilomètre d’autoroute (taux d’occupation de la chaussée). Cette variable dépend à la fois du débit de véhicules et de leur vitesse moyenne. Les spécialistes de la gestion des flux de circulation l’expriment sous la forme d’un pourcentage (proportion de la période de mesure pendant laquelle un véhicule occupe le point de mesure). Il peut y avoir 200 véhicules au pas dans un bouchon d’un kilomètre sur une autoroute à trois voies à une heure de pointe et aucun véhicule circulant au milieu de la nuit sur un kilomètre d’autoroute A16 entre Abbeville et Boulogne. La notion de « densité » est utile aux chercheurs quand ils analysent les liens entre les débits, les vitesses moyennes et les interdistances entre les véhicules. Les résultats « encore plus parlants » de la phrase de Gérard Nicaud semblent vouloir indiquer que la forte densité de circulation observée en Allemagne, et la plus faible observée aux USA, la France étant dans une situation intermédiaire, accroissent encore le mérite des autoroutes allemandes. La réalité est inverse, les fortes densités de circulation ne permettent pas une vitesse élevée. Les  interactions entre les véhicules abaissent les vitesses moyennes et finalement le risque d’accidents graves. C’est le commandant de la CRS 2 qui m’a appris cela au début des années soixante-dix. Il savait par expérience que la saturation de l’autoroute de l’ouest aux heures de pointes ne provoquait pas d’accidents graves, mais que lorsque la circulation redevenait fluide vers 22 heures le dimanche soir, il fallait que ses équipes se tiennent prêtes à intervenir.
 
Une des phrases suivantes poursuit le mélange des infrastructures et exprime une confusion complète dans la compréhension des facteurs de risque sur les routes : « Certes l’Angleterre et le Japon ont de bien meilleurs résultats encore. Mais cela est en partie dû au fait que les voitures ne peuvent pas rouler, à cause des routes étroites et des bouchons qu’elles génèrent ». Le propos est contradictoire, le risque routier s’exprimant en tués ou en blessés par milliard de kilomètres parcourus, si les voitures ne pouvaient pas rouler elles n’accumuleraient pas les kilomètres et l’on ne pourrait pas calculer cet indicateur. D’autre part une route étroite ne génère pas de bouchons si le débit est faible. C’est le nombre de voitures passant sur une voie pendant un temps donné qui va faire passer de la circulation fluide permettant d’atteindre des vitesses élevées, à une circulation ralentie par la densité des véhicules, puis au « bouchon » avec des alternances d’arrêt et de reprise de la circulation à vitesse réduite. Les gestionnaires des réseaux autoroutiers ont analysé la relation entre la vitesse des véhicules et le débit. Contrairement aux idées reçues et entretenues avec constance par les manipulateurs du concept de vitesse, la vitesse moyenne qui assure une circulation fluide, faisant passer le plus grand nombre de véhicules par heure sur une voie autoroutière, est relativement basse. Le périphérique parisien a été l’objet d’études approfondies dans ce domaine (Revue Transports Sécurité n°51 page 4). Un diagramme exprimant les débits en fonction de la vitesse montre que, sur une section à trois voies, le maximum de 6000 véhicules/heure est atteint à une vitesse se situant entre 50 et 60 km/h. Le diagramme complémentaire exprime le débit en fonction du taux d’occupation de la chaussée par les véhicules (densité). Le taux critique est très légèrement supérieur à 20% pour ce débit maximal de 6000 véhicules/heure. L’incompréhension totale par Gérard Nicaud de la signification des indicateurs qu’il utilise apparaît à nouveau en bas de page dans les commentaires sur la situation en Allemagne expliquant que : « ce pays n’a jamais limité sa vitesse sur autoroute pour ne pas gêner son industrie automobile » et que : « cette politique a parallèlement épargné des vies […],  le nombre de morts par milliard de véhicules/kilomètres (une statistique barbare qui tient compte de la densité du trafic) est de 4,5 outre-Rhin, contre 5,5 en France ». Il s’agit bien entendu de milliards de véhicules multiplié par les kilomètres parcourus et non divisé ! Cette unité n’a pas de lien direct avec la densité du trafic. Si cent mille véhicules parcourent dix mille kilomètres au Pays-Bas ou dans le Wyoming, le milliard de véhicules x km parcouru le sera avec des densités de circulation très différentes. En outre affirmer le lien de causalité entre l’absence de limitation de vitesse sur une partie des autoroutes allemandes et la différence de mortalité sur autoroute entre les deux pays est une démarche dépourvue de validité. Ce sont des détails de ce type qui expriment à la fois l’incompétence de l’auteur qui manipule des concepts qu’il ne maîtrise pas et sa volonté d’affirmer sans preuve.
 
L’article de référence décrivant l’évolution des risques sur les autoroutes des pays industrialisés a été publié dans le numéro de janvier 1995 de la revue « Strasse + Autobahn ». Les auteurs sont  Ekkehard Bruning, Susanne Berns et Andreas Schepers. Ils ont analysé l’évolution de la mortalité sur les autoroutes de 8 pays européens (dont l’Allemagne et la France) et des USA. Les paramètres pris en compte sont notamment le taux de tués au milliard de kilomètres parcourus et les trafics moyens journaliers (indicateur indirect de la densité de la circulation). Les graphiques publiés mettent en évidence la décroissance régulière de la mortalité d’année en année. Elle est attribuable :
- à l’évolution de l’infrastructure (glissières de sécurité ou murets réduisant les traversées de l’espace séparant les chaussées et prévenant les sorties de voies ou l’impact sur des obstacles tels que les piles de ponts),
- aux progrès de la sécurité primaire et surtout secondaire des véhicules (ceintures de sécurité, sacs gonflables, habitacles moins déformables),
- à l’accroissement de la densité de circulation.
 
Les commentaires les plus importants sont que :
- « les pays qui présentent les taux de mortalité comparativement les plus faibles se trouvent être parallèlement les pays qui connaissent les trafics moyens journaliers les plus élevés sur leurs autoroutes ».
- «qu’il n’y a pas seulement corrélation entre taux de mortalité et trafic moyen journalier, mais qu’il y a aussi à opérer une distinction entre les niveaux de sécurité dans les différents pays en cause. C’est ainsi par exemple que les Etats-Unis et l’Allemagne de l’Ouest, dont les taux de mortalité sont assez comparables, sont caractérisés par des points épousant des courbes assez comparables ; étant à noter parallèlement que les trafics moyens journaliers allemands se situent dans toute la période de temps considérée, à des niveaux nettement supérieurs aux valeurs correspondantes américaines. »
- « certains pays se situent nettement en dessous des moyennes générales ; ce qui conduit à une révision des idées en matière de sécurité – la Belgique et l’Allemagne de l’Ouest se situant comparativement plutôt en dessous, et les Pays-Bas, les Etats-Unis et la Suisse plutôt au dessus des moyennes constatées ».
 
Autrement dit dès 1995, une étude allemande documentait le premier facteur de sécurité sur les autoroutes qui est la densité de circulation. Elle indiquait également que les pays se différenciaient ensuite les uns des autres, avec de meilleurs résultats aux USA qu’en Allemagne, sans aller plus avant dans la recherche des facteurs qui provoquaient cette distinction.
 
A ce stade de la lecture du dossier présenté par Gérard Nicaud, nous avons compris que l’auteur de la description ne comprend pas la nature des indicateurs qu’il utilise et que ses données sont fausses, mais le pire est à venir. Nous atteignons l’argument qui « fonde » cette pleine page du Figaro dénigrant les limitations de vitesse. Il s’agit des résultats de l’insécurité routière sur les autoroutes du Montana : « Mais il y a plus intéressant et surtout plus scientifique : les résultats d’une expérience qui s’est déroulée il y a quelques années au Montana, un Etat peu peuplé situé au nord-ouest des Etats-Unis. Pendant quatre ans, entre 1994 et 1998, les autorités locales ont levé toute restriction de vitesse, du moins dans la journée. Résultat : une baisse significative du nombre d’accidents. Coïncidence ? En juin 1999, il était mis fin à cette expérience jugée politiquement incorrecte. Les statistiques sont édifiantes : de janvier à mai 1999, la moyenne mensuelle des décès sur autoroute dans cet Etat a été de 6,2 pour remonter à 10,1 sur le reste de l’année et pratiquement à 12 en 2000. ». La suite du texte de Gérard Nicaud indique que lorsque le gouvernement fédéral a abandonné en 1995 la limitation de la vitesse sur autoroute à 55 miles par heure (88,5 km/h) les limites ont été relevées à des niveaux se situant entre 65 mph et 75 mph, or « depuis le nombre de tués à diminué de 11% en dépit de la hausse du trafic ».
 
La situation américaine est particulièrement favorable à l’analyse de la relation entre vitesse autorisée et mortalité, du fait d’une succession de réglementations, les unes fédérales créant l’uniformité au moment du premier choc pétrolier, les autres recréant progressivement la diversité quand les craintes sur l’approvisionnement en pétrole se sont éloignées. Le calendrier de ces évolutions a été le suivant :
-          en 1974 le premier choc pétrolier a fait décider l’abaissement de la vitesse maximale à 55 miles par heure (88,5 km/h) sur plusieurs types de voies, provoquant une diminution du nombre des décès de 9100. La correction par la diminution du trafic observée et la tendance à la baisse de la mortalité due à d’autres causes faisait retenir un gain de 6550 vies. Les taux de réduction de la mortalité avaient été de 32% sur les autoroutes (la réduction des vitesses observées avait été de 7,7 mph, soit 11,8 km/h), 18% sur les routes principales et 12% sur le réseau secondaire,
-          en 1988 la vitesse a pu être portée à  65 mph (104,5 km/h). Plusieurs études avaient prévu un accroissement de la mortalité entre 15 et 25% en année pleine suivant les méthodes retenues, dans les Etats qui adopteraient la nouvelle limite. L’augmentation observée a été de 10% en 1987 (les décisions étant intervenues entre mai et juillet) et de 21% en 1988.
-          enfin depuis novembre 1995 le choix est totalement libre et certains Etats ont porté leur vitesse maximale jusqu’à 75 mph. Une comparaison entre 24 d’entre eux qui avaient accru la vitesse autorisée et 7 qui ne l’avaient pas modifiée a révélé un accroissement de 17% de la mortalité dans le premier groupe.
 
Le débat des accidentologistes américains n’est plus sur l’efficacité des limites de vitesse sur les autoroutes, il s’est déplacé vers l’intérêt de fixer des limites différentes pour les poids lourds et les véhicules légers. Certains Etats ont fait le choix d’une vitesse identique pour limiter les dépassements, d’autres ont conservé un différentiel qui va de 5 mph  (Indiana) à 15 mph (Michigan), les analyses présentées au congrès nord-américain sur la vitesse qui s’est tenu à Québec en juin 2001 semblaient en faveur de l’uniformité, mais avec une faible différence de mortalité.
 
Face aux résultats concordants obtenus par l’analyse de l’ensemble des Etats, sélectionner « a posteriori » le seul Etat qui a des résultats paradoxaux est un exemple typique de mauvaise pratique en contradiction avec les bonnes pratiques épidémiologiques.  Le Montana représente 0,3% de la population des USA et il aurait été plus sérieux de prendre l’exemple de la Californie qui avait accru la vitesse autorisée à 70 mph le 7 janvier 1996, et dont la population est 37 fois supérieure à celle du Montana. Le nombre de décès sur les autoroutes californiennes est passé de 548 en 1995 à 644 en 1996 soit un accroissement de 17,5%, en accord avec la moyenne des Etats qui avaient fait ce choix raisonné d’accepter un plus grand nombre de morts comme prix d’une vitesse plus élevée. L’effet « paradoxal » observé dans le Montana a été analysé par un chercheur de l’INRETS, Laurent Carnis (actes INRETS n°105 –décembre 2006, p.155-171).
 
Les deux graphiques suivants représentent l’évolution de la mortalité dans l’Etat du Montana et l’évolution globale de la mortalité routière aux USA.  Les variations d’une année sur l’autre sont importantes du fait du nombre relativement faible en valeur absolue du nombre de tués dans cet état peu peuplé, ce qui accroît les variations aléatoires. Les dérégulations des vitesses ont été décidées en 1988 (possibilité de passage de 55 à 65 mph) et 1995 (chaque Etat fixe ses limites)
 
Evolution du nombre de tués de l’Etat du Montana (1970-2003)
 
Laurent Carnis interprète la situation du Montana comme un conflit de nature politique entre le pouvoir fédéral et un Etat qui n’acceptait pas une ingérence dans la régulation de la vitesse sur ses routes. La raison principale est qu’il s’agit du 4ème Etat des USA par sa surface égale au 2/3 de la France pour une population inférieure à 1 million d’habitants. La limitation de vitesse fédérale apparaissait inadaptée à cette géographie humaine et l’administration locale n’a jamais cherché à appliquer la règle qui lui était imposée. Les textes locaux avaient créé une amende pour excès de vitesse d’un montant de 5 dollars, tournant ainsi en dérision les obligations fédérales. Aucune mesure des vitesses réelles pratiquées avant et après cette mesure fictive de limitation n’a été effectuée. La situation théorique a été la suivante dans cet Etat :
-          pas de limite avant 1974,
-          55 miles/h de 1974 à 1987,
-          65 miles de 1987 à 1995,
-          pas de limite de 1995 à 1999
-          75 miles/h depuis 1999.
 
Le bilan de l’évolution de la mortalité au Montana est catastrophique, elle s’est accrue de 30% entre 1994 et 2006 alors que dans la même période de grands Etats comme le Minnesota ou le Michigan l’ont réduite l’un et l’autre de 24%. Actuellement cet Etat est celui qui a le plus augmenté sa mortalité par habitant de tous les USA et il se situe sur cet indicateur au 46ème rang des Etats américains. Ce taux et cette évolution calamiteuse étaient déjà connus quand l’article du Figaro a été publié. Prendre le plus mauvais élève de la classe comme modèle dépasse vraiment les limites de l’impudence et de l’absence totale de respect du lecteur. Il était par ailleurs inexact de dire que le Gouvernement américain a supprimé la limite des 55 mph en 1995, la première dérégulation est de 1987/1988, comme il était trompeur de donner l’indication d’une réduction de la mortalité depuis la seconde déréglementation de 1995. Cette dernière a provoqué une hausse de la mortalité qui est sans équivalent dans les autres pays industrialisés.
  
 
Globalement, après un passage au dessous des 40 000 tués par an, la mortalité accidentelle aux USA s’est accrue au cours des quinze dernières années et cette évolution est produite par les Etats qui ont augmenté leurs vitesses maximales. Ceux qui ont fait ce choix ne tentent pas de dire que la vitesse n’est pas dangereuse, ils ont évalué le risque et chaque Etat a accepté ou non de l’accroître pour réduire les temps de transport, sans hypocrisie. Cette attitude américaine est habituelle dans la gestion des risques. Il s’agit d’un pragmatisme lucide qui accepte un certain nombre de morts en contrepartie d’un choix comportant des avantages. Les Européens acceptent mal ce type de bilan d’une situation associant des avantages et des inconvénients qui donne une valeur monétaire à la vie humaine, alors que cette pratique est de plus en plus utilisée dans le cadre de la santé publique. Refuser la relation mathématique entre la vitesse moyenne de circulation sur un réseau autoroutier et l’accidentalité fait partie des attitudes de déni qui permettent peut-être de conserver une forme puérile d’estime de soi, mais qui sont à la fois ridicules et manipulatoires.
 
Aller chercher des arguments au Montana sans rappeler ce qui s’était passé en France ou en Allemagne lors du premier choc pétrolier éveillait déjà la méfiance. Ces promoteurs obsessionnels de la vitesse ne parlent jamais des résultats européens observés quand les vitesses autorisées ont été modifiées, parce qu’ils sont en totale contradiction avec ce qu’ils souhaitent démontrer.  Au moment du choc pétrolier l’Allemagne avait fixé une vitesse maximale sur ses autoroutes à 100 km/h et la mortalité avait été réduite de 37%, elle a augmenté en mars 1974 quand cette limite a été supprimée. En France, la mortalité au kilomètre parcouru a été divisée par deux et nous reviendrons sur cette évolution dans le chapitre suivant.
 
Le second texte de cette page du Figaro du 23 janvier 2003 est un exemple exceptionnel de la pratique du déni. Ce « Point de vue » de Jacques Chevalier analyse « l’archaïsme meurtrier » de la limitation de vitesse à 130 km/h. Il reprend tous les arguments développés avec régularité par les adversaires des limitations de vitesse. Affirmer que « la vitesse n’est en effet que rarement la cause première des accidents » est à la base de ce credo. Elle serait seulement un « facteur aggravant d’une collision ». En réalité, quand un automobiliste aborde trop vite une intersection sans visibilité et qu’il ne peut éviter l’accident, ce dernier n’aurait pas eu lieu si la vitesse avait été plus basse, il s’agit donc d’un facteur causal. Le raisonnement est identique en cas de perte de contrôle dans un virage pris à une vitesse excessive. La vitesse inadaptée dans un contexte routier donné est le déterminant principal de l’accident. L’observation de la rupture brutale de la mortalité sur nos routes en juillet 1973 et à partir de décembre 2002 illustre la nature causale de ce facteur. La généralisation des limites de vitesse sur les routes en 1973 et le retour à la crédibilité du dispositif de contrôle et de sanctions provoqué par les mesures adoptées en 2002 ont provoqué une diminution de la vitesse de circulation. Elle a pu être mesurée à environ 9 km/h pour la période qui a suivi les décisions de 2002 et la mortalité s’est abaissée de plus de 40% entre mai 2002 et mai 2006. L’observatoire de sécurité routière et les assureurs ont pu constater que les accidents étaient moins nombreux et leurs conséquences moins destructrices.
 
Rappelons que dans un système où plusieurs facteurs déterminent un événement, il est absurde de placer un facteur de sécurité primaire comme un facteur principalement « aggravant » en l’opposant à la notion de facteur causal. C’est le domaine de la  sécurité secondaire qui permet d’utiliser ce terme dans un sens précis. Ne pas mettre la ceinture de sécurité est un facteur pouvant aggraver les conséquences de l’accident. Un des objectifs de l’épidémiologie est d’établir, pour chaque facteur envisageable, les  « fractions attribuables » ou les « risques relatifs ». Nous dirons par exemple qu’une alcoolémie à 0,80 g/l multiplie par quatre le risque d’avoir un accident corporel. Le risque est multiplié par un facteur proche de 100 quand l’alcoolémie dépasse 2 g/l. La situation est identique pour la vitesse qui est également une variable quantitative. Dans un environnement donné, il est possible de quantifier le niveau de risque en fonction de la vitesse de circulation. Les premières études qui ont documenté cette relation ont un demi-siècle et les variations conjointes des vitesses de circulation et du risque d’être tué sont confirmées chaque fois qu’une modification de la réglementation intervient et qu’elle est appliquée. La variation des conditions de circulation provoquées par les crises pétrolières a favorisé l’analyse de ces faits en créant des conditions quasi expérimentales d’observation.
 
L’influence d’une variation de la vitesse de circulation sur l’accidentalité a été observée à nouveau sur les autoroutes françaises au cours de la période 2002/2006. Le taux de mortalité au milliard de kilomètres parcourus est passé au dessous du taux observé en Allemagne. L’analyse effectuée par les sociétés d’autoroutes met en évidence une division par deux de la proportion d’usagers dépassant 130 km/h au cours des dernières années. Parallèlement le  taux de mortalité sur les autoroutes françaises en 2006 s’est effondré à 2,37 tués par milliard de kilomètres parcouru, alors que la valeur allemande stagne à 2,97. Rappelons que ce bon résultat de la France a été obtenu alors que la densité de circulation sur les autoroutes allemandes est plus élevée qu’en France, ce qui est un facteur d’abaissement de la mortalité donnant un avantage à l’Allemagne. Il faut également insister sur les manœuvres inacceptables de camouflage de ses résultats par l’administration allemande qui a cessé de mesurer et de publier des indicateurs de vitesse sur ses autoroutes depuis 10 ans. Elle a également cessé de distinguer les kilomètres parcourus sur les autoroutes limitées en vitesse (48% du réseau) et sur celles qui ne le sont pas (52 %). Nous savons cependant que les 645 tués sur les autoroutes allemandes de 2006 se répartissent en 441  tués (67%) sur les autoroutes sans limitation de vitesse et 204 sur les autoroutes à vitesse limitée. Le débit horaire étant beaucoup plus important sur ces dernières, nous pouvons imaginer un risque au kilomètre parcouru multiplié par un facteur se situant entre deux et quatre pour le réseau à vitesse libre par rapport au réseau limité. Ne pas documenter ces faits est un témoignage supplémentaire de la volonté de l’Allemagne de ne pas faire apparaître les résultats qui contrarient ses constructeurs de voitures inutilement rapides et de ce fait inutilement dangereuses. Cacher une réalité aussi importante pour la sécurité sanitaire dans ce pays est une pratique indigne.
 
L’autre démarche classique d’inversion de la réalité des faits utilisée par Jacques Chevalier concerne le risque d’accident par inattention provoqué par le respect de la vitesse maximale : « Pourquoi les automobilistes roulent-ils 20 ou 30 km/h au dessus de la limite ? Ce serait parce que : « redescendre au dessous de 130 km/h c’est observer son compteur pour rouler à une allure antinaturelle,  anesthésiante ». Cet argument a été également utilisé par le ministre italien des transports Pietro Lunardi, pour justifier l’accroissement à 150 km/h de la vitesse sur certaines autoroutes à trois voies : « La vitesse cause moins d’accidents dus à la distraction. Aller vite éveille l’esprit. Cela empêche de s’endormir. J’aime moi-même aller à une vitesse soutenue ». Avec 5,57 tués par milliard de kilomètres parcourus, l’Italie a actuellement une mortalité sur ses autoroutes plus de deux fois supérieure à celle de la France. L’analyse récente des sociétés d’autoroutes de notre pays indique une évolution qui contredit l’hypothèse de l’augmentation des accidents par trouble de la vigilance lors d’une réduction des vitesses de circulation. Le nombre d’accidents mortels provoqués par l’inattention a diminué entre 1997 et 2005 de façon plus importante que l’ensemble des accidents, faisant passer la proportion de 13% des cas à 8%. Pour les causes regroupant la fatigue, l’hypovigilance et l’endormissement, le nombre total s’est également réduit mais en proportion plus faible que l’ensemble des accidents, ce qui a provoqué un accroissement en proportion de 28% à 37% pendant la même période. L’hypothèse la plus vraisemblable est que ces causes d’accidents sur lesquelles le système de contrôle et de sanction n’a aucune prise ont été peu influencées par les réformes de 2002, mais que le ralentissement des vitesses de circulation a rendu leurs conséquences moins dangereuses, réduisant la mortalité que l’on peut leur attribuer.
 
L’affirmation qu’il faudrait faire rouler les gens à 30 km/h pour atteindre la sécurité absolue quand on constate la « violence inouïe » d’une collision à 56 km/h correspond à une démarche très pratiquée par les destructeurs de vérité,  faisant l’amalgame entre une vérité et une erreur. Elle est destinée à faire croire qu’il faudrait abaisser à moins de 60 km/h la vitesse de circulation sur les autoroutes pour réduire la mortalité. Il est vrai qu’une collision à 56 km/h est d’une grande violence. Les équivalents de choc à 56 km/h contre un mur existent sur les autoroutes comme ailleurs, mais ils sont exceptionnels. Un usager qui perçoit le risque de collision freine et réduit sa vitesse et, s’il ne peut éviter l’accident, la vitesse au moment de la collision sera très inférieure à sa vitesse de circulation. En outre, s’il a heurté un autre véhicule allant dans le même sens sur une autoroute, une vitesse résiduelle persistera après la collision. Les variations de vitesse dans la phase de déformations des véhicules et les décélérations subies seront donc très inférieures à celles observées dans un choc à 56 km/h contre un obstacle fixe rigide. Confondre la vitesse de circulation et la variation de vitesse au moment de l’impact n’est pas le fait d’une incompétence, il s’agit d’une manipulation volontaire.
 
L’objectif des actions de sécurité routière n’est pas d’obtenir une sécurité absolue, mais de réduire le nombre de tués en diminuant la vitesse de circulation, ce qui produira dans un environnement donné un nombre d’accidents plus faible et, en cas de choc, des vitesses de collision plus basses. Jacques Chevalier se refuse à admettre ces faits depuis des décennies, et il ne veut surtout pas entendre les explications des accidentologistes qui détruisent ses arguments. Imaginer un débat intellectuellement honnête avec des passionnés de mauvaise foi est un espoir vain. Il est aussi illusoire de vouloir convaincre un Raëlien de revenir sur terre qu’un passionné de vitesse de ralentir,  et l’attaque contre l’esprit cartésien va bien dans ce sens. Surtout ne soyons pas cartésiens, soyons des passionnés illuminés par la fée vitesse, chevauchons avec elle les produits de la technologie, et répétons année après année notre credo destructeur, la vitesse n’est pas dangereuse, nous arriverons bien à convaincre les faibles d’esprit et nous aurons le soutien des décideurs qui aiment aller vite ou qui sont pressés parce qu’ils gèrent mal leur emploi du temps !
J’ai centré l’analyse sur les écrits d’un journaliste pour détailler les arguments utilisés tout en évitant les répétitions, mais il ne faut pas croire que les médias sont les seuls à assurer la diffusion de telles contre-vérités. Lors de l’examen de la loi Perben à l’Assemblée Nationale le 19 mars 2003, Christian Estrosi tenait les propos suivants : « A l'inverse, sur quelques centaines de km d'autoroutes larges et bien droites, pouvoir dépasser de 10 ou 15 km la limitation à 130 pour doubler améliore plutôt la sécurité. Le cas de l'Allemagne l'illustre bien, l'Italie passera à 150 km/h au premier juin et, aux Etats-Unis l'expérience du Montana est positive. Donc, sans toucher au texte du Gouvernement, ne nous interdisons pas d'ouvrir la réflexion sur la révision de certaines normes ». L’Allemagne a une mortalité plus élevée sur ses secteurs non limités. Augmenter la vitesse maximale sur les autoroutes augmente le différentiel de vitesse entre les usagers et accroit le nombre de dépassements qui est un facteur de risque. Quand à l’expérience du Montana, nous avons vu que ses résultats ne sont positifs que pour les entreprises de pompes funèbres de cet Etat. Triste référence.
 
Les réactions aux propositions du « Livre blanc » sur la sécurité routière de 1989.
 
Les journalistes des médias généralistes avaient très largement repris et développé les arguments des industriels que nous avons déjà analysés. La notion de sécurité liée aux possibilités d’accélération fait partie des stéréotypes repris par les journalistes qui participent à cette désinformation coordonnée. Là encore, Jacques Chevalier est une boussole qui pointe toujours vers l’argument erroné.
 
Le Figaro (4/5/89 Jacques Chevalier)
« La vitesse de pointe n’est plus en effet aujourd’hui que la résultante d’autres qualités que l’on veut privilégier : les accélérations et la puissance à tous les régimes. Y toucher, c’est immanquablement altérer la vivacité d’un véhicule et sa capacité à répondre instantanément aux injonctions du conducteur. Grâce à elles les dépassements sur route ne sont plus la roulette russe à laquelle on se livrait naguère au volant de voitures à l’inertie paralysante. » Commentant des études de Matra sur un concept de véhicule privilégiant l’accélération, le journalise ajoute : « il y a là manifestement une idée à creuser pour une voiture mettant sa puissance au service d’accélérations éclair, garantes d’une meilleure sécurité. »
Il y a une double confusion dans ces propos, la première est de lier la proposition de la commission qui a rédigé le Livre blanc concernant la limitation de vitesse à la construction et l’accélération. La seconde, plus importante, consiste à affirmer que la capacité d’accélérer pour dépasser est un facteur de sécurité sur les routes. Nous avons déjà abordé ce problème en analysant la position des industriels sur les limitations de vitesse et les arguments qu’ils ont utilisés, notamment lors de la publication du livre blanc.
Un autre argument est souvent mis en avant pour tenter de lutter contre les politiques de réduction des risques par une réduction des vitesses de circulation sur les différents réseaux. Il consiste à affirmer que les bonnes solutions sont ailleurs.

Le Quotidien de Paris (Patrice Carmouze)
« Il est sans doute excellent de rendre les sanctions plus dissuasives, de limiter les vitesses (…) mais l’essentiel est ailleurs. C’est sur trois facteurs objectivement créateurs d’accidents qu’il faut agir, l’état des routes, celui des véhicules, la densité enfin de la circulation. Voilà l’action en profondeur à mener ».
Patrice Carmouze ne savait manifestement pas que la densité de circulation est un facteur de protection et non un facteur de risque pour la sécurité routière, puisqu’elle réduit les vitesses de circulation. A l’opposé une circulation trop dense provoquant des bouchons induit un accroissement du temps de déplacement et de la pollution. Il est donc important d’agir pour avoir une circulation fluide, mais cela n’a rien à voir avec la sécurité routière. La notion de point noir a été développée il y a quarante ans pour identifier et traiter préférentiellement les zones où l’on observait une accumulation d’accidents. Au moment où nous avions produit le Livre blanc, les aménagements protecteurs étaient réalisés dans les secteurs les plus dangereux et l’on voyait les zones accidentogènes se situer tout au long des sections courantes supportant des débits de circulation relativement élevés en l’absence de séparation des chaussées. La nécessité d’agir sur les obstacles fixes verticaux, notamment les arbres, était déjà évidente, mais ces actions posent des problèmes d’acceptabilité sociale et de coût.
Quand à la surveillance de l’état des véhicules, il venait d’être décidé au moment où nous rédigions le livre blanc, mais malheureusement sans aucun dispositif d’évaluation de son efficacité, alors que c’est à cette phase qu’il était possible de le mettre en œuvre. J’avais proposé un tirage au sort d’un chiffre et la réalisation progressive du contrôle technique sur deux ans de tous les véhicules anciens en fonction de leur immatriculation, les assurances auraient alors pu évaluer comparativement si une réduction significative de l’accidentalité se manifestait dans le groupe de véhicules contrôlés. L’administration ne voulait pas de cette évaluation et elle n’a pas été retenue. La fraction des accidents liés à une défaillance technique du véhicule est très faible et les études sérieuses de l’efficacité du contrôle technique  (tirage au sort de deux séries, l’une avec contrôle et l’autre sans, puis comparaison de l’accidentalité entre les deux séries) n’ont pas mis en évidence d’effets bénéfiques. Le contrôle a un intérêt lors d’une transaction commerciale et c’est le choix qui avait justifié les premières obligations dans ce domaine. Il permet alors de dépister les réparations approximatives et potentiellement dangereuses de véhicules gravement accidentés.
Nous avons remarqué l’insistance des constructeurs sur le risque commercial qui serait induit à leurs yeux par une limitation de la vitesse à la construction. Les médias ont très largement repris cet argument lors de la publication du Livre blanc. Il n’était pas négligeable mais nous pouvions gagner 20 à 30 ans sur la mise en œuvre de la mesure si la proposition avait été soutenue à cette époque par la France au niveau européen.
L’Alsace (23/4/89 Jacques Prost)
« On nage en plein délire. Semblable mesure appliquée en France, que verrait-on ? D’abord beaucoup plus de voitures étrangères. A quoi bon acheter au prix fort un véhicule émasculé ? Du coup et faute d’une réglementation européenne invraisemblable nos voisins crieraient au protectionnisme et fermeraient leurs frontières à nos produits, pas seulement automobiles. »

Le Figaro (26/4/89 Jacques Chevalier)
« Puisque la vitesse tue selon la commission, il suffit de limiter par construction les automobiles européennes à 160 ou 170 km/h pour enrayer l’hécatombe. Cette trouvaille est plus un vœu pieux qu’une réelle mesure. En effet la commission, sur ce point clairvoyante, ne songe qu’à une limitation européenne et les Allemands la refuseront. Limitée aux seuls véhicules français, la mesure aurait des effets pervers sur le commerce et l’homogénéité des déplacements sur autoroute avec les véhicules étrangers plus rapides ».
Une nouvelle fois, Jacques Chevalier se rendait ridicule par l’absence de pertinence de ses propos. On voit mal comment la limitation à 160 km/h pouvait avoir des effets pervers sur l’homogénéité des déplacements sur des autoroutes limitées à 130 km/h !
 
Quelle est l’évolution du déni médiatique ?
 
Il se réduit progressivement et apparaît actuellement comme un débat d’arrière garde. Les très bons résultats provoqués par la politique de respect des vitesses maximales instaurée à la fin de 2002 ont joué un rôle majeur dans cette évolution. Les principales mesures ont été la réduction des tolérances sur les vitesses maximales, la responsabilité du propriétaire d’un véhicule photographié en excès de vitesse, la mise en œuvre des radars automatiques à la fin 2003 et la réduction massive du trafic d’influence supprimant des contraventions pour des infractions impliquant la conduite. Il est intéressant de suivre cette évolution à travers les écrits du même journaliste. Il était difficile de  rebondir dans une telle situation d’échec et relancer sa politique de soutien de la vitesse exigeait un travail d’imagination sérieux. Il n’a pas déçu, la caractéristique du manipulateur est d’avoir toujours une invention de rechange.
 
Le Figaro (15/3/2004  Jacques Chevalier.
« 2003 ayant été déclarée «année de la sécurité routière», il fallait que les résultats tombent. Ils sont tombés et, avec plus de 1 500 vies épargnées, l'Etat a pu se glorifier à bon droit de son action. 
Pourtant, il n'a, pour l'essentiel, fait qu'appliquer sur le terrain ce qui existait dans les textes depuis des années. Multiplication des contrôles de vitesse et d'alcoolémie appuyée par une intense campagne médiatique, la peur du gendarme a porté ses fruits, ce qui, tout de même, autorise à se poser une question.
Pourquoi les pouvoirs publics n'ont-ils pas mis en oeuvre plus tôt les contrôles de 2003 ? Les textes du code n'ayant pas fondamentalement changé depuis deux décennies, on imagine le nombre de vies qui auraient pu être sauvées ainsi. Certes, les forces de l'ordre ont d'autres missions et elles devront tôt ou tard y retourner, laissant aux radars automatiques le soin de réprimer. L'usager pourra s'en réjouir car le comportement des forces de l'ordre à l'égard de bons pères de famille tutoyant le 140 sur autoroute s'apparente trop souvent à l'arrestation d'un bandit de grands chemins. Cette confusion des genres a creusé un peu plus l'incompréhension entre usagers et forces de répression. Le véhicule assimilé à une arme, le dépassement de vitesse sur une autoroute déserte à un acte terroriste, dissocient l'ampleur de la sanction de la réalité de la faute. On écrase une mouche avec un marteau-pilon. Le résultat est garanti, les mouches tremblent et le lobby antiautomobile en France se goberge sur les ondes en stigmatisant un prétendu lobby automobile. »
 
Après avoir reconnu l’efficacité de la politique gouvernementale, tout en refusant d’accepter le contrôle et la sanction des faibles excès de vitesse, Jacques Chevalier devait faire un détour dialectique pour rebondir sur une autre piste permettant de rejoindre son discours familier. Il développe alors l’hypothèse que le contrôle de la vitesse n’est qu’une conséquence de la mauvaise formation des conducteurs. Ils ont une mauvaise appréciation du risque car ils n’ont pas été correctement formés pour maîtriser les conditions auxquelles ils seront inévitablement confrontés un jour ou l’autre sur les routes. Finalement le radar n’est efficace que pour maintenir dans une zone de non risque des conducteurs incompétents, alors que les conducteurs expérimentés seraient capables eux de rouler à des vitesses dépassant les limites autorisées, bien entendu sans risque. L’habileté est à la hauteur des décennies de pratique de la désinformation de l’auteur et il est important d’analyser ce type d’explication qui a souvent été utilisé par les journalistes appartenant à cette confrérie des amateurs de vitesse.
 
Le Figaro (suite du texte précédent du 15/3/2004  Jacques Chevalier).
« Le lobby autophobe éructe que l'on ne peut transformer un automobiliste en pilote, comme s'il s'agissait de cela. Il s'agit seulement de rester maître de son véhicule et de ne pas céder à la panique le moment venu parce que l'on n'aura pas assimilé, dans le cadre rassurant d'une piste de conduite, les gestes qui sauveront un jour sur la route. Tout candidat au permis de conduire devrait prouver qu'il est apte à le faire avant la délivrance du carton rose. Ce qui semble impossible sur la route sous de fallacieux prétextes d'égalité sociale se pratique pourtant chaque hiver, dans les écoles de ski, où l'on enseigne à tous le contrôle du dérapage et l'arrêt en toute sécurité. La troisième étoile acquise, tout le monde sait se comporter ensuite sur les pistes et réagir sans trembler face à une situation inattendue.»
Ce texte est important, car promouvoir la capacité d’acquérir et de maintenir des aptitudes à la maîtrise des « gestes qui sauveront un jour sur la route » fait partie des illusions dangereuses qui sont soutenues par ceux qui refusent la réduction des vitesses. Il s’agit d’une double utopie. Nous n’avons pas les moyens d’assurer cette formation à 700 000 apprentis conducteurs chaque année, les formateurs qualifiés n’existent pas en nombre et son surcoût serait considérable. L’obstacle économique à l’acquisition du permis est déjà un facteur de ségrégation sociale, il ne faut pas l’accentuer. La seconde raison tient à l’impossibilité de maintenir une aptitude de ce type, notamment la capacité de contrôler un dérapage, il faut une pratique régulière de cette manœuvre pour conserver les capacités acquises.
 
Comme l’apprentissage, la conservation des savoirs doit être assurée par une pratique régulière sur des pistes adaptées. La compréhension de ces difficultés s’est faite au niveau des organismes qui ont développé des stages de formation continue de conducteurs, notamment à la demande des entreprises désireuses de réduire le risque d’accidents de leurs personnels. Les stages ont été orientés vers la prise de conscience des risques pour éviter d’être confrontés à des situations que l’on ne sait pas gérer. L’usage de pistes arrosées avec un faible coefficient d’adhérence, ou la création de segments de pistes animés d’un mouvement de rotation créant une accélération transversale difficile à contrôler (stages Centaure) sont adaptés à cette formation. L’objectif est de faire comprendre la nature du risque et non d’apprendre à contrôler une sortie de voie. L’apprentissage de la conduite doit inclure la compréhension de la nature du risque et obtenir du conducteur qu’il ne s’expose pas à des situations dangereuses. Ces problèmes d’apprentissage et de maintien des compétences ne sont pas propres à la conduite automobile. Développer l’idée d’une formation au permis de conduire permettant de gérer des dérapages avec une épreuve pour son obtention dans laquelle le candidat devrait prouver « son aptitude » est tout bonnement ridicule, elle ne pourrait être menée à bien. Si un investissement considérable la rendait possible lors de la formation initiale, il serait impensable de maintenir ces acquis sur des voies ouvertes à la circulation, il faudrait continuer à le faire sur des pistes pour 35 millions de conducteurs.
 
 
Commentaires
 
Sans prétendre que les chercheurs savent tout et ne commettent pas d’erreurs, il faut cependant s’interroger sur le gouffre qui sépare l’état des connaissances dans le champ de la sécurité routière et leur déformation par des journalistes « engagés » dont le seul objectif  semble être de produire les phrases qu’une clientèle passionnée de voitures et de vitesse attend d’eux. Nous avons vu que les stéréototypes reproduits avec constance sont en nombre relativement limités, visant à minimiser le rôle de la vitesse dans les accidents et à maximaliser l’intérêt d’une réserve de puissance pour effectuer des dépassements « plus sûrs ».
 
La méthode complémentaire de cette répétition constante de deux affirmations erronées consiste à passer sous silence toutes les études mettant en évidence la relation constatée entre la vitesse de circulation et le risque d’accident. La première grande étude européenne sur cette relation a été faite par Bohlin, un ingénieur de Volvo, en 1968. Elle portait sur 28 000 accidents. D’autres ont suivi. Les journalistes assurant la propagande destinée à s’opposer aux réductions progressives des limitations de vitesse n’en parlent jamais. L’omerta est la méthode la plus sûre pour ne pas avoir à contester des faits prouvés par l’observation de la réalité.