Bon, c’est parti pour le topo.
Une fois de plus, je rappelle que je ne connais pas les moteurs concernés, que je ne suis pas un spécialiste de l’OBD et que je n’ai aucune connaissance de l’évolution historique de ces moteurs.
En résumé, je ne suis pas un pro de la discipline au sens usuel du terme.
Par contre je n’ai pas de difficulté avec la cuisine mathématique, physique ou informatique, ce qui me permet de me faire assez rapidement une idée relativement précise du fonctionnement des systèmes équipant les moteurs modernes.
L’idée étant de partager des méthodes d’investigation et de susciter la curiosité de la communauté en vue d’échanges plus approfondis, je me suis efforcé de détailler les raisonnements tout en limitant les apports théoriques au profit de nombreuses planches, généralement plus faciles à assimiler.
Initialement, l’idée était d’étudier l’incidence du changement des codes injecteurs sur les corrections apportées par le calculateur. Le sujet s’annonçant copieux, je ne vais pas traiter ce point pour l’instant ; disons que j’ai été intrigué par les variations des dites corrections, dont je ne comprenais pas l’origine.
J’ai donc passé les fichiers de Bisnouk à la moulinette, ce qui a mis en évidence un lien entre ces variations et les fluctuations de la pression de rampe.
Fluctuation qui, elles aussi, m’ont semblé étranges.
Du coup, l’idée initiale a évolué et cet article restitue les principales interrogations auxquelles j’ai été confronté.
Comme demandé, le Pater m’a transmis un enregistrement provenant de son Toy. L’analyse des données m’a semblé beaucoup plus conforme à ma vision préalable du problème. Dans une certaine mesure toutefois, car les choix conceptuels de Toyota sont probablement bien plus avancés que ceux de Ford.
Cela dit, il faut garder en tête que l’OBD est une technologie numérique et qu’à ce titre, elle peut réserver quelques surprises métrologiques.
Je vais donc commencer par un rapide topo sur ce qu’il faut savoir à minima de ce sujet.
Une interface de diagnostic embarqué (OBD) peut être assimilée à un numériseur : il n’y a pas de différence fondamentale avec un oscilloscope numérique.
Premier point : la résolution.
Les informations manipulées par le système (le calculateur du véhicule) sont restituées sous un format informatique précis, faisant appel à un nombre plus ou moins élevé de bits, chaque bit pouvant prendre la valeur 0 ou 1.
Ainsi, si l’on code une tension sur 8 bits, le potentiel du nombre binaire en question est égal à 2 élevé à la puissance 8, soit 256 valeurs différentes possibles. En pratique, si on veut mesurer une tension comprise entre 0 et 12 volts avec ce système, les tensions restituées seront 0, 0,047 V, 0,094 V, etc. et ce jusqu’à atteindre 12 volts.
La représentation graphique obtenue est donc une courbe en marches d’escalier. En voici un exemple issu d’une mesure à l’oscilloscope :
On constate que l’incrément de tension est, dans ce cas, égal à 18,13 millivolts : impossible d’obtenir plus précis dans cette fourchette, sauf à coder sur un nombre plus élevé de bits, ce qui génère une augmentation exponentielle de la taille des fichiers et nécessitera une puissance de traitement en rapport.
Pour les calculs à venir, qui font majoritairement appel au calcul probabiliste, caviarder une partie des valeurs intermédiaires influence donc la mise en classes.
La planche ci-dessous montre ce que donne, pour une même série de données, un découpage en 30 classes :
Et la seconde, ce que donne un découpage en 4 classes :
Dans le premier cas, on voit apparaître un histogramme des classes évoquant une courbe en « baignoire » ; dans le second, on ne voit rien de particulier.
J’ai délibérément forcé le trait pour illustrer le propos, mais on voit bien l’importance des caractéristiques du numériseur pour l’interprétation des mesures.
De même, la fréquence d’échantillonnage joue un rôle fondamental, non pas sur l’exhaustivité des valeurs, mais sur l’évolution de la grandeur mesurée en fonction du temps. L’exemple le plus classique est celui des hélices d’avion qui, au cinéma, semblent tourner au ralenti, voire à l’envers. Le phénomène sous-jacent est la combinaison du nombre d’images par seconde avec la vitesse de rotation de l’hélice. Dans le cas qui nous concerne, une fonction périodique du temps pourra être vue comme un électrocardiogramme totalement plat ou bien comme une fonction dont la période apparaît beaucoup plus longue qu’elle ne l’est en réalité.
La connaissance des caractéristiques d’une interface ODB (les « valises ») est donc fondamentale lorsqu’on souhaite les utiliser pour de la métrologie un peu poussée.
Le monde de l’automobile étant ce qu’il est, cette caractéristique n’est évidemment jamais précisée d’emblée et, lorsqu’on pose la question, on n'obtient généralement pas de réponse ou des réponses inexploitables.
À titre d’exemple, la pression de rampe est connue au dixième de bar près sur les fichiers de Bisnouk et au bar près sur le fichier du Pater. À la décharge des interfaces, la résolution dépend également du calculateur.
Concernant la fréquence d’échantillonnage, même problème.
Du côté de Bisnouk, le pas d’échantillonnage moyen est de 634 millisecondes (ms) et on note une bonne stabilité de cette valeur, hormis une poignée de parasites qui parviennent parfois à passer :
Du côté du Pater, le pas d’échantillonnage moyen est de 70 ms, mais dérive dans le temps selon une fonction à peu près linéaire, ce qui n’arrange pas nos affaires compte-tenu de la pente de la droite de régression :
Là, ça m’étonne beaucoup, car j’utilise la même interface (KlavKarr) qui, elle, est beaucoup plus stable.
C’était d’ailleurs un de mes critères essentiels de choix. Donc soit tu as utilisé un smartphone, qui ne tient pas nécessairement la cadence en termes de transmissions un peu longues, soit une liaison Bluetooth, sans doute atteinte de la même limite.
En fait, je m’attendais à un résultat de ce type — pris au hasard dans mon fouillis — et qui couvrait un enregistrement de plus d’une demi-heure, la moyenne du pas d’échantillonnage étant de 87 ms :
La palme de l’exotisme revient à l’interface d’Imer : bien qu’opérant comme Bisnouk avec un Forscan, son interface électronique (probablement un ELM 327, mais sans doute implanté dans une circuiterie différente de celle utilisée par Bisnouk) a un comportement assez surprenant. Sur la planche ci-après, on voit en partie haute le cadencement brut et, en partie basse, le résultat obtenu après avoir shooté la courbe au Botox.
C’est la première fois que je voyais un cadencement se présenter comme une fonction sinusoïdale du temps. Un peu osé, le concept, surtout que la fréquence d’échantillonnage moyenne (23 ms) était plutôt intéressante…
Les performances du BAS d’Escanogat m’intéressent donc, car je ne pensais pas qu’une telle diversité puisse exister dans le domaine pourtant relativement balisé — c’est du moins ce que je croyais — des interfaces OBD.
Perso, je ne trouve pas cette situation très saine, mais la boîte à clous logicielle que je me suis constituée dès qu’il m’est apparu possible de ne plus devoir gratter des programmes ciblés pour répondre à mes besoins, rend ces considérations assez secondaires.
Cette entrée en matière achevée, venons-en aux mesures.
Commençons par le Puma (Bisnouk, c’est ton enregistrement 5 du second tour de mesures que j’ai repris). La présentation retenue à ce stade correspond à ce qu’on verrait sur l’écran d’une « valise de base » :
On constate que la pression de rampe (Prreelle, en rouge) fluctue grosso modo entre 180 et 290 bars et on pressent qu’il s’agit d’une vague fonction périodique du temps. Il apparaît également — et cette info est capitale, car on verra que ce n’est pas le cas pour le Toy — que la pression de rampe semble centrée sur la pression de consigne (Prconsigne, en bleu).
A vue de nez, tout semble normal sur cet enregistrement qui dure un peu plus de huit minutes et totalise 770 lignes.
Comme brièvement évoqué supra, l’arrivée du numérique au sens large permet aujourd’hui d’acquérir des données puis de mener des investigations qui nécessitaient auparavant un temps et un acharnement significatifs. Parmi ces nouveaux outils, les calculs traditionnellement réservés à l’univers des probabilités occupent une place de choix : en ce qui me concerne, je considère ces outils mathématiques comme un moyen particulièrement efficace d’étudier des fonctions complexes, notamment celles utilisées en électronique et contrôle commande de systèmes divers et variés. Le but de cet article est donc aussi d’inciter ceux qui se sentent l’envie « d’y aller » d’utiliser leurs interfaces ODB d’une manière beaucoup plus fine que celle consistant à lire des codes défaut qui, est-il nécessaire de le rappeler, ne sont ni exhaustifs, ni destinés à suivre dans le détail le vieillissement d’un véhicule.
D’aucuns objecteront que les calculateurs intègrent les principales lois de vieillissement et qu’il n’est donc pas nécessaire de réinventer l’eau chaude. Les tribulations du trois cylindres PSA apportent un démenti à ce point de vue pour le moins simpliste. Un autre démenti pourrait également être apporté par le nombre de composants changés de manière abusive et injustifiée, y compris par des pros qui, eux, ne veulent ni ne peuvent s’embêter à parcourir les arcanes de systèmes toujours plus complexes.
La manip de base consiste à ventiler les différentes valeurs dans ce que l’on pourrait assimiler à une grille de mots croisés : à l’horizontale, on place les différentes valeurs — ici les pressions de rampe — enregistrées par le numériseur (oscilloscope ou interface OBD) et à la verticale, on a une simple série (de 0 au nombre d’enregistrements réalisés) qui précise combien d’enregistrements on avait déjà rencontrés depuis le début auquel on ajoute le nombre recensé pour une valeur de pression de rampe donnée.
Le socle de l’affaire s’apparente à un tableau de ce type :
Il faut bien voir qu’à présent, la donnée ne se présente plus — comme c’était le cas pour la planche présentant ce qu’affiche une valise de base — comme une fonction du temps : seule la ventilation par classes triées par ordre croissant importe (l’axe vertical représente le nombre d’enregistrements variant de 0 au nombre total d’enregistrements et l’axe horizontal, les classes de pressions relevées).
Pour autant, la variable temps n’a pas disparu, mais elle figure sous une autre forme : en effet, pour « avoir le droit » de passer d’une case à l’autre dans notre grille, il faut ajouter — ou soustraire — l’incrément de temps correspondant à la fréquence d’échantillonnage, soit 632 ms pour les fichiers de Bisnouk et 70 ms pour le fichier du Pater.
Cette notion est capitale car c’est elle qui va nous permettre d’interpréter certaines présentations et données.
De même, comme déjà dit, la fréquence d’échantillonnage et la résolution des mesures conditionnent la taille des cases de notre grille : plus la fréquence est élevée et la résolution fine, plus précise sera la restitution informatique de la réalité analysée.
Les données n’étant plus directement rattachées au temps et à la condition que toutes les mesures aient été effectuées dans un contexte rigoureusement similaire, on peut sans problème concaténer les fichiers, autrement dit déverser toutes les valeurs mesurées dans la même lessiveuse.
Pour les fichiers de Bisnouk, cela représente donc cinq fichiers totalisant un peu plus de 3 000 enregistrements, le tout couvrant une bonne demi-heure.
Certes, l’analyse des mesures primaires révèle que la pression de rampe varie tant que la température du moteur n’est pas stabilisée, mais dans ce contexte spécifique, cela n’a aucune importance.
Car ce n’est pas l’intervalle de confiance, autrement dit la plage sur laquelle s’étend l’ensemble des valeurs prises par la pression de rampe, qui nous intéresse — j’en reparlerai plus tard, car je la trouve objectivement beaucoup trop étendue sur le Puma — mais la manière dont le système gère l’ordonnancement des valeurs.
Le résultat de l’exploitation informatique pouvant être mis sous forme graphique, le graphe ci-dessous représente, en gris, le résultat des différentes réorganisations et tris opérés par les moteurs logiciels et, en bleu, la fonction de régression qui colle avec la plus grande précision avec le nuage de points que contient notre grille :
La théorie des probabilités montre en effet que si le nombre d’expériences tend vers l’infini — on pourrait, par exemple, imaginer de répéter la mesure de la pression de rampe au ralenti, moteur chaud, à raison de cinq minutes par jour pendant un an — le nuage de points auquel elle donnera naissance sera alors une fonction continue de la variable mesurée.
L’approche théorique mathématique ayant permis de caler la courbe peut être mise de côté ; pour les amateurs du genre, la meilleure régression est obtenue, comme bien souvent en mécanique, via une fonction de Weibull, laquelle est une exponentielle à trois coefficients. Comme la plupart des fonctions sigmoïdes — du grec Sigma (Σ) comme « Somme » — dont la plus connue est la fonction de Gauss, elle est également appelée, en probas, fonction cumulative ou encore fonction de répartition.
Si la cuisine mathématique ayant permis de caler la régression n’est pas capitale à mes yeux, c’est notamment parce que la fonction choisie nous fournit une référence stable permettant de comparer, en tout point, la courbe des valeurs mesurées avec un référentiel théorique dont la forme est, par définition, « propre ».
Comme dirait Pater, l’affaire dépend largement de l’expérience du bonhomme, mais ce qui accroche immédiatement le regard, c’est la présence sur la courbe (en gris) de plusieurs « coups de serpe » générant une discontinuité mathématique de la cumulative.
La Weibull théorique est représentée par la courbe bleue.
On remarque :
- que dans les valeurs plutôt basses de la pression de rampe (221 et 235 bars) le coup de serpe succède à un décrochage de la pression de rampe ;
- qu’aux alentours de 235 bars il traduit, à parts à peu près égales, il se produit un léger décrochage de la pression en amont ;
- qu’en aval, cela se traduit par une pression trop élevée ;
- que le coup de serpe précède, dans les pressions élevées (263 bars), un excès de pression.
Mathématiquement, une discontinuité constitue une anomalie : reste à en trouver l’origine physique.
On revient à notre histoire de grille et on va examiner le défaut le plus marqué, aux alentours de 221 bars.
Si on agrandit la zone en question et que l’on remonte aux points résultant du traitement informatique, on trouve qu’entre deux points consécutifs (les n° 184 et 185) situés sur l’axe vertical (ordonnées) il y a une « marche » de 67 cases. En revanche, sur l’axe horizontal (abscisses) les points se succèdent normalement : on passe de 208,6 à 208,7 bars, soit la résolution du numériseur (un dixième de bars).
À partir de là, la conclusion tombe d’elle même : il aura fallu 42 344 ms (67 cases multipliée par la fréquence de l’échantillonnage, à savoir 632 ms) soit un peu plus de 42 secondes pour que la pression évolue d’un dixième de bar, soit peanuts.
En clair, le système de régulation s’est bloqué.
Pour autant, il ne se fige pas réellement durant 42 secondes car, comme on l’a vu tout à l’heure, la pression de rampe n’est plus une fonction du temps, mais l’entrant de la fonction de répartition : il est donc question ici d’une rupture dans la régularité et l’homogénéité de la régulation.
Reste à trouver la cause physique de cette anomalie : le système de génération de la haute pression ne comportant qu’une pompe et sa soupape de dosage (la VCV) le défaut se trouve soit dans la pompe, soit dans la VCV. On observe que sur le Puma, la pompe est du type radial, comme les Roto de naguère. Ce qui signifie que, même en admettant que les pistons de pompe grippent légèrement dans leurs cylindres, ils seraient alors soumis à l’effort généré par l’anneau à cames, qui les débloquera à coup sûr.
Dans la mesure où on observe que les discontinuités de la courbe concernent indifféremment les pressions faibles et élevées, traduisant des sous-pressions autant que des surpressions, on peut en conclure que la pompe est très certainement hors de cause.
Le tout est de savoir si ces discontinuités sont imputables à un grippage de la soupape ou bien si elles ont pour origine sa commande ou les algorithmes chargés de la piloter.
Compte tenu de l’architecture du système HP il apparaît que, dans les conditions particulières du ralenti où tous les paramètres sont constants, la pression de rampe est une fonction de la position de la soupape de dosage et d’elle seule : si la soupape tend à réduire la section de passage du gas oil, la pression baissera ; dans le cas contraire, elle augmentera. En d’autres termes, étudier la pression de la rampe en tant que fonction du temps revient à étudier le comportement de la soupape.
Là encore, le calcul probabiliste fournit une image assez précise du contexte sur laquelle il est intéressant de s’arrêter un instant.
Mathématiquement, la dérivée de la fonction de répartition — la dérivée d’une fonction en un point n’est autre que la valeur numérique de la pente de la droite perpendiculaire à sa courbe représentative en ce point, autrement dit, sa tangente — nous donne une image de la position occupée par la soupape en fonction de la pression de rampe.
Physiquement, la dérivée de la cumulative représente donc la population que compte chaque classe de pression.
Graphiquement, ça donne ça :
En bleu, on a la cumulative de Weibull (fonction de répartition) et en rouge, l’histogramme par classes de pression correspondant.
Si on relie tous les points de l’histogramme, on obtient ce que l’on appelle la densité de probabilité ou encore fonction de distribution.
Histoire de voir à quoi ressemblerait, pour toutes les mesures, la distributive quasiment brute de décoffrage j’ai calculé, puis légèrement filtré, la dérivation numérique de la fonction de répartition (en bleu sur le graphe ci-dessous) :
Au lieu de la Weibull bien lisse, on obtient une courbe très irrégulière dont les trois principaux pics font évidemment écho aux anomalies précédemment listées, sachant que chaque dent révèle une anomalie dans l’homogénéité de la régulation.
Chaque augmentation de la densité de probabilité (chaque dent du graphique) correspond donc à un arrêt momentané de la progression dans le balayage de la plage des pressions ; par ailleurs, le graphe étonne par son profil très large et étalé, qui souligne l’important « flottement » de la VCV, notamment entre 210 et 265 bars : la gestion de cette soupape de régulation est vraiment très surprenante.
En analyse mathématique, on démontre que la primitive d’une fonction représente la surface de l’aire délimitée par sa courbe représentative et l’axe horizontal (les abscisses). En d’autres termes, lorsqu’on aura balayé l’axe des abscisses entre les pressions mini et maxi de rampe, on aura décrit toute la surface de la distributive : il suffira alors de lire sur la cumulative la valeur de la surface totale.
À la verticale de la plus grande valeur des pressions, la cumulative vaudra 1.
De même, si, sur la cumulative, on se place sur l’axe des ordonnées à la valeur 0,5, que l’on tire depuis ce point une horizontale interceptant la courbe, puis qu’on lit sur l’axe des abscisses la pression correspondant à la verticale du point d’interception, on obtiendra la pression ayant 50 % de chances d’être atteinte.
Et si l’on veut connaître, entre la pression de rampe la plus faible relevée et celle ayant 50 % de chances d’être atteinte, la pression moyenne, il faudra calculer l’emplacement du centre de gravité de la surface délimitée par la distributive et comprise, pour le cas qui nous intéresse, entre 180 et 223,6 bars (à la louche).
La notion de densité de probabilité renvoie donc à la surface de l’aire délimitée par la distributive et, surtout, suggère intuitivement que cette surface est « pesante » et qu’il est par conséquent possible d’en calculer le centre de gravité pour connaître la pression moyenne qui règne sur un intervalle de pressions. Mais elle permet également de déterminer comment se répartit cette surface en fonction de la fourchette de pressions étudiée, autrement dit comment cette surface pesante va se distribuer, à droite, ou à gauche, ou entre deux valeurs de pression prises pour bornes.
D’où la notion de distribution à gauche, à droite et d’intervalle de confiance.
Je détaillerai graphiquement le principe du calcul pour le Toy, donc je ne développe pas davantage à ce stade.
Revenons un instant sur cette notion de soupape flottant autour d’une pression moyenne qui devrait, en théorie, être la pression de consigne.
L’image la plus intuitive est celle d’une gazinière dont on tournerait le robinet pour faire mijoter à feu doux un vieux ragoût des familles ou un pot au feu parfumé juste comme il faut : si le cuistot est bon, il va vite trouver la bonne position pour son robinet et, une fois cette position adoptée, il n’y touchera plus qu’à la marge, voire plus du tout.
Le problème est — et c’est particulièrement net si on examine la densité de probabilité brute de la planche précédente — que le presse-étoupe du dit robinet semble anormalement serré. Il devient alors très difficile de régler le débit de gaz, car le robinet, au lieu de se laisser manœuvrer avec douceur et précision, tourne par à-coups. Il en résulte qu’il sera toujours ou trop ouvert, ou trop fermé, sans qu’il soit possible de trouver la bonne position et de s’y tenir.
En d’autres termes, la plage des ajustements risque d’être beaucoup plus large qu’elle ne devrait.
Il peut donc être judicieux d’analyser plus en détail comment la pression de rampe effective va flotter autour de la valeur de consigne, mais cette fois en fonction du temps qui s’écoule.
La manière la plus précise de suivre les fluctuations en temps long est de mesurer l’évolution de la surface délimitée par fonction représentant la valeur de consigne — qui, ici, est une constante — et celle reflétant la pression de rampe. Par contre, il est nécessaire que la pression de consigne soit rigoureusement constante, ce qui implique que tous les autres paramètres soient parfaitement stabilisés.
Cette stabilité n’étant avérée que pour tes deux derniers enregistrements de Bisnouk, seuls ces fichiers ont été analysés.
Si la régulation fonctionne normalement, la valeur moyenne de cette surface ne s’éloignera que très temporairement de zéro. Formulé autrement, les surfaces négatives devront compenser les positives, le tout devant tendre vers 0 lorsque le temps devient infini.
On commence par l’avant-dernière mesure :
En bleu, la valeur de consigne, parfaitement stabilisée et en rouge, la différence entre la pression réelle et la pression de consigne.
Noter que cette fois, on manipule toutes les valeurs en tant que fonctions du temps.
On passe ensuite au calcul, dont voici le résultat graphique :
En pointillés, la valeur de consigne de la pression de rampe, en bleu, la différence Delta entre la pression réelle et la pression de consigne et, en rouge, la surface délimitée par Delta.
Mathématiquement, la courbe rouge IDelta représente l’intégrale de Delta, donc sa surface.
On constate que l’on démarre quasiment à 0 à l’origine des temps, puis que la courbe amorce une surface négative entre 50 et 150 ms. À partir de 150 ms, le système réagit et fait remonter l’intégrale vers les valeurs positives, sans pour autant parvenir à revenir franchement dans le positif.
À partir de 200 ms, l’intégrale rebascule vers les surfaces négatives puis effectue un certain nombre d’ondulations, signe que le système tente de reprendre le contrôle des opérations, mais sans parvenir à inverser la tendance, les surfaces restant constamment négatives.
Enfin, à partir de 280 ms, le système décroche complètement de la pression de consigne : l’intégrale s’enfonce alors très rapidement dans les valeurs négatives et rien n’indique que le système sera capable d’inverser une tendance qui semble devenue, au bout de 400 000 secondes — soit un peu plus de 6 minutes — irréversible.
Par contre, et on le verra avec le Toy, l’amplitude des ondulations de l’intégrale se réduit significativement à partir de 320 ms : elle semble s’orienter vers une descente plus régulière, ce qui est bon signe et pourrait signifier que la pression de la rampe va durablement se caler en dessous de la pression de consigne, mais à une valeur constante, malheureusement inférieure à la consigne, ce qui est un problème avec une régulation en théorie centrée autour d’une consigne.
Mais, honnêtement, je n’y crois pas.
Le tout est de savoir ce qui déclenche ce changement de stratégie : un temps décompté par le calculateur ? Une sonde de température implantée dans le compartiment moteur ? Ou alors un grippage de la VCV sous l’effet de la chaleur régnant dans le compartiment moteur, ce qui provoquerait alors un élargissement de sa bande morte et, conséquemment, une modification de sa réponse ?
Si l’on passe directement au dernier fichier, on constate que le décrochage s’amorce plus rapidement : dès 150 ms, l’intégrale plonge encore plus profondément vers les valeurs négatives, mais en ondulant un peu plus que précédemment toutefois :
Il se pourrait que la génération des deux fichiers soit séparée d’un temps relativement court, d’où une température toujours élevée dans le compartiment moteur et, conséquemment, un enclenchement de la dérive plus en amont. Par contre, cela invaliderait l’hypothèse d’un « top » donné par le calculateur dès la mise au ralenti du moteur.
Si on revient à l’analyse statistique, on constate que l’accumulation de valeurs négatives intervient de manière assez désordonnée ce qui provoque, comme analysé supra, un déficit en valeurs négatives en partie gauche de la cumulative et, par effet miroir, un excédent de valeurs positives en partie droite.
Formulé autrement, la partie gauche de la cumulative restitue ce qui se passe en fin d’enregistrements (pression de rampe trop faible) et la droite, ce qui se passe au début (pressions trop élevées au regard de ce qui va se passer en fin d’enregistrements) le tout intervenant assez brutalement au point de provoquer des discontinuités de la courbe.
Ce qui, comme on l’a vu, se solde par des coups de serpe dans la courbe des valeurs réelles constituant autant d’anomalies par rapport à un optimum théorique.
D’où ma demande de mesures sur d’autres véhicules identiques afin de déterminer si ce phénomène est « normal » pour ce véhicule ou s’il résulte d’un début de dysfonctionnement de la VCV imputable à un grippage, notamment lors d’une montée significative en température du compartiment moteur.
L’idéal serait de disposer de mesures avant remplacement d’une VCV — dont le dysfonctionnement aura été identifié de manière absolument certaine si possible — puis après remplacement…
Si on ne devait récupérer aucune donnée, deux pistes à creuser, Bisnouk : poursuivre l’essai au ralenti pour voir si la courbe de dérive de l’intégrale devient régulière au bout d’un « certain temps » et, surtout, mesurer le paramètre SCV_AMP, qui semble quantifier la mesure de l’intensité commandant la soupape de dosage, autrement dit, la grandeur qui en pilote le flottement. C’est en effet en mesurant son courant de commande que l’on pourra vérifier si, oui ou non, le calculateur tente de contrôler une vanne dont la bande morte est devenue trop large ou si, au contraire, il laisse volontairement dériver, ce qui m’étonnerait beaucoup.
Passons maintenant à la mécanique japonaise.
Voici ce qu’on obtiendrait à l’OBD :
On constate que la pression de rampe (en bleu) est systématiquement inférieure à la pression de consigne (en rouge). Ensuite, on voit que cette pression est manifestement une fonction périodique du temps dont la fréquence apparaît relativement élevée.
Si on agrandit une partie de la mesure, par exemple entre 20 et 40 secondes, la signature du signal commence à apparaître, malgré une résolution trop limitée.
Il semble composé de plusieurs fréquences combinées :
Une analyse fréquentielle classique du signal confirme la présence de plusieurs pics de fréquence :
Ce résultat m’interpelle : s’agit-il réellement d’harmoniques ou est-on en présence d’une régulation beaucoup plus complexe ?
Nouvelle surprise :
Sans vérification à l’oscilloscope, impossible d’être catégorique compte tenu des limites métrologiques de l’OBD, mais la signature de la courbe qui s’esquisse ressemble étrangement à celle d’une double régulation.
Le problème est qu’en dépit d’un pas d’acquisition temporel plutôt bon pour un OBD, la résolution des données de pression est faiblarde. Pour situer les idées, le fichier brut du Pater comprend 4 367 données couvrant 305 secondes de mesure ; après passage au rouleau compresseur logiciel opérant la mise en classes, il reste seulement 11 lignes/classes de pression. Dans ces conditions, difficile de se livrer à une analyse précise des phénomènes sous-jacents.
Il s’avère que les moteurs logiciels dédiés à la manipulation des objets vectoriels graphiques ou géographiques possèdent une large gamme d’outils aux fonctionnalités très intéressantes. Grâce à eux, il est possible de reconstituer — dans une certaine mesure toutefois — une partie des données manquantes.
Après bidouillage des courbes au « pétard numérique », on sort directement à la fonction de répartition (en bleu) et sa dérivée, la fonction de densité de probabilité (en rouge).
Évidemment, elles n’ont rien à voir avec celles du Ford. Par contre, l’hypothèse des deux cumulatives (une pour chacune limite de pression) apparaît de plus en plus plausible. Au bémol des ressources de l’OBD près — qui ne permet pas de démontrer clairement qu’il s’agit bien de cela — mais quand même : j’avoue que ces résultats assez impressionnants me laissent perplexe.
Si on dérive la fonction de distribution, on peut se faire une idée assez précise de la vitesse d’évolution des pressions (en rouge), autrement dit de la réactivité du système :
En début de cycle, soit à la pression mini, la vitesse d’évolution du système est quasiment nulle. Elle augmente ensuite pour atteindre son maximum à 344,2 bars. À partir de ce pic de pression, le système décélère. A 344,7 bars, la vitesse change de signe et repart à la hausse.
À 345 bars et quelques, la vitesse maximale négative est atteinte. Puis nouvelle décélération jusqu’à 346,5 bars, jusqu’à ce que la vitesse redevienne nulle afin de changer de signe.
Le phénomène se répète ensuite, mais pour le second étage de régulation, qui apparaît encore plus réactif que le précédent : les vitesses d’évolution y sont plus élevées.
Pater, si tu possèdes la doc du Toy, j’aimerais bien que tu nous fasses une synthèse de l’architecture de son système de régulation, car là, on est manifestement en présence d’un truc assez alambiqué.
Sans parler de la précision obtenue et de la stabilité, que l’on va maintenant aborder.
Le calcul des performances de ce système « bicéphale » ne peut pas faire appel équations classiques car aucune fonction continue conventionnelle ne modélisera son comportement ; il faut donc revenir aux fondamentaux.
Le graphe suivant résume la cuisine à effectuer :
La cumulative est en bleu et la densité de probas en rouge. Le segment vertical AA’ représente 95 % des valeurs prises par la pression de rampe ; son centre est impérativement placé sur la cumulative. Si on tire une horizontale en A et A’, chaque droite va intersecter la cumulative en 1 et 2 et former le segment YY’ par intersection avec la fonction de densité.
YY’ est rigoureusement horizontal.
X1 et X2 sont les projections de toutes les intersections sur l’axe des pressions.
X1 vaut 344,05 bars et X2 349,6 bars.
Si, maintenant, on tronque l’aire délimitée par la fonction de densité au droit des deux segments YX1 et Y’X2, on obtient un polygone dont le centre de gravité (centroïde), projeté sur l’axe des pressions, va directement nous donner la pression moyenne atteinte sur l’intervalle de confiance choisi (ici, 95 %, soit un risque de 5 %).
Graphiquement, ça donne un truc du genre :
Comme indiqué sur le tableau de calcul en haut et à gauche de la planche — à un facteur 1 000 près pour la commodité de lecture toutefois — la pression moyenne se situe à 347,2 bars.
En résumé, au risque 5, les performances statistiques du Toy sont de 347,2 +2,5/-3,2 bars, la moyenne de l’intervalle de confiance se situant constamment à – 0,81 % de la valeur de consigne (valeur un poil pessimiste compte tenu de la cuisine que j’ai dû mettre en œuvre, la réalité serait plutôt de l’ordre de – 0,7 %).
Pour le Puma, j’ai effectué les calculs uniquement pour la dernière série d’enregistrements. Par contre, pour des questions de parallélisme méthodologique, j’ai utilisé des méthodes numériques et non une modélisation faisant appel à des sigmoïdes classiques. Graphiquement, il en est ressorti (en bleu, la cumulative et en rouge, sa dérivée, mais dont le lissage était un peu plus musclé) une distributive toujours aussi torturée :
Après ajustement de la distributive du Ford au risque 5, voici une image des polygones — vert pour la distributive complète et bleu foncé pour le risque 5 — et du centroïde pour ce même risque :
Après achèvement du calcul, il en ressort que pour ce même intervalle de confiance à 95 %, les performances statistiques du Puma s’établissent à 220,8 +35/-40 bars, la moyenne de cet intervalle se situant à – 4 % de la valeur de consigne, soit une qualité de positionnement par rapport à la moyenne théorique quatre fois moindre.
L’intervalle de confiance du Ford est environ 13 fois plus large que celui du Toy, dont la pression consigne est une fois et demie supérieure à celle du Ford.
Vu qu’ils ne concernent qu’un seul moteur, je n’ai pas d’avis sur la conformité de ces résultats.
D’où l’importance de récupérer des mesures issues d’autres Puma.
Quoi qu’il en soit, les conséquences d’un intervalle de régulation de pression de rampe vaste comme une plage landaise et dont la gestion dynamique dérive sans logique apparente ni convergence avérée, ne sont certainement pas anodines — notamment quand on commence à demander du couple au moteur — sur l’équilibre des efforts appliqués à l’équipage mobile.
Ainsi que sur la qualité de la pulvérisation, qui a un impact important sur le rendement et la charge polluante.
Pour finir, passons à l’analyse de la régularité dynamique de la régulation du Toy.
Si reprend le calcul effectué pour le Ford, on constate que la dérive en temps long est quasiment linéaire et ne varie pas d’un iota :
Le constat est sans appel : on se situe constamment sous la valeur de consigne, mais la dérive est parfaitement régulière. En d’autres termes, le système de régulation est remarquablement stable dans le temps.
Si on pousse encore un peu plus loin le calcul — là, l’analyse devient particulièrement sévère — afin de tester la convergence de l’intégrale (en bleu, la valeur instantanée de l’intégrale très agrandie et en rouge, sa valeur cumulée) on constate qu’à la fin des cinq minutes de mesure, tous les compteurs sont remis à zéro : les surfaces négatives et positives se sont entièrement compensées.
On peut juste se demander quand et à quel rythme la courbe des valeurs instantanées va de nouveau repasser dans le positif, mais honnêtement, à ce stade, le pinaillage n’est plus très loin…
Voili, voilu.