Connexion
Accédez à votre espace personnel
Recevez nos dernières vidéos et actualités quotidiennementInscrivez-vous à notre newsletter
ÉCONOMIE
Décryptages éco Intelligence économique Intelligence sectorielle Libre-propos Parole d'auteur Graphiques Notes de lecture
STRATÉGIE & MANAGEMENT
Comprendre Stratégies & Management A propos du management Parole d'auteur
IQSOG
RUBRIQUES
Économie généraleFranceEurope, zone euroÉconomie mondiale Politique économique Emplois, travail, salairesConsommation, ménagesMatières premières Finance Géostratégie, géopolitique ComprendreManagement et RHStratégieMutation digitaleMarketingEntreprisesFinanceJuridiqueRecherche en gestionEnseignement, formation
NEWSLETTERS
QUI SOMMES-NOUS ?

Voir plus tard
Partager
Imprimer

La statistique n’est pas reconnue comme un art noble en économie. Et les études purement descriptives sont considérées souvent avec une certaine condescendance. C’est pourtant le socle sur lequel se bâtit tout l’édifice de l’analyse empirique et de la validation des représentations théoriques. Ce mépris de l’art des données sous-estime complètement sa complexité et le pouvoir considérable du chiffre. Tout chiffrage requiert un appareillage, un protocole considérable, qui doit être pensé en amont et requiert une compréhension fine et intime de la substance que l’on cherche à quantifier. Toute donnée, qu’elle soit issue de la comptabilité publique ou privée, repose in fine sur une somme de conventions qui bornent son sens, que seuls ceux qui l’élaborent maîtrisent pleinement et que la plupart des utilisateurs perdent de vue, évitant la plupart du temps l’exercice rébarbatif qui consiste à consulter les volumes austères de méthode.


La statistique est une matière évolutive


Or, il n’y a pas de bon travail empirique sans connaissance des artéfacts que véhicule tout chiffre et qui peuvent changer avec le temps. Car pour compliquer les choses, la statistique publique ou privée est de surcroît une matière évolutive. L’économie change dans ses structures, ses périmètres, ses moteurs de croissance, les indicateurs d’alerte pertinents, les questionnements. Et c’est tout le défi de l’appareil statistique : garantir une continuité temporelle, ce qui impose une stabilité des conventions et innover graduellement pour répondre aux nouveaux besoins, revoir des conventions simplificatrices aux effets de second ordre lorsqu’elles ont été conçues, mais qui peuvent devenir problématiques et fausser l’analyse avec le temps et intégrer les nouveaux process que permettent la technologie.


Les enjeux aujourd’hui sont à la fois multiples et considérables. Ils donnent lieu à des travaux immergés dont on regrette la faible publicité tant leur intérêt est capital à la compréhension des choses. Il s’agit en vérité d’un véritable champ de recherche noble et décisif dont on aimerait qu’il soit mieux reconnu et investi par la sphère académique. Dans son ouvrage, l’histoire de la statistique industrielle de 1980, Michel Volle nous ouvrait le jeu d’acteur caché, qui sous-tend l’élaboration de la statistique publique et la façon dont les conditions de sa production en affectent le sens et la portée.


Aujourd’hui, la statistique est confrontée à des défis considérables :


- L’évaluation des flux et des stocks immatériels qui ne donnent pas toujours lieu à facturation, et souvent de façon très hétérogène au sein des firmes avec des conventions qui diffèrent fortement entre les pays.
- Elle expérimente et mène des travaux sur la comptabilité environnementale, qui devient un repère incontournable pour piloter nos économies.
- Elle se doit d’incorporer les nouveaux potentiels de traçabilité des flux que permet l’explosion de la data, laquelle ouvre de nouveaux champs d’investigations.
- Elle incorpore de mieux en mieux les problématiques de périmètres de groupe d’entreprises, le fait que les entités productives résidentes soient un sous-ensemble d’entité à périmètre mondial, etc.


Le chantier est colossal et l’on peut s’interroger sur les moyens réellement dévolus à cette entreprise pourtant essentielle. Et de fait, sur tous ces terrains, les choses bougent, parfois de façon spectaculaire à en juger par la rapidité de l’Insee à mobiliser les données à haute fréquence de consommation d’énergie ou de débit carte bleu qui ont permis à l’institution de fournir un suivi quasiment en temps réel des incidences de la crise sanitaire.


La sphère académique doit s’interroger sur la substance des choses


Ça travail trop souvent caché n’atteint pourtant pas la sphère académique qui trop souvent va déployer une économétrie sophistiquée sur des données friables que les chercheurs abordent comme objectives et qu’ils n’explicitent pas la plupart du temps. C’est une grave erreur qui invalide la pertinence d’un grand nombre d’études. Les exemples sont légion :


- Tels les multiples travaux sur la R&D qui surlignent que cette dernière est contra-cyclique, baissant moins que les investissements physiques en phase de récession, oubliant que par convention la R&D est rattachée à de l’emploi hautement qualifié, à des programmes sur long terme qui n’ont aucune raison d’être cyclique. Et que par construction, la R&D est le plus souvent un lissage dans le temps de coûts fixes (humains et matériels) consacrés au fonctionnement des équipes de recherche.
- Ce sont les mêmes types de travaux qui vont trouver une pro-cyclicité de la R&D quand la contrainte de crédit est forte… sans s’interroger sur l’anomalie ou la gravité d’un tel résultat, de boîtes suffisamment moribondes pour réduire leurs coûts fixes stratégiques.
- Sans parler de toutes les tentatives pour établir un lien entre R&D et productivité, sur la base d’entités résidentes, alors mêmes que les plus gros budgets de R&D sont le fait de groupes multinationaux qui concentrent les coûts fixes de la recherche et du développement et les fonctions stratégiques sur le territoire, tandis qu’elles délocalisent ou dispatchent leur production dans tout le reste du monde. Peu de chance alors de trouver que les entreprises qui investissent en R&D sont celles qui disposent d’un plus haut niveau de productivité, ou alors si un tel résultat ressort, il est pour le moins suspect….


La liste est longue, dans tous les domaines, notamment celui de l’emploi, où nombre de résultats réputés fiables relèvent de la pure tautologie statistique.


Bref, le retour aux sources est urgent. Quantifier, c’est s’interroger en profondeur sur les substances des choses et c’est une voie d’accès privilégiée pour comprendre les mutations contemporaines.


x
Cette émission a été ajoutée à votre vidéothèque.
ACCÉDER À MA VIDÉOTHÈQUE
x

CONNEXION

Pour poursuivre votre navigation, nous vous invitons à vous connecter à votre compte Xerfi Canal :
Déjà utilisateur
Adresse e-mail :
Mot de passe :
Rester connecté Mot de passe oublié?
Le couple adresse-mail / mot de passe n'est pas valide  
  CRÉER UN COMPTE
x
Saisissez votre adresse-mail, nous vous enverrons un lien pour définir un nouveau mot de passe.
Adresse e-mail :