Connexion
Accédez à votre espace personnel
Recevez nos dernières vidéos et actualités quotidiennementInscrivez-vous à notre newsletter
ÉCONOMIE
Décryptages éco Intelligence économique Intelligence sectorielle Libre-propos Parole d'auteur Graphiques Notes de lecture
STRATÉGIE & MANAGEMENT
Comprendre Stratégies & Management A propos du management Parole d'auteur
IQSOG
RUBRIQUES
Économie généraleFranceEurope, zone euroÉconomie mondiale Politique économique Emplois, travail, salairesConsommation, ménagesMatières premières Finance Géostratégie, géopolitique ComprendreManagement et RHStratégieMutation digitaleMarketingEntreprisesFinanceJuridiqueRecherche en gestionEnseignement, formation
NEWSLETTERS
QUI SOMMES-NOUS ?


Une évaluation objective, cela n'existe pas !

Publié le lundi 30 septembre 2019 . 3 min. 17

Voir plus tard
Partager
Imprimer

Quand on parle de la difficulté de mesurer la performance individuelle de manière précise, une idée revient régulièrement : il suffit d’ob-jec-ti-ver ! Si seulement on arrive à définir de manière précise ce qu’on attend des personnes qu’on évalue, l’évaluation sera plus pertinente et plus juste.


En tous cas, c’est ce qu’on pense généralement.  C’est ce raisonnement qui a conduit beaucoup d’entreprises à utiliser des critères de performance de plus en plus nombreux, en détaillant les compétences attendues : « qualité de la communication », « leadership », « attitude »…  Idéalement, d’ailleurs, ces grilles d’évaluation sont précisées avec des comportements observables : on parle d’« échelles d’évaluation comportementales ».


Ces échelles améliorent la fiabilité des évaluations (c’est-à-dire qu’elles réduisent la variabilité entre l’évaluation de la même personne par deux évaluateurs différents.) Mais peut-on éliminer complètement la subjectivité des évaluateurs ? Hélas, on en est très loin. Même une codification archi-détaillée des compétences attendues ne suffit pas pour garantir l’homogénéité des évaluations. On en trouve un exemple amusant dans un article publié par la revue Military Medicine, et signé de quatre médecins militaires américains.


Comme on peut l’imaginer, l’armée américaine soumet tout son personnel à un test annuel d’aptitude physique. Puisque les résultats à ce test conditionnent la carrière de ceux qui le passent, les épreuves sont rigoureusement définies, dans le même souci d’objectivation qui anime les meilleures entreprises. Elles comprennent notamment un test consistant à faire le maximum de pompes en 2 minutes. La définition de la pompe bien faite est elle-même codifiée avec toute la rigueur dont on imagine capables les organisateurs du D-Day et de Desert Storm : c’est l’objet du Field Manual 7-22, revu en 2012.


A ce niveau de détail et de précision, on pourrait s’attendre à ce qu’on parvienne à éliminer la subjectivité et la variabilité des notations. Hélas, il n’en est rien. En regardant le même enregistrement vidéo d’un soldat faisant le test, il arrive qu’un examinateur compte 35 pompes et un autre 65. C’est la limite de la fiabilité inter-évaluateurs. Mieux (ou pire), la fiabilité intra-évaluateur est loin d’être parfaite : celui qui compte 34 pompes aujourd’hui peut en compter 69 quand il regarde la même vidéo du même soldat une semaine plus tard.


Même quand on fait le maximum pour objectiver une mesure de performance, le jugement d’une seule personne conserve une composante aléatoire bien plus grande qu’on ne le soupçonne. C’est vrai pour les pompes ! Alors, imaginez ce que vaut l’évaluation de votre patron sur votre « potentiel »…


x
Cette émission a été ajoutée à votre vidéothèque.
ACCÉDER À MA VIDÉOTHÈQUE
x

CONNEXION

Pour poursuivre votre navigation, nous vous invitons à vous connecter à votre compte Xerfi Canal :
Déjà utilisateur
Adresse e-mail :
Mot de passe :
Rester connecté Mot de passe oublié?
Le couple adresse-mail / mot de passe n'est pas valide  
  CRÉER UN COMPTE
x
Saisissez votre adresse-mail, nous vous enverrons un lien pour définir un nouveau mot de passe.
Adresse e-mail :