Extraits de l’article complet sur XERFICanal
S’il est un sujet qui donne des maux de têtes aux DRH de tous les pays, c’est sans doute la mesure de la performance.
L’immense majorité des grandes entreprises ont un système d’évaluation formel, pour identifier les « hauts potentiels », distribuer les primes et les augmentations, et bien sûr pouvoir justifier tous ces choix sans être accusé de favoritisme ou de discrimination.
Bien sûr, on espère aussi donner à chaque individu un retour d’information utile sur son travail, qui lui permettra de s’améliorer.
Tout cela est l’objet de l’entretien de performance, généralement annuel – et généralement détesté. Selon la manière dont la question est formulée, entre deux tiers et 100% des personnes interrogées s’en déclarent mécontentes. C’est vrai des évalués – mais aussi des évaluateurs.
Que reproche-t-on aux entretiens d’évaluation ?
D’abord, de stresser et de démoraliser ceux qui les subissent, ce qui est l’inverse du but recherché.
Ensuite, de se focaliser sur la mesure de la performance passée, plutôt que sur l’amélioration de la performance future.
Troisièmement, de mettre en avant une évaluation individuelle et hiérarchique, en conflit avec le mode de travail d’une organisation moderne, où l’on travaille en équipe, souvent dans des équipes projets fluides. Enfin, de créer une usine à gaz bureaucratique, source d’une perte de temps considérable.
C’est en réaction à ce diagnostic quasi-généralisé qu’on voit fleurir un peu partout depuis quelques années un nouveau thème : les entretiens annuels d’évaluation sont morts ! Des entreprises comme Adobe, Accenture, Dell, ou Deloitte claironnent qu’elles ont « abandonné » cette pratique.
Les méthodes qu’adoptent ces entreprises pour remplacer les entretiens annuels varient bien sûr selon les cas. Mais, schématiquement, la mode consiste à remplacer les entretiens formels (donc rares) par des « points de contact » moins formels donc plus nombreux.
Certains parlent de « Catch-ups » trimestriels, d’autres de « 360° permanents ». Le feedback devient quasi-permanent (d’autant plus facilement qu’il est, bien sûr, digitalisé)
L’idée est que s’il est plus fréquent, le feedback sera dédramatisé. L’intention est aussi de parler plus souvent de ce qu’on pourra faire mieux à l’avenir, et pas seulement de la performance passée.
Au passage, beaucoup d’entreprises en profitent pour simplifier radicalement les critères d’évaluation, qui étaient souvent devenus, par accumulation de strates successives, d’une complexité impraticable.
Ces changements consistent donc à corriger les défauts les plus évidents des systèmes d’évaluation – complexité, lourdeur, coût. Mais ils ne s’attaquent pas au cœur du problème : les évaluations de performance n’évaluent pratiquement pas la performance.
Cette conclusion qui semble provocatrice, voire scandaleuse, fait l’objet d’un large consensus scientifique. (…) Si l’on peut porter cette évaluation sans appel sur les évaluateurs, c’est parce que de nombreuses études ont comparé la manière dont le même « évalué » est noté par différents évaluateurs. Dans les systèmes dits « 360° », où chaque personne est évaluée par de multiples supérieurs, pairs et subordonnés, il est possible d’étudier ce sujet sous tous les angles. En simplifiant et en résumant, ces études peuvent se résumer à quelques chiffres.
La performance « réelle », objective, que tous les évaluateurs devraient voir de manière identique, ne représente que 20-25% des écarts de notation. Un autre quart des écarts vient de la sévérité générale de l’évaluateur (ou de son laxisme).
Et les 50% qui restent, demanderez-vous ? C’est l’interaction entre l’évalué et l’évaluateur, imprévisible et « idiosyncratique » ; et bien sûr l’erreur aléatoire. En plus simple et en français : la tête du client et la chance.
Comme le notent les auteurs d’une de ces études, « ce qui est noté devrait expliquer plus de variance que la personne qui note. Nos résultats démontrent que ce n’est généralement pas le cas. » On a donc affaire à un système sérieusement cassé. (…)
La seule raison – en-dehors de leur moindre coût – de donner leur chance à ces nouvelles techniques d’évaluation, c’est qu’elles remplacent une évaluation annuelle par des occasions d’évaluation plus nombreuses.
Souvent, elles introduisent au passage une multiplicité d’évaluateurs. Pour autant que ces évaluations soient relativement indépendantes les unes des autres, on peut donc espérer réduire les erreurs aléatoires.
La moyenne de plusieurs mesures fausses est souvent moins fausse qu’une seule mesure. En attendant qu’on trouve mieux, c’est donc déjà un petit progrès…