Stéphanie, merci pour cette réflexion approfondie. Ce qui m’a particulièrement marqué dans ton commentaire, c’est que l’évaluation excelle souvent à valider ce qui a été réalisé, mais qu’elle est bien moins efficace pour évaluer ce qui perdurera, et qu’elle reste pratiquement muette sur ce qui est sur le point d’échouer.
Je pense que cela met le doigt sur l’un des plus grands malais professionnels de l’évaluation. Nous traitons souvent l’incertitude comme une menace pour la rigueur, alors que dans les systèmes complexes liés au climat, à l’environnement et à l’économie circulaire, ignorer l’incertitude peut constituer la plus grande faiblesse méthodologique. Un jugement rétrospectif magnifiquement étayé peut encore s’avérer stratégiquement inutile s’il ne permet pas d’indiquer aux décideurs où le système commence à se fragiliser.
Votre description de l’examen à mi-parcours comme « le dernier moment crédible pour changer de cap » est particulièrement poignante. Trop souvent, les examens à mi-parcours deviennent de vagues exercices de reddition de comptes... ajuster les notes, mettre de l’ordre dans le cadre logique, recommander davantage de coordination... mais si nous les prenions au sérieux en tant que moments de prospective, ils pourraient devenir des points d’inflexion stratégiques où les programmes sont soumis à des tests de résistance avant que l’échec ne devienne inéluctable.
J’ai pu le constater très clairement lors d’une récente évaluation de prospective stratégique de l’UNICEF que j’ai menée... où nous avons dû étendre les critères du CAD de l’OCDE au-delà de leur orientation rétrospective habituelle. La pertinence ne se résumait plus à « est-ce aligné aujourd’hui ? », mais à « cela restera-t-il pertinent dans des conditions futures plausibles ? ». La cohérence portait désormais sur l’adéquation institutionnelle future. L’efficacité devait prendre en compte la capacité d’adaptation, et pas seulement les résultats obtenus. La durabilité devenait explicitement conditionnelle, c’est-à-dire : dans quelles conditions politiques, financières, organisationnelles et sociales ce modèle tiendra-t-il ?
Pour moi, la provocation réside dans le fait que l’évaluation la plus utile n’est peut-être pas celle qui porte le jugement le plus sûr sur le passé, mais celle qui révèle le plus honnêtement où l’avenir est susceptible de remettre en cause les hypothèses du programme. En ce sens, l’évaluation éclairée par l’avenir n’affaiblit pas le jugement évaluatif… elle le rend plus audacieux (peut-on parler d’évaluation plus audacieuse ?)
RE: From Hindsight to Foresight: How Evaluation Can Become Future-Informed
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Stéphanie, merci pour cette réflexion approfondie. Ce qui m’a particulièrement marqué dans ton commentaire, c’est que l’évaluation excelle souvent à valider ce qui a été réalisé, mais qu’elle est bien moins efficace pour évaluer ce qui perdurera, et qu’elle reste pratiquement muette sur ce qui est sur le point d’échouer.
Je pense que cela met le doigt sur l’un des plus grands malais professionnels de l’évaluation. Nous traitons souvent l’incertitude comme une menace pour la rigueur, alors que dans les systèmes complexes liés au climat, à l’environnement et à l’économie circulaire, ignorer l’incertitude peut constituer la plus grande faiblesse méthodologique. Un jugement rétrospectif magnifiquement étayé peut encore s’avérer stratégiquement inutile s’il ne permet pas d’indiquer aux décideurs où le système commence à se fragiliser.
Votre description de l’examen à mi-parcours comme « le dernier moment crédible pour changer de cap » est particulièrement poignante. Trop souvent, les examens à mi-parcours deviennent de vagues exercices de reddition de comptes... ajuster les notes, mettre de l’ordre dans le cadre logique, recommander davantage de coordination... mais si nous les prenions au sérieux en tant que moments de prospective, ils pourraient devenir des points d’inflexion stratégiques où les programmes sont soumis à des tests de résistance avant que l’échec ne devienne inéluctable.
J’ai pu le constater très clairement lors d’une récente évaluation de prospective stratégique de l’UNICEF que j’ai menée... où nous avons dû étendre les critères du CAD de l’OCDE au-delà de leur orientation rétrospective habituelle. La pertinence ne se résumait plus à « est-ce aligné aujourd’hui ? », mais à « cela restera-t-il pertinent dans des conditions futures plausibles ? ». La cohérence portait désormais sur l’adéquation institutionnelle future. L’efficacité devait prendre en compte la capacité d’adaptation, et pas seulement les résultats obtenus. La durabilité devenait explicitement conditionnelle, c’est-à-dire : dans quelles conditions politiques, financières, organisationnelles et sociales ce modèle tiendra-t-il ?
Pour moi, la provocation réside dans le fait que l’évaluation la plus utile n’est peut-être pas celle qui porte le jugement le plus sûr sur le passé, mais celle qui révèle le plus honnêtement où l’avenir est susceptible de remettre en cause les hypothèses du programme. En ce sens, l’évaluation éclairée par l’avenir n’affaiblit pas le jugement évaluatif… elle le rend plus audacieux (peut-on parler d’évaluation plus audacieuse ?)