Aller au contenu principal

RE: From Hindsight to Foresight: How Evaluation Can Become Future-Informed

Stephanie Jill Hodge

United States of America

Stephanie Jill Hodge

Posté le 29/04/2026

Du recul à la prospective : comment l’évaluation retrouve toute son utilité

Réflexions issues d’une expérience au cœur de systèmes qui évoluent trop vite pour être mesurés

Il existe une tension latente au cœur de la plupart des travaux d’évaluation, et si vous avez déjà travaillé au sein de programmes complexes liés à l’environnement ou au climat, vous la ressentez presque immédiatement. Nous sommes formés – avec soin, avec rigueur – à regarder en arrière. À évaluer ce qui a été réalisé, ce qui a fonctionné, ce qui n’a pas fonctionné, et si cela correspondait à ce qui avait été initialement promis. Et pourtant, les systèmes dans lesquels nous travaillons – systèmes alimentaires, adaptation au changement climatique, gouvernance de la biodiversité, économies circulaires – ne restent pas immobiles assez longtemps pour que ce regard en arrière reste pertinent.

Dans mon propre travail au sein de portefeuilles liés au Fonds pour l’environnement mondial (FEM) et de systèmes parallèles, j’ai vu cette tension se manifester à maintes reprises. Les questions formelles – pertinence, efficacité, efficience, durabilité – restent constantes. Mais le monde qu’elles sont censées interpréter ne cesse de changer sous leurs pieds.

Prenons l’exemple du programme ISLANDS du Programme des Nations Unies pour l’environnement (PNUE) / FEM, mis en œuvre dans quatorze petits États insulaires en développement (PEID) du Pacifique. Sur le papier, il faisait ce qu’il avait promis. Des infrastructures étaient mises en place – des systèmes de gestion des polluants organiques persistants, du mercure, des déchets électroniques, des huiles usagées. Des politiques ont été rédigées. Des mécanismes de coordination ont été établis. Si l’on s’en tenait au cadre traditionnel, l’évaluation pouvait confirmer la réalisation des objectifs.

Mais quand on prend du recul et qu’on observe le système tel qu’il fonctionne réellement, la question change. Il s’agit moins de savoir si les résultats ont été atteints que de savoir si le système mis en place continuera de fonctionner lorsque les conditions changeront – ce qui est inévitable. Le tourisme fluctue. La marge de manœuvre budgétaire se réduit. Les chocs climatiques perturbent les infrastructures et les chaînes d’approvisionnement. Dans ce contexte, la véritable question que se posaient les décideurs n’était pas « cela a-t-il fonctionné ? », mais « cela tiendra-t-il ? ».

Cette question se situe en dehors de l’évaluation rétrospective, à moins que vous ne l’y intégriez délibérément.

Le même schéma est apparu dans le travail sur l’économie circulaire mené avec la Banque asiatique de développement et le FEM à travers l’Asie du Sud-Est. Nous examinions des systèmes de type « responsabilité élargie des producteurs » : état de préparation des politiques, arrangements institutionnels, mise en œuvre pilote. Tous les ingrédients étaient réunis. Mais là encore, la fragilité ne résidait pas dans la conception. Elle résidait dans les conditions futures dans lesquelles cette conception devrait fonctionner. Les fluctuations des prix des matières premières, les cycles d’application de la réglementation, les changements politiques — ce ne sont pas des cas marginaux. Ils constituent l’environnement opérationnel. Et pourtant, ils sont rarement au centre de la conception de l’évaluation.

Même dans les premiers travaux de conception et d’évaluation de projets du FEM, y compris les conseils au niveau du PIF alignés sur l’Organisation des Nations unies pour l’alimentation et l’agriculture, la théorie du changement suivait une logique familière et rassurante : les résultats conduisent aux capacités, les capacités conduisent à une meilleure gestion, une meilleure gestion conduit à des résultats environnementaux. C’est clair. C’est logique. Mais elle est aussi, dans la plupart des cas, incomplète. Car elle suppose un environnement favorable relativement stable. Elle ne se demande pas, de manière structurée, dans quelles conditions futures cette chaîne tiendra — et où elle se brisera.

Tout au long de ce travail, la même limite ne cesse de refaire surface. L’évaluation rétrospective est très efficace pour valider ce qui a été réalisé. Elle est beaucoup moins performante pour évaluer ce qui perdurera. Et elle reste largement muette sur ce qui est sur le point d’échouer.

C’est là qu’intervient la prospective — non pas comme un ajout abstrait, mais comme une nécessité pratique. Et d’après mon expérience, c’est non pas à la fin d’un programme qu’elle devient la plus puissante, mais en son milieu — lors des ajustements de cap, lors des examens à mi-parcours, dans ces moments chaotiques et inconfortables où les systèmes ne se comportent clairement pas comme prévu mais n’ont pas encore complètement échoué.

C’est là que j’effectue désormais la majeure partie de ce travail.

Lors d’un examen à mi-parcours, la tentation est toujours de stabiliser le récit. D’expliquer les écarts. D’ajuster les notes. De recommander des corrections progressives. Mais si vous traitez un examen à mi-parcours comme un point de contrôle statique, vous passez à côté de sa véritable valeur. Un examen à mi-parcours est le dernier moment crédible pour changer de cap avant qu’un programme ne s’enferme dans sa propre logique.

Mon approche est donc différente.

Je commence par cartographier le système non pas comme un cadre logique, mais comme un parcours. Des données probantes à la décision. De la décision au pipeline. Du pipeline au financement. Du financement à la mise en œuvre. De la mise en œuvre aux résultats. Puis je pose une question simple à chaque étape : où cela avance-t-il, et où est-ce bloqué ?

Pas en théorie. En pratique.

Où les décisions ne sont-elles pas prises, alors même que les données probantes existent ? Où les concepts de projet restent-ils en suspens sans passer dans des pipelines prêts à l’investissement ? Où les financements ne circulent-ils pas, alors même que les priorités sont claires ? Où la mise en œuvre échoue-t-elle parce que la légitimité — en particulier au niveau communautaire — n’est pas assurée ?

Ce n’est pas le terrain de l’évaluation traditionnelle. Mais c’est là que les programmes réussissent ou échouent réellement.

Une fois que l’on voit le système sous cet angle, la prospective s’impose naturellement. Car la question suivante n’est pas « que s’est-il passé ? », mais « que se passera-t-il ensuite si rien ne change ? ». Et ensuite : « que se passera-t-il dans différents scénarios d’avenir plausibles ? »

Concrètement, cela signifie soumettre le système à des tests de résistance. Non pas à l’aide de modèles élaborés, mais par le biais d’un questionnement structuré. Qu’advient-il de ce modèle de financement si les budgets publics se contractent ? Qu’advient-il de ce mécanisme de mise en œuvre en cas de perturbations météorologiques extrêmes ? Qu’advient-il de cette politique si son application s’affaiblit après un changement politique ? Vous n’avez pas besoin de scénarios parfaits. Vous avez besoin de scénarios plausibles.

Et ensuite, vous réintégrez cela dans l’évaluation.

Les recommandations cessent d’être génériques — « renforcer les capacités », « améliorer la coordination » — et deviennent orientées vers l’action. Modifiez cette partie du pipeline car elle ne tiendra pas dans des conditions prévisibles. Rééquilibrez cette structure de financement car elle est trop exposée à un risque unique. Investissez dans cette relation ou ce mécanisme de légitimité car sans cela, la mise en œuvre s’enlisera, quelle que soit la conception technique.

En d’autres termes, l’évaluation consiste moins à juger le passé qu’à réorienter l’avenir.

C’est exactement le domaine dans lequel je travaille actuellement dans le cadre du « Country Package » de la Papouasie-Nouvelle-Guinée. Ici, le problème n’est pas un manque d’activité. C’est que le mouvement au sein du système est inégal et souvent invisible. Les décisions ne se traduisent pas systématiquement en processus. Les processus ne se traduisent pas systématiquement en financement. Le financement ne se traduit pas systématiquement par une mise en œuvre à grande échelle. Et derrière tout cela se cache un facteur critique que l’évaluation traditionnelle sous-estime souvent : la légitimité, en particulier dans un contexte où la propriété foncière coutumière définit ce qui est possible.

Si vous examinez cela avec un regard rétrospectif, vous produirez une évaluation parfaitement raisonnable qui ne changera pratiquement rien aux résultats. Si vous l’examinez avec un regard prospectif — en identifiant où le système risque de s’enliser ensuite —, vous commencez à voir où l’intervention est réellement importante.

Il ne s’agit pas d’abandonner les critères de l’OCDE-CAD. Il s’agit de les élargir. La pertinence devient prospective : cela restera-t-il pertinent dans des scénarios d’avenir plausibles ? La durabilité devient conditionnelle : dans quelles conditions cela tient-il ? L’efficacité devient dynamique : il ne s’agit pas seulement de savoir si les résultats ont été atteints, mais si le système est capable de continuer à les produire.

Et peut-être plus important encore, l’évaluation change de fonction. Elle cesse d’être principalement un mécanisme de rapport et devient un outil d’aide à la décision.

Cela semble être un petit changement. Ce n’est pas le cas. Cela exige des évaluateurs qu’ils soient plus explicites quant à l’incertitude, plus engagés dans la dynamique des systèmes et plus disposés à sortir légèrement de la zone de confort du jugement purement rétrospectif. Cela exige également des institutions qu’elles acceptent que l’évaluation la plus utile n’est pas toujours la plus certaine.

Pour être honnête, bon nombre des enseignements les plus précieux de mon travail sont venus des moments où nous avons fait exactement cela — où nous avons cessé de nous demander « qu’est-ce qui s’est passé ? » pour commencer à nous demander « et si ? » Lorsque nous avons suivi le système vers l’avant plutôt que vers l’arrière. Lorsque nous avons traité l’incertitude non pas comme quelque chose à minimiser, mais comme quelque chose avec lequel il faut composer.

C’est là que l’évaluation redevient utile.

Car dans un monde qui n’est plus stable – et qui ne le sera plus –, la question n’est pas de savoir si nous pouvons parfaitement comprendre le passé.

Il s’agit de savoir si nous pouvons agir, intelligemment et à temps, face à ce qui va suivre.