La discussion en ligne restera ouverte aux contributions jusqu'au 30 avril 2026 !
Contexte et justification
Les programmes pour la sécurité alimentaire, l'environnement et le développement agricole ont de plus en plus lieu dans des contextes volatiles, incertains et complexes. Les perturbations climatiques, la dégradation des écosystèmes, les conditions géopolitiques changeantes et la succession de crises ne sont plus seulement des bruits de fond. Ils définissent l'environnement dans lequel ces programmes sont conçus et mis en œuvre. Dans ces secteurs, l'évaluation reste souvent focalisée sur la redevabilité rétrospective, en mesurant la performance passée par rapport à des objectifs fixés, alors que les conditions de mise en œuvre ne cessent d'évoluer.
Ce décalage temporel a des conséquences pratiques. Lorsque les évaluations apprécient la pertinence, l'efficacité et la durabilité par rapport aux conditions qui existaient lors de la conception du programme, elles peuvent générer des résultats qui sont exacts en ce qui concerne le passé mais moins pertinents pour orienter les décisions futures et gérer le changement. Les processus de théorie du changement répètent souvent une même limite: celle de ne pas tenir compte des scénarios futurs possibles qui détermineront si les investissements actuels seront en fin de compte couronnés de succès ou non.
La prospective stratégique propose des approches tournées vers l'avenir en mesure de renforcer la pratique de l'évaluation. Des méthodes telles que l'analyse prospective, la planification de scénarios, le «triangle des futurs», le cadre des «trois horizons» et l'analyse causale par couches aident les évaluateurs à regarder au-delà de la performance passée et à prendre en compte la manière dont les programmes pourraient fonctionner dans des conditions futures différentes. Ces instruments et cadres prospectifs peuvent enrichir l'évaluation à chaque étape, de la définition de sa portée et de sa conception jusqu'à l'apprentissage et l'utilisation. Lorsqu'ils sont utilisés tout au long de l'évaluation, ils favorisent une gouvernance plus préventive, permettent des décisions qui s'appuient sur des preuves, tout en restant attentifs à l'incertitude et au changement de long terme.
Un élan visant à intégrer la prospective et l'évaluation est déjà visible dans différents secteurs. Les programmes d'action préventive du PAM ont par exemple déjà introduit des approches tournées vers l'avenir dans les cadres de suivi et évaluation. Au même moment, des organisations telles que le FEM, le CGIAR et la FAO examinent comment l'évaluation pourrait mieux évaluer la résilience de long terme et les impacts systémiques des investissements dans les domaines de l'environnement et de l'agriculture. Ces évolutions suscitent également une réflexion plus large au sein de la communauté de l'évaluation, notamment en renouvelant l'intérêt porté à l'évolution possible des critères du CAD de l'OCDE si l'on passait de la mesure de la conformité par rapport à des priorités passées, à l'évaluation de la pertinence et de la solidité prospective dans des scénarios futurs plausibles. Malgré cet élan, les orientations pratiques pour les évaluateurs restent limitées. Peu d'évaluateurs ont reçu une initiation formelle aux méthodes prospectives et les praticiens de la prospective sont rarement formés en évaluation. Les instruments, les exemples de cas et la communauté de pratique nécessaires pour relier ces domaines ne sont pas encore bien établis.
Finalité de la discussion
Cette discussion en ligne examinera comment les méthodes prospectives peuvent être intégrées dans la pratique évaluative dans les domaines de la sécurité alimentaire, de l'environnement et de l'agriculture. En s'appuyant sur les expériences des praticiens, des exemples réels et des lectures facultatives, la discussion mettra en exergue des idées pratiques que les évaluateurs peuvent utiliser pour que leur travail s'adapte à l'incertitude et soit plus efficace pour une prise de décision tournée vers l'avenir.
Objectifs de la discussion
- Introduire les principaux concepts et instruments clés – tels que l'analyse prospective, la planification de scénarios, le «triangle des futurs», le cadre des «trois horizons» et l'analyse causale par couches – et examiner la manière dont ils peuvent être appliqués dans les processus d'évaluation.
- Examiner comment l'évaluation tournée vers l'avenir peut renforcer les évaluations de la pertinence, de la durabilité, et de l'impact systémique dans les programmes de sécurité alimentaire, environnementaux et agricoles.
- Partager des exemples concrets d'intégration de la prospective et de l'évaluation dans le secteur, notamment l'action préventive, la programmation de la résilience climatique et les processus de théorie du changement.
- Identifier les points d'entrée pratiques par lesquels les évaluateurs peuvent commencer à incorporer les approches prospectives dans leur travail, quels que soit le contexte institutionnel ou les contraintes en termes de ressource.
Questions directives
- Dans des contextes caractérisés par l'incertitude climatique, le changement environnemental rapide et des réalités géopolitiques changeantes, où avez-vous observé les limites de l'évaluation rétrospective? Comment cela a-t-il affecté l'utilisation des résultats d'évaluation?
- Quels outils ou méthodes de prospective avez-vous connus dans votre pratique d'évaluation? Qu'est-ce qui les a rendus utiles ou difficiles à appliquer? Quels outils prospectifs, le cas échéant, avez-vous utilisés personnellement?
- Comment nos interprétations des critères du CAD (tels que la pertinence et la durabilité) dans une vision prospective pourraient modifier ce que nous mesurons, comment nous le mesurons et comment nous formulons les recommandations?
- Où voyez-vous des opportunités d'intégration de la prospective et de l'évaluation dans les domaines de la sécurité alimentaire, de l'environnement et de l'agriculture?
- Quels compétences, ressources et changements institutionnels seraient nécessaires pour que la prospective fasse partie intégrante de la conception et de la commande de l'évaluation?
Lectures pour la discussion
Semaine 1: Présentation du thème et analyse des questions directives.
Semaine 2: Examen de la prospective transformatrice pour l'impératif transformateur, à travers un article à paraître dans le Journal of MultiDisciplinary Evaluation, sous la direction de Scott Chaplowe.
Semaine 3: Discussion autour de “Fusing foresight and futures thinking for a new transformative evaluation paradigm” de Rose Thompson Coon, Katri Vataja et Pinja Parkkonen (dans New Directions for Evaluation, Été 2024, n. 183, pages 91-101)
Semaine 4: Consultation de Quality Criteria for Food Systems Foresight in Africa: A practitioner’s guide for commissioning, facilitating and evaluating foresight, guide récent écrit par Katindi Sivi et lancé par le Forum for Agricultural Research in Africa, en partenariat avec Foresight4Food, University of Oxford et le International Development Research Centre.
This discussion is now closed. Please contact info@evalforearth.org for any further information.
United States of America
Tina Tordjman-Nebe
Evaluation Advisory
UNDP Independent Evaluation Office
Posté le 04/05/2026
Dear Steven,
Dear EvalforEarth Members,
I would like to share a blog I recently authored, initially published on the United Nations Development Programme (UNDP) website:
“Not Just Looking Back: Why Evaluation Needs a Forward View”
Available here: https://www.undp.org/evaluation/blog/not-just-looking-back
The reflections in this piece align closely with the ongoing discussion
Kenya
Eddah Kanini (Board member: IDEAS, AGDEN & MEPAK. Former Board member AfrEA 2021-2026
Monitoring, Evaluation and Gender Consultant/Trainer
Posté le 03/05/2026
The topic is very relevant, timely and thought-provoking.
In the context of climate uncertainty and its implications for the use of evaluation findings, it is evident that retrospective evaluation is a weak predictor of future outcomes due to climate variability. Methodologically, static measurements are designed for relatively stable environments, and can no longer fit in the dynamic and volatile ecosystems we are experiencing today.
For example, in food security, the more we measure project success based on the yield increases, the more we risk overlooking critical factors such as soil depletion trends, climate shocks, and indigenous community mobility patterns, among others. As a result, findings may quickly become underutilised. It is therefore clear that yesterday’s solutions cannot remain valid for tomorrow’s problems.
Foresight Tools and Methods
Some foresight tools and methods I have encountered include Outcome Harvesting, the 3 Horizons Framework, systems mapping, scenario planning, horizon scanning, and trend analysis. These approaches are valuable because they capture uncertainty and expand thinking beyond linear outcomes, thereby supporting adaptability in programmes.
However, their application comes with challenges because they require time, skills, and facilitation capacity, which many evaluators may not yet possess. Additionally, some stakeholders perceive these approaches as less rigorous. Another constraint is that they are not often embedded in donor terms of reference, which discourages evaluators from applying them.
DAC Criteria through a Foresight Lens
Reinterpreting the DAC criteria through a foresight lens is important. For instance, we need to move from a static relevance to dynamic relevance. Traditionally, we ask whether an intervention was aligned at the design stage; however, we should also be asking whether it will remain relevant under future scenarios.
Similarly, sustainability is often framed as the continuation of benefits after programme completion. In today’s volatile context, this needs to shift toward assessing whether systems can adapt, absorb shocks, and transform. This includes examining resilience and adaptive capacity at both system and community levels.
Opportunities in Food Security, Environmental, and Agricultural Sectors
These sectors are inherently future-facing. In Kenya, since childhood, we were often reminded, “Huu ni uti wa mgongo wa uchumi”, meaning this is the backbone of our economy. Importantly, Indigenous knowledge systems already function as foresight systems.
There are significant opportunities to integrate foresight into areas such as agroecology, climate-resilient agriculture, pastoralist mobility systems, and early warning systems. Indigenous forecasting methods, such as interpreting weather patterns, seasonal cycles, animal behaviour, and land use patterns, offer valuable insights that can strengthen evaluation practice.
What Needs to Change to Integrate Foresight into Evaluation
To make foresight a regular part of evaluation, we need to strengthen skills in systems thinking, futures literacy, facilitation of uncertainty, and multidisciplinary approaches.
At the institutional level, there is a need for flexible terms of reference, adaptive and real-time evaluation designs, and learning-focused commissioning processes that allow for cumulative learning over time.
Overall, we need to shift from the narrow focus on accountability to a balanced learning and anticipation, supported by investments in digital data tools.
My conclusion
I would conclude by urging the adoption of the indigenous scenario work, that is, planning for multiple possible futures rather than assuming a single predictable path. This involves asking critical questions such as What might happen? What could change? What if things go differently?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 30/04/2026
Merci à tous ceux qui ont contribué à cette discussion riche et approfondie au cours des dernières semaines. J’ai beaucoup apprécié la diversité des points de vue exprimés — provenant du Kenya, du Bénin, d’Afrique australe, d’Asie du Sud, du Pacifique et d’ailleurs — ainsi que la manière dont les contributeurs ont ancré le lien entre prospective et évaluation dans des questions concrètes liées à la vulnérabilité climatique, aux systèmes alimentaires, à la gouvernance environnementale, à la transformation agricole, à la gestion adaptative et à l’appropriation communautaire.
Un fil conducteur fort de cette discussion est que l’évaluation éclairée par l’avenir ne consiste pas simplement à ajouter des outils de prospective aux pratiques d’évaluation existantes. Il s’agit de repenser le moment, la profondeur et l’intention. Comment concevoir des évaluations qui ne se contentent pas de demander ce qui a fonctionné, mais qui examinent si une intervention reste pertinente, résiliente, juste et viable dans les conditions émergentes ? Comment passer de bases de référence statiques à des points de référence dynamiques, d’un jugement final à une interprétation continue, et d’une reddition de comptes rétrospective à un soutien décisionnel anticipatif ? J’approfondirai ces thèmes dans le prochain résumé de la discussion.
Alors que la discussion formelle s’achève aujourd’hui, j’aimerais également poser la question suivante : quelle pourrait être la prochaine étape ?
Une suite possible pourrait être un masterclass court et pratique de trois heures sur l’intégration de la prospective et de la réflexion sur l’avenir dans l’évaluation, en particulier pour les programmes de sécurité alimentaire, d’environnement et de développement agricole. Cela permettrait de présenter des concepts et des outils fondamentaux — tels que l’analyse prospective, l’analyse causale par couches, les scénarios, les trois horizons et le « wind-tunnelling » — tout en mettant l’accent sur la manière dont ils peuvent être intégrés dans les questions d’évaluation, les théories du changement, les critères du CAD de l’OCDE, l’apprentissage adaptatif et les recommandations.
Je serais très intéressé de savoir si les participants à cette discussion, ou vos collègues au sein de vos organisations et réseaux, trouveraient une telle masterclass utile.
Pour conclure, je joins également une version prépublication d’un article que j’ai coécrit sur la prospective transformatrice et l’impératif de transformation. D’une certaine manière, cela nous ramène à l’article de Chaplowe et Mukoma que j’ai publié au début de la discussion, le 28 mars. Mon article soutient que l'évaluation doit aller au-delà du statu quo en intégrant la réflexion prospective non pas comme un simple ajout technique, mais comme partie intégrante d'une réorientation plus profonde vers une pratique anticipative, axée sur la justice et centrée sur la transformation. Veuillez le considérer comme un projet de prépublication et ne pas le citer, le reproduire ou le diffuser sans l'autorisation des auteurs.
Merci encore pour la générosité, la perspicacité et la sagesse pratique que vous avez apportées à cette discussion.
Canada
Rhode Early Charles
Posté le 30/04/2026
Thank you, Steven, for your thoughtful facilitation and for bringing together such a rich exchange of ideas. The discussion has been insightful, practical, and deeply grounded in real-world challenges. I particularly appreciate how it has opened space for new thinking on foresight, evaluation, and adaptive practice. I look forward to the next steps, including the summary and potential masterclass.
Ghana
Ishmael Kwame Agbomlaku
Manager
Integrated Institute of professional, LA plage Meta Verse.
Posté le 29/04/2026
L'évaluation doit évoluer d'un exercice rétrospectif vers un outil décisionnel tourné vers l'avenir. Si le recul nous aide à comprendre ce qui a fonctionné et ce qui n'a pas fonctionné, la prospective nous permet d'anticiper les risques, de nous adapter à l'incertitude et de concevoir des interventions plus résilientes.
Une façon d'y parvenir consiste à intégrer des systèmes de données en temps réel, des analyses prédictives et la planification de scénarios dans les processus d'évaluation. Par exemple, dans des secteurs sensibles au climat comme l’agriculture ou la gestion de l’eau, les évaluateurs peuvent utiliser des données historiques parallèlement aux projections climatiques pour orienter la programmation future plutôt que de se contenter d’évaluer les résultats passés.
De plus, l’adoption d’approches d’évaluation adaptatives et axées sur le développement favorise l’apprentissage continu et la flexibilité. Cela garantit que les programmes ne sont pas seulement évalués à la fin, mais qu’ils sont continuellement améliorés sur la base des nouvelles données disponibles.
L’engagement des parties prenantes est également essentiel. L’intégration des connaissances locales et des perspectives communautaires renforce la prospective en ancrant les scénarios futurs dans des contextes concrets.
En substance, l’évaluation doit passer de la réponse à la question « Que s’est-il passé ? » à celle de « Que risque-t-il de se passer, et comment pouvons-nous nous y préparer ? ». Cette transformation rend l’évaluation plus stratégique, plus réactive et plus efficace pour relever les défis mondiaux complexes. En tant que praticien du suivi et de l’évaluation, je considère ce changement comme essentiel pour améliorer les résultats en matière de développement, en particulier dans des contextes vulnérables comme le Ghana, où l’incertitude ne cesse de croître.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Merci, Ismael. Je partage pleinement ton argument central selon lequel l'évaluation doit devenir davantage un outil de prise de décision tourné vers l'avenir, et non plus seulement un mécanisme permettant de juger les performances passées. Le recul historique reste essentiel, mais il n'est pas suffisant lorsque les programmes s'inscrivent dans des systèmes marqués par la volatilité climatique, l'incertitude politique, les évolutions technologiques et les besoins changeants des communautés.
Vos exemples tirés de l'agriculture et de la gestion de l'eau sont particulièrement pertinents. Dans ces secteurs, les données historiques sur les performances peuvent nous dire ce qui s'est passé, mais les projections climatiques, la planification par scénarios et la surveillance en temps réel nous aident à poser une question plus stratégique : qu'est-ce qui est susceptible de rester viable dans différentes conditions futures ?
J'apprécie également votre lien avec l'évaluation adaptative et développementale. Pour moi, c'est là que la prospective et l'évaluation se renforcent mutuellement. La prospective aide à identifier les risques émergents, les hypothèses et les voies alternatives, tandis que l'évaluation adaptative aide les programmes à apprendre et à s'ajuster à mesure que ces futurs commencent à se dessiner. Le défi consiste à veiller à ce que l'analyse prédictive et les données en temps réel ne deviennent pas de simples exercices techniques, mais soient combinées à une interprétation participative, aux connaissances locales et au jugement professionnel. C'est ce qui transforme l'information en décisions utiles.
Benin
Expédit TCHIGO
University of Parakou
Posté le 29/04/2026
Au Bénin, le système d'évaluation des politiques fait actuellement l'objet d'une transformation majeure. Dans ce contexte, une question cruciale se pose de toute urgence : comment obtenir efficacement des données en temps réel ? En effet, si de nombreux processus d'évaluation peuvent s'appuyer sur des outils couramment utilisés en prospective, tels que les registres des risques, les boucles de gestion adaptative, le questionnement stratégique et la planification par scénarios, ces instruments, bien que précieux, ne remplacent pas entièrement une pratique rigoureuse et professionnelle de la prospective. Il devient donc essentiel d'adopter une approche plus intégrée. De plus, l'importance accordée à l'appropriation partagée tout au long du processus, de la conception à la mise en œuvre, apparaît comme un atout majeur, renforçant à la fois la pertinence et la durabilité des résultats de l'évaluation.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Expédit, merci pour cette réflexion très pertinente. Et je dois dire que ta mention du Bénin m’a vraiment rappelé de bons souvenirs… Le Bénin a été le premier pays africain où j’ai travaillé, en 1997. Je me suis ensuite rendu à Parakou en 1998, et je garde encore de très bons souvenirs de cette époque.
Ton argument concernant les données en temps réel me semble particulièrement important. Dans de nombreux systèmes d’évaluation, nous dépendons encore trop de données tardives, même lorsque le contexte politique évolue rapidement. Mais j’apprécie également votre mise en garde selon laquelle des outils tels que les registres de risques, les boucles adaptatives, le questionnement stratégique et la planification de scénarios ne sont pas assimilables à une pratique professionnelle de prospective. Ils peuvent soutenir la prospective, mais ils ne remplacent pas le travail plus approfondi consistant à interpréter les signaux faibles, à mettre en évidence les hypothèses, à explorer des futurs alternatifs et à aider les décideurs à agir dans un contexte d’incertitude.
Je suis également tout à fait d'accord avec l'accent que vous mettez sur la responsabilité partagée. Dans un système d'évaluation des politiques en pleine transformation, une évaluation fondée sur la prospective ne sera utile que si elle n'est pas imposée comme un exercice technique externe, mais si elle est prise en charge conjointement, de la conception à la mise en œuvre. C'est ce qui confère au processus sa légitimité, sa pertinence et la possibilité d'une réelle adoption.
United States of America
Stephanie Jill Hodge
Posté le 29/04/2026
Du recul à la prospective : comment l’évaluation retrouve toute son utilité
Réflexions issues d’une expérience au cœur de systèmes qui évoluent trop vite pour être mesurés
Il existe une tension latente au cœur de la plupart des travaux d’évaluation, et si vous avez déjà travaillé au sein de programmes complexes liés à l’environnement ou au climat, vous la ressentez presque immédiatement. Nous sommes formés – avec soin, avec rigueur – à regarder en arrière. À évaluer ce qui a été réalisé, ce qui a fonctionné, ce qui n’a pas fonctionné, et si cela correspondait à ce qui avait été initialement promis. Et pourtant, les systèmes dans lesquels nous travaillons – systèmes alimentaires, adaptation au changement climatique, gouvernance de la biodiversité, économies circulaires – ne restent pas immobiles assez longtemps pour que ce regard en arrière reste pertinent.
Dans mon propre travail au sein de portefeuilles liés au Fonds pour l’environnement mondial (FEM) et de systèmes parallèles, j’ai vu cette tension se manifester à maintes reprises. Les questions formelles – pertinence, efficacité, efficience, durabilité – restent constantes. Mais le monde qu’elles sont censées interpréter ne cesse de changer sous leurs pieds.
Prenons l’exemple du programme ISLANDS du Programme des Nations Unies pour l’environnement (PNUE) / FEM, mis en œuvre dans quatorze petits États insulaires en développement (PEID) du Pacifique. Sur le papier, il faisait ce qu’il avait promis. Des infrastructures étaient mises en place – des systèmes de gestion des polluants organiques persistants, du mercure, des déchets électroniques, des huiles usagées. Des politiques ont été rédigées. Des mécanismes de coordination ont été établis. Si l’on s’en tenait au cadre traditionnel, l’évaluation pouvait confirmer la réalisation des objectifs.
Mais quand on prend du recul et qu’on observe le système tel qu’il fonctionne réellement, la question change. Il s’agit moins de savoir si les résultats ont été atteints que de savoir si le système mis en place continuera de fonctionner lorsque les conditions changeront – ce qui est inévitable. Le tourisme fluctue. La marge de manœuvre budgétaire se réduit. Les chocs climatiques perturbent les infrastructures et les chaînes d’approvisionnement. Dans ce contexte, la véritable question que se posaient les décideurs n’était pas « cela a-t-il fonctionné ? », mais « cela tiendra-t-il ? ».
Cette question se situe en dehors de l’évaluation rétrospective, à moins que vous ne l’y intégriez délibérément.
Le même schéma est apparu dans le travail sur l’économie circulaire mené avec la Banque asiatique de développement et le FEM à travers l’Asie du Sud-Est. Nous examinions des systèmes de type « responsabilité élargie des producteurs » : état de préparation des politiques, arrangements institutionnels, mise en œuvre pilote. Tous les ingrédients étaient réunis. Mais là encore, la fragilité ne résidait pas dans la conception. Elle résidait dans les conditions futures dans lesquelles cette conception devrait fonctionner. Les fluctuations des prix des matières premières, les cycles d’application de la réglementation, les changements politiques — ce ne sont pas des cas marginaux. Ils constituent l’environnement opérationnel. Et pourtant, ils sont rarement au centre de la conception de l’évaluation.
Même dans les premiers travaux de conception et d’évaluation de projets du FEM, y compris les conseils au niveau du PIF alignés sur l’Organisation des Nations unies pour l’alimentation et l’agriculture, la théorie du changement suivait une logique familière et rassurante : les résultats conduisent aux capacités, les capacités conduisent à une meilleure gestion, une meilleure gestion conduit à des résultats environnementaux. C’est clair. C’est logique. Mais elle est aussi, dans la plupart des cas, incomplète. Car elle suppose un environnement favorable relativement stable. Elle ne se demande pas, de manière structurée, dans quelles conditions futures cette chaîne tiendra — et où elle se brisera.
Tout au long de ce travail, la même limite ne cesse de refaire surface. L’évaluation rétrospective est très efficace pour valider ce qui a été réalisé. Elle est beaucoup moins performante pour évaluer ce qui perdurera. Et elle reste largement muette sur ce qui est sur le point d’échouer.
C’est là qu’intervient la prospective — non pas comme un ajout abstrait, mais comme une nécessité pratique. Et d’après mon expérience, c’est non pas à la fin d’un programme qu’elle devient la plus puissante, mais en son milieu — lors des ajustements de cap, lors des examens à mi-parcours, dans ces moments chaotiques et inconfortables où les systèmes ne se comportent clairement pas comme prévu mais n’ont pas encore complètement échoué.
C’est là que j’effectue désormais la majeure partie de ce travail.
Lors d’un examen à mi-parcours, la tentation est toujours de stabiliser le récit. D’expliquer les écarts. D’ajuster les notes. De recommander des corrections progressives. Mais si vous traitez un examen à mi-parcours comme un point de contrôle statique, vous passez à côté de sa véritable valeur. Un examen à mi-parcours est le dernier moment crédible pour changer de cap avant qu’un programme ne s’enferme dans sa propre logique.
Mon approche est donc différente.
Je commence par cartographier le système non pas comme un cadre logique, mais comme un parcours. Des données probantes à la décision. De la décision au pipeline. Du pipeline au financement. Du financement à la mise en œuvre. De la mise en œuvre aux résultats. Puis je pose une question simple à chaque étape : où cela avance-t-il, et où est-ce bloqué ?
Pas en théorie. En pratique.
Où les décisions ne sont-elles pas prises, alors même que les données probantes existent ? Où les concepts de projet restent-ils en suspens sans passer dans des pipelines prêts à l’investissement ? Où les financements ne circulent-ils pas, alors même que les priorités sont claires ? Où la mise en œuvre échoue-t-elle parce que la légitimité — en particulier au niveau communautaire — n’est pas assurée ?
Ce n’est pas le terrain de l’évaluation traditionnelle. Mais c’est là que les programmes réussissent ou échouent réellement.
Une fois que l’on voit le système sous cet angle, la prospective s’impose naturellement. Car la question suivante n’est pas « que s’est-il passé ? », mais « que se passera-t-il ensuite si rien ne change ? ». Et ensuite : « que se passera-t-il dans différents scénarios d’avenir plausibles ? »
Concrètement, cela signifie soumettre le système à des tests de résistance. Non pas à l’aide de modèles élaborés, mais par le biais d’un questionnement structuré. Qu’advient-il de ce modèle de financement si les budgets publics se contractent ? Qu’advient-il de ce mécanisme de mise en œuvre en cas de perturbations météorologiques extrêmes ? Qu’advient-il de cette politique si son application s’affaiblit après un changement politique ? Vous n’avez pas besoin de scénarios parfaits. Vous avez besoin de scénarios plausibles.
Et ensuite, vous réintégrez cela dans l’évaluation.
Les recommandations cessent d’être génériques — « renforcer les capacités », « améliorer la coordination » — et deviennent orientées vers l’action. Modifiez cette partie du pipeline car elle ne tiendra pas dans des conditions prévisibles. Rééquilibrez cette structure de financement car elle est trop exposée à un risque unique. Investissez dans cette relation ou ce mécanisme de légitimité car sans cela, la mise en œuvre s’enlisera, quelle que soit la conception technique.
En d’autres termes, l’évaluation consiste moins à juger le passé qu’à réorienter l’avenir.
C’est exactement le domaine dans lequel je travaille actuellement dans le cadre du « Country Package » de la Papouasie-Nouvelle-Guinée. Ici, le problème n’est pas un manque d’activité. C’est que le mouvement au sein du système est inégal et souvent invisible. Les décisions ne se traduisent pas systématiquement en processus. Les processus ne se traduisent pas systématiquement en financement. Le financement ne se traduit pas systématiquement par une mise en œuvre à grande échelle. Et derrière tout cela se cache un facteur critique que l’évaluation traditionnelle sous-estime souvent : la légitimité, en particulier dans un contexte où la propriété foncière coutumière définit ce qui est possible.
Si vous examinez cela avec un regard rétrospectif, vous produirez une évaluation parfaitement raisonnable qui ne changera pratiquement rien aux résultats. Si vous l’examinez avec un regard prospectif — en identifiant où le système risque de s’enliser ensuite —, vous commencez à voir où l’intervention est réellement importante.
Il ne s’agit pas d’abandonner les critères de l’OCDE-CAD. Il s’agit de les élargir. La pertinence devient prospective : cela restera-t-il pertinent dans des scénarios d’avenir plausibles ? La durabilité devient conditionnelle : dans quelles conditions cela tient-il ? L’efficacité devient dynamique : il ne s’agit pas seulement de savoir si les résultats ont été atteints, mais si le système est capable de continuer à les produire.
Et peut-être plus important encore, l’évaluation change de fonction. Elle cesse d’être principalement un mécanisme de rapport et devient un outil d’aide à la décision.
Cela semble être un petit changement. Ce n’est pas le cas. Cela exige des évaluateurs qu’ils soient plus explicites quant à l’incertitude, plus engagés dans la dynamique des systèmes et plus disposés à sortir légèrement de la zone de confort du jugement purement rétrospectif. Cela exige également des institutions qu’elles acceptent que l’évaluation la plus utile n’est pas toujours la plus certaine.
Pour être honnête, bon nombre des enseignements les plus précieux de mon travail sont venus des moments où nous avons fait exactement cela — où nous avons cessé de nous demander « qu’est-ce qui s’est passé ? » pour commencer à nous demander « et si ? » Lorsque nous avons suivi le système vers l’avant plutôt que vers l’arrière. Lorsque nous avons traité l’incertitude non pas comme quelque chose à minimiser, mais comme quelque chose avec lequel il faut composer.
C’est là que l’évaluation redevient utile.
Car dans un monde qui n’est plus stable – et qui ne le sera plus –, la question n’est pas de savoir si nous pouvons parfaitement comprendre le passé.
Il s’agit de savoir si nous pouvons agir, intelligemment et à temps, face à ce qui va suivre.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Stéphanie, merci pour cette réflexion approfondie. Ce qui m’a particulièrement marqué dans ton commentaire, c’est que l’évaluation excelle souvent à valider ce qui a été réalisé, mais qu’elle est bien moins efficace pour évaluer ce qui perdurera, et qu’elle reste pratiquement muette sur ce qui est sur le point d’échouer.
Je pense que cela met le doigt sur l’un des plus grands malais professionnels de l’évaluation. Nous traitons souvent l’incertitude comme une menace pour la rigueur, alors que dans les systèmes complexes liés au climat, à l’environnement et à l’économie circulaire, ignorer l’incertitude peut constituer la plus grande faiblesse méthodologique. Un jugement rétrospectif magnifiquement étayé peut encore s’avérer stratégiquement inutile s’il ne permet pas d’indiquer aux décideurs où le système commence à se fragiliser.
Votre description de l’examen à mi-parcours comme « le dernier moment crédible pour changer de cap » est particulièrement poignante. Trop souvent, les examens à mi-parcours deviennent de vagues exercices de reddition de comptes... ajuster les notes, mettre de l’ordre dans le cadre logique, recommander davantage de coordination... mais si nous les prenions au sérieux en tant que moments de prospective, ils pourraient devenir des points d’inflexion stratégiques où les programmes sont soumis à des tests de résistance avant que l’échec ne devienne inéluctable.
J’ai pu le constater très clairement lors d’une récente évaluation de prospective stratégique de l’UNICEF que j’ai menée... où nous avons dû étendre les critères du CAD de l’OCDE au-delà de leur orientation rétrospective habituelle. La pertinence ne se résumait plus à « est-ce aligné aujourd’hui ? », mais à « cela restera-t-il pertinent dans des conditions futures plausibles ? ». La cohérence portait désormais sur l’adéquation institutionnelle future. L’efficacité devait prendre en compte la capacité d’adaptation, et pas seulement les résultats obtenus. La durabilité devenait explicitement conditionnelle, c’est-à-dire : dans quelles conditions politiques, financières, organisationnelles et sociales ce modèle tiendra-t-il ?
Pour moi, la provocation réside dans le fait que l’évaluation la plus utile n’est peut-être pas celle qui porte le jugement le plus sûr sur le passé, mais celle qui révèle le plus honnêtement où l’avenir est susceptible de remettre en cause les hypothèses du programme. En ce sens, l’évaluation éclairée par l’avenir n’affaiblit pas le jugement évaluatif… elle le rend plus audacieux (peut-on parler d’évaluation plus audacieuse ?)
Zimbabwe
Wilbert Marimira
MEAL Specialist
CARE International
Posté le 29/04/2026
Réflexions tirées de mon expérience dans des contextes d’adaptation complexes :
En m’appuyant sur mon travail concernant les initiatives d’adaptation fondées sur les communautés et la nature en Afrique australe et au-delà, je pense que les évaluateurs surestiment parfois l’absence de prospective dans l’évaluation. Le défi réside rarement dans le manque d’outils, mais plutôt dans le moment choisi, la profondeur et l’intention. Les perturbations climatiques, la dégradation des écosystèmes, l’évolution des conditions géopolitiques et les crises en cascade ne sont plus un simple bruit de fond ; elles façonnent activement les voies de développement et les décisions communautaires en temps réel. Pourtant, la prospective est souvent introduite tardivement dans le cycle d’évaluation, appliquée de manière superficielle ou traitée comme un simple ajout technique plutôt que comme une perspective stratégique. Lorsque l’évaluation n’est pas explicitement conçue pour prendre en compte dès le départ l’incertitude, les dynamiques de pouvoir et les risques interdépendants, elle peine à refléter la véritable complexité des systèmes d’adaptation.
Dans la pratique, cela apparaît clairement lors de l’évaluation des interventions d’adaptation climatique et fondées sur la nature. Une évaluation qui ne regarde que vers le passé revient à s’orienter à l’aide d’une carte des lieux que l’on a déjà parcourus, sur un terrain qui ne cesse de se remodeler. Intégrer la prospective signifie adapter des outils que nous savons déjà utiliser, tels que la planification par scénarios, les approches participatives et les théories du changement tournées vers l’avenir, pour se demander non seulement ce qui a fonctionné, mais aussi ce qui pourrait fonctionner dans des conditions futures différentes. Intégrer la gestion adaptative, avec des boucles de rétroaction régulières et des données en temps réel, permet aux évaluations de rester pertinentes à mesure que les contextes évoluent. Plus important encore, les perspectives communautaires, grâce à la co-évaluation, ancrent la prospective dans les réalités vécues, faisant émerger les connaissances locales sur les risques, les compromis et les opportunités. Lorsque l’intention est véritablement éclairée par l’avenir, l’évaluation dépasse le simple rétroviseur pour agir comme une boussole et un scanner d’horizon, aidant les décideurs à identifier des voies d’adaptation résilientes face aux chocs en cascade et, en fin de compte, plus justes, durables et humaines.
Silva, excellente remarque sur la façon dont certains traitent et orientent l’évaluation pour justifier des décisions passées. En matière de prospective, je m’opposerais à l’idée de vouloir que l’évaluation prédise mieux l’avenir. C’est une entreprise vaine. Il vaut mieux construire des systèmes capables de voir, de réagir et de s’adapter plus rapidement. Une bonne « prospective » repose sur :
une itération rapide ; la reconnaissance de schémas à travers les expériences ; et ; la mise à jour continue des hypothèses. Cela aide à mieux naviguer dans l’avenir à mesure qu’il se dessine
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Thanks, Wilbert. I appreciate the distinction you make between the absence of foresight and the underuse of foresight with sufficient timing, depth, and intent. That feels right, as many evaluations already contain fragments of future thinking, but they are often introduced too late or held too lightly to reshape the evaluative frame itself.
Your adaptation example is powerful because climate and nature-based systems expose the limits of backward-looking judgement. In those contexts, the question is not only whether an intervention delivered results, but whether it strengthened the capacity of communities and ecosystems to navigate futures that are unstable, uneven, and politically contested.
I also like your image of evaluation as both compass and horizon scanner. It raises an important challenge for us as evaluators...are we simply documenting adaptation after the fact, or are we helping communities, implementers, and decision-makers recognise which pathways remain viable as risks cascade? For me, that is where future-informed evaluation becomes not just methodological, but ethical. It asks evaluation to serve resilience, justice, and agency in the face of futures that are already arriving.
India
Deepak Sharma
Director
EQUALITY EMPOWERMENT FOUNDATION
Posté le 27/04/2026
Il peut s'agir d'un parcours allant du recul à la prospective plutôt que d'une simple collaboration entre les deux. En effet, le recul et la prospective nécessitent une liste exhaustive de questions qui servent de cadre pour saisir les aspects rétrospectifs des évaluations – généralement liés à la pertinence, à la cohérence, à l'efficacité, à l'efficience et à l'impact –, tandis que la prospective porte principalement sur la durabilité. D'après mon expérience, nous avons essayé d'intégrer des questions liées à la fois au recul et à la prospective, en lien avec les six enjeux globaux et transversaux, de sorte qu'une matrice a été élaborée.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Thanks Deepak, your point about using an inclusive matrix is especially useful. It suggests that foresight should not sit at the end of an evaluation as an add-on, but should be woven through relevance, coherence, effectiveness, efficiency, impact, sustainability, and cross-cutting issues. In that sense, each criterion can ask both, i.e., What have we learned from past and present performance? And what does this imply for future relevance, resilience, adaptation, and strategic positioning?
For me, this is where future-informed evaluation becomes practical. It helps evaluators design better questions, not just use different tools.
Kenya
Dennis Ngumi Wangombe
MEL Specialist
CHRIPS
Posté le 26/04/2026
Dans le prolongement de ma réflexion précédente, je pense que les arguments en faveur d’une évaluation tournée vers l’avenir deviennent encore plus convaincants lorsqu’on les examine sous l’angle de l’Afrique de l’Est. Dans toute la région, les programmes ne se déroulent pas seulement dans des « contextes complexes » ; ils s’inscrivent dans des systèmes en pleine mutation structurelle. La variabilité climatique, la mobilité (y compris les dynamiques liées aux réfugiés), la pression démographique et la gouvernance décentralisée ne constituent pas des risques externes ; ce sont des caractéristiques fondamentales du système lui-même. Dans de tels contextes, la limite de l’évaluation rétrospective n’est pas seulement qu’elle porte sur le passé, mais aussi qu’elle suppose souvent un niveau de stabilité du système qui n’existe tout simplement pas.
Par exemple :
Dans les zones arides et semi-arides, des cycles de sécheresse répétés peuvent complètement remodeler les systèmes de subsistance au cours de la durée de vie d’un programme
Dans les régions accueillant des réfugiés, les changements de politique et les flux de financement peuvent rapidement modifier les structures de prestation de services
Dans les systèmes de gouvernance décentralisée, les priorités et les capacités de mise en œuvre peuvent varier considérablement d’un comté à l’autre et au fil du temps
Concrètement, cela signifie que la performance des programmes devient très sensible aux changements systémiques, ce qui rend les critères d’évaluation statiques moins pertinents. En transposant cela au contexte kenyan, j’ai observé un schéma récurrent : les programmes sont souvent conçus avec des théories du changement relativement figées, mais sont mis en œuvre au sein d’écosystèmes de comté hautement dynamiques, tant sur le plan politique, institutionnel que social. Au moment où l'évaluation examine l'« efficacité » ou la « durabilité », les hypothèses sous-jacentes (sur lesquelles ces critères reposent) peuvent ne plus être valables. Cela crée un risque subtil mais important : nous finissons par évaluer la performance d'un programme dans une version passée du système, plutôt que sa capacité à s'adapter au système émergent.
Pour y répondre, je pense que l’évaluation prospective au Kenya (et dans des contextes similaires) doit évoluer vers quelques changements délibérés :
Des bases de référence statiques vers des points de référence dynamiques
Les bases de référence ne doivent pas être considérées comme des ancrages fixes, mais réévaluées à mesure que les systèmes évoluent
D’un jugement final vers une interprétation continue
En particulier au niveau des comtés, où l’économie politique et les réalités de la mise en œuvre changent rapidement
De l’« attribution sous contrôle » à la « contribution dans l’incertitude »
Reconnaître que les résultats sont de plus en plus coproduits par de multiples acteurs du système en interaction
Une intégration plus forte de l’économie politique et de la prospective climatique dans la conception de l’évaluation
Non pas comme des analyses distinctes, mais comme des éléments centraux de la manière dont nous interprétons les résultats
En fin de compte, dans des contextes comme celui du Kenya, l’évaluation prospective n’est pas une simple mise à niveau méthodologique, c’est une nécessité pratique pour garantir la pertinence. Elle permet à l'évaluation de répondre à une question légèrement différente mais plus utile : non seulement « Cela a-t-il fonctionné ? », mais « Cela continuera-t-il à fonctionner, et dans quelles conditions ? »
Je serais intéressé d'entendre d'autres personnes travaillant dans des systèmes décentralisés ou vulnérables au changement climatique : « Comment adaptez-vous les approches d'évaluation pour tenir compte de la variabilité infranationale et des contextes de mise en œuvre en rapide évolution ? »
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Thanks, Dennis. I really appreciate how you ground this in the lived realities of Kenya (my home!) and the wider East African region. Your point that drought, mobility, refugee dynamics, demographic pressure, and devolution are not “contextual risks” but core features of the operating system is exactly why future-informed evaluation matters.
What stands out for me is your observation that many programmes are evaluated against a past version of the system....that is a powerful way to name the problem. If the assumptions beneath a theory of change have shifted, then judging effectiveness or sustainability against those original assumptions can produce technically valid but strategically misleading findings.
I also strongly agree with your shift from static baselines to dynamic reference points, and from endline judgement to continuous sense-making. In devolved and climate-vulnerable contexts, evaluation has to become more anticipatory, politically informed, and adaptive. It should help actors understand not only whether something worked, but whether it remains viable as conditions change.
For me, your reflection reinforces that future-informed evaluation is not about adding foresight tools for their own sake. It is about improving the relevance, timing, and usefulness of evaluative judgement in systems that are already moving.
Kenya
Dennis Ngumi Wangombe
MEL Specialist
CHRIPS
Posté le 26/04/2026
Une réflexion que j’aimerais ajouter à cette discussion est que le cadre « rétrospective contre prospective » est utile, mais peut-être encore incomplet. D’après mon expérience, le problème plus profond ne réside pas seulement dans le fait que l’évaluation est rétrospective, mais aussi dans le fait qu’elle est souvent rigide sur le plan temporel au sein de systèmes qui sont intrinsèquement adaptatifs. Dans bon nombre des programmes sur lesquels j’ai travaillé, en particulier dans des contextes fragiles et affectés par le changement climatique, il arrive qu’une intervention soit très « efficace » à mi-parcours, mais fondamentalement en décalage avec la direction prise par le système. Au moment de l’évaluation finale, le système a évolué, et les conclusions, bien que techniquement valables, ont déjà perdu leur valeur décisionnelle. Cela correspond à ce que l’article décrit comme un décalage temporel entre l’évaluation et la réalité. Cela suggère que l'intégration de la prospective ne se résume pas à ajouter des outils tels que la planification de scénarios ou l'analyse prospective. Il s'agit de reconfigurer quand et comment le jugement évaluatif est formulé.
Voici quelques changements pratiques que j'ai trouvés utiles :
Je souhaite également faire écho à un point soulevé plus tôt dans la discussion : la contrainte n'est pas principalement méthodologique, mais institutionnelle et culturelle. Tant que l'évaluation est commanditée principalement à des fins de reddition de comptes, même les outils de prospective les plus sophistiqués risquent d'être absorbés par la logique de conformité. Le changement ne consiste donc peut-être pas tant à passer de la rétrospective à la prospective, mais plutôt à passer de : l'évaluation en tant que jugement → l'évaluation en tant que navigation dans l'incertitude.
On pourrait également se poser la question suivante : comment repenser les commandes d'évaluation et les incitations afin que les connaissances éclairées par l'avenir ne soient pas seulement produites, mais réellement utilisées dans les cycles décisionnels ?
Kenya
Gordon Wanzare
MEL/Project Management Specialist
Posté le 25/04/2026
Une discussion qui donne vraiment à réfléchir !
Nous exagérons peut-être l'absence de prospective dans l'évaluation. Le problème ne réside pas dans les outils, mais dans le timing, la profondeur et l'intention.
Premièrement, l'analyse causale par couches (CLA). La plupart des évaluations restent au niveau des énumérations et des systèmes, interrogeant rarement les visions du monde sous-jacentes et l'histoire profonde. Or, c'est précisément là que réside la prospective. Si nous ne remettons pas en question les hypothèses fondamentales — telles que la planification linéaire dans des systèmes volatils —, l'évaluation, aussi sophistiquée soit-elle, ne fait que les renforcer.
Deuxièmement, les registres de risques et la CLA (Collaboration, Apprentissage, Adaptation). Ceux-ci sont omniprésents et souvent bien exécutés, mais restent largement confinés aux limites de la conformité — gérant les risques connus et permettant une adaptation progressive. Ils remettent rarement en question la validité du plan lui-même. La valeur transformatrice n'émerge que lorsque les boucles d'apprentissage vont au-delà de l'ajustement pour recadrer les hypothèses et les objectifs.
Troisièmement, la réflexion stratégique. Les questions stratégiques fondamentales — d'où venons-nous ? où en sommes-nous ? où allons-nous ? comment y parvenir ? comment savoir que nous y sommes arrivés ? – intègrent déjà la prospective, mais l’évaluation reste ancrée dans le passé (d’où venons-nous ?), le présent (où en sommes-nous ? – référence) et les points d’arrivée (comment savoir que nous y sommes arrivés ?) tandis que la prospective critique (où allons-nous ?) et le pont (comment y parvenir ?) restent consultatifs. Forts de données et d’informations exploitables pour la prise de décision, les évaluateurs devraient fortement influencer une prise de décision éclairée par l’avenir.
Quatrièmement, lescritères d’évaluation du CAD de l’OCDE sont intrinsèquement tournés vers l’avenir, mais appliqués a posteriori – en particulier les critères de pertinence, d’impact et de durabilité. S’ils sont rigoureusement intégrés dès la phase de conception – par le biais de tests de résistance de scénarios –, ils font passer l’évaluation de l’audit à la gouvernance anticipative, du contrôle qualité à l’assurance qualité !
Le problème n’est pas l’absence de prospective, mais son confinement. Tant que l’évaluation ne remettra pas systématiquement en question les hypothèses dès le début et en temps réel, nous continuerons à pratiquer la prospective dans la forme, mais le recul dans la fonction.
Gordon
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/04/2026
Gordon, je pense que c'est exactement la bonne remise en question. Je suis d'accord pour dire que la prospective n'est pas totalement absente de l'évaluation... le problème plus profond est qu'elle n'est souvent présente que sous une forme limitée, procédurale ou rétrospective.
La distinction que vous faites entre le moment, la profondeur et l’intention est cruciale. De nombreux processus d’évaluation peuvent utiliser des outils qui semblent proches de la prospective (par exemple, les registres de risques, les boucles de gestion adaptative, les questions stratégiques, voire le langage des scénarios), mais cela n’équivaut pas à une pratique professionnelle de la prospective. La prospective n’est pas seulement une boîte à outils... c'est aussi une manière rigoureuse de percevoir le changement, de déceler les signaux faibles, de remettre en question les hypothèses, de juger quand un système approche d'un seuil, et de comprendre les récits profonds et les dynamiques de pouvoir qui façonnent les futurs considérés comme possibles ou souhaitables.
C’est là que la perspicacité professionnelle d’un praticien de la prospective prend toute son importance. Les outils peuvent aider à structurer la conversation, mais ils ne génèrent pas automatiquement une intelligence anticipative. Utilisés de manière superficielle, ils peuvent simplement prolonger les logiques de planification existantes. Utilisés en profondeur, ils peuvent révéler quand le cadre lui-même est erroné, quand l’adaptation ne suffit plus, et quand l’évaluation doit soutenir un recadrage stratégique plutôt qu’une amélioration incrémentale.
Je suis donc tout à fait d'accord... le problème n'est pas l'absence totale de prospective, mais son confinement. Le défi consiste à passer d'une prospective considérée comme un ensemble de méthodes occasionnelles à une prospective en tant que capacité d'évaluation professionnelle, en l'intégrant dès le début, en l'utilisant en temps réel et en l'orientant vers la prise de décisions éclairées par l'avenir plutôt que vers la simple validation des performances passées.
Ethiopia
Hailu Negu Bedhane
cementing engineer
Ethiopian electric power
Posté le 24/04/2026
Contexte et justification (contexte est-africain)
Les programmes de sécurité alimentaire, de durabilité environnementale et de développement agricole menés en Éthiopie, au Kenya et en Tanzanie s’inscrivent de plus en plus dans un contexte marqué par une incertitude systémique. La variabilité climatique — qui se manifeste par des sécheresses récurrentes et des précipitations irrégulières —, conjuguée à la dégradation des sols, aux pressions démographiques et à l’évolution des dynamiques géopolitiques, est passée du statut de préoccupation secondaire à celui de facteur déterminant pour la performance des programmes.
Malgré ce contexte en mutation, les pratiques d’évaluation dans ces secteurs restent majoritairement rétrospectives. Elles continuent de mettre l’accent sur la responsabilité vis-à-vis d’objectifs fixes et prédéfinis, souvent établis sur la base d’hypothèses qui ne sont plus valables. Cela crée un décalage temporel important :
Ce décalage a des implications concrètes. Par exemple :
En conséquence, les conclusions de l’évaluation peuvent décrire avec précision les performances passées, mais n’offrent qu’une valeur limitée pour éclairer les décisions futures dans des environnements dynamiques.
Dans le même temps, des organisations de premier plan telles que le Programme alimentaire mondial, l’Organisation des Nations unies pour l’alimentation et l’agriculture et le CGIAR intègrent de plus en plus des approches axées sur la prospective, en particulier dans les cadres de renforcement de la résilience et d’action anticipative.
Cependant, en Afrique de l’Est :
Cette discussion vise à combler ces lacunes en explorant comment la prospective peut être systématiquement intégrée dans la pratique de l’évaluation.
Semaine 1 : Comprendre les limites de l’évaluation rétrospective
Objectif
Acquérir une compréhension fondamentale des raisons pour lesquelles les approches d’évaluation conventionnelles sont inadéquates dans des environnements instables et en mutation rapide.
Perspective est-africaine
Dans la région, les évaluations rétrospectives ont souvent pour effet :
Exemples illustratifs
Idée centrale
L’évaluation rétrospective répond efficacement à la question :
« Dans quelle mesure les objectifs prévus ont-ils été atteints ? »
Cependant, elle ne répond pas à la question plus cruciale :
« Les hypothèses et les plans initiaux étaient-ils toujours valables dans des conditions changeantes ? »
Points forts de la discussion
Semaine 2 : Prospective transformatrice dans les systèmes agricoles et alimentaires
Objectif
Examiner comment les approches prospectives permettent un changement transformationnel plutôt que des améliorations progressives.
Perspective est-africaine
Les systèmes agricoles de la région connaissent des transitions structurelles caractérisées par :
Application de la prospective
Les méthodologies de prospective peuvent soutenir :
Exemple illustratif
Semaine 3 : Vers un paradigme d'évaluation transformateur
Objectif
Explorer comment l'intégration de la prospective dans l'évaluation peut créer un paradigme plus adaptatif et tourné vers l'avenir.
Perspective est-africaine
Les systèmes d'évaluation doivent évoluer pour répondre à :
Implications pour les critères d'évaluation
L'application d'une perspective prospective redéfinit les dimensions traditionnelles de l'évaluation :
Exemple illustratif
Dans une usine de transformation alimentaire :
Idée centrale
L'évaluation évolue vers :
Un mécanisme de gestion adaptative et d'apprentissage stratégique, plutôt qu'un simple outil de reddition de comptes
Semaine 4 : Mise en œuvre de la prospective dans la pratique de l’évaluation
Objectif
Traduire les cadres conceptuels en outils et méthodologies pratiques applicables dans des contextes réels.
Outils clés et leur application en Afrique de l’Est
1. Analyse prospective
Suivi systématique des tendances émergentes, notamment les modèles climatiques, la dynamique des marchés et les changements politiques
2. Planification par scénarios
Élaboration de multiples scénarios futurs plausibles, tels que :
3. Cadre des trois horizons
4. Analyse causale par couches
Examen à plusieurs niveaux des défis :
Domaines d'application régionaux
L'évaluation fondée sur la prospective peut s'appliquer à :
Objectifs de la discussion (contextualisés)
Questions directrices (focus sur l'Afrique de l'Est)
Conclusion
En Afrique de l’Est, l’intégration de la prospective dans l’évaluation n’est plus une option, mais une nécessité pratique.
Dans des secteurs caractérisés par l’incertitude :
L’efficacité future de l’évaluation en Éthiopie et dans toute l’Afrique de l’Est dépendra de sa capacité à orienter les décisions de manière proactive — en anticipant les défis avant qu’ils ne se concrétisent, plutôt qu’en réagissant après coup.
Ethiopia
Hailu Negu Bedhane
cementing engineer
Ethiopian electric power
Posté le 24/04/2026
Du regard rétrospectif à la vision prospective : redéfinir l’évaluation comme un outil stratégique tourné vers l’avenir
Une perspective éthiopienne et est-africaine
1. Contexte général
En Éthiopie et dans l’ensemble de la région est-africaine, les pratiques d’évaluation restent majoritairement rétrospectives. Les institutions — qu’il s’agisse d’entreprises publiques telles que l’Ethiopian Electric Power, d’industries manufacturières, d’entreprises agroalimentaires ou de programmes de développement — continuent de s’appuyer fortement sur des évaluations a posteriori qui diagnostiquent les échecs passés, mais qui influencent rarement de manière significative les décisions futures.
Si ces approches fondées sur le recul garantissent la responsabilité et la documentation, elles ne permettent pas une gouvernance anticipative. Dans des environnements caractérisés par la volatilité opérationnelle, l’incertitude de la chaîne d’approvisionnement et les contraintes d’infrastructure, l’évaluation doit évoluer d’un simple exercice de tenue de registres vers un système décisionnel tourné vers l’avenir.
2. Changement conceptuel : de l’analyse rétrospective à la vision prédictive
Les cadres d’évaluation traditionnels reposent sur :
Ces approches, bien que nécessaires, sont intrinsèquement réactives. Elles identifient les écarts après que ceux-ci ont déjà entraîné des coûts financiers, opérationnels ou de réputation.
Un paradigme d’évaluation tourné vers l’avenir, en revanche, met l’accent sur :
Cette transition représente un passage de « Que s’est-il passé ? » à « Que risque-t-il de se passer — et comment devons-nous réagir dès maintenant ? »
3. Pertinence stratégique dans le contexte éthiopien
3.1 Développement des infrastructures et de l’énergie
Les initiatives à grande échelle en Éthiopie — en particulier au sein d’organisations telles que l’Ethiopian Electric Power — se caractérisent par des délais prolongés, une complexité technique et une dépendance à l’expertise externe. Des défis récurrents tels que l’inefficacité des forages, les retards d’approvisionnement et les lacunes de coordination sont fréquemment documentés mais insuffisamment pris en compte.
Un modèle d’évaluation axé sur la prospective permettrait :
]3.2 Fabrication et opérations industrielles
Dans les environnements de fabrication — tels que la production de tuyaux en plastique —, les systèmes d’assurance qualité fonctionnent souvent comme des filtres en fin de processus plutôt que comme des mécanismes de contrôle proactifs.
L'évaluation rétrospective identifie généralement :
Cependant, une approche tournée vers l'avenir permettrait de :
Cette transformation est essentielle pour améliorer l'efficacité opérationnelle, réduire le gaspillage et maintenir des normes de produit cohérentes.
3.3 Programmes de développement et initiatives du secteur public
Dans des pays tels que l’Éthiopie, le Kenya et la Tanzanie, les systèmes d’évaluation au sein des programmes financés par des bailleurs de fonds et des programmes publics sont souvent axés sur la conformité. Les rapports sont produits pour satisfaire des exigences externes plutôt que pour éclairer l’adaptation stratégique interne.
Il en résulte :
3.4 Secteur alimentaire et systèmes de transformation agricole
Le secteur alimentaire — qui englobe l’agriculture, la transformation agricole et la distribution — est l’un des systèmes les plus critiques mais aussi les plus vulnérables en Éthiopie et dans toute l’Afrique de l’Est. Les pratiques d’évaluation dans ce secteur sont généralement réactives, se concentrant sur les pertes post-récolte, les incidents de sécurité alimentaire ou les pénuries sur le marché après qu’ils se sont produits.
Les principaux défis sont les suivants :
Une approche d'évaluation axée sur la prospective permettrait :
Par exemple, au lieu de réagir à la détérioration des céréales ou à la contamination des produits laitiers, les transformateurs peuvent mettre en place une surveillance en temps réel de la température, de l’humidité et des indicateurs d’hygiène afin de prévenir les pertes avant qu’elles ne se produisent.
4. Contraintes structurelles à l’évaluation prospective
Plusieurs obstacles systémiques entravent la transition vers une évaluation axée sur la prospective :
Culture institutionnelle
L’évaluation est souvent perçue comme punitive plutôt que comme un outil de développement, ce qui décourage la transparence et la réflexion critique.
Lacunes de l'infrastructure de données
Des systèmes de données fragmentés, manuels et incohérents limitent la capacité à générer des informations pertinentes et exploitables en temps opportun.
Silos organisationnels
Les connaissances restent cloisonnées, ce qui empêche l'apprentissage interfonctionnel et une réponse coordonnée.
Pressions opérationnelles à court terme
Les objectifs de livraison immédiats prennent souvent le pas sur les investissements dans les capacités d'analyse à long terme.
5. Cadre opérationnel pour une évaluation éclairée par l'avenir
Pour institutionnaliser la prospective, les organisations devraient adopter l'approche intégrée suivante :
5.1 Repositionner l'évaluation en tant qu'instrument de décision
Les résultats de l'évaluation doivent être explicitement liés à la planification future, à l'allocation des ressources et aux ajustements opérationnels.
5.2 Développer des indicateurs de performance prédictifs
Passer de mesures statiques à des indicateurs dynamiques capables de signaler les risques émergents, tels que :
5.3 Institutionnaliser les « leçons tournées vers l’avenir »
Aller au-delà des « leçons apprises » rétrospectives pour s’orienter vers des « leçons appliquées » exploitables, avec une responsabilité et des calendriers de mise en œuvre clairement définis.
5.4 Intégrer la planification par scénarios
Évaluer systématiquement les perturbations potentielles — financières, techniques, environnementales ou logistiques — et prédéfinir des stratégies de réponse.
5.5 Mettre en place des mécanismes de retour d'information en continu
Mettre en œuvre des systèmes de surveillance en temps réel et des examens de performance réguliers pour garantir une gestion adaptative.
6. Illustration pratique
Secteur de l'énergie (développement géothermique)
Plutôt que de mener des examens isolés après la fin des projets, un système axé sur la prospective permettrait de :
Industrie manufacturière (production de tuyaux en PEHD)
Au lieu de se fier à l'inspection du produit final, les organisations devraient :
Secteur alimentaire (agro-transformation et chaîne d'approvisionnement)
Au lieu de réagir à :
Les organisations devraient :
Résultat :
7. Impératifs stratégiques pour l'Éthiopie
Pour progresser vers une évaluation éclairée par l'avenir, les priorités suivantes sont essentielles :
8. Conclusion
L'évaluation rétrospective, bien que nécessaire, n'est plus suffisante pour faire face aux complexités de la trajectoire de développement de l'Éthiopie. La capacité à anticiper, à s'adapter et à réagir de manière proactive déterminera l'efficacité institutionnelle dans les années à venir.
Transformer l'évaluation en un système tourné vers l'avenir n'est pas simplement une amélioration méthodologique, c'est un impératif stratégique.
Les progrès durables ne dépendront pas de l'efficacité avec laquelle les institutions documentent le passé, mais de l'intelligence avec laquelle elles se préparent pour l'avenir.
Canada
Rhode Early Charles
Posté le 24/04/2026
Pour tenter de répondre à cette question et s'appuyer sur ce que propose déjà le document, une condition essentielle consiste à veiller à ce que le processus soit pris en charge conjointement par les personnes qui utiliseront les résultats et devront vivre avec. Cette condition contribue à rendre le travail à la fois éthique, participatif, utile et ancré dans les institutions. Cela s'inscrit dans une évolution plus large, passant de la rétrospective à la prospective, afin de façonner activement des décisions éclairées par l'avenir.
Lorsque les parties prenantes contribuent à définir les questions, à façonner les méthodes, à interpréter les résultats et s’engagent à assurer le suivi, l’évaluation est moins susceptible d’être extractive, davantage ancrée dans les besoins réels et plus susceptible d’éclairer les décisions concrètes.
Cela s’aligne également sur de nombreuses approches des Premières Nations au Canada, où l’évaluation et l’examen des projets sont souvent menés par la communauté et étroitement liés aux priorités locales, au consentement et à la responsabilité. Si le processus exact peut varier selon la nation et les modalités de financement ou de gouvernance, le principe sous-jacent reste que les décisions ne doivent pas être imposées de l’extérieur.
En bref, la condition essentielle est l’appropriation partagée, de la conception à l’utilisation. Les solutions proposées pour les risques futurs doivent répondre aux besoins futurs et contribuer à façonner l’avenir que les gens souhaitent. Lorsque cela se produit, l’appropriation devient une réalité, et non plus une simple aspiration.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/04/2026
Merci Rhode pour ta contribution. Je suis d’accord sur le fait qu’une évaluation tournée vers l’avenir ne peut se contenter d’ajouter des scénarios ou une analyse prospective à un processus extractif. Elle doit changer qui définit la valeur, qui interprète les données et qui détient l’autorité sur la manière dont les résultats sont utilisés.
L’accent mis sur l’appropriation collective, de la conception à l’utilisation, est également fort. Lorsque les communautés et les parties prenantes façonnent ensemble les questions, les méthodes, l’interprétation et le suivi, l’évaluation devient plus qu’une simple obligation de rendre des comptes aux bailleurs de fonds. Elle devient un processus de construction collective de sens et d’avenir.
Le lien avec les approches des Premières Nations renforce l’idée que l’évaluation tournée vers l’avenir doit être fondée sur le consentement, la responsabilité relationnelle, les priorités locales et l’autodétermination. En ce sens, l’appropriation n’est pas un simple ajout procédural ; c’est la condition qui rend l’évaluation éthique, utile et transformatrice.
Nepal
Gana Pati Ojha
Community of Evaluators
Posté le 24/04/2026
Le débat #EvalforEarth arrive à point nommé. De nombreuses évaluations continuent de nous indiquer comment les projets ont fonctionné hier, alors que les dirigeants ont de plus en plus besoin de données probantes sur la manière dont les systèmes pourront survivre demain.
Qu'il s'agisse de sécurité alimentaire, d'agriculture, de résilience climatique ou de gouvernance, une leçon revient sans cesse : les résultats dépendent moins des projets individuels que des systèmes dans lesquels ils s'inscrivent — institutions, incitations, partenariats, cultures d'apprentissage et appropriation politique. Des projets solides échouent souvent au sein de systèmes fragiles ; des interventions modestes peuvent réussir lorsqu’elles s’inscrivent dans des institutions adaptatives et dignes de confiance.
C’est pourquoi l’évaluation rétrospective seule ne suffit plus. Elle peut évaluer avec précision les résultats passés et l’efficacité, mais passer à côté des questions prospectives essentielles :
• Ce programme restera-t-il pertinent face aux chocs climatiques ou à la volatilité des marchés ?
• Les institutions peuvent-elles s’adapter lorsque les hypothèses changent ?
• Les partenariats sont-ils résilients face aux tensions ?
• Les acquis perdureront-ils après la fin du financement ?
La prospective stratégique offre des outils pratiques pour renforcer l’évaluation : analyse prospective, planification par scénarios, les « trois horizons » et l’analyse causale par couches. Ces méthodes peuvent aider les évaluateurs à passer d’un jugement statique à un apprentissage dynamique.
Trois points d’entrée pratiques :
Peut-être devons-nous également réinterpréter les critères de l'OCDE-CAD à travers le prisme de l'avenir :
Pertinence = adéquation avec l'avenir
Durabilité = résilience face aux chocs
Impact = contribution à la transformation à long terme du système
L'avenir de l'évaluation ne consiste pas à abandonner le recul. Il s'agit de combiner recul, perspicacité et prospective afin que les données factuelles puissent guider l'action dans un monde incertain.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/04/2026
Merci Gana, c'est une excellente façon d'expliquer pourquoi l'évaluation fondée sur la prospective devient une nécessité plutôt qu'une simple option. J'apprécie tout particulièrement l'accent mis sur les systèmes... Les évaluations se concentrent souvent de manière excessive sur la performance des projets, tout en négligeant les conditions institutionnelles, politiques, écologiques et relationnelles qui déterminent si les résultats peuvent perdurer.
La reformulation proposée des critères du CAD de l’OCDE est particulièrement utile. Considérer la pertinence comme une « adéquation avec l’avenir », la durabilité comme une « résilience face aux chocs » et l’impact comme une « contribution à la transformation à long terme du système » aide à faire évoluer l’évaluation de la conformité et de la reddition de comptes vers l’apprentissage stratégique et la préparation.
Pour les systèmes alimentaires, la résilience climatique, l’agriculture et la gouvernance, cela semble particulièrement urgent. La question clé n’est plus seulement « L’intervention a-t-elle fonctionné ? », mais « Dans quelles conditions futures pourrait-elle continuer à fonctionner, s’adapter ou se développer ? ». C’est là que la prospective peut considérablement approfondir la fonction d’évaluation.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Je suis de retour après un petit séjour improvisé pendant lequel je n'ai pas ouvert mon ordinateur portable pendant six jours, mais je suis ravi de voir que les échanges et les discussions se poursuivent.
Alors que nous entrons dans notre dernière semaine, je souhaite vous présenter le guide FARA Critères d'évaluation d'une prospective de haute qualité sur les systèmes alimentaires en Afrique (le lien se trouve dans l'introduction de ce forum de discussion, mais est également joint ci-dessous). Ma collègue, le Dr Katindi Sivi, en est la co-auteure, je suis donc ravie de mettre en avant son travail.
Ce que je trouve particulièrement utile dans ce rapport, c'est qu'il ne s'agit pas d'un manuel de prospective étape par étape. Il s'agit d'un cadre de qualité permettant de réfléchir à ce qui rend la prospective significative, crédible, inclusive et réellement utile pour la prise de décision dans les contextes complexes des systèmes alimentaires. Le guide soutient que, dans une époque marquée par les risques climatiques, les changements démographiques, l'incertitude géopolitique et les inégalités structurelles, la prospective doit aller au-delà de la production de scénarios pour s'orienter vers une gouvernance anticipative, l'appropriation locale et une influence politique réelle. Il met également un accent inhabituel sur les réalités africaines, notamment les savoirs autochtones, l'informalité, les relations de pouvoir et les pratiques participatives.
Cela semble tout à fait pertinent par rapport à la discussion que nous avons eue ici. Au cours des dernières semaines, plusieurs d’entre vous nous ont poussés à réfléchir au-delà de la simple reddition de comptes rétrospective. Silva et Amy ont demandé si l’évaluation pouvait être libérée de la logique de conformité. Rick nous a mis au défi de passer de la prédiction à la préparation et à des futurs pluriels. Uzodinma a mis l’accent sur l’état d’esprit, l’appropriation locale et l’apprentissage adaptatif. Rhode nous a rappelé que les connaissances doivent être communiquées de manière utilisable, et non pas simplement rédigées pour les évaluateurs. Ces thèmes trouvent tous un écho dans ce guide.
Le guide s’articule autour de neuf critères interdépendants, notamment la pertinence contextuelle, l’inclusivité, l’éthique, la rigueur méthodologique, la communication stratégique, l’ancrage institutionnel et les changements de pensée et de comportement. Il soutient également que l’évaluation de la prospective ne doit pas se concentrer sur la précision des prédictions, mais sur la question de savoir si la prospective améliore l’apprentissage (un autre thème récurrent dans nos discussions), la prise de décision, la contribution au changement et la transformation des systèmes à long terme.
Pour cette dernière semaine, j’aimerais donc poser la question suivante : à quoi ressemblerait concrètement une évaluation de haute qualitéfondée sur la prospective ? Quelles conditions doivent être réunies pour qu’elle soit éthique, participative, utile et ancrée dans l’institution, plutôt que de n’être qu’un rapport de plus sur une étagère ?
Benin
Alexis Adébayo ODOUN-IFA
Expert in MEAL
RAAF/ECOWAS
Posté le 13/04/2026
Rose Thompson Coon et al., dans leurs écrits, mettent en exergue la nécessité de repenser l’évaluation afin d’y intégrer une dimension prospective, voire futuriste. En effet, si l’évaluation permet de tirer des leçons, elle n’offre pas toujours des pistes immédiates pour leur utilisation opérationnelle à la fin de l'intervention. Sans une revue de littérature approfondie et une appropriation par d’autres chercheurs ou concepteurs de projets futurs, les enseignements issus des évaluations d’interventions tendent à être oubliés à la fin de celles-ci. Ainsi, les rapports d’évaluation gagneraient à intégrer des analyses plus approfondies, permettant de mieux prendre en compte cette vision prospective et orientée vers l’avenir du développement.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
C'est un point important, Alexis... merci pour ta contribution. J'apprécie tout particulièrement ton observation selon laquelle les enseignements tirés de l'évaluation sont souvent consignés, mais ne sont pas réellement pris en compte dans la conception, les politiques ou les pratiques futures. Ton commentaire souligne pourquoi une approche davantage tournée vers l'avenir est essentielle... l'évaluation ne doit pas seulement rendre compte de ce qui s'est passé, mais aussi contribuer à garantir que les enseignements tirés restent exploitables, transférables et vivants au-delà de la durée d'une intervention ponctuelle. L'apprentissage et l'éducation comportent par nature de forts éléments d'orientation vers l'avenir et de prospective. Comment pouvons-nous mieux intégrer l'apprentissage tourné vers l'avenir dans nos évaluations ?
Italy
Silva Ferretti
Freelance consultant
Posté le 13/04/2026
Il est assez difficile de commenter un article qui n'est pas entièrement accessible :-(
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
De quel article parlez-vous ? J'ai joint « Fusing foresight and futures thinking for a new transformative evaluation paradigm » dans mon message précédent, vous devriez donc pouvoir y accéder.
Ghana
Ishmael Kwame Agbomlaku
Manager
Integrated Institute of professional, LA plage Meta Verse.
Posté le 13/04/2026
Une perspective pertinente. L'évaluation doit évoluer pour passer d'une analyse rétrospective à une vision prospective, en utilisant les données non seulement pour rendre compte, mais aussi pour anticiper et améliorer les résultats. C'est essentiel pour une conception efficace des programmes
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci pour ton commentaire, Ishmael. Je suis tout à fait d'accord. Une grande clairvoyance comporte toujours des éléments de recul ; il ne s'agit donc pas d'une compétition, mais d'une collaboration et d'une symbiose. Je crois savoir que de nombreuses traditions anciennes considéraient que l'humanité avançait vers l'avenir en marchant à reculons... Il est important de savoir d'où nous venons, mais lorsque nous voyons le chemin s'incurver ou bifurquer, nous devons commencer à nous orienter dans cette direction.
Italy
Silva Ferretti
Freelance consultant
Posté le 13/04/2026
Nous pouvons certainement améliorer notre capacité à « anticiper » : à cerner les tendances probables et à analyser de manière plus réfléchie les conséquences possibles. Mais il faut toujours résister à la tentation d'en faire « LE plan ». Car ce qui compte, c'est d'avoir une orientation et de l'agilité, une meilleure capacité à percevoir et à saisir les moments décisifs… et non un avenir tout tracé.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Bonjour Silva, merci pour ton commentaire. On se laisse si facilement piéger par « LE PLAN ». C’est pour ça que j’adore travailler avec des scénarios. On peut avoir un plan, mais quand on a trois ou quatre scénarios en perspective, on peut toujours le mettre à l’épreuve et voir où il faut l’adapter. Raison de plus pour cultiver cette agilité, cette capacité à percevoir et à ressentir les tournants, comme tu l’as mentionné.
Italy
Silva Ferretti
Freelance consultant
Posté le 13/04/2026
La question fondamentale est la suivante : à quoi sert l'évaluation ? Si elle existe principalement pour confirmer la conformité (c'est-à-dire pour vérifier qu'un plan a été exécuté comme prévu, que la théorie du changement s'est vérifiée...), alors y ajouter des méthodes de prospective ne change rien. Nous nous contenterons d'anticiper l'avenir au service de la même logique rétrospective et du même ensemble d'horizons. Toujours en « mode conformité ». Avant de nous demander comment l'évaluation peut mieux anticiper l'avenir, nous devons nous poser une question préalable : sommes-nous prêts à libérer l'évaluation de l'obligation de confirmer le plan ?
Senegal
Amy MARA
Economiste et Specialiste en Passation de Marché
Direction de la Dette Publique
Posté le 17/04/2026
Bonjour,
Ma très chère Silva ,
Votre analyse se révèle très pertinente et appelle une réflexion approfondie, en particulier sur la nécessité de repenser la finalité de l’évaluation au-delà de la simple logique de conformité.
la réflexion proposée soulève une question fondamentale et pertinente : celle de la finalité réelle de l’évaluation. En effet, si l’évaluation est réduite à une fonction de conformité, elle se limite à vérifier si les actions menées correspondent aux prévisions initiales, sans véritablement interroger leur pertinence, leur impact ou leur capacité d’adaptation aux réalités changeantes.
Dans cette perspective, l’introduction de méthodes prospectives dans une évaluation enfermée dans une logique de conformité apparaît insuffisante. Elle risque même de reproduire les mêmes schémas, en projetant simplement dans le futur des hypothèses déjà figées, sans remise en question des cadres d’analyse. Ainsi, anticiper l’avenir sans transformer la finalité de l’évaluation revient à prolonger une approche rétrospective sous une autre forme.
Dès lors, la question centrale devient celle de la transformation du rôle de l’évaluation. Il ne s’agit plus uniquement de confirmer un plan, mais de questionner les hypothèses qui le sous-tendent, d’identifier les écarts entre les intentions et les résultats, et surtout d’accompagner la prise de décision dans des contextes incertains. Une évaluation tournée vers l’avenir doit être un outil d’apprentissage, d’adaptation et d’innovation.
Libérer l’évaluation de l’obligation de confirmer le plan implique plusieurs changements majeurs. D’abord, accepter que les programmes puissent évoluer en fonction des réalités du terrain. Ensuite, intégrer des approches plus flexibles, telles que l’évaluation en temps réel ou l’apprentissage adaptatif. Enfin, reconnaître que l’évaluation peut produire des résultats critiques, parfois en contradiction avec les objectifs initiaux.
Cependant, cette transformation n’est pas sans défis. Elle suppose un changement de culture institutionnelle, où les décideurs acceptent l’incertitude et la remise en question. Elle nécessite également des capacités techniques renforcées et une plus grande ouverture à la participation des parties prenantes.
En conclusion, l’évaluation ne pourra véritablement intégrer une dimension prospective que si elle se libère de sa fonction strictement normative. Elle doit évoluer vers un rôle stratégique, orienté vers l’apprentissage et l’anticipation, afin de mieux répondre aux enjeux complexes et dynamiques des politiques publiques.
Amy MARA
Economiste
Dakar Sénégal
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci beaucoup pour cette contribution pertinente et très bien écrite. Vous avez mis le doigt sur un point essentiel de notre discussion… tant que l’évaluation restera cantonnée à une logique de conformité, même l’introduction de méthodes tournées vers l’avenir risque de n’aboutir qu’à un changement superficiel plutôt qu’à une véritable évolution de l’approche. J’apprécie tout particulièrement l’accent que vous mettez sur la nécessité de transformer la finalité même de l’évaluation, afin qu’elle devienne un espace d’apprentissage, d’adaptation et de prise de décision face à l’incertitude. Votre remarque concernant l’acceptation institutionnelle de la critique, de l’incertitude et de l’évolution des programmes est cruciale, car elle montre clairement que le défi n’est pas seulement méthodologique, mais aussi culturel et politique. C’est précisément cette tension entre l’évaluation normative et l’évaluation prospective que nous devons continuer à explorer ensemble.
United Kingdom
Daniel Ticehurst
Monitoring > Evaluation Specialist
freelance
Posté le 29/04/2026
Silva, excellente remarque sur la façon dont certains utilisent l'évaluation pour justifier des décisions passées. En ce qui concerne la prospective, je m'opposerais à l'idée de vouloir améliorer la capacité de l'évaluation à prédire l'avenir. C'est une entreprise vaine. Il vaut mieux mettre en place des systèmes capables d'observer, de réagir et de s'adapter plus rapidement. Une bonne « prospective » repose sur :
des itérations rapides ; la reconnaissance de schémas à travers les expériences ; et ; la mise à jour continue des hypothèses. Cela permet de mieux naviguer dans l'avenir au fur et à mesure qu'il se dessine
Germany
Ines Freier
Senior consultant for NRM and biodiversity, Green economy
consultant
Posté le 13/04/2026
Cet article propose une approche pour évaluer les nouveaux projets spéculatifs qui échappent au contrôle des pouvoirs publics. Le recours à des méthodes prospectives plutôt qu’aux performances passées peut également se retourner contre nous.
J'ai récemment évalué des fonds de financement mixte ; leurs performances n'ont pas été à la hauteur des attentes en raison d'un ensemble de facteurs issus de la recherche sur la gestion et le développement commercial, tels que le principe « Know Your Customer » (connaître son client). Nos experts en la matière ont toujours cherché à élaborer de nouveaux scénarios d'avenir dans lesquels ces mécanismes fonctionneraient mieux. Les outils de prospective sont appliqués au sein du système d'évaluation existant, qui repose sur des départements ou des institutions d'évaluation dont les méthodes, dans la plupart des cas, manquent de compétences techniques et de ressources spécialisées, ce qui permet d'améliorer le système d'évaluation. Il convient d’explorer des alternatives au système d’évaluation actuel, telles que des processus participatifs pour la formulation et la mise en œuvre des politiques, par exemple des groupes de parties prenantes dans des domaines politiques spécifiques fournissant un retour d’information sur des politiques spécifiques. De cette manière, des systèmes réflexifs et d’apprentissage orientés vers l’avenir sont créés à l’aide de boucles de rétroaction. Ici, la programmation future est intégrée par les parties prenantes. On peut citer comme exemples les politiques brésiliennes en matière d’agriculture familiale ou de nutrition, qui sont façonnées par des commissions de parties prenantes à tous les niveaux.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Excellent commentaire, Inès, et une mise en garde très utile. Je partage votre point de vue selon lequel le recours à la prospective à la place de données factuelles sur les performances réelles peut devenir un moyen de justifier indéfiniment des résultats médiocres à travers des scénarios futurs imaginaires, en particulier lorsque les équipes d’évaluation ne disposent pas de l’expertise technique ou sectorielle nécessaire pour remettre en question les hypothèses. L'accent que vous mettez sur des systèmes participatifs et riches en retours d'information est particulièrement important, car il suggère qu'une évaluation tournée vers l'avenir ne doit pas reposer uniquement sur les évaluateurs et les institutions, mais aussi sur une implication structurée des parties prenantes, capable d'influencer la conception, la mise en œuvre et l'adaptation des politiques en temps réel. Ainsi, développer la culture du futur au sein des communautés est également un élément important de nos discussions.
Benin
Koffi Moïse Bienvenu Sodjinou
Chargé de Programme
CASAD International
Posté le 09/04/2026
L’évaluation ne peut plus se contenter d’être un simple acte de mesure ou un constat figé dans le temps ; elle trouve sa véritable raison d’être dans sa capacité à engendrer une transformation durable. En dépassant la fonction traditionnelle de contrôle pour devenir un levier de changement, elle agit comme un moteur de réflexivité qui oblige les acteurs à confronter leurs pratiques à la réalité des résultats. Évaluer sans transformer reviendrait à établir un diagnostic sans intention de soigner, rendant l’exercice stérile et purement bureaucratique. Au contraire, une évaluation tournée vers l’évolution permet d'identifier les zones de rupture et les gisements d'innovation, transformant l'erreur en opportunité d'apprentissage et le jugement en outil d'accompagnement.
Sur le plan éthique et stratégique, cette dimension transformatrice est essentielle pour éviter l'inertie et garantir l'efficacité des actions entreprises. Dans un environnement en constante mutation, l'évaluation doit servir de boussole dynamique : elle ne regarde pas seulement en arrière pour valider des acquis, mais projette les organisations ou les individus vers l'avenir en ajustant les trajectoires. En somme, l'évaluation n'atteint sa pleine valeur que lorsqu'elle devient un processus "capacitant", capable de modifier les comportements et d'optimiser les systèmes pour un impact réel et tangible.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci Koffi. Tu as fait des observations pertinentes et tu as contribué à définir clairement l’évaluation comme quelque chose de bien plus vivant et déterminant que la simple conformité ou le jugement rétrospectif. J’apprécie tout particulièrement l’idée selon laquelle l’évaluation devrait fonctionner comme une boussole dynamique, aidant les personnes et les institutions non seulement à comprendre d’où elles viennent, mais aussi à ajuster leur cap. Présenter l’évaluation comme un diagnostic sans traitement est particulièrement percutant, car cela met en lumière pourquoi l’intention de transformation est essentielle si l’évaluation doit contribuer à un véritable apprentissage, à l’adaptation et à un changement durable.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 06/04/2026
Introduction à la troisième semaine
Pour cette troisième semaine, j’aimerais vous présenter l’article « Fusing foresight and futures thinking for a new transformative evaluation paradigm » de Rose Thompson Coon, Katri Vataja et Pinja Parkkonen (ci-joint ci-dessous).
Cet article soutient que si l'évaluation est censée contribuer à la transformation dans un monde incertain et complexe, elle ne peut pas rester principalement axée sur l'évaluation des performances passées. Elle doit au contraire devenir plus tournée vers l'avenir, plus dynamique et plus à même d'envisager de multiples avenirs possibles.
Ce qui rend cet article particulièrement utile pour notre discussion, c'est qu'il ne se limite pas au niveau théorique. À partir d’un cas tiré de Sitra en Finlande, les auteurs montrent comment des méthodes de prospective telles que l’analyse des horizons (Horizon Scanning) et un processus Delphi modifié peuvent être intégrées à l’évaluation pour valider les choix stratégiques actuels, générer des options de programmation pour l’avenir, approfondir la compréhension de la complexité et renforcer la prise de décision stratégique. Ils soutiennent également que ce changement n’est pas seulement méthodologique. Il nécessite une remise en question plus large de l’objectif de l’évaluation, y compris des questions de pouvoir, de participation et de savoir quels avenirs sont imaginés et priorisés.
Cet article jette un pont pratique entre la réflexion sur l’avenir et l’évaluation transformatrice. Il aide à faire passer le débat de « Pourquoi l’évaluation devrait-elle s’appuyer davantage sur l’avenir ? » à « À quoi cela pourrait-il ressembler concrètement ? »
Il soulève également un défi important pour nous tous. Si l’évaluation doit contribuer à façonner les avenirs souhaités, comment devrait-elle aborder les questions de pouvoir, de participation et de l’avenir de qui est défini ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 06/04/2026
Résumé de la deuxième semaine
Les discussions de la semaine dernière ont mis en lumière une tension riche et d’actualité au cœur de l’évaluation prospective, à savoir si l’évaluation doit rester orientée vers la prédiction et le changement linéaire, ou si elle doit s’orienter vers la préparation, la pluralité, l’apprentissage et l’adaptation.
Rick Davies a vivement insisté sur ce point en faisant valoir que, dans un monde marqué par une profonde incertitude, l’évaluation devrait envisager des futurs multiples et suffisamment diversifiés plutôt que de s’appuyer sur une logique prédictive unique. Il a également soulevé la question importante des critères à utiliser pour évaluer les futurs, suggérant à la fois des critères cognitifs concernant notre façon de penser et des critères comportementaux concernant notre façon de réagir. Il a en outre mis en garde contre une utilisation trop vague du terme « transformation », nous rappelant que la transformation n’est pas intrinsèquement bonne et que les évaluateurs doivent rester attentifs aux objectifs et aux enjeux politiques du changement lui-même.
Michele Friend a proposé un recadrage philosophique et méthodologique important. Plutôt que de se demander ce qui doit changer en premier, elle a fait valoir que la transformation ne devait pas être considérée comme une séquence linéaire. Les méthodes, les critères, les institutions et les mentalités évoluent ensemble à travers des boucles de rétroaction entre l'évaluation, le dialogue, la faisabilité et la mise en œuvre. Son exemple a présenté l'évaluation comme un processus itératif et réflexif qui non seulement juge la performance, mais aide également les personnes et les institutions à se demander qui elles sont en train de devenir.
Le Dr Uzodinma Akujekwe Adirieje a ancré la conversation dans les systèmes de santé africains et à faibles ressources, soulignant que le changement le plus profond doit être celui des mentalités : s'éloigner d'un reporting axé sur la conformité et tourné vers les bailleurs de fonds pour s'orienter vers un apprentissage adaptatif, pris en charge localement et axé sur la résolution de problèmes. Sa contribution a été particulièrement précieuse en montrant que l'évaluation transformatrice n'est pas abstraite ; elle peut produire des résultats concrets lorsque les données probantes sont intégrées dans la prise de décision en temps réel et les réalités communautaires.
Rhode Early Charles a élargi la discussion en faisant valoir que la transformation dépend également de la manière dont les connaissances issues de l'évaluation sont communiquées. Les rapports restent souvent trop techniques et axés sur les évaluateurs. Elle a appelé à ce que les résultats d'évaluation se traduisent par des produits de connaissance multiples et adaptés, que différents publics puissent réellement utiliser, tout en mettant en garde contre le fait que des approches trop minimalistes en matière de données risquent de passer à côté de problèmes émergents et d'opportunités d'apprentissage stratégique.
Dans l’ensemble, les échanges de la semaine suggèrent que l’évaluation éclairée par l’avenir pourrait nécessiter non pas un seul changement, mais plusieurs à la fois… de la prédiction à la préparation, d’un avenir singulier à des avenirs pluriels, de modèles linéaires à un apprentissage riche en retours d’information, de la conformité à l’appropriation locale, et de rapports statiques à des formes de connaissances plus exploitables.
Sur le plan technique, Silva a posé une question pratique concernant la plateforme. À ma connaissance, il n’est pas possible de sélectionner un fil de discussion et de répondre aux commentaires d’une autre personne. Je transmettrai toutefois cette remarque à l’équipe d’EvalForEarth.
Canada
Rhode Early Charles
Posté le 01/04/2026
Dans les systèmes de santé africains et à faibles ressources, l’évaluation sert trop souvent d’exercice de reddition de comptes a posteriori plutôt que d’outil de transformation systémique. D’après des décennies de pratique dans le renforcement des systèmes de santé, le premier changement, et le plus crucial, doit s’opérer au niveau des mentalités : il s’agit de la manière dont nous percevons la finalité et l’appropriation des données probantes. Les évaluateurs et les décideurs agissent souvent dans une optique de conformité, produisant des rapports qui satisfont les bailleurs de fonds externes mais ne parviennent pas à saisir les réalités nuancées sur le terrain. Récemment, dans l'État de Lagos, au Nigeria, le suivi de routine du programme de santé maternelle s'était strictement concentré sur les accouchements en établissement. Mais, en adoptant une approche axée sur l'apprentissage – examinant la qualité des soins, l'expérience des patientes et les schémas d'orientation –, il a été révélé que 42 % des femmes contournaient les cliniques locales en raison de services perçus comme de mauvaise qualité. Une formation ciblée du personnel et une réaffectation des ressources ont ensuite permis d'augmenter les accouchements en établissement de 17 % en l'espace d'un an.
De même, le suivi mené par la communauté dans un autre district nigérian a révélé un obstacle de 40 % lié aux coûts de transport cachés, malgré des rapports indiquant une « satisfaction » des patientes à 95 %. Ces observations mettent en évidence que ces méthodes et critères, aussi techniquement valables soient-ils, ne portent leurs fruits que lorsque les mentalités évoluent pour privilégier un apprentissage adaptatif et ancré localement plutôt que des rapports purement extractifs.
Les données issues des récents dialogues « Vie et santé » du premier trimestre 2026 de l’Afrihealth Optonet Association (AHOA) montrent que les districts utilisant des plateformes numériques intégrées et l’évaluation participative ont enregistré une augmentation de 15 % de la couverture vaccinale – preuve que l’intégration de l’évaluation dans la résolution de problèmes en temps réel, et non pas seulement dans des rapports rétrospectifs, produit un impact tangible sur la santé.
La durabilité et le développement à long terme dépendent de cet alignement. L’évaluation transformatrice ne consiste pas à améliorer les feuilles de calcul ou à créer des tableaux de bord plus sophistiqués ; il s’agit de décoloniser les intentions, de veiller à ce que les données servent des solutions locales et de favoriser une culture de la réflexion critique. Dans les systèmes de santé africains aux moyens limités, ce changement de mentalité est le pivot autour duquel toutes les méthodes, tous les critères et toutes les réformes institutionnelles s’articulent pour aboutir à un changement systémique et durable.
Nigeria
Dr. Uzodinma Akujekwe Adirieje
CEO
Afrihealth Optonet Association (AHOA) - CSOs Network
Posté le 01/04/2026
Dans les systèmes de santé africains et à faibles ressources, l’évaluation sert trop souvent d’exercice de reddition de comptes a posteriori plutôt que d’outil de transformation systémique. D’après des décennies de pratique dans le renforcement des systèmes de santé, le premier changement, et le plus crucial, doit s’opérer au niveau des mentalités : il s’agit de la manière dont nous percevons la finalité et l’appropriation des données probantes. Les évaluateurs et les décideurs agissent souvent dans une optique de conformité, produisant des rapports qui satisfont les bailleurs de fonds externes mais ne parviennent pas à saisir les réalités nuancées sur le terrain. Récemment, dans l'État de Lagos, au Nigeria, le suivi de routine du programme de santé maternelle s'était strictement concentré sur les accouchements en établissement. Mais, en adoptant une approche axée sur l'apprentissage – examinant la qualité des soins, l'expérience des patientes et les schémas d'orientation –, il a été révélé que 42 % des femmes contournaient les cliniques locales en raison de services perçus comme de mauvaise qualité. Une formation ciblée du personnel et une réaffectation des ressources ont ensuite permis d'augmenter les accouchements en établissement de 17 % en l'espace d'un an.
De même, le suivi mené par la communauté dans un autre district nigérian a révélé un obstacle de 40 % lié aux coûts de transport cachés, malgré des rapports indiquant une « satisfaction » des patientes à 95 %. Ces observations mettent en évidence que ces méthodes et critères, aussi techniquement valables soient-ils, ne portent leurs fruits que lorsque les mentalités évoluent pour privilégier un apprentissage adaptatif et ancré localement plutôt que des rapports purement extractifs.
Les données issues des récents dialogues « Vie et santé » du premier trimestre 2026 de l’Afrihealth Optonet Association (AHOA) montrent que les districts utilisant des plateformes numériques intégrées et l’évaluation participative ont enregistré une augmentation de 15 % de la couverture vaccinale – preuve que l’intégration de l’évaluation dans la résolution de problèmes en temps réel, et non pas seulement dans des rapports rétrospectifs, produit un impact tangible sur la santé.
La durabilité et le développement à long terme dépendent de cet alignement. L’évaluation transformatrice ne consiste pas à améliorer les feuilles de calcul ou à créer des tableaux de bord plus sophistiqués ; il s’agit de décoloniser les intentions, de veiller à ce que les données servent des solutions locales et de favoriser une culture de la réflexion critique. Dans les systèmes de santé africains aux moyens limités, ce changement de mentalité est le pivot autour duquel toutes les méthodes, tous les critères et toutes les réformes institutionnelles s’articulent pour aboutir à un changement systémique et durable.
United Kingdom
Rick Davies
Evaluation Consultant
Posté le 01/04/2026
Si la question de cette semaine est « Si l'évaluation doit contribuer à la transformation, qu'est-ce qui doit changer en premier lieu… nos méthodes, nos critères, nos institutions, notre état d'esprit sous-jacent, ou autre chose ? », je vais réitérer mon argument ci-dessous… il existe un décalage potentiellement grave entre la nature prédictive d'une théorie du changement telle qu'utilisée par les évaluateurs et la nécessité d'être prêt à faire face dans un monde très incertain : une vision unique de l'avenir contre une vision plurielle des avenirs
[Soit dit en passant, la structure d’affichage pour ce type de dialogue devrait être ramifiée, et non linéaire]
Et s’il vous plaît, n’utilisons pas le mot « transformationnel » à la légère. Poutine, Trump et d’autres despotes sont tous friands de transformation, d’une manière ou d’une autre. Qu'en est-il des améliorations progressives, ou peut-être même simplement de la survie, en tant qu'objectif ? :-) L'inflation prend de nombreuses formes, y compris des changements dans notre vocabulaire. Par exemple, autrefois, nous avions simplement des « détails », mais aujourd'hui, nous avons la « granularité ». Ouah... les choses s'améliorent vraiment... ou peut-être pas ?
United States of America
Michele Friend
Professor
George Washington University
Posté le 30/03/2026
Hello everyone,
I’m delighted to be taking part in this discussion. Having a background in philosophy, I will no doubt be asking questions of a different nature. Steven Lichty asked: “If evaluation is to contribute to transformation, what needs to change first… our methods, our criteria, our institutions, our underlying mindset, or something else?”
I don’t think we should frame the question in this way. Transformation is not a linear process where we move from a first stage to a second, then to a third, and so on. On the contrary, several things happen simultaneously, and where each of us starts depends on ourselves, on what we are evaluating, and on the perceived purpose of the evaluation. In other words, what matters is the feedback loop between the assessment and the people it concerns.
Our team recently assessed a building. It met the requirements for LEED certification. To our surprise, it exceeded the LEED criteria. We incorporated these additional features into our assessment (our method is quite flexible in this regard). We then used this assessment to formulate recommendations for further improvements. Thus, the assessment method included these recommendations, and these led to a conversation about feasibility, implementation, timing, importance, and so on. This conversation, in turn, feeds back into the assessment and the recommendations. The conversation also leads those involved in the assessment to ask themselves in-depth questions about themselves, who they are and what they wish to become within the context of the institution. Thus, criteria, institutions and mindsets all evolve simultaneously through our assessment and feedback process.
United Kingdom
Rick Davies
Evaluation Consultant
Posté le 30/03/2026
Lorsque l'avenir semble plus incertain que jamais, il peut être utile de privilégier la préparation plutôt que la prédiction. Pour améliorer notre préparation, nous devons envisager plusieurs scénarios d'avenir, et non un seul, et ces scénarios doivent être suffisamment variés. Une fois ces scénarios élaborés, comment pouvons-nous alors les évaluer ? Je serais intéressé de connaître l'avis des autres sur les critères pertinents à appliquer. Pour commencer, je suggère que ces critères puissent être classés en deux grandes catégories :
1. Cognitifs : critères relatifs à la manière dont nous envisageons l'avenir
2. Comportementaux : critères relatifs à la manière dont nous réagissons à ces futurs avant et après leur réalisation.
Italy
Silva Ferretti
Freelance consultant
Posté le 30/03/2026
Est-il possible de répondre à des messages et de reprendre une conversation ? Je n'ai pas trouvé cette option. Et créer un nouveau message rompt le fil de la conversation !
Pagination