Contexte et justification
Les programmes pour la sécurité alimentaire, l'environnement et le développement agricole ont de plus en plus lieu dans des contextes volatiles, incertains et complexes. Les perturbations climatiques, la dégradation des écosystèmes, les conditions géopolitiques changeantes et la succession de crises ne sont plus seulement des bruits de fond. Ils définissent l'environnement dans lequel ces programmes sont conçus et mis en œuvre. Dans ces secteurs, l'évaluation reste souvent focalisée sur la redevabilité rétrospective, en mesurant la performance passée par rapport à des objectifs fixés, alors que les conditions de mise en œuvre ne cessent d'évoluer.
Ce décalage temporel a des conséquences pratiques. Lorsque les évaluations apprécient la pertinence, l'efficacité et la durabilité par rapport aux conditions qui existaient lors de la conception du programme, elles peuvent générer des résultats qui sont exacts en ce qui concerne le passé mais moins pertinents pour orienter les décisions futures et gérer le changement. Les processus de théorie du changement répètent souvent une même limite: celle de ne pas tenir compte des scénarios futurs possibles qui détermineront si les investissements actuels seront en fin de compte couronnés de succès ou non.
La prospective stratégique propose des approches tournées vers l'avenir en mesure de renforcer la pratique de l'évaluation. Des méthodes telles que l'analyse prospective, la planification de scénarios, le «triangle des futurs», le cadre des «trois horizons» et l'analyse causale par couches aident les évaluateurs à regarder au-delà de la performance passée et à prendre en compte la manière dont les programmes pourraient fonctionner dans des conditions futures différentes. Ces instruments et cadres prospectifs peuvent enrichir l'évaluation à chaque étape, de la définition de sa portée et de sa conception jusqu'à l'apprentissage et l'utilisation. Lorsqu'ils sont utilisés tout au long de l'évaluation, ils favorisent une gouvernance plus préventive, permettent des décisions qui s'appuient sur des preuves, tout en restant attentifs à l'incertitude et au changement de long terme.
Un élan visant à intégrer la prospective et l'évaluation est déjà visible dans différents secteurs. Les programmes d'action préventive du PAM ont par exemple déjà introduit des approches tournées vers l'avenir dans les cadres de suivi et évaluation. Au même moment, des organisations telles que le FEM, le CGIAR et la FAO examinent comment l'évaluation pourrait mieux évaluer la résilience de long terme et les impacts systémiques des investissements dans les domaines de l'environnement et de l'agriculture. Ces évolutions suscitent également une réflexion plus large au sein de la communauté de l'évaluation, notamment en renouvelant l'intérêt porté à l'évolution possible des critères du CAD de l'OCDE si l'on passait de la mesure de la conformité par rapport à des priorités passées, à l'évaluation de la pertinence et de la solidité prospective dans des scénarios futurs plausibles. Malgré cet élan, les orientations pratiques pour les évaluateurs restent limitées. Peu d'évaluateurs ont reçu une initiation formelle aux méthodes prospectives et les praticiens de la prospective sont rarement formés en évaluation. Les instruments, les exemples de cas et la communauté de pratique nécessaires pour relier ces domaines ne sont pas encore bien établis.
Finalité de la discussion
Cette discussion en ligne examinera comment les méthodes prospectives peuvent être intégrées dans la pratique évaluative dans les domaines de la sécurité alimentaire, de l'environnement et de l'agriculture. En s'appuyant sur les expériences des praticiens, des exemples réels et des lectures facultatives, la discussion mettra en exergue des idées pratiques que les évaluateurs peuvent utiliser pour que leur travail s'adapte à l'incertitude et soit plus efficace pour une prise de décision tournée vers l'avenir.
Objectifs de la discussion
- Introduire les principaux concepts et instruments clés – tels que l'analyse prospective, la planification de scénarios, le «triangle des futurs», le cadre des «trois horizons» et l'analyse causale par couches – et examiner la manière dont ils peuvent être appliqués dans les processus d'évaluation.
- Examiner comment l'évaluation tournée vers l'avenir peut renforcer les évaluations de la pertinence, de la durabilité, et de l'impact systémique dans les programmes de sécurité alimentaire, environnementaux et agricoles.
- Partager des exemples concrets d'intégration de la prospective et de l'évaluation dans le secteur, notamment l'action préventive, la programmation de la résilience climatique et les processus de théorie du changement.
- Identifier les points d'entrée pratiques par lesquels les évaluateurs peuvent commencer à incorporer les approches prospectives dans leur travail, quels que soit le contexte institutionnel ou les contraintes en termes de ressource.
Questions directives
- Dans des contextes caractérisés par l'incertitude climatique, le changement environnemental rapide et des réalités géopolitiques changeantes, où avez-vous observé les limites de l'évaluation rétrospective? Comment cela a-t-il affecté l'utilisation des résultats d'évaluation?
- Quels outils ou méthodes de prospective avez-vous connus dans votre pratique d'évaluation? Qu'est-ce qui les a rendus utiles ou difficiles à appliquer? Quels outils prospectifs, le cas échéant, avez-vous utilisés personnellement?
- Comment nos interprétations des critères du CAD (tels que la pertinence et la durabilité) dans une vision prospective pourraient modifier ce que nous mesurons, comment nous le mesurons et comment nous formulons les recommandations?
- Où voyez-vous des opportunités d'intégration de la prospective et de l'évaluation dans les domaines de la sécurité alimentaire, de l'environnement et de l'agriculture?
- Quels compétences, ressources et changements institutionnels seraient nécessaires pour que la prospective fasse partie intégrante de la conception et de la commande de l'évaluation?
Lectures pour la discussion
Semaine 1: Présentation du thème et analyse des questions directives.
Semaine 2: Examen de la prospective transformatrice pour l'impératif transformateur, à travers un article à paraître dans le Journal of MultiDisciplinary Evaluation, sous la direction de Scott Chaplowe.
Semaine 3: Discussion autour de “Fusing foresight and futures thinking for a new transformative evaluation paradigm” de Rose Thompson Coon, Katri Vataja et Pinja Parkkonen (dans New Directions for Evaluation, Été 2024, n. 183, pages 91-101)
Semaine 4: Consultation de Quality Criteria for Food Systems Foresight in Africa: A practitioner’s guide for commissioning, facilitating and evaluating foresight, guide récent écrit par Katindi Sivi et lancé par le Forum for Agricultural Research in Africa, en partenariat avec Foresight4Food, University of Oxford et le International Development Research Centre.
La discussion en ligne restera ouverte aux contributions jusqu'au 27 avril 2026
Connectez-vous pour participerPas encore inscrit?Inscrivez-vous ici
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
I am back from a spur of the moment short holiday where I did not open my laptop for six days, but it nice to see the conversation and discussion continuing.
As we move into our final week, I want to introduce the FARA guide Criteria to Assess High-Quality Food Systems Foresight in Africa (the link is in the intro to this discussion board, but also attached below). My colleague, Dr. Katindi Sivi, was a co-author, so I'm excited to showcase her work.
What I find especially useful about this report is that it is not a step-by-step foresight manual. It is a quality framework for thinking about what makes foresight meaningful, credible, inclusive, and actually useful for decision-making in complex food systems contexts. The guide argues that, in a time shaped by climate risk, demographic change, geopolitical uncertainty, and structural inequality, foresight must move beyond scenario production toward anticipatory governance, local ownership, and real policy influence. It also places unusual emphasis on African realities, including indigenous knowledge, informality, power relations, and participatory practice.
That feels highly relevant to the conversation we have been having here. Over the past weeks, several of you have pushed us to think beyond retrospective accountability alone. Silva and Amy asked whether evaluation can be freed from compliance logic. Rick challenged us to move from prediction toward preparedness and plural futures. Uzodinma emphasized mindset, local ownership, and adaptive learning. Rhode reminded us that knowledge must be communicated in usable ways, not just written for evaluators. Those themes are all echoed in this guide.
The guide is organised around nine interlinked criteria, including contextual relevance, inclusivity, ethics, methodological rigor, strategic communication, institutional embedding, and shifts in thought and behaviour. It also argues that evaluation of foresight should not focus on predictive accuracy, but on whether foresight improves learning (another common theme in our discussions), decision-making, contribution to change, and long-term systems transformation.
So for this final week, I would like to ask: what would high-quality future-informed evaluation actually look like in practice? What conditions need to be in place for it to be ethical, participatory, useful, and institutionally embedded rather than just another report on the shelf?
Benin
Alexis Adébayo ODOUN-IFA
Expert in MEAL
RAAF/ECOWAS
Posté le 13/04/2026
Rose Thompson Coon et al., dans leurs écrits, mettent en exergue la nécessité de repenser l’évaluation afin d’y intégrer une dimension prospective, voire futuriste. En effet, si l’évaluation permet de tirer des leçons, elle n’offre pas toujours des pistes immédiates pour leur utilisation opérationnelle à la fin de l'intervention. Sans une revue de littérature approfondie et une appropriation par d’autres chercheurs ou concepteurs de projets futurs, les enseignements issus des évaluations d’interventions tendent à être oubliés à la fin de celles-ci. Ainsi, les rapports d’évaluation gagneraient à intégrer des analyses plus approfondies, permettant de mieux prendre en compte cette vision prospective et orientée vers l’avenir du développement.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
This is an important point Alexis...thank you for contributing. I especially appreciate your observation that lessons from evaluation are often documented but not meaningfully carried forward into future design, policy, or practice. Your comment reinforces why a more future-oriented approach matters....evaluation should not only capture what happened, but also help ensure that learning remains usable, transferable, and alive beyond the life of a single intervention. Learning and education have strong futures/foresight elements by default. How can we better integrate forward-looking learning in our evaluations?
Italy
Silva Ferretti
Freelance consultant
Posté le 13/04/2026
It is quite hard to comment on an article that is not fully accessible :-(
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Which article are you referring to? I attached Fusing foresight and futures thinking for a new transformative evaluation paradigm in my earlier post, so you should have access to it.
Ghana
Ishmael Kwame Agbomlaku
Manager
Integrated Institute of professional, LA plage Meta Verse.
Posté le 13/04/2026
Une perspective pertinente. L'évaluation doit évoluer pour passer d'une analyse rétrospective à une vision prospective, en utilisant les données non seulement pour rendre compte, mais aussi pour anticiper et améliorer les résultats. C'est essentiel pour une conception efficace des programmes
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Thanks for the comment, Ishmael. I agree completely. Great foresight always contains elements of hindsight, so it is not a competition, but collaboration and symbiosis. I've that many ancient traditions thought of humanity walking backwards into the future....knowing where we've been is important, but when we see the path curving or diverging, we need to start tacking in that direction.
Italy
Silva Ferretti
Freelance consultant
Posté le 13/04/2026
Nous pouvons certainement améliorer notre capacité à « anticiper » : à cerner les tendances probables et à analyser de manière plus réfléchie les conséquences possibles. Mais il faut toujours résister à la tentation d'en faire « LE plan ». Car ce qui compte, c'est d'avoir une orientation et de l'agilité, une meilleure capacité à percevoir et à saisir les moments décisifs… et non un avenir tout tracé.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Hi Silva, thanks for your comment. It is so easy to become trapped by "THE PLAN". This is why I love working with scenarios. You can have the plan, but when you have three or four scenarios on the horizon, you can always wind-tunnel THE PLAN and see where it needs to adapt. All the more reason for the agility, capacity to see and feel junctures, as you mentioned.
Italy
Silva Ferretti
Freelance consultant
Posté le 13/04/2026
La question fondamentale est la suivante : à quoi sert l'évaluation ? Si elle existe principalement pour confirmer la conformité (c'est-à-dire pour vérifier qu'un plan a été exécuté comme prévu, que la théorie du changement s'est vérifiée...), alors y ajouter des méthodes de prospective ne change rien. Nous nous contenterons d'anticiper l'avenir au service de la même logique rétrospective et du même ensemble d'horizons. Toujours en « mode conformité ». Avant de nous demander comment l'évaluation peut mieux anticiper l'avenir, nous devons nous poser une question préalable : sommes-nous prêts à libérer l'évaluation de l'obligation de confirmer le plan ?
Senegal
Amy MARA
Economiste et Specialiste en Passation de Marché
Direction de la Dette Publique
Posté le 17/04/2026
Bonjour,
Ma très chère Silva ,
Votre analyse se révèle très pertinente et appelle une réflexion approfondie, en particulier sur la nécessité de repenser la finalité de l’évaluation au-delà de la simple logique de conformité.
la réflexion proposée soulève une question fondamentale et pertinente : celle de la finalité réelle de l’évaluation. En effet, si l’évaluation est réduite à une fonction de conformité, elle se limite à vérifier si les actions menées correspondent aux prévisions initiales, sans véritablement interroger leur pertinence, leur impact ou leur capacité d’adaptation aux réalités changeantes.
Dans cette perspective, l’introduction de méthodes prospectives dans une évaluation enfermée dans une logique de conformité apparaît insuffisante. Elle risque même de reproduire les mêmes schémas, en projetant simplement dans le futur des hypothèses déjà figées, sans remise en question des cadres d’analyse. Ainsi, anticiper l’avenir sans transformer la finalité de l’évaluation revient à prolonger une approche rétrospective sous une autre forme.
Dès lors, la question centrale devient celle de la transformation du rôle de l’évaluation. Il ne s’agit plus uniquement de confirmer un plan, mais de questionner les hypothèses qui le sous-tendent, d’identifier les écarts entre les intentions et les résultats, et surtout d’accompagner la prise de décision dans des contextes incertains. Une évaluation tournée vers l’avenir doit être un outil d’apprentissage, d’adaptation et d’innovation.
Libérer l’évaluation de l’obligation de confirmer le plan implique plusieurs changements majeurs. D’abord, accepter que les programmes puissent évoluer en fonction des réalités du terrain. Ensuite, intégrer des approches plus flexibles, telles que l’évaluation en temps réel ou l’apprentissage adaptatif. Enfin, reconnaître que l’évaluation peut produire des résultats critiques, parfois en contradiction avec les objectifs initiaux.
Cependant, cette transformation n’est pas sans défis. Elle suppose un changement de culture institutionnelle, où les décideurs acceptent l’incertitude et la remise en question. Elle nécessite également des capacités techniques renforcées et une plus grande ouverture à la participation des parties prenantes.
En conclusion, l’évaluation ne pourra véritablement intégrer une dimension prospective que si elle se libère de sa fonction strictement normative. Elle doit évoluer vers un rôle stratégique, orienté vers l’apprentissage et l’anticipation, afin de mieux répondre aux enjeux complexes et dynamiques des politiques publiques.
Amy MARA
Economiste
Dakar Sénégal
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci beaucoup pour cette contribution très riche et très bien formulée. Vous mettez le doigt sur un point central de notre discussion...tant que l’évaluation reste enfermée dans une logique de conformité, même l’introduction de méthodes prospectives risque de ne produire qu’un déplacement superficiel plutôt qu’un véritable changement de posture. J’apprécie particulièrement votre insistance sur la nécessité de transformer la finalité même de l’évaluation, afin qu’elle devienne un espace d’apprentissage, d’adaptation et d’aide à la décision dans l’incertitude. Votre remarque sur l’acceptation institutionnelle de la critique, de l’incertitude et de l’évolution des programmes est essentielle, car elle montre bien que le défi n’est pas seulement méthodologique, mais aussi culturel et politique. C’est précisément cette tension entre évaluation normative et évaluation tournée vers l’avenir que nous devons continuer à explorer ensemble. (I hope my Gemini translation makes sense Amy!)
Germany
Ines Freier
Senior consultant for NRM and biodiversity, Green economy
consultant
Posté le 13/04/2026
The paper offers one option for evaluating new speculative ventures which are not under control of the public. Using foresight methods instead of past performance can also backfire.
I recently evaluated blended finance funds, the performance of the funds was not as expected due to a set of factors driven from research on management and business development like know your customer. Our subject experts always tried to developed new scenarios for the future under which the facilities would work better. Foresight tools are applied within the existing evaluation system based on evaluation departments or institutions and methods which in most cases lack hard technical / subject-related skills and resources improve the evaluation system. Alternatives to the current evaluation system should be explored like participatory process for policy formulation and implementation like stakeholder groups in specific policy areas providing feedback on specific policies. This way future oriented reflexive and learning systems are created using feedback loops. Here future programming is included by stakeholders. Examples are the Brazilian policies for family agriculture or nutrition which are shaped by stakeholder commissions at all levels.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Great comment here, Ines, and a valuable caution. I appreciate your point that using foresight in place of evidence on actual performance can become a way of endlessly rescuing weak results through imagined future scenarios, especially when evaluation teams lack the technical or sector-specific expertise needed to challenge assumptions. Your emphasis on participatory, feedback-rich systems is especially important, because it suggests that future-oriented evaluation should not rely only on evaluators and institutions, but also on structured stakeholder engagement that can shape policy design, implementation, and adaptation in real time. Thus, building futures literacy with communities is also important element of our conversations.
Benin
Koffi Moïse Bienvenu Sodjinou
Chargé de Programme
CASAD International
Posté le 09/04/2026
L’évaluation ne peut plus se contenter d’être un simple acte de mesure ou un constat figé dans le temps ; elle trouve sa véritable raison d’être dans sa capacité à engendrer une transformation durable. En dépassant la fonction traditionnelle de contrôle pour devenir un levier de changement, elle agit comme un moteur de réflexivité qui oblige les acteurs à confronter leurs pratiques à la réalité des résultats. Évaluer sans transformer reviendrait à établir un diagnostic sans intention de soigner, rendant l’exercice stérile et purement bureaucratique. Au contraire, une évaluation tournée vers l’évolution permet d'identifier les zones de rupture et les gisements d'innovation, transformant l'erreur en opportunité d'apprentissage et le jugement en outil d'accompagnement.
Sur le plan éthique et stratégique, cette dimension transformatrice est essentielle pour éviter l'inertie et garantir l'efficacité des actions entreprises. Dans un environnement en constante mutation, l'évaluation doit servir de boussole dynamique : elle ne regarde pas seulement en arrière pour valider des acquis, mais projette les organisations ou les individus vers l'avenir en ajustant les trajectoires. En somme, l'évaluation n'atteint sa pleine valeur que lorsqu'elle devient un processus "capacitant", capable de modifier les comportements et d'optimiser les systèmes pour un impact réel et tangible.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Thanks Koffi. You've made some astute observations and contributed a strong articulation of evaluation as something far more alive and consequential than compliance or retrospective judgement. I especially appreciate the idea that evaluation should function as a dynamic compass, helping people and institutions not only understand where they have been, but also adjust where they are going. Framing evaluation as diagnosis without treatment is particularly powerful, because it captures why transformative intent matters if evaluation is to contribute to real learning, adaptation, and lasting change.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 06/04/2026
Introduction à la troisième semaine
Pour cette troisième semaine, j’aimerais vous présenter l’article « Fusing foresight and futures thinking for a new transformative evaluation paradigm » de Rose Thompson Coon, Katri Vataja et Pinja Parkkonen (ci-joint ci-dessous).
Cet article soutient que si l'évaluation est censée contribuer à la transformation dans un monde incertain et complexe, elle ne peut pas rester principalement axée sur l'évaluation des performances passées. Elle doit au contraire devenir plus tournée vers l'avenir, plus dynamique et plus à même d'envisager de multiples avenirs possibles.
Ce qui rend cet article particulièrement utile pour notre discussion, c'est qu'il ne se limite pas au niveau théorique. À partir d’un cas tiré de Sitra en Finlande, les auteurs montrent comment des méthodes de prospective telles que l’analyse des horizons (Horizon Scanning) et un processus Delphi modifié peuvent être intégrées à l’évaluation pour valider les choix stratégiques actuels, générer des options de programmation pour l’avenir, approfondir la compréhension de la complexité et renforcer la prise de décision stratégique. Ils soutiennent également que ce changement n’est pas seulement méthodologique. Il nécessite une remise en question plus large de l’objectif de l’évaluation, y compris des questions de pouvoir, de participation et de savoir quels avenirs sont imaginés et priorisés.
Cet article jette un pont pratique entre la réflexion sur l’avenir et l’évaluation transformatrice. Il aide à faire passer le débat de « Pourquoi l’évaluation devrait-elle s’appuyer davantage sur l’avenir ? » à « À quoi cela pourrait-il ressembler concrètement ? »
Il soulève également un défi important pour nous tous. Si l’évaluation doit contribuer à façonner les avenirs souhaités, comment devrait-elle aborder les questions de pouvoir, de participation et de l’avenir de qui est défini ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 06/04/2026
Résumé de la deuxième semaine
Les discussions de la semaine dernière ont mis en lumière une tension riche et d’actualité au cœur de l’évaluation prospective, à savoir si l’évaluation doit rester orientée vers la prédiction et le changement linéaire, ou si elle doit s’orienter vers la préparation, la pluralité, l’apprentissage et l’adaptation.
Rick Davies a vivement insisté sur ce point en faisant valoir que, dans un monde marqué par une profonde incertitude, l’évaluation devrait envisager des futurs multiples et suffisamment diversifiés plutôt que de s’appuyer sur une logique prédictive unique. Il a également soulevé la question importante des critères à utiliser pour évaluer les futurs, suggérant à la fois des critères cognitifs concernant notre façon de penser et des critères comportementaux concernant notre façon de réagir. Il a en outre mis en garde contre une utilisation trop vague du terme « transformation », nous rappelant que la transformation n’est pas intrinsèquement bonne et que les évaluateurs doivent rester attentifs aux objectifs et aux enjeux politiques du changement lui-même.
Michele Friend a proposé un recadrage philosophique et méthodologique important. Plutôt que de se demander ce qui doit changer en premier, elle a fait valoir que la transformation ne devait pas être considérée comme une séquence linéaire. Les méthodes, les critères, les institutions et les mentalités évoluent ensemble à travers des boucles de rétroaction entre l'évaluation, le dialogue, la faisabilité et la mise en œuvre. Son exemple a présenté l'évaluation comme un processus itératif et réflexif qui non seulement juge la performance, mais aide également les personnes et les institutions à se demander qui elles sont en train de devenir.
Le Dr Uzodinma Akujekwe Adirieje a ancré la conversation dans les systèmes de santé africains et à faibles ressources, soulignant que le changement le plus profond doit être celui des mentalités : s'éloigner d'un reporting axé sur la conformité et tourné vers les bailleurs de fonds pour s'orienter vers un apprentissage adaptatif, pris en charge localement et axé sur la résolution de problèmes. Sa contribution a été particulièrement précieuse en montrant que l'évaluation transformatrice n'est pas abstraite ; elle peut produire des résultats concrets lorsque les données probantes sont intégrées dans la prise de décision en temps réel et les réalités communautaires.
Rhode Early Charles a élargi la discussion en faisant valoir que la transformation dépend également de la manière dont les connaissances issues de l'évaluation sont communiquées. Les rapports restent souvent trop techniques et axés sur les évaluateurs. Elle a appelé à ce que les résultats d'évaluation se traduisent par des produits de connaissance multiples et adaptés, que différents publics puissent réellement utiliser, tout en mettant en garde contre le fait que des approches trop minimalistes en matière de données risquent de passer à côté de problèmes émergents et d'opportunités d'apprentissage stratégique.
Dans l’ensemble, les échanges de la semaine suggèrent que l’évaluation éclairée par l’avenir pourrait nécessiter non pas un seul changement, mais plusieurs à la fois… de la prédiction à la préparation, d’un avenir singulier à des avenirs pluriels, de modèles linéaires à un apprentissage riche en retours d’information, de la conformité à l’appropriation locale, et de rapports statiques à des formes de connaissances plus exploitables.
Sur le plan technique, Silva a posé une question pratique concernant la plateforme. À ma connaissance, il n’est pas possible de sélectionner un fil de discussion et de répondre aux commentaires d’une autre personne. Je transmettrai toutefois cette remarque à l’équipe d’EvalForEarth.
Canada
Rhode Early Charles
Posté le 01/04/2026
Dans les systèmes de santé africains et à faibles ressources, l’évaluation sert trop souvent d’exercice de reddition de comptes a posteriori plutôt que d’outil de transformation systémique. D’après des décennies de pratique dans le renforcement des systèmes de santé, le premier changement, et le plus crucial, doit s’opérer au niveau des mentalités : il s’agit de la manière dont nous percevons la finalité et l’appropriation des données probantes. Les évaluateurs et les décideurs agissent souvent dans une optique de conformité, produisant des rapports qui satisfont les bailleurs de fonds externes mais ne parviennent pas à saisir les réalités nuancées sur le terrain. Récemment, dans l'État de Lagos, au Nigeria, le suivi de routine du programme de santé maternelle s'était strictement concentré sur les accouchements en établissement. Mais, en adoptant une approche axée sur l'apprentissage – examinant la qualité des soins, l'expérience des patientes et les schémas d'orientation –, il a été révélé que 42 % des femmes contournaient les cliniques locales en raison de services perçus comme de mauvaise qualité. Une formation ciblée du personnel et une réaffectation des ressources ont ensuite permis d'augmenter les accouchements en établissement de 17 % en l'espace d'un an.
De même, le suivi mené par la communauté dans un autre district nigérian a révélé un obstacle de 40 % lié aux coûts de transport cachés, malgré des rapports indiquant une « satisfaction » des patientes à 95 %. Ces observations mettent en évidence que ces méthodes et critères, aussi techniquement valables soient-ils, ne portent leurs fruits que lorsque les mentalités évoluent pour privilégier un apprentissage adaptatif et ancré localement plutôt que des rapports purement extractifs.
Les données issues des récents dialogues « Vie et santé » du premier trimestre 2026 de l’Afrihealth Optonet Association (AHOA) montrent que les districts utilisant des plateformes numériques intégrées et l’évaluation participative ont enregistré une augmentation de 15 % de la couverture vaccinale – preuve que l’intégration de l’évaluation dans la résolution de problèmes en temps réel, et non pas seulement dans des rapports rétrospectifs, produit un impact tangible sur la santé.
La durabilité et le développement à long terme dépendent de cet alignement. L’évaluation transformatrice ne consiste pas à améliorer les feuilles de calcul ou à créer des tableaux de bord plus sophistiqués ; il s’agit de décoloniser les intentions, de veiller à ce que les données servent des solutions locales et de favoriser une culture de la réflexion critique. Dans les systèmes de santé africains aux moyens limités, ce changement de mentalité est le pivot autour duquel toutes les méthodes, tous les critères et toutes les réformes institutionnelles s’articulent pour aboutir à un changement systémique et durable.
Nigeria
Dr. Uzodinma Akujekwe Adirieje
CEO
Afrihealth Optonet Association (AHOA) - CSOs Network
Posté le 01/04/2026
Dans les systèmes de santé africains et à faibles ressources, l’évaluation sert trop souvent d’exercice de reddition de comptes a posteriori plutôt que d’outil de transformation systémique. D’après des décennies de pratique dans le renforcement des systèmes de santé, le premier changement, et le plus crucial, doit s’opérer au niveau des mentalités : il s’agit de la manière dont nous percevons la finalité et l’appropriation des données probantes. Les évaluateurs et les décideurs agissent souvent dans une optique de conformité, produisant des rapports qui satisfont les bailleurs de fonds externes mais ne parviennent pas à saisir les réalités nuancées sur le terrain. Récemment, dans l'État de Lagos, au Nigeria, le suivi de routine du programme de santé maternelle s'était strictement concentré sur les accouchements en établissement. Mais, en adoptant une approche axée sur l'apprentissage – examinant la qualité des soins, l'expérience des patientes et les schémas d'orientation –, il a été révélé que 42 % des femmes contournaient les cliniques locales en raison de services perçus comme de mauvaise qualité. Une formation ciblée du personnel et une réaffectation des ressources ont ensuite permis d'augmenter les accouchements en établissement de 17 % en l'espace d'un an.
De même, le suivi mené par la communauté dans un autre district nigérian a révélé un obstacle de 40 % lié aux coûts de transport cachés, malgré des rapports indiquant une « satisfaction » des patientes à 95 %. Ces observations mettent en évidence que ces méthodes et critères, aussi techniquement valables soient-ils, ne portent leurs fruits que lorsque les mentalités évoluent pour privilégier un apprentissage adaptatif et ancré localement plutôt que des rapports purement extractifs.
Les données issues des récents dialogues « Vie et santé » du premier trimestre 2026 de l’Afrihealth Optonet Association (AHOA) montrent que les districts utilisant des plateformes numériques intégrées et l’évaluation participative ont enregistré une augmentation de 15 % de la couverture vaccinale – preuve que l’intégration de l’évaluation dans la résolution de problèmes en temps réel, et non pas seulement dans des rapports rétrospectifs, produit un impact tangible sur la santé.
La durabilité et le développement à long terme dépendent de cet alignement. L’évaluation transformatrice ne consiste pas à améliorer les feuilles de calcul ou à créer des tableaux de bord plus sophistiqués ; il s’agit de décoloniser les intentions, de veiller à ce que les données servent des solutions locales et de favoriser une culture de la réflexion critique. Dans les systèmes de santé africains aux moyens limités, ce changement de mentalité est le pivot autour duquel toutes les méthodes, tous les critères et toutes les réformes institutionnelles s’articulent pour aboutir à un changement systémique et durable.
United Kingdom
Rick Davies
Evaluation Consultant
Posté le 01/04/2026
Si la question de cette semaine est « Si l'évaluation doit contribuer à la transformation, qu'est-ce qui doit changer en premier lieu… nos méthodes, nos critères, nos institutions, notre état d'esprit sous-jacent, ou autre chose ? », je vais réitérer mon argument ci-dessous… il existe un décalage potentiellement grave entre la nature prédictive d'une théorie du changement telle qu'utilisée par les évaluateurs et la nécessité d'être prêt à faire face dans un monde très incertain : une vision unique de l'avenir contre une vision plurielle des avenirs
[Soit dit en passant, la structure d’affichage pour ce type de dialogue devrait être ramifiée, et non linéaire]
Et s’il vous plaît, n’utilisons pas le mot « transformationnel » à la légère. Poutine, Trump et d’autres despotes sont tous friands de transformation, d’une manière ou d’une autre. Qu'en est-il des améliorations progressives, ou peut-être même simplement de la survie, en tant qu'objectif ? :-) L'inflation prend de nombreuses formes, y compris des changements dans notre vocabulaire. Par exemple, autrefois, nous avions simplement des « détails », mais aujourd'hui, nous avons la « granularité ». Ouah... les choses s'améliorent vraiment... ou peut-être pas ?
United States of America
Michele Friend
Professor
George Washington University
Posté le 30/03/2026
Hello everyone,
I’m delighted to be taking part in this discussion. Having a background in philosophy, I will no doubt be asking questions of a different nature. Steven Lichty asked: “If evaluation is to contribute to transformation, what needs to change first… our methods, our criteria, our institutions, our underlying mindset, or something else?”
I don’t think we should frame the question in this way. Transformation is not a linear process where we move from a first stage to a second, then to a third, and so on. On the contrary, several things happen simultaneously, and where each of us starts depends on ourselves, on what we are evaluating, and on the perceived purpose of the evaluation. In other words, what matters is the feedback loop between the assessment and the people it concerns.
Our team recently assessed a building. It met the requirements for LEED certification. To our surprise, it exceeded the LEED criteria. We incorporated these additional features into our assessment (our method is quite flexible in this regard). We then used this assessment to formulate recommendations for further improvements. Thus, the assessment method included these recommendations, and these led to a conversation about feasibility, implementation, timing, importance, and so on. This conversation, in turn, feeds back into the assessment and the recommendations. The conversation also leads those involved in the assessment to ask themselves in-depth questions about themselves, who they are and what they wish to become within the context of the institution. Thus, criteria, institutions and mindsets all evolve simultaneously through our assessment and feedback process.
United Kingdom
Rick Davies
Evaluation Consultant
Posté le 30/03/2026
Lorsque l'avenir semble plus incertain que jamais, il peut être utile de privilégier la préparation plutôt que la prédiction. Pour améliorer notre préparation, nous devons envisager plusieurs scénarios d'avenir, et non un seul, et ces scénarios doivent être suffisamment variés. Une fois ces scénarios élaborés, comment pouvons-nous alors les évaluer ? Je serais intéressé de connaître l'avis des autres sur les critères pertinents à appliquer. Pour commencer, je suggère que ces critères puissent être classés en deux grandes catégories :
1. Cognitifs : critères relatifs à la manière dont nous envisageons l'avenir
2. Comportementaux : critères relatifs à la manière dont nous réagissons à ces futurs avant et après leur réalisation.
Italy
Silva Ferretti
Freelance consultant
Posté le 30/03/2026
Est-il possible de répondre à des messages et de reprendre une conversation ? Je n'ai pas trouvé cette option. Et créer un nouveau message rompt le fil de la conversation !
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 30/03/2026
Bienvenue à la deuxième semaine
Je souhaite poursuivre la discussion de la semaine dernière en vous proposant une brève réflexion tirée de l’ouvrage de Scott Chaplowe et Joyce Mukoma, Evaluation and the Transformational Imperative (voir pièce jointe). Leur argument principal est simple mais essentiel. L'ampleur des crises actuelles signifie que l'évaluation ne peut rester cantonnée à une approche « business as usual » si elle veut soutenir le programme de transformation plus large reflété dans les ODD. Ils définissent le changement transformationnel non pas comme une amélioration progressive, mais comme un changement profond et systémique dans le fonctionnement d'un système.
Ce que je trouve particulièrement utile, c’est que l’article ne présente pas la transformation comme une nouvelle méthode unique. Au contraire, il s’interroge sur ce qui freine l’évaluation. Il met en évidence quatre fixations bien connues : 1) la fixation sur les projets, 2) la fixation sur le temps, 3) la fixation sur les données quantitatives, et 4) la fixation sur la responsabilité. En d’autres termes, l’évaluation reste trop souvent prisonnière de projets linéaires, de délais de financement courts, d’une logique axée sur les indicateurs et d’une responsabilité orientée vers la conformité.
Scott et Joyce proposent ensuite plusieurs voies pour aller de l’avant… des méthodes adaptatives à la complexité, une évaluation axée sur les principes, de nouveaux critères de transformation, la science des données et des paradigmes alternatifs, y compris les perspectives autochtones et féministes.
Cette semaine, j’aimerais donc poser la question suivante : « Si l’évaluation doit contribuer à la transformation, qu’est-ce qui doit changer en premier lieu… nos méthodes, nos critères, nos institutions, notre état d’esprit sous-jacent, ou autre chose ? »
Nigeria
Dr. Uzodinma Akujekwe Adirieje
CEO
Afrihealth Optonet Association (AHOA) - CSOs Network
Posté le 30/03/2026
DU RÉTROSPECTIF À LA PRÉVISION : L'EXPÉRIENCE DE L'ASSOCIATION AFRIHEALTH OPTONET
par le Dr Uzodinma Adirieje
Du rétrospectif à la prévision, notre expérience au sein de l'Association Afrihealth Optonet (AHOA) démontre que l'évaluation prend toute sa valeur lorsqu'elle dépasse la simple reddition de comptes rétrospective pour contribuer activement à façonner les décisions futures dans un contexte d'incertitude. Trois enseignements pratiques se dégagent.
Intégrer des boucles d'apprentissage adaptatives dans la conception des programmes :
Dans les interventions d'Afrihealth liées aux systèmes de santé et au climat, les examens périodiques n'étaient pas considérés comme des exercices de fin de projet, mais comme des points de contrôle en temps réel. Les évaluateurs ont facilité des cycles de retour d'information rapides – combinant données de routine, observations des bénéficiaires et signaux contextuels (par exemple, changements de politique, événements climatiques comme la COP29 à Bakou) – pour éclairer les ajustements à mi-parcours. Cette approche garantit que les programmes restent pertinents même lorsque les conditions changent.
Intégrer des données issues de méthodes mixtes pour l’analyse prospective :
Les indicateurs quantitatifs seuls sont souvent en retard sur les réalités émergentes. Les évaluations d’Afrihealth ont associé les données sur la prestation de services à des informations qualitatives provenant des communautés et des agents de première ligne. Par exemple, les changements dans les comportements de recours aux soins en période de crise économique ont été détectés tôt grâce à des entretiens et des groupes de discussion, ce qui a permis des ajustements proactifs dans la sensibilisation et l’allocation des ressources.
Aligner les questions d'évaluation sur les horizons décisionnels :
Plutôt que de se contenter de demander « ce qui a fonctionné », Afrihealth a recadré ses questions pour se demander « ce qui est susceptible de fonctionner ensuite, pour qui et dans quelles conditions ». L'élaboration de scénarios et l'analyse des contributions ont été utilisées pour explorer des avenirs plausibles, en particulier dans les programmes où se croisent la variabilité climatique et les risques pour la santé publique. Cela a rendu les résultats directement exploitables pour la planification stratégique, et pas seulement pour l'établissement de rapports.
Co-création avec les parties prenantes :
En impliquant les décideurs politiques, les responsables de la mise en œuvre et les communautés dans la définition des priorités d’évaluation, Afrihealth s’est assuré que les résultats répondaient à des besoins décisionnels réels. Cela a renforcé l’appropriation et augmenté la probabilité que les recommandations soient mises en œuvre.
De même, des lectures complémentaires sur l’évaluation du développement et la gestion adaptative renforcent encore ces pratiques, en mettant l’accent sur la flexibilité, la pensée systémique et la responsabilité axée sur l’apprentissage.
De cette manière, les évaluateurs peuvent améliorer la pertinence dans des contextes incertains en institutionnalisant l'apprentissage en temps réel, en recoupant diverses données factuelles et en orientant les évaluations vers des décisions tournées vers l'avenir.
Le Dr Uzodinma Adirieje est un ancien président national de l'Association nigériane des évaluateurs (NAE). Évaluateur chevronné, économiste de la santé et leader de la société civile, il a été co-consultant pour la rédaction de la politique nationale de suivi et d'évaluation du Nigeria. Il a dirigé la synthèse de l'évaluation de l'ODD 3, participé aux évaluations nationales des ODD 3 et 4, et dispensé des formations et un mentorat en matière de suivi et d'évaluation, faisant ainsi progresser des pratiques de développement fondées sur des données probantes et tournées vers l'avenir.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 28/03/2026
Résumé - Semaine 1
Cette première semaine de discussion a clairement mis en évidence une chose… l’appel à une évaluation tournée vers l’avenir ne provient pas d’un seul camp ou d’une seule méthodologie. Il résulte d’une frustration concrète ressentie dans l’ensemble des pratiques. Conny Rietdorf nous a rappelé que le « L » (apprentissage) dans le sigle MEL est souvent la première victime lorsque l’évaluation devient un simple exercice de conformité plutôt qu’un espace de réflexion et d’apprentissage. Carlos Tarazona a ensuite poussé la réflexion plus loin à travers l’évaluation « One Health » de la FAO, montrant comment une analyse rétrospective peut être solide sur le passé tout en restant insuffisante pour les futurs qui émergent aujourd’hui. Sa redéfinition de la pertinence comme une aptitude à l’avenir, de la durabilité comme une résilience face au changement, et de la cohérence comme la capacité à travailler à travers les systèmes nous a donné un langage puissant pour penser différemment.
D'autres intervenants ont affiné le tableau. Serdar Bayryyev a mis en évidence les conditions institutionnelles nécessaires à ce changement (à savoir les capacités, les cadres pratiques et le changement organisationnel). Silva Ferretti nous a mis au défi de ne pas traiter la prospective comme une solution technique à un problème culturel plus profond, en posant la question plus difficile : « À quoi sert l'évaluation ? » Alexis Adébayo a ancré la discussion dans la réalité climatique, où des chocs externes peuvent déstabiliser l’attribution et affaiblir l’utilité des résultats. Rhode Early Charles nous a rappelé que l’analyse prédictive et la prospective ne sont pas rivales mais complémentaires, surtout si nous parvenons à surmonter la fragmentation des systèmes de données. Emmanuel Erick Igiha et Amy Mara nous ont ramenés à l’objectif. L’évaluation, dans le meilleur des cas, devrait aider les gens à s’améliorer, à s’adapter et à naviguer vers ce qui vient ensuite.
Le fil conducteur qui se dégage de la première semaine est donc le suivant : le passage de la rétrospective à la prospective est certes méthodologique, mais aussi institutionnel et profondément culturel. Il nécessite non seulement de nouveaux outils, mais aussi une orientation différente vis-à-vis des données, de l’incertitude, de l’apprentissage et du changement. Cela semble être un point de départ important.
Perspectives : Au cours de la semaine à venir, nous nous pencherons sur l’impératif transformationnel et examinerons la prospective transformationnelle à travers un article à paraître dans le Journal of MultiDisciplinary Evaluation. Si vous n’êtes pas familier avec l’impératif transformationnel au sein des écosystèmes d’évaluation, j’ai joint une brève note de quatre pages rédigée par Scott Chaplowe et Joyce Mukoma.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Amy, merci pour cette contribution. Tu as magnifiquement présenté le contexte. Ce qui me frappe le plus dans ton approche, c’est le mot « transformation ». Tu ne décris pas une simple modification de la méthodologie d’évaluation… tu décris un changement fondamental dans la raison d’être de l’évaluation. On passe du jugement à l’orientation… de la reddition de comptes à l’anticipation.
Les quatre piliers que tu identifies sont chacun convaincants en soi. Mais je pense que ce qui les rend puissants, c’est la façon dont ils se renforcent mutuellement. Une analyse de scénarios sans la participation des parties prenantes risque de devenir un exercice technique déconnecté des réalités vécues. Un suivi en temps réel sans culture d’apprentissage ne fait que générer des données sur lesquelles personne n’agit. Ensemble, cependant, ils commencent à décrire quelque chose qui semble véritablement différent : l’évaluation comme une conversation continue et vivante avec l’avenir.
Une question que votre message soulève pour moi : qui est le moteur de cette transformation ? Les évaluateurs peuvent plaider en faveur d’approches tournées vers l’avenir, mais beaucoup dépend de la volonté des commanditaires et des décideurs de les financer et de les utiliser. D’après votre expérience, où l’intérêt pour l’évaluation prospective a-t-il été le plus fort, et qu’est-ce qui a fait la différence ?
Votre contribution fait également un beau lien avec notre thème de la semaine prochaine : l’impératif de transformation. Je suis vraiment ravi que vous participiez à cette discussion.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Emmanuel, la perspective que tu proposes, qui consiste à passer du jugement du passé à la mise en place de mesures d’amélioration pour l’avenir, incarne parfaitement l’esprit même de ce à quoi aspire l’évaluation prospective. Et la question sur laquelle tu conclus est exactement celle qu’il faut continuer à poser tout au long de cette discussion.
Un exemple qui me vient à l’esprit est le travail du PAM sur l’action anticipative, où l’évaluation a été utilisée non seulement pour évaluer les performances passées, mais aussi pour affiner les systèmes de déclenchement et les modèles de scénarios qui activent des réponses préventives avant que les crises ne se déroulent pleinement. Cela me semble être un cas où l’évaluation a véritablement façonné l’action future plutôt que de simplement consigner les performances passées. Mais je pense que l’idée la plus profonde de votre contribution concerne l’orientation et l’intention… une évaluation prospective peut être menée avec des méthodes largement conventionnelles, si les questions qu’elle pose et la manière dont les résultats sont présentés orientent systématiquement vers l’adaptation et l’amélioration plutôt que vers un verdict. Ce changement culturel est peut-être aussi important que n’importe quelle innovation méthodologique. Qu’est-ce qui a permis cette orientation dans les contextes où vous l’avez vue fonctionner ?
Je viens de terminer une vaste évaluation fondée sur la prospective pour l’UNICEF, mais il est trop tôt pour déterminer quelle différence elle pourra faire. Demandez-le-moi en 2028 !
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Rhode, merci pour cette remarque. Le point concernant la complémentarité entre les méthodes de prospective et l'analyse prédictive est important, mais il n'est pas toujours explicitement soulevé. On part parfois implicitement du principe que la prospective est avant tout qualitative et tournée vers l'avenir, tandis que la modélisation prédictive relève du domaine des données concrètes ; or, dans la pratique, une évaluation solide tire profit des deux, et la logique qui sous-tend leur combinaison est tout à fait valable. La prospective nous aide à explorer l’espace d’incertitude, tandis que les méthodes prédictives nous aident à quantifier les trajectoires probables lorsque les données le permettent.
Votre remarque sur la fragmentation des données est tout à fait pertinente et, selon moi, constitue en soi un problème systémique que l’évaluation a un rôle à jouer pour résoudre. Si les évaluations produisaient systématiquement des données structurées et accessibles, plutôt que des rapports cloisonnés au niveau des projets, les ensembles de données longitudinales qui soutiendraient le type de modélisation que vous décrivez s’accumuleraient progressivement. L'appropriation nationale, comme vous le suggérez, est une voie possible. Mais les pratiques de commande d'évaluations au sein des organisations internationales pourraient également évoluer de manière à soutenir cette démarche. Cela semble être une réforme institutionnelle concrète qui mérite d'être approfondie dans la discussion. Je trouve également que la dimension de l'IA et de l'apprentissage automatique mérite d'être suivie de près. La capacité d'apprentissage inter-projets à grande échelle est véritablement nouvelle, et ses implications pour la conception de l'évaluation sont encore en cours d'élaboration.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Merci, Alexis, pour ta contribution. L’exemple que tu cites… des infrastructures coûteuses rendues inefficaces ou détruites par des phénomènes climatiques extrêmes… illustre très concrètement le problème de l’attribution. C’est un scénario qui met en évidence une limite fondamentale du modèle logique qui est au cœur de la plupart des évaluations rétrospectives. Si la chaîne causale est rompue par un choc externe, le cadre d’évaluation lui-même peine à donner un sens à ce qui s’est passé, sans parler d’offrir des orientations utiles pour la suite.
Cela renvoie à une question plus large de méthodologie d’évaluation, à savoir que nos cadres standard supposent souvent un certain degré de stabilité dans l’environnement opérationnel, ce qui est de moins en moins le cas dans les contextes affectés par le climat. La gestion intégrée des paysages est un domaine particulièrement intéressant à cet égard, car elle opère déjà avec des horizons temporels longs et des systèmes complexes, ce qui en fait sans doute l’un des domaines où l’évaluation fondée sur la prospective n’est pas un luxe mais une nécessité. Je suis curieux de savoir si vous avez observé des tentatives d’intégrer une réflexion par scénarios dans la conception des évaluations dans les contextes où vous travaillez, même de manière informelle, et si ces efforts ont aidé les évaluateurs et les parties prenantes à surmonter les défis d’attribution que vous décrivez
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Silva, c'est une question qui mérite d'être approfondie tout au long de cette discussion, et je pense qu'elle apporte un éclairage que nous pourrons continuer à développer dans les semaines à venir. Tu as raison de dire que les outils de prospective peuvent simplement être mis au service de la conformité, c'est-à-dire qu'ils servent à anticiper des futurs pour confirmer une théorie du changement plutôt que de la remettre véritablement en question. Ce serait une version sophistiquée du même problème.
La question que vous soulevez précédemment, « à quoi sert l’évaluation ? », est selon moi une question à laquelle cette communauté doit s’attaquer plus directement. J’ai le sentiment que le passage de la rétrospective à la prospective n’est pas seulement technique, car il nécessite également une relation différente entre les évaluateurs, les commanditaires et les programmes évalués. Si l’évaluation est purement confirmatoire, alors la prospective devient de la poudre aux yeux. Mais s’il existe une volonté institutionnelle de considérer l’évaluation comme une véritable exploration, alors les outils de prospective, en particulier lorsqu’ils sont utilisés de manière participative comme vous le décrivez, peuvent ouvrir un espace de réflexion qui remet en question les hypothèses dominantes plutôt que de les renforcer. Continuez à soulever ces questions, Silva !
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Serdar, merci pour votre contribution. Les exemples que vous avez tirés des travaux de prospective menés par le PAM, le FEM, le CGIAR et la FAO elle-même sont tout à fait pertinents pour le débat. Il est encourageant de les voir cités côte à côte, car cela confirme que la dynamique en faveur de l’intégration de la prospective et de l’évaluation est bien réelle, même si les orientations pratiques restent encore rares. Votre cadre en trois volets (renforcement des capacités, cadres pratiques et changement institutionnel) reflète une séquence qui me semble juste. Les outils techniques ne suffiront pas à eux seuls à faire évoluer les pratiques si les incitations institutionnelles continuent de privilégier avant tout la reddition de comptes rétrospective. Les mandats d’évaluation, les processus de commande et les attentes fixées par les bailleurs de fonds font tous partie du système qui doit évoluer. C'est pourquoi j'ai inclus la question des changements institutionnels qui seraient nécessaires, car il me semble que c'est là que se situe le véritable goulot d'étranglement, et non dans la disponibilité des méthodes de prospective en soi.
Le rapport de la FAO sur les scénarios d'avenir de l'alimentation et de l'agriculture auquel vous faites référence est une ressource précieuse, et il serait intéressant d'entendre de la part de nos collègues si et comment les évaluateurs ont puisé dans ces scénarios dans leur propre travail, que ce soit pour définir le cadre des évaluations ou pour contextualiser les résultats. Je me réjouis de la poursuite de cet échange
Italy
Carlos Tarazona
Senior Evaluation Officer
FAO
Posté le 27/03/2026
Steve, merci pour cette contribution réfléchie et pour avoir évoqué les travaux de Michael Quinn Patton, que je trouve moi aussi tout à fait pertinents dans ce débat.
Je partage tout à fait ton point de vue selon lequel une approche prospective ne nécessite pas forcément une méthodologie distincte, mais peut s’intégrer dans la manière dont nous interprétons et appliquons les cadres existants. En ce sens, votre remarque sur une « application plus honnête » des critères du DAC fait fortement écho à ma propre expérience, en particulier dans des contextes tels que One Health, l’adaptation au changement climatique et la transformation du système agroalimentaire, où les systèmes évoluent au moment même où nous les évaluons.
Dans le même temps, l’intervention de Silvia va un peu plus loin sur un point important. Je partage la crainte que si l'évaluation reste ancrée dans une logique axée sur la conformité, même une prospective bien intégrée risque d'être instrumentalisée pour anticiper dans des limites prédéfinies plutôt que de les remettre véritablement en question. La distinction qu'elle établit entre l'évaluation en tant que vérification et l'évaluation en tant qu'exploration est, je pense, tout à fait juste.
À mon avis, cependant, la véritable contrainte à l'intégration de la prospective ne se situe souvent pas au niveau des outils ou des critères, mais bien plus en amont, au stade de la conceptualisation de l'évaluation.
Dans le cas de l’initiative « One Health » de la FAO, la capacité à intégrer une perspective prospective a été rendue possible par une analyse préliminaire approfondie et une revue de la littérature menées dès la phase de conception. Sans cet investissement en amont, il aurait été nettement plus difficile d’introduire ultérieurement une dimension prospective significative. Une fois que les questions, la portée et les méthodes sont fixées, l’architecture de l’évaluation est déjà dépendante du cheminement suivi reflétant ironiquement la dynamique même que nous essayons d’évaluer.
La discussion peut donc peut-être être nuancée selon trois axes :
Si la prospective doit être plus qu'un simple ajout, elle doit être intégrée dès le départ, et non ajoutée a posteriori.
Cela a des implications pratiques pour les commanditaires. Si nous prenons au sérieux les approches développementales ou formatives, la prospective doit se refléter dans :
À cet égard, l’approche que nous utilisons souvent à la FAO, une conception axée sur les questions et l’utilisation, guidée mais non contrainte par les critères du CAD de l’OCDE, offre une certaine flexibilité. Elle nous permet, du moins en principe, d’intégrer très tôt des dimensions prospectives, à condition que les fondements conceptuels soient suffisamment solides.
Le défi consiste donc peut-être non seulement à repenser les critères ou à adopter des outils de prospective, mais aussi à déplacer l’attention en amont : sur la manière dont les évaluations sont commandées, formulées et fondées intellectuellement avant même qu’elles ne commencent.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 26/03/2026
Carlos, merci d’avoir partagé cet exemple. L’évaluation « One Health » de la FAO est un cas véritablement instructif, et la manière dont vous présentez le « décalage temporel » entre les conclusions rétrospectives et la pertinence prospective met en lumière un aspect que, selon moi, de nombreux évaluateurs reconnaissent intuitivement mais peinent à formuler clairement dans leurs rapports d’évaluation.
Ce que je trouve particulièrement pertinent dans votre réflexion, c’est la réinterprétation des critères existants du CAD à travers le prisme de la prospective. Définir la pertinence comme « l’adéquation avec l’avenir », la durabilité comme « la résilience face au changement » et la cohérence comme « la capacité à travailler de manière transversale » ne constitue pas un écart radical par rapport aux critères. Je dirais qu’il s’agit d’une application plus honnête de ces critères dans des contextes où les conditions évoluent déjà pendant la mise en œuvre du programme. J'ai moi-même réfléchi dans le même sens, et votre exemple renforce l'idée que la prospective ne nécessite pas nécessairement l'introduction d'une méthodologie distincte dans l'évaluation… elle peut s'intégrer au cadre d'interprétation que nous utilisons déjà (voir ma réponse ci-dessous à Conny).
Votre remarque sur les dépendances de trajectoire est également pertinente. Les atouts institutionnels deviennent des contraintes lorsque l’avenir exige des configurations différentes d’expertise et de partenariat. Cela semble constituer un terrain fertile pour la planification par scénarios en particulier, qui peut aider des organisations comme la FAO à soumettre leurs modèles opérationnels actuels à des tests de résistance face aux futurs scénarios « One Health » émergents.
Votre commentaire m’a également fait penser à l’article de Michael Quinn Patton publié en 2020, intitulé « Critères d’évaluation pour évaluer la transformation : implications pour la pandémie de coronavirus et l’urgence climatique mondiale » (voir ci-joint). MQP critique les critères du CAD et propose six nouveaux critères axés sur la transformation. Extrait du résumé de son article :
Des transformations systémiques fondamentales sont nécessaires pour faire face à l’urgence mondiale provoquée par le changement climatique et les tendances mondiales connexes, y compris la pandémie de COVID-19, qui, ensemble, constituent des menaces existentielles pour l’avenir de l’humanité. La transformation est devenue un cri de ralliement sur la scène mondiale. L’évaluation de la transformation nécessite des critères. Les critères révisés de l’Organisation de coopération et de développement économiques (OCDE) et du Comité d’aide au développement (CAD) sont adéquats pour les évaluations sommatives et de responsabilité dans le cadre d’un statu quo, mais ils sont insuffisants pour aborder les transformations systémiques majeures. Six critères d’évaluation des transformations sont proposés, discutés et illustrés en les appliquant à la pandémie et à l’Alliance mondiale pour l’avenir de l’alimentation. Les critères suggérés illustrent des possibilités. Les critères permettant de juger toute intervention doivent être élaborés dans le contexte d’une évaluation spécifique et alignés sur son objectif, ainsi que sur les besoins en informations des principaux utilisateurs visés. Cet article conclut que le plus grand danger pour les évaluateurs en période de turbulence n’est pas la turbulence elle-même, mais le fait d’agir selon les critères d’hier.
J’ai utilisé les critères de transformation du MQP dans deux évaluations. Je partagerai plus tard comment cela a fonctionné et n’a pas fonctionné dans le contexte dans lequel je travaillais… une perspective prospective a certainement joué un rôle… ou devrais-je dire son absence.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 26/03/2026
Merci, Rama. L'évolution des perceptions de la durabilité au fil du temps constitue un sujet riche qui mérite d'être approfondi. L'une des tensions qui m'intéresse le plus dans ce domaine est que la durabilité est souvent évaluée à un moment précis (que ce soit lors de la conception ou de la clôture d'un programme), par rapport à des conditions qui pourraient s'avérer très différentes cinq ou dix ans plus tard. Une perspective prospective nous invite à nous demander non seulement si un programme est durable dans les conditions actuelles, mais aussi s’il est résilient face à l’éventail des futurs plausibles compte tenu des trajectoires climatiques, des changements politiques ou de la dynamique des écosystèmes. Seriez-vous disposé à partager un exemple tiré de votre propre expérience où l’évolution des perceptions de la durabilité, peut-être chez les bailleurs de fonds, les gouvernements ou les communautés, a influencé la manière dont les résultats de l’évaluation ont été reçus ou mis en œuvre ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 26/03/2026
Merci à tous pour vos contributions. Je n’avais vu aucun message mardi, mais hier, vous avez été nombreux à partager vos réflexions et vos réponses. Merci donc ! Je répondrai à chacun d’entre vous au cours de la journée d’aujourd’hui et de demain.
Conny, merci d’avoir lancé la discussion. Vous avez tout à fait raison. Ce que vous décrivez correspond exactement à la tension que cette discussion tente de mettre en lumière. Le « L » dans MEL/MEAL/MERL est souvent la première victime lorsque l’évaluation est traitée comme un simple exercice de conformité plutôt que comme un véritable processus d’apprentissage. Votre observation selon laquelle les résultats d’évaluation sont fréquemment « mis de côté » après la remise du rapport est l’un des schémas les plus persistants et frustrants de notre domaine, et elle touche au cœur même de l’importance de l’intégration de la prospective… si l’apprentissage ne se fait pas en temps réel, l’évaluation prospective devient encore plus difficile à ancrer au niveau institutionnel.
Quant à votre remarque sur l’Outcome Harvesting (OH) et l’Outcome Mapping (OM), elle est tout à fait pertinente. J’ai exploré de nouveaux concepts d’évaluation tels que l’« Anticipatory Outcome Fishing » et la « Foresight-Infused Outcome Mapping »… des tentatives visant à intégrer la réflexion prospective dans les approches d’évaluation. Comme vous l’avez mentionné, j’ai constaté que ces approches favorisent effectivement un engagement plus actif des parties prenantes tout au long des cycles de réflexion, ce qui peut contribuer à instaurer le type de culture d’évaluation qui rend la réflexion prospective plus naturelle… mais il n’est pas facile pour certaines organisations de s’engager à ce niveau. J'ajouterais également que la dimension participative que vous décrivez, c'est-à-dire amener les parties prenantes à réfléchir à ce qui a fonctionné, à ce qui n'a pas fonctionné et à ce qui était inattendu, constitue également un fondement de la réflexion par scénarios. Une fois que les gens sont à l'aise avec l'incertitude et l'identification des hypothèses, l'introduction d'outils de prospective tels que l'analyse des horizons ou le cadre des « trois horizons » devient une étape beaucoup plus simple. J'ai hâte d'en savoir plus à mesure que la discussion évolue.
Senegal
Amy MARA
Economiste et Specialiste en Passation de Marché
Direction de la Dette Publique
Posté le 25/03/2026
Traditionnellement, l’évaluation est perçue comme un exercice rétrospectif visant à analyser les résultats d’un projet ou d’une politique publique après sa mise en œuvre. Toutefois, dans un contexte marqué par l’incertitude et la complexité croissante des interventions publiques, l’évaluation évolue progressivement vers une approche plus prospective, orientée vers l’anticipation et l’amélioration continue.
D’abord, l’évaluation tournée vers l’avenir repose sur l’intégration de mécanismes d’apprentissage. Il ne s’agit plus uniquement de juger les performances passées, mais aussi d’identifier les leçons apprises afin d’améliorer la conception et la mise en œuvre des actions futures. Cette approche favorise une gestion adaptative des projets et programmes.
Ensuite, l’évaluation prospective s’appuie sur l’utilisation d’outils d’anticipation tels que les analyses de scénarios, les études d’impact ex-ante et la modélisation des risques. Ces instruments permettent d’éclairer la prise de décision en amont et d’orienter les politiques publiques vers des résultats durables.
Par ailleurs, l’évaluation orientée vers l’avenir encourage le suivi en temps réel et l’évaluation continue. Grâce aux systèmes d’information et aux indicateurs de performance, il devient possible d’ajuster les interventions au fur et à mesure de leur mise en œuvre. Cette dynamique renforce la réactivité et l’efficacité des projets.
Enfin, la dimension prospective de l’évaluation implique une participation accrue des parties prenantes. L’implication des bénéficiaires, des décideurs et des experts permet d’identifier les besoins futurs, d’anticiper les défis et de construire des solutions adaptées.
En définitive, passer d’une évaluation rétrospective à une évaluation prospective consiste à transformer l’évaluation en véritable outil d’aide à la décision. Elle devient ainsi un levier stratégique permettant non seulement d’analyser le passé, mais surtout de préparer l’avenir et d’améliorer durablement l’action publique.
Mme Amy MARA
Economiste et spécialiste passation de marché
Doctorant en gestion du projet
United Republic of Tanzania
Emmanuel Erick Igiha
Principal M&E Specialist
Tanzania National Parks
Posté le 25/03/2026
D’après mon expérience, ce qui rend véritablement une évaluation « tournée vers l’avenir », c’est son accent sur l’amélioration future plutôt que sur le simple jugement de ce qui s’est passé dans le passé. Une évaluation prospective approfondit ce que nous avons appris, propose des recommandations pratiques et nous aide à nous adapter à de nouveaux défis ou opportunités qui pourraient se présenter. Il ne s’agit pas seulement de vérifier si nous avons atteint nos anciens objectifs, mais de se demander : « Comment pouvons-nous faire encore mieux la prochaine fois ? » Je trouve cette approche particulièrement précieuse car elle encourage l’apprentissage continu et aide toutes les personnes impliquées à planifier de manière plus stratégique pour l’avenir. Qu’en pensent les autres ? Avez-vous déjà observé des exemples où une évaluation tournée vers l’avenir a vraiment fait la différence ?
Canada
Rhode Early Charles
Posté le 25/03/2026
Je trouve cette discussion particulièrement pertinente. Dans mon travail, j'utilise fréquemment l'analyse de séries temporelles et la modélisation prédictive pour estimer les tendances futures à partir de données historiques.
J'ajouterais que, si les approches prospectives qui ne reposent pas sur les performances passées sont essentielles — en particulier dans des contextes caractérisés par une forte incertitude ou des données limitées —, les méthodes prédictives fondées sur des données historiques demeurent parmi les outils les plus robustes dont nous disposons lorsque des données suffisantes et fiables sont disponibles. Ces méthodes nous permettent d'identifier des tendances, de quantifier des évolutions et de générer des projections fondées sur des données probantes, qui peuvent efficacement compléter les approches prospectives de nature plus qualitative.
Avec les avancées de l'intelligence artificielle et de l'apprentissage automatique, nous avons désormais la capacité d'aller plus loin en intégrant de grands volumes de données provenant de multiples projets, régions et même bailleurs de fonds. Cela ouvre des opportunités importantes pour développer des modèles prédictifs plus précis et mieux adaptés au contexte, notamment lorsque l'on travaille avec des interventions similaires au sein d'un même pays ou secteur.
Cependant, une contrainte majeure demeure : la disponibilité et la fragmentation des données. Celles-ci sont souvent cloisonnées au sein de projets ou d'organisations individuels, ce qui rend difficile la constitution d'ensembles de données suffisamment larges et diversifiés pour une modélisation robuste. Dans de nombreux cas, les données d'un seul projet ne sont pas suffisantes pour étayer des prédictions fiables.
Une voie possible consisterait à renforcer l'appropriation nationale des données de projet. Les gouvernements pourraient jouer un rôle clé dans la consolidation des données générées par différents projets au sein de bases de données centralisées et accessibles. Si elles sont bien conçues, de telles infrastructures pourraient soutenir la recherche, orienter la conception des projets et permettre une analyse ex ante plus rigoureuse des facteurs potentiels de succès ou d'échec.
En ce sens, je perçois de fortes complémentarités entre les méthodes prospectives et l'analyse prédictive. La prospective nous permet d'explorer l'incertitude et les futurs alternatifs, tandis que les modèles prédictifs nous aident à quantifier les tendances les plus probables lorsque les données le permettent. L'articulation de ces deux approches pourrait considérablement renforcer la pratique évaluative et la prise de décision.
Benin
Alexis Adébayo ODOUN-IFA
Expert in MEAL
RAAF/ECOWAS
Posté le 25/03/2026
L’évaluation rétrospective est essentielle pour apprécier l’impact et tirer des leçons. Toutefois, dans des contextes marqués par le changement climatique, elle présente des limites importantes, notamment dans les approches de gestion intégrée des paysages. Par exemple, des infrastructures coûteuses comme des barrages peuvent être détruites ou devenir inefficaces en raison d’événements climatiques extrêmes. Dans ces conditions, il devient difficile de mesurer l’impact réel du projet ou d’attribuer les résultats observés à l’intervention plutôt qu’aux facteurs externes. Cette incertitude affecte l’utilisation des résultats d’évaluation, car ceux-ci peuvent être perçus comme peu fiables ou non représentatifs, limitant ainsi leur utilité pour la prise de décision et la planification future.
Italy
Silva Ferretti
Freelance consultant
Posté le 25/03/2026
Merci pour cette discussion et pour les premières idées partagées. En tant que quelqu'un qui place systématiquement l'« évaluation prospective » au cœur de ses propositions, je souhaite avancer une provocation.
Le cadrage ici pourrait laisser penser que ce dont l'évaluation a besoin, ce sont de meilleurs outils prospectifs et une plus grande capacité à anticiper l'avenir. J'aimerais remettre cela en question, non pour rejeter la prospective, mais pour situer le vrai problème un niveau au-dessus. Car le problème n'est pas technique. Il est culturel.
La question plus profonde est : à quoi sert l'évaluation ? Si elle existe principalement pour confirmer la conformité (c'est-à-dire vérifier qu'un plan a été exécuté tel que conçu, que la Théorie du Changement a tenu...), alors ajouter des méthodes prospectives ne change rien. Nous nous contenterons d'anticiper l'avenir au service de la même logique rétrospective et du même ensemble d'horizons. Toujours en « mode conformité ».
Avant de nous demander comment l'évaluation peut mieux anticiper l'avenir, nous devons nous poser une question préalable : sommes-nous prêts à libérer l'évaluation de l'obligation de confirmer le plan ?
L'évaluation peut-elle être exploration plutôt que vérification ? Cela signifie des évaluations qui ne se contentent pas de répondre à des questions, mais en découvrent de meilleures ; qui aident les gens à réfléchir à l'avenir plutôt que de le leur servir tout mâché.
Les outils prospectifs sont précieux. Je les ai utilisés. Et lorsqu'ils sont utilisés de manière participative, ils peuvent être libérateurs, révélant que les personnes portent déjà en elles des visions et des intuitions que les plans sur lesquels elles travaillent ont tendance à contraindre.
Voilà donc le vrai enjeu. Il ne s'agit pas de la « prospective » comme solution technique. Il s'agit du pouvoir de s'adapter, de questionner et d'explorer en continu... plutôt que de situer l'évaluation dans un monde où nos hypothèses, nos théories, nos plans sont des points de référence, et non des idées de départ.
Italy
Serdar Bayryyev
Senior Evaluation Officer
FAO
Posté le 25/03/2026
Merci d'avoir lancé cette importante discussion. Pour en faciliter le déroulement, je souhaite partager quelques réflexions.
Le monde d'aujourd'hui est confronté à des défis sans précédent : changement climatique, sécurité alimentaire, durabilité environnementale et fragilité croissante due aux conflits et aux crises qui en découlent. Les programmes de développement agricole évoluent dans un contexte marqué par la volatilité, l'incertitude, la complexité et l'ambiguïté.
Traditionnellement, la fonction d'évaluation s'est concentrée principalement sur la redevabilité rétrospective, en mesurant les performances passées par rapport à des plans, objectifs et cibles prédéterminés. Bien que précieuse, cette approche, dans le contexte de changements rapides d'aujourd'hui, ne débouche souvent pas sur des enseignements utiles ni sur des messages clairs et à fort impact. Les évaluations qui apprécient la pertinence, l'efficacité et la durabilité sur la base des conditions prévalant au moment de la conception peuvent offrir un reflet fidèle des actions passées, mais fournissent une orientation limitée pour la prise de décisions futures.
Lorsque les processus d'évaluation reposent uniquement sur des références historiques, ils risquent de négliger les tendances émergentes et les défis à venir. Par exemple, un programme conçu pour améliorer les rendements agricoles sur la base d'un scénario climatique précis peut perdre de sa pertinence si les schémas climatiques évoluent de manière inattendue. De même, un projet évalué comme durable dans les conditions actuelles pourrait se révéler vulnérable face à des facteurs de stress futurs. Ce décalage met en évidence la nécessité de méthodologies d'évaluation tournées vers l'avenir et capables d'interagir avec des futurs plausibles.
Diverses organisations intègrent déjà la prospective dans leurs pratiques : le Programme alimentaire mondial (PAM) a intégré des approches informées par la prospective dans ses programmes d'Action anticipatoire, permettant des réponses plus proactives aux crises alimentaires. Des organisations telles que le FEM et le CGIAR explorent les moyens de mieux évaluer la résilience à long terme et les impacts systémiques dans leurs investissements environnementaux et agricoles. La FAO a récemment publié un rapport visant à inspirer des actions stratégiques pour transformer les systèmes agroalimentaires en systèmes durables, résilients et inclusifs. Ce rapport (accessible ici : https://www.fao.org/global-perspectives-studies/fofa/en/) explore trois scénarios différents pour l'avenir de l'alimentation et de l'agriculture, fondés sur des tendances alternatives concernant des facteurs clés tels que la croissance et la distribution des revenus, la croissance démographique, le progrès technique en agriculture et le changement climatique.
La prospective stratégique doit s'appuyer sur un ensemble d'outils et d'approches accessibles pour relever ce défi. Si diverses méthodes ont été élaborées, les orientations pratiques sur leur applicabilité restent limitées. De nombreux évaluateurs manquent de formation aux méthodes prospectives. Pour exploiter pleinement le potentiel de la prospective dans l'évaluation, plusieurs étapes sont essentielles :
À une époque de changements sans précédent, l'évaluation doit évoluer d'un miroir rétrospectif vers une boussole prospective. L'intégration des méthodes prospectives dans les processus d'évaluation peut améliorer les appréciations de la pertinence, de la durabilité et de l'impact systémique, en soutenant au final des programmes résilients et adaptables face à l'incertitude.
Dans l'attente de poursuivre ces échanges et cet apprentissage partagé sur ce sujet important.
Cordialement,
Serdar Bayryyev,
Chargé principal d'évaluation Organisation des Nations Unies pour l'alimentation et l'agriculture (FAO)
Italy
Carlos Tarazona
Senior Evaluation Officer
FAO
Posté le 25/03/2026
Bonjour chers collègues, et merci d’avoir lancé cette discussion très opportune.
Je souhaite partager une expérience récente du Bureau de l’évaluation de la FAO, dans laquelle nous avons explicitement mobilisé des principes de prospective dans la conception et la conduite d’une évaluation.
Dans l’évaluation du travail de la FAO sur l’approche « One Health », nous avons commencé par une perspective rétrospective classique : comment cette approche a-t-elle évolué et quelle a été la contribution de la FAO ? Cette analyse a mis en évidence une trajectoire solide, marquée par un leadership sur plus de 20 ans, notamment dans les domaines de la santé animale, de la lutte contre les zoonoses, de la biosécurité, ainsi que, plus récemment, de la résistance aux antimicrobiens (RAM) et de la préparation aux pandémies.
Cependant, nous avons rapidement été confrontés à un décalage temporel.
L’approche « One Health » n’est pas un domaine stable. Elle est façonnée par le changement climatique, la perte de biodiversité, les pressions liées à l’utilisation des terres, la RAM et, plus largement, la transformation des systèmes alimentaires. Évaluer les performances à l’aune des conditions passées risque de produire des constats valides, mais moins utiles pour orienter l’action future.
La question a donc évolué : il ne s’agissait plus seulement de savoir si la FAO avait obtenu de bons résultats, mais si son approche est adaptée aux futurs en émergence.
C’est à ce stade qu’une perspective prospective en considérant les risques émergents, les transformations systémiques et les futurs plausibles a apporté une valeur ajoutée.
Elle nous a permis de réinterpréter une tension centrale. Les forces de la FAO expertise approfondie en santé animale, solides plateformes pays et expérience opérationnelle constituent également des dépendances de trajectoire. Bien que la FAO ait adopté une définition plus large et intégrée de « One Health », la mise en œuvre reste souvent centrée sur la santé animale, avec une intégration moins systématique des dimensions écosystémiques et systémiques.
Dans une perspective prospective, cet aspect est déterminant. Les défis futurs liés à « One Health » seront probablement plus interconnectés. Ils nécessiteront une intégration accrue entre les secteurs (animaux, plantes, environnement, systèmes alimentaires) ainsi qu’une coordination intersectorielle renforcée au niveau des pays.
Un enseignement que j’en tire est que la prospective peut être intégrée dans les critères d’évaluation existants :
L’évaluation rétrospective nous explique comment nous en sommes arrivés ici. Une approche éclairée par la prospective permet d’évaluer notre capacité à faire face à l’avenir.
Je serais très intéressé d’entendre les expériences d’autres collègues : avez-vous identifié des approches pratiques permettant d’intégrer, même de manière légère, la prospective dans la conception ou l’interprétation des évaluations ?
India
Rama Rao Darapuneni
Former Director in ICAR
ICAR
Posté le 25/03/2026
Rôle de l’évolution des perceptions de la durabilité dans le temps
Germany
Cornelia Rietdorf
Scientific Associate
German Environment Agency
Posté le 25/03/2026
Bonjour / bonjour à tous, et merci, Steven, d’avoir lancé cette discussion intéressante !
Je ne suis pas évaluatrice, mais j’ai travaillé dans le M&E / MEL / MEAL / MERL dans différents contextes au cours des 10 dernières années et j’ai constaté trop souvent les limites des évaluations essentiellement rétrospectives. Je n’ai pas beaucoup d’expérience avec les évaluations prospectives, donc voici simplement quelques réflexions générales :
Qu’est-ce qui rend une évaluation tournée vers l’avenir ? Pour moi, c’est en quelque sorte créer une prise de conscience de la lettre « L » dans MEL / MEAL / MERL le learning, l’apprentissage. Pourquoi faisons-nous une évaluation ? Trop souvent, j’ai vu que, pour les équipes de projet, ce n’était qu’une case à cocher pour satisfaire les donateurs ou les exigences du projet. L’évaluation est réalisée de quelque manière que ce soit, puis mise de côté.
Il est souvent difficile de sensibiliser à l’importance et au potentiel de l’évaluation – pour identifier :
…afin que ces enseignements puissent être utilisés pour améliorer les projets, politiques, stratégies et mesures.
Je me demande si l’outcome harvesting et le mapping peuvent être un moyen d’accroître cette prise de conscience. De nombreux acteurs sont activement impliqués dans plusieurs cycles de réflexion autour du mapping et de la récolte des résultats, ce qui déclenche idéalement un processus de réflexion approfondi sur :
…ce qui peut ensuite alimenter un processus de suivi amélioré.
En ce sens, les bons outils, arguments et pratiques qui mettent l’accent sur l’apprentissage issu des évaluations et engagent tous les acteurs clés dans des processus de réflexion ne contribuent-ils pas grandement à rendre l’évaluation plus prospective ?
J’espère ne pas être complètement hors sujet et je suis impatiente d’apprendre des expériences de chacun dans ce fil de discussion.
Cordialement,
Conny
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 23/03/2026
Bienvenue dans la discussion « De la rétrospective à la prospective : comment l’évaluation peut s’orienter vers le futur ». Je m’appelle Steven Lichty et j’animerai cette discussion en ligne au cours des cinq prochaines semaines. Je vis à Nairobi et je travaille à l’intersection de la prospective et de l’évaluation depuis plus de 20 ans. Je me réjouis de faciliter nos échanges, de partager des ressources et d’apprendre de chacun d’entre vous.
L’évaluation nous a longtemps aidés à comprendre ce qui s’est passé, ce qui a fonctionné et ce qui n’a pas fonctionné. Cependant, de nombreux systèmes qui nous tiennent particulièrement à cœur, alimentation, agriculture, climat, écosystèmes, résilience, etc. Sont aujourd’hui façonnés par une incertitude croissante, des perturbations et des transformations à long terme. Dans ce contexte, regarder en arrière ne suffit plus. La question n’est pas seulement de savoir si une intervention a bien fonctionné dans le passé, mais si elle est adaptée aux futurs qui émergent.
Au cours des prochaines semaines, ce forum sera un espace pour tester des idées, partager des exemples, faire émerger des tensions et apprendre entre disciplines. À travers des expériences partagées, des lectures facultatives et une réflexion ouverte, nous explorerons ce que signifie concrètement le fait que l’évaluation commence à se tourner vers l’avenir. Il ne s’agit pas d’abandonner la rigueur, mais de l’élargir ; ni de remplacer les critères du CAD, mais de s’interroger sur ce que des critères tels que la pertinence et la durabilité signifient réellement lorsque le futur peut être radicalement différent du contexte dans lequel un programme a été initialement conçu.
Cette discussion invite les évaluateurs, les praticiens de la prospective, les commanditaires, les chercheurs et les décideurs à partager un espace commun de réflexion. Comment l’évaluation peut-elle devenir davantage éclairée par le futur, plus adaptative et plus utile en période de volatilité ? Que se passe-t-il lorsque nous intégrons des outils prospectifs tels que la veille des signaux faibles, les scénarios, les Trois Horizons, le Triangle des Futurs ou l’Analyse causale stratifiée — dans la conception, l’interprétation et l’utilisation de l’évaluation ? Comment les épistémologies et les ontologies qui sous-tendent la pensée critique sur l’avenir peuvent-elles enrichir notre pratique évaluative ?
Cette communauté rassemble certains des évaluateurs, commanditaires et praticiens les plus engagés dans les domaines de la sécurité alimentaire, de l’agriculture et de l’environnement. Vous avez été témoins des limites de l’évaluation rétrospective. Vous avez probablement aussi entrevu des approches plus prometteuses. Il n’est pas nécessaire d’être expert dans les deux domaines pour contribuer : les expériences pratiques, les questions critiques, les exemples prometteurs, les doutes et les réflexions stimulantes sont tous les bienvenus.
Commençons donc par cette réflexion : où avez-vous observé les limites de l’évaluation rétrospective dans un monde en rapide transformation ? Et où voyez-vous les points d’entrée les plus prometteurs pour intégrer une perspective prospective dans la pratique évaluative ?
Nous sommes ravis de vous compter parmi nous et attendons avec intérêt une discussion riche et stimulante.