Expertise:
- Evaluation, Learning, Meta-analysis & Synthesis
- Transformative Foresight & Futures Thinking
- Strategic, Systems, Design & Complexity Thinking
- Capacity Building & Organisational Development
- Facilitation & Visualisation (Miro, Mural, and Kumo.io)
- Training & Teaching
- Management, Leadership & Administration
- Consulting, Advising & Coaching
Sectors:
- Food & Human Security
- Youth Empowerment & Leadership
- Democracy, Governance, & Economic Development
- Resilience, Localisation & Shifting the Power
- Peacebuilding & Conflict Transformation
- Civil Society, Religious Groups & NGOs
- Mental Health & Psychosocial Support
- Human Rights, Advocacy & LGBTQIA+
Experience:
- Director & Founder: Frontline Futures, Nairobi, Kenya
- Director & Co-Founder: REAL Studio, Nairobi, Kenya
- Co-Founder & Managing Partner: REAL Consulting Group, Nairobi, Kenya/Maputo, Mozambique
- Founder & Social Architect: The Frontline Group, Nairobi, Kenya
- Global Impact Board Member: Association of Professional Futurists (Global)
- Board Member & Co-Founder: Participatory Futures Global Swarm, Melbourne, Australia
- Consultant: Grey Swan Guild, Toronto, Canada
- Foresight Consultant: Resilience Frontiers/UNFCCC, Bonn, Germany
- Consultant: Institute for Development Impact, 4DI, Washington, DC
- Design Thinking Fellowship Advisor: C4DLab, University of Nairobi, Kenya
- Research & Academic Capacity Building: Tangaza University College, Nairobi, Kenya
- Research Advisor: East Africa Institute, Nairobi, Kenya
- Lecturer & Research Advisor: Tangaza University College, Nairobi, Kenya
- Research Consultant: World Bank Group, Washington, DC
- Evaluation Officer: IRI, Washington, DC
- MEL Manager: Medair, Nairobi, Kenya
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 30/04/2026
Merci à tous ceux qui ont contribué à cette discussion riche et approfondie au cours des dernières semaines. J’ai beaucoup apprécié la diversité des points de vue exprimés — provenant du Kenya, du Bénin, d’Afrique australe, d’Asie du Sud, du Pacifique et d’ailleurs — ainsi que la manière dont les contributeurs ont ancré le lien entre prospective et évaluation dans des questions concrètes liées à la vulnérabilité climatique, aux systèmes alimentaires, à la gouvernance environnementale, à la transformation agricole, à la gestion adaptative et à l’appropriation communautaire.
Un fil conducteur fort de cette discussion est que l’évaluation éclairée par l’avenir ne consiste pas simplement à ajouter des outils de prospective aux pratiques d’évaluation existantes. Il s’agit de repenser le moment, la profondeur et l’intention. Comment concevoir des évaluations qui ne se contentent pas de demander ce qui a fonctionné, mais qui examinent si une intervention reste pertinente, résiliente, juste et viable dans les conditions émergentes ? Comment passer de bases de référence statiques à des points de référence dynamiques, d’un jugement final à une interprétation continue, et d’une reddition de comptes rétrospective à un soutien décisionnel anticipatif ? J’approfondirai ces thèmes dans le prochain résumé de la discussion.
Alors que la discussion formelle s’achève aujourd’hui, j’aimerais également poser la question suivante : quelle pourrait être la prochaine étape ?
Une suite possible pourrait être un masterclass court et pratique de trois heures sur l’intégration de la prospective et de la réflexion sur l’avenir dans l’évaluation, en particulier pour les programmes de sécurité alimentaire, d’environnement et de développement agricole. Cela permettrait de présenter des concepts et des outils fondamentaux — tels que l’analyse prospective, l’analyse causale par couches, les scénarios, les trois horizons et le « wind-tunnelling » — tout en mettant l’accent sur la manière dont ils peuvent être intégrés dans les questions d’évaluation, les théories du changement, les critères du CAD de l’OCDE, l’apprentissage adaptatif et les recommandations.
Je serais très intéressé de savoir si les participants à cette discussion, ou vos collègues au sein de vos organisations et réseaux, trouveraient une telle masterclass utile.
Pour conclure, je joins également une version prépublication d’un article que j’ai coécrit sur la prospective transformatrice et l’impératif de transformation. D’une certaine manière, cela nous ramène à l’article de Chaplowe et Mukoma que j’ai publié au début de la discussion, le 28 mars. Mon article soutient que l'évaluation doit aller au-delà du statu quo en intégrant la réflexion prospective non pas comme un simple ajout technique, mais comme partie intégrante d'une réorientation plus profonde vers une pratique anticipative, axée sur la justice et centrée sur la transformation. Veuillez le considérer comme un projet de prépublication et ne pas le citer, le reproduire ou le diffuser sans l'autorisation des auteurs.
Merci encore pour la générosité, la perspicacité et la sagesse pratique que vous avez apportées à cette discussion.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Merci, Ismael. Je partage pleinement ton argument central selon lequel l'évaluation doit devenir davantage un outil de prise de décision tourné vers l'avenir, et non plus seulement un mécanisme permettant de juger les performances passées. Le recul historique reste essentiel, mais il n'est pas suffisant lorsque les programmes s'inscrivent dans des systèmes marqués par la volatilité climatique, l'incertitude politique, les évolutions technologiques et les besoins changeants des communautés.
Vos exemples tirés de l'agriculture et de la gestion de l'eau sont particulièrement pertinents. Dans ces secteurs, les données historiques sur les performances peuvent nous dire ce qui s'est passé, mais les projections climatiques, la planification par scénarios et la surveillance en temps réel nous aident à poser une question plus stratégique : qu'est-ce qui est susceptible de rester viable dans différentes conditions futures ?
J'apprécie également votre lien avec l'évaluation adaptative et développementale. Pour moi, c'est là que la prospective et l'évaluation se renforcent mutuellement. La prospective aide à identifier les risques émergents, les hypothèses et les voies alternatives, tandis que l'évaluation adaptative aide les programmes à apprendre et à s'ajuster à mesure que ces futurs commencent à se dessiner. Le défi consiste à veiller à ce que l'analyse prédictive et les données en temps réel ne deviennent pas de simples exercices techniques, mais soient combinées à une interprétation participative, aux connaissances locales et au jugement professionnel. C'est ce qui transforme l'information en décisions utiles.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Expédit, merci pour cette réflexion très pertinente. Et je dois dire que ta mention du Bénin m’a vraiment rappelé de bons souvenirs… Le Bénin a été le premier pays africain où j’ai travaillé, en 1997. Je me suis ensuite rendu à Parakou en 1998, et je garde encore de très bons souvenirs de cette époque.
Ton argument concernant les données en temps réel me semble particulièrement important. Dans de nombreux systèmes d’évaluation, nous dépendons encore trop de données tardives, même lorsque le contexte politique évolue rapidement. Mais j’apprécie également votre mise en garde selon laquelle des outils tels que les registres de risques, les boucles adaptatives, le questionnement stratégique et la planification de scénarios ne sont pas assimilables à une pratique professionnelle de prospective. Ils peuvent soutenir la prospective, mais ils ne remplacent pas le travail plus approfondi consistant à interpréter les signaux faibles, à mettre en évidence les hypothèses, à explorer des futurs alternatifs et à aider les décideurs à agir dans un contexte d’incertitude.
Je suis également tout à fait d'accord avec l'accent que vous mettez sur la responsabilité partagée. Dans un système d'évaluation des politiques en pleine transformation, une évaluation fondée sur la prospective ne sera utile que si elle n'est pas imposée comme un exercice technique externe, mais si elle est prise en charge conjointement, de la conception à la mise en œuvre. C'est ce qui confère au processus sa légitimité, sa pertinence et la possibilité d'une réelle adoption.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Stéphanie, merci pour cette réflexion approfondie. Ce qui m’a particulièrement marqué dans ton commentaire, c’est que l’évaluation excelle souvent à valider ce qui a été réalisé, mais qu’elle est bien moins efficace pour évaluer ce qui perdurera, et qu’elle reste pratiquement muette sur ce qui est sur le point d’échouer.
Je pense que cela met le doigt sur l’un des plus grands malais professionnels de l’évaluation. Nous traitons souvent l’incertitude comme une menace pour la rigueur, alors que dans les systèmes complexes liés au climat, à l’environnement et à l’économie circulaire, ignorer l’incertitude peut constituer la plus grande faiblesse méthodologique. Un jugement rétrospectif magnifiquement étayé peut encore s’avérer stratégiquement inutile s’il ne permet pas d’indiquer aux décideurs où le système commence à se fragiliser.
Votre description de l’examen à mi-parcours comme « le dernier moment crédible pour changer de cap » est particulièrement poignante. Trop souvent, les examens à mi-parcours deviennent de vagues exercices de reddition de comptes... ajuster les notes, mettre de l’ordre dans le cadre logique, recommander davantage de coordination... mais si nous les prenions au sérieux en tant que moments de prospective, ils pourraient devenir des points d’inflexion stratégiques où les programmes sont soumis à des tests de résistance avant que l’échec ne devienne inéluctable.
J’ai pu le constater très clairement lors d’une récente évaluation de prospective stratégique de l’UNICEF que j’ai menée... où nous avons dû étendre les critères du CAD de l’OCDE au-delà de leur orientation rétrospective habituelle. La pertinence ne se résumait plus à « est-ce aligné aujourd’hui ? », mais à « cela restera-t-il pertinent dans des conditions futures plausibles ? ». La cohérence portait désormais sur l’adéquation institutionnelle future. L’efficacité devait prendre en compte la capacité d’adaptation, et pas seulement les résultats obtenus. La durabilité devenait explicitement conditionnelle, c’est-à-dire : dans quelles conditions politiques, financières, organisationnelles et sociales ce modèle tiendra-t-il ?
Pour moi, la provocation réside dans le fait que l’évaluation la plus utile n’est peut-être pas celle qui porte le jugement le plus sûr sur le passé, mais celle qui révèle le plus honnêtement où l’avenir est susceptible de remettre en cause les hypothèses du programme. En ce sens, l’évaluation éclairée par l’avenir n’affaiblit pas le jugement évaluatif… elle le rend plus audacieux (peut-on parler d’évaluation plus audacieuse ?)
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Thanks, Wilbert. I appreciate the distinction you make between the absence of foresight and the underuse of foresight with sufficient timing, depth, and intent. That feels right, as many evaluations already contain fragments of future thinking, but they are often introduced too late or held too lightly to reshape the evaluative frame itself.
Your adaptation example is powerful because climate and nature-based systems expose the limits of backward-looking judgement. In those contexts, the question is not only whether an intervention delivered results, but whether it strengthened the capacity of communities and ecosystems to navigate futures that are unstable, uneven, and politically contested.
I also like your image of evaluation as both compass and horizon scanner. It raises an important challenge for us as evaluators...are we simply documenting adaptation after the fact, or are we helping communities, implementers, and decision-makers recognise which pathways remain viable as risks cascade? For me, that is where future-informed evaluation becomes not just methodological, but ethical. It asks evaluation to serve resilience, justice, and agency in the face of futures that are already arriving.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Thanks Deepak, your point about using an inclusive matrix is especially useful. It suggests that foresight should not sit at the end of an evaluation as an add-on, but should be woven through relevance, coherence, effectiveness, efficiency, impact, sustainability, and cross-cutting issues. In that sense, each criterion can ask both, i.e., What have we learned from past and present performance? And what does this imply for future relevance, resilience, adaptation, and strategic positioning?
For me, this is where future-informed evaluation becomes practical. It helps evaluators design better questions, not just use different tools.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 29/04/2026
Thanks, Dennis. I really appreciate how you ground this in the lived realities of Kenya (my home!) and the wider East African region. Your point that drought, mobility, refugee dynamics, demographic pressure, and devolution are not “contextual risks” but core features of the operating system is exactly why future-informed evaluation matters.
What stands out for me is your observation that many programmes are evaluated against a past version of the system....that is a powerful way to name the problem. If the assumptions beneath a theory of change have shifted, then judging effectiveness or sustainability against those original assumptions can produce technically valid but strategically misleading findings.
I also strongly agree with your shift from static baselines to dynamic reference points, and from endline judgement to continuous sense-making. In devolved and climate-vulnerable contexts, evaluation has to become more anticipatory, politically informed, and adaptive. It should help actors understand not only whether something worked, but whether it remains viable as conditions change.
For me, your reflection reinforces that future-informed evaluation is not about adding foresight tools for their own sake. It is about improving the relevance, timing, and usefulness of evaluative judgement in systems that are already moving.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/04/2026
Gordon, je pense que c'est exactement la bonne remise en question. Je suis d'accord pour dire que la prospective n'est pas totalement absente de l'évaluation... le problème plus profond est qu'elle n'est souvent présente que sous une forme limitée, procédurale ou rétrospective.
La distinction que vous faites entre le moment, la profondeur et l’intention est cruciale. De nombreux processus d’évaluation peuvent utiliser des outils qui semblent proches de la prospective (par exemple, les registres de risques, les boucles de gestion adaptative, les questions stratégiques, voire le langage des scénarios), mais cela n’équivaut pas à une pratique professionnelle de la prospective. La prospective n’est pas seulement une boîte à outils... c'est aussi une manière rigoureuse de percevoir le changement, de déceler les signaux faibles, de remettre en question les hypothèses, de juger quand un système approche d'un seuil, et de comprendre les récits profonds et les dynamiques de pouvoir qui façonnent les futurs considérés comme possibles ou souhaitables.
C’est là que la perspicacité professionnelle d’un praticien de la prospective prend toute son importance. Les outils peuvent aider à structurer la conversation, mais ils ne génèrent pas automatiquement une intelligence anticipative. Utilisés de manière superficielle, ils peuvent simplement prolonger les logiques de planification existantes. Utilisés en profondeur, ils peuvent révéler quand le cadre lui-même est erroné, quand l’adaptation ne suffit plus, et quand l’évaluation doit soutenir un recadrage stratégique plutôt qu’une amélioration incrémentale.
Je suis donc tout à fait d'accord... le problème n'est pas l'absence totale de prospective, mais son confinement. Le défi consiste à passer d'une prospective considérée comme un ensemble de méthodes occasionnelles à une prospective en tant que capacité d'évaluation professionnelle, en l'intégrant dès le début, en l'utilisant en temps réel et en l'orientant vers la prise de décisions éclairées par l'avenir plutôt que vers la simple validation des performances passées.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/04/2026
Merci Rhode pour ta contribution. Je suis d’accord sur le fait qu’une évaluation tournée vers l’avenir ne peut se contenter d’ajouter des scénarios ou une analyse prospective à un processus extractif. Elle doit changer qui définit la valeur, qui interprète les données et qui détient l’autorité sur la manière dont les résultats sont utilisés.
L’accent mis sur l’appropriation collective, de la conception à l’utilisation, est également fort. Lorsque les communautés et les parties prenantes façonnent ensemble les questions, les méthodes, l’interprétation et le suivi, l’évaluation devient plus qu’une simple obligation de rendre des comptes aux bailleurs de fonds. Elle devient un processus de construction collective de sens et d’avenir.
Le lien avec les approches des Premières Nations renforce l’idée que l’évaluation tournée vers l’avenir doit être fondée sur le consentement, la responsabilité relationnelle, les priorités locales et l’autodétermination. En ce sens, l’appropriation n’est pas un simple ajout procédural ; c’est la condition qui rend l’évaluation éthique, utile et transformatrice.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/04/2026
Merci Gana, c'est une excellente façon d'expliquer pourquoi l'évaluation fondée sur la prospective devient une nécessité plutôt qu'une simple option. J'apprécie tout particulièrement l'accent mis sur les systèmes... Les évaluations se concentrent souvent de manière excessive sur la performance des projets, tout en négligeant les conditions institutionnelles, politiques, écologiques et relationnelles qui déterminent si les résultats peuvent perdurer.
La reformulation proposée des critères du CAD de l’OCDE est particulièrement utile. Considérer la pertinence comme une « adéquation avec l’avenir », la durabilité comme une « résilience face aux chocs » et l’impact comme une « contribution à la transformation à long terme du système » aide à faire évoluer l’évaluation de la conformité et de la reddition de comptes vers l’apprentissage stratégique et la préparation.
Pour les systèmes alimentaires, la résilience climatique, l’agriculture et la gouvernance, cela semble particulièrement urgent. La question clé n’est plus seulement « L’intervention a-t-elle fonctionné ? », mais « Dans quelles conditions futures pourrait-elle continuer à fonctionner, s’adapter ou se développer ? ». C’est là que la prospective peut considérablement approfondir la fonction d’évaluation.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Je suis de retour après un petit séjour improvisé pendant lequel je n'ai pas ouvert mon ordinateur portable pendant six jours, mais je suis ravi de voir que les échanges et les discussions se poursuivent.
Alors que nous entrons dans notre dernière semaine, je souhaite vous présenter le guide FARA Critères d'évaluation d'une prospective de haute qualité sur les systèmes alimentaires en Afrique (le lien se trouve dans l'introduction de ce forum de discussion, mais est également joint ci-dessous). Ma collègue, le Dr Katindi Sivi, en est la co-auteure, je suis donc ravie de mettre en avant son travail.
Ce que je trouve particulièrement utile dans ce rapport, c'est qu'il ne s'agit pas d'un manuel de prospective étape par étape. Il s'agit d'un cadre de qualité permettant de réfléchir à ce qui rend la prospective significative, crédible, inclusive et réellement utile pour la prise de décision dans les contextes complexes des systèmes alimentaires. Le guide soutient que, dans une époque marquée par les risques climatiques, les changements démographiques, l'incertitude géopolitique et les inégalités structurelles, la prospective doit aller au-delà de la production de scénarios pour s'orienter vers une gouvernance anticipative, l'appropriation locale et une influence politique réelle. Il met également un accent inhabituel sur les réalités africaines, notamment les savoirs autochtones, l'informalité, les relations de pouvoir et les pratiques participatives.
Cela semble tout à fait pertinent par rapport à la discussion que nous avons eue ici. Au cours des dernières semaines, plusieurs d’entre vous nous ont poussés à réfléchir au-delà de la simple reddition de comptes rétrospective. Silva et Amy ont demandé si l’évaluation pouvait être libérée de la logique de conformité. Rick nous a mis au défi de passer de la prédiction à la préparation et à des futurs pluriels. Uzodinma a mis l’accent sur l’état d’esprit, l’appropriation locale et l’apprentissage adaptatif. Rhode nous a rappelé que les connaissances doivent être communiquées de manière utilisable, et non pas simplement rédigées pour les évaluateurs. Ces thèmes trouvent tous un écho dans ce guide.
Le guide s’articule autour de neuf critères interdépendants, notamment la pertinence contextuelle, l’inclusivité, l’éthique, la rigueur méthodologique, la communication stratégique, l’ancrage institutionnel et les changements de pensée et de comportement. Il soutient également que l’évaluation de la prospective ne doit pas se concentrer sur la précision des prédictions, mais sur la question de savoir si la prospective améliore l’apprentissage (un autre thème récurrent dans nos discussions), la prise de décision, la contribution au changement et la transformation des systèmes à long terme.
Pour cette dernière semaine, j’aimerais donc poser la question suivante : à quoi ressemblerait concrètement une évaluation de haute qualitéfondée sur la prospective ? Quelles conditions doivent être réunies pour qu’elle soit éthique, participative, utile et ancrée dans l’institution, plutôt que de n’être qu’un rapport de plus sur une étagère ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
C'est un point important, Alexis... merci pour ta contribution. J'apprécie tout particulièrement ton observation selon laquelle les enseignements tirés de l'évaluation sont souvent consignés, mais ne sont pas réellement pris en compte dans la conception, les politiques ou les pratiques futures. Ton commentaire souligne pourquoi une approche davantage tournée vers l'avenir est essentielle... l'évaluation ne doit pas seulement rendre compte de ce qui s'est passé, mais aussi contribuer à garantir que les enseignements tirés restent exploitables, transférables et vivants au-delà de la durée d'une intervention ponctuelle. L'apprentissage et l'éducation comportent par nature de forts éléments d'orientation vers l'avenir et de prospective. Comment pouvons-nous mieux intégrer l'apprentissage tourné vers l'avenir dans nos évaluations ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci beaucoup pour cette contribution pertinente et très bien écrite. Vous avez mis le doigt sur un point essentiel de notre discussion… tant que l’évaluation restera cantonnée à une logique de conformité, même l’introduction de méthodes tournées vers l’avenir risque de n’aboutir qu’à un changement superficiel plutôt qu’à une véritable évolution de l’approche. J’apprécie tout particulièrement l’accent que vous mettez sur la nécessité de transformer la finalité même de l’évaluation, afin qu’elle devienne un espace d’apprentissage, d’adaptation et de prise de décision face à l’incertitude. Votre remarque concernant l’acceptation institutionnelle de la critique, de l’incertitude et de l’évolution des programmes est cruciale, car elle montre clairement que le défi n’est pas seulement méthodologique, mais aussi culturel et politique. C’est précisément cette tension entre l’évaluation normative et l’évaluation prospective que nous devons continuer à explorer ensemble.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Bonjour Silva, merci pour ton commentaire. On se laisse si facilement piéger par « LE PLAN ». C’est pour ça que j’adore travailler avec des scénarios. On peut avoir un plan, mais quand on a trois ou quatre scénarios en perspective, on peut toujours le mettre à l’épreuve et voir où il faut l’adapter. Raison de plus pour cultiver cette agilité, cette capacité à percevoir et à ressentir les tournants, comme tu l’as mentionné.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Excellent commentaire, Inès, et une mise en garde très utile. Je partage votre point de vue selon lequel le recours à la prospective à la place de données factuelles sur les performances réelles peut devenir un moyen de justifier indéfiniment des résultats médiocres à travers des scénarios futurs imaginaires, en particulier lorsque les équipes d’évaluation ne disposent pas de l’expertise technique ou sectorielle nécessaire pour remettre en question les hypothèses. L'accent que vous mettez sur des systèmes participatifs et riches en retours d'information est particulièrement important, car il suggère qu'une évaluation tournée vers l'avenir ne doit pas reposer uniquement sur les évaluateurs et les institutions, mais aussi sur une implication structurée des parties prenantes, capable d'influencer la conception, la mise en œuvre et l'adaptation des politiques en temps réel. Ainsi, développer la culture du futur au sein des communautés est également un élément important de nos discussions.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci Koffi. Tu as fait des observations pertinentes et tu as contribué à définir clairement l’évaluation comme quelque chose de bien plus vivant et déterminant que la simple conformité ou le jugement rétrospectif. J’apprécie tout particulièrement l’idée selon laquelle l’évaluation devrait fonctionner comme une boussole dynamique, aidant les personnes et les institutions non seulement à comprendre d’où elles viennent, mais aussi à ajuster leur cap. Présenter l’évaluation comme un diagnostic sans traitement est particulièrement percutant, car cela met en lumière pourquoi l’intention de transformation est essentielle si l’évaluation doit contribuer à un véritable apprentissage, à l’adaptation et à un changement durable.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
Merci pour ton commentaire, Ishmael. Je suis tout à fait d'accord. Une grande clairvoyance comporte toujours des éléments de recul ; il ne s'agit donc pas d'une compétition, mais d'une collaboration et d'une symbiose. Je crois savoir que de nombreuses traditions anciennes considéraient que l'humanité avançait vers l'avenir en marchant à reculons... Il est important de savoir d'où nous venons, mais lorsque nous voyons le chemin s'incurver ou bifurquer, nous devons commencer à nous orienter dans cette direction.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 18/04/2026
De quel article parlez-vous ? J'ai joint « Fusing foresight and futures thinking for a new transformative evaluation paradigm » dans mon message précédent, vous devriez donc pouvoir y accéder.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 06/04/2026
Introduction à la troisième semaine
Pour cette troisième semaine, j’aimerais vous présenter l’article « Fusing foresight and futures thinking for a new transformative evaluation paradigm » de Rose Thompson Coon, Katri Vataja et Pinja Parkkonen (ci-joint ci-dessous).
Cet article soutient que si l'évaluation est censée contribuer à la transformation dans un monde incertain et complexe, elle ne peut pas rester principalement axée sur l'évaluation des performances passées. Elle doit au contraire devenir plus tournée vers l'avenir, plus dynamique et plus à même d'envisager de multiples avenirs possibles.
Ce qui rend cet article particulièrement utile pour notre discussion, c'est qu'il ne se limite pas au niveau théorique. À partir d’un cas tiré de Sitra en Finlande, les auteurs montrent comment des méthodes de prospective telles que l’analyse des horizons (Horizon Scanning) et un processus Delphi modifié peuvent être intégrées à l’évaluation pour valider les choix stratégiques actuels, générer des options de programmation pour l’avenir, approfondir la compréhension de la complexité et renforcer la prise de décision stratégique. Ils soutiennent également que ce changement n’est pas seulement méthodologique. Il nécessite une remise en question plus large de l’objectif de l’évaluation, y compris des questions de pouvoir, de participation et de savoir quels avenirs sont imaginés et priorisés.
Cet article jette un pont pratique entre la réflexion sur l’avenir et l’évaluation transformatrice. Il aide à faire passer le débat de « Pourquoi l’évaluation devrait-elle s’appuyer davantage sur l’avenir ? » à « À quoi cela pourrait-il ressembler concrètement ? »
Il soulève également un défi important pour nous tous. Si l’évaluation doit contribuer à façonner les avenirs souhaités, comment devrait-elle aborder les questions de pouvoir, de participation et de l’avenir de qui est défini ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 06/04/2026
Résumé de la deuxième semaine
Les discussions de la semaine dernière ont mis en lumière une tension riche et d’actualité au cœur de l’évaluation prospective, à savoir si l’évaluation doit rester orientée vers la prédiction et le changement linéaire, ou si elle doit s’orienter vers la préparation, la pluralité, l’apprentissage et l’adaptation.
Rick Davies a vivement insisté sur ce point en faisant valoir que, dans un monde marqué par une profonde incertitude, l’évaluation devrait envisager des futurs multiples et suffisamment diversifiés plutôt que de s’appuyer sur une logique prédictive unique. Il a également soulevé la question importante des critères à utiliser pour évaluer les futurs, suggérant à la fois des critères cognitifs concernant notre façon de penser et des critères comportementaux concernant notre façon de réagir. Il a en outre mis en garde contre une utilisation trop vague du terme « transformation », nous rappelant que la transformation n’est pas intrinsèquement bonne et que les évaluateurs doivent rester attentifs aux objectifs et aux enjeux politiques du changement lui-même.
Michele Friend a proposé un recadrage philosophique et méthodologique important. Plutôt que de se demander ce qui doit changer en premier, elle a fait valoir que la transformation ne devait pas être considérée comme une séquence linéaire. Les méthodes, les critères, les institutions et les mentalités évoluent ensemble à travers des boucles de rétroaction entre l'évaluation, le dialogue, la faisabilité et la mise en œuvre. Son exemple a présenté l'évaluation comme un processus itératif et réflexif qui non seulement juge la performance, mais aide également les personnes et les institutions à se demander qui elles sont en train de devenir.
Le Dr Uzodinma Akujekwe Adirieje a ancré la conversation dans les systèmes de santé africains et à faibles ressources, soulignant que le changement le plus profond doit être celui des mentalités : s'éloigner d'un reporting axé sur la conformité et tourné vers les bailleurs de fonds pour s'orienter vers un apprentissage adaptatif, pris en charge localement et axé sur la résolution de problèmes. Sa contribution a été particulièrement précieuse en montrant que l'évaluation transformatrice n'est pas abstraite ; elle peut produire des résultats concrets lorsque les données probantes sont intégrées dans la prise de décision en temps réel et les réalités communautaires.
Rhode Early Charles a élargi la discussion en faisant valoir que la transformation dépend également de la manière dont les connaissances issues de l'évaluation sont communiquées. Les rapports restent souvent trop techniques et axés sur les évaluateurs. Elle a appelé à ce que les résultats d'évaluation se traduisent par des produits de connaissance multiples et adaptés, que différents publics puissent réellement utiliser, tout en mettant en garde contre le fait que des approches trop minimalistes en matière de données risquent de passer à côté de problèmes émergents et d'opportunités d'apprentissage stratégique.
Dans l’ensemble, les échanges de la semaine suggèrent que l’évaluation éclairée par l’avenir pourrait nécessiter non pas un seul changement, mais plusieurs à la fois… de la prédiction à la préparation, d’un avenir singulier à des avenirs pluriels, de modèles linéaires à un apprentissage riche en retours d’information, de la conformité à l’appropriation locale, et de rapports statiques à des formes de connaissances plus exploitables.
Sur le plan technique, Silva a posé une question pratique concernant la plateforme. À ma connaissance, il n’est pas possible de sélectionner un fil de discussion et de répondre aux commentaires d’une autre personne. Je transmettrai toutefois cette remarque à l’équipe d’EvalForEarth.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 30/03/2026
Bienvenue à la deuxième semaine
Je souhaite poursuivre la discussion de la semaine dernière en vous proposant une brève réflexion tirée de l’ouvrage de Scott Chaplowe et Joyce Mukoma, Evaluation and the Transformational Imperative (voir pièce jointe). Leur argument principal est simple mais essentiel. L'ampleur des crises actuelles signifie que l'évaluation ne peut rester cantonnée à une approche « business as usual » si elle veut soutenir le programme de transformation plus large reflété dans les ODD. Ils définissent le changement transformationnel non pas comme une amélioration progressive, mais comme un changement profond et systémique dans le fonctionnement d'un système.
Ce que je trouve particulièrement utile, c’est que l’article ne présente pas la transformation comme une nouvelle méthode unique. Au contraire, il s’interroge sur ce qui freine l’évaluation. Il met en évidence quatre fixations bien connues : 1) la fixation sur les projets, 2) la fixation sur le temps, 3) la fixation sur les données quantitatives, et 4) la fixation sur la responsabilité. En d’autres termes, l’évaluation reste trop souvent prisonnière de projets linéaires, de délais de financement courts, d’une logique axée sur les indicateurs et d’une responsabilité orientée vers la conformité.
Scott et Joyce proposent ensuite plusieurs voies pour aller de l’avant… des méthodes adaptatives à la complexité, une évaluation axée sur les principes, de nouveaux critères de transformation, la science des données et des paradigmes alternatifs, y compris les perspectives autochtones et féministes.
Cette semaine, j’aimerais donc poser la question suivante : « Si l’évaluation doit contribuer à la transformation, qu’est-ce qui doit changer en premier lieu… nos méthodes, nos critères, nos institutions, notre état d’esprit sous-jacent, ou autre chose ? »
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 28/03/2026
Résumé - Semaine 1
Cette première semaine de discussion a clairement mis en évidence une chose… l’appel à une évaluation tournée vers l’avenir ne provient pas d’un seul camp ou d’une seule méthodologie. Il résulte d’une frustration concrète ressentie dans l’ensemble des pratiques. Conny Rietdorf nous a rappelé que le « L » (apprentissage) dans le sigle MEL est souvent la première victime lorsque l’évaluation devient un simple exercice de conformité plutôt qu’un espace de réflexion et d’apprentissage. Carlos Tarazona a ensuite poussé la réflexion plus loin à travers l’évaluation « One Health » de la FAO, montrant comment une analyse rétrospective peut être solide sur le passé tout en restant insuffisante pour les futurs qui émergent aujourd’hui. Sa redéfinition de la pertinence comme une aptitude à l’avenir, de la durabilité comme une résilience face au changement, et de la cohérence comme la capacité à travailler à travers les systèmes nous a donné un langage puissant pour penser différemment.
D'autres intervenants ont affiné le tableau. Serdar Bayryyev a mis en évidence les conditions institutionnelles nécessaires à ce changement (à savoir les capacités, les cadres pratiques et le changement organisationnel). Silva Ferretti nous a mis au défi de ne pas traiter la prospective comme une solution technique à un problème culturel plus profond, en posant la question plus difficile : « À quoi sert l'évaluation ? » Alexis Adébayo a ancré la discussion dans la réalité climatique, où des chocs externes peuvent déstabiliser l’attribution et affaiblir l’utilité des résultats. Rhode Early Charles nous a rappelé que l’analyse prédictive et la prospective ne sont pas rivales mais complémentaires, surtout si nous parvenons à surmonter la fragmentation des systèmes de données. Emmanuel Erick Igiha et Amy Mara nous ont ramenés à l’objectif. L’évaluation, dans le meilleur des cas, devrait aider les gens à s’améliorer, à s’adapter et à naviguer vers ce qui vient ensuite.
Le fil conducteur qui se dégage de la première semaine est donc le suivant : le passage de la rétrospective à la prospective est certes méthodologique, mais aussi institutionnel et profondément culturel. Il nécessite non seulement de nouveaux outils, mais aussi une orientation différente vis-à-vis des données, de l’incertitude, de l’apprentissage et du changement. Cela semble être un point de départ important.
Perspectives : Au cours de la semaine à venir, nous nous pencherons sur l’impératif transformationnel et examinerons la prospective transformationnelle à travers un article à paraître dans le Journal of MultiDisciplinary Evaluation. Si vous n’êtes pas familier avec l’impératif transformationnel au sein des écosystèmes d’évaluation, j’ai joint une brève note de quatre pages rédigée par Scott Chaplowe et Joyce Mukoma.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Amy, merci pour cette contribution. Tu as magnifiquement présenté le contexte. Ce qui me frappe le plus dans ton approche, c’est le mot « transformation ». Tu ne décris pas une simple modification de la méthodologie d’évaluation… tu décris un changement fondamental dans la raison d’être de l’évaluation. On passe du jugement à l’orientation… de la reddition de comptes à l’anticipation.
Les quatre piliers que tu identifies sont chacun convaincants en soi. Mais je pense que ce qui les rend puissants, c’est la façon dont ils se renforcent mutuellement. Une analyse de scénarios sans la participation des parties prenantes risque de devenir un exercice technique déconnecté des réalités vécues. Un suivi en temps réel sans culture d’apprentissage ne fait que générer des données sur lesquelles personne n’agit. Ensemble, cependant, ils commencent à décrire quelque chose qui semble véritablement différent : l’évaluation comme une conversation continue et vivante avec l’avenir.
Une question que votre message soulève pour moi : qui est le moteur de cette transformation ? Les évaluateurs peuvent plaider en faveur d’approches tournées vers l’avenir, mais beaucoup dépend de la volonté des commanditaires et des décideurs de les financer et de les utiliser. D’après votre expérience, où l’intérêt pour l’évaluation prospective a-t-il été le plus fort, et qu’est-ce qui a fait la différence ?
Votre contribution fait également un beau lien avec notre thème de la semaine prochaine : l’impératif de transformation. Je suis vraiment ravi que vous participiez à cette discussion.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Emmanuel, la perspective que tu proposes, qui consiste à passer du jugement du passé à la mise en place de mesures d’amélioration pour l’avenir, incarne parfaitement l’esprit même de ce à quoi aspire l’évaluation prospective. Et la question sur laquelle tu conclus est exactement celle qu’il faut continuer à poser tout au long de cette discussion.
Un exemple qui me vient à l’esprit est le travail du PAM sur l’action anticipative, où l’évaluation a été utilisée non seulement pour évaluer les performances passées, mais aussi pour affiner les systèmes de déclenchement et les modèles de scénarios qui activent des réponses préventives avant que les crises ne se déroulent pleinement. Cela me semble être un cas où l’évaluation a véritablement façonné l’action future plutôt que de simplement consigner les performances passées. Mais je pense que l’idée la plus profonde de votre contribution concerne l’orientation et l’intention… une évaluation prospective peut être menée avec des méthodes largement conventionnelles, si les questions qu’elle pose et la manière dont les résultats sont présentés orientent systématiquement vers l’adaptation et l’amélioration plutôt que vers un verdict. Ce changement culturel est peut-être aussi important que n’importe quelle innovation méthodologique. Qu’est-ce qui a permis cette orientation dans les contextes où vous l’avez vue fonctionner ?
Je viens de terminer une vaste évaluation fondée sur la prospective pour l’UNICEF, mais il est trop tôt pour déterminer quelle différence elle pourra faire. Demandez-le-moi en 2028 !
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Rhode, merci pour cette remarque. Le point concernant la complémentarité entre les méthodes de prospective et l'analyse prédictive est important, mais il n'est pas toujours explicitement soulevé. On part parfois implicitement du principe que la prospective est avant tout qualitative et tournée vers l'avenir, tandis que la modélisation prédictive relève du domaine des données concrètes ; or, dans la pratique, une évaluation solide tire profit des deux, et la logique qui sous-tend leur combinaison est tout à fait valable. La prospective nous aide à explorer l’espace d’incertitude, tandis que les méthodes prédictives nous aident à quantifier les trajectoires probables lorsque les données le permettent.
Votre remarque sur la fragmentation des données est tout à fait pertinente et, selon moi, constitue en soi un problème systémique que l’évaluation a un rôle à jouer pour résoudre. Si les évaluations produisaient systématiquement des données structurées et accessibles, plutôt que des rapports cloisonnés au niveau des projets, les ensembles de données longitudinales qui soutiendraient le type de modélisation que vous décrivez s’accumuleraient progressivement. L'appropriation nationale, comme vous le suggérez, est une voie possible. Mais les pratiques de commande d'évaluations au sein des organisations internationales pourraient également évoluer de manière à soutenir cette démarche. Cela semble être une réforme institutionnelle concrète qui mérite d'être approfondie dans la discussion. Je trouve également que la dimension de l'IA et de l'apprentissage automatique mérite d'être suivie de près. La capacité d'apprentissage inter-projets à grande échelle est véritablement nouvelle, et ses implications pour la conception de l'évaluation sont encore en cours d'élaboration.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Merci, Alexis, pour ta contribution. L’exemple que tu cites… des infrastructures coûteuses rendues inefficaces ou détruites par des phénomènes climatiques extrêmes… illustre très concrètement le problème de l’attribution. C’est un scénario qui met en évidence une limite fondamentale du modèle logique qui est au cœur de la plupart des évaluations rétrospectives. Si la chaîne causale est rompue par un choc externe, le cadre d’évaluation lui-même peine à donner un sens à ce qui s’est passé, sans parler d’offrir des orientations utiles pour la suite.
Cela renvoie à une question plus large de méthodologie d’évaluation, à savoir que nos cadres standard supposent souvent un certain degré de stabilité dans l’environnement opérationnel, ce qui est de moins en moins le cas dans les contextes affectés par le climat. La gestion intégrée des paysages est un domaine particulièrement intéressant à cet égard, car elle opère déjà avec des horizons temporels longs et des systèmes complexes, ce qui en fait sans doute l’un des domaines où l’évaluation fondée sur la prospective n’est pas un luxe mais une nécessité. Je suis curieux de savoir si vous avez observé des tentatives d’intégrer une réflexion par scénarios dans la conception des évaluations dans les contextes où vous travaillez, même de manière informelle, et si ces efforts ont aidé les évaluateurs et les parties prenantes à surmonter les défis d’attribution que vous décrivez
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Silva, c'est une question qui mérite d'être approfondie tout au long de cette discussion, et je pense qu'elle apporte un éclairage que nous pourrons continuer à développer dans les semaines à venir. Tu as raison de dire que les outils de prospective peuvent simplement être mis au service de la conformité, c'est-à-dire qu'ils servent à anticiper des futurs pour confirmer une théorie du changement plutôt que de la remettre véritablement en question. Ce serait une version sophistiquée du même problème.
La question que vous soulevez précédemment, « à quoi sert l’évaluation ? », est selon moi une question à laquelle cette communauté doit s’attaquer plus directement. J’ai le sentiment que le passage de la rétrospective à la prospective n’est pas seulement technique, car il nécessite également une relation différente entre les évaluateurs, les commanditaires et les programmes évalués. Si l’évaluation est purement confirmatoire, alors la prospective devient de la poudre aux yeux. Mais s’il existe une volonté institutionnelle de considérer l’évaluation comme une véritable exploration, alors les outils de prospective, en particulier lorsqu’ils sont utilisés de manière participative comme vous le décrivez, peuvent ouvrir un espace de réflexion qui remet en question les hypothèses dominantes plutôt que de les renforcer. Continuez à soulever ces questions, Silva !
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 27/03/2026
Serdar, merci pour votre contribution. Les exemples que vous avez tirés des travaux de prospective menés par le PAM, le FEM, le CGIAR et la FAO elle-même sont tout à fait pertinents pour le débat. Il est encourageant de les voir cités côte à côte, car cela confirme que la dynamique en faveur de l’intégration de la prospective et de l’évaluation est bien réelle, même si les orientations pratiques restent encore rares. Votre cadre en trois volets (renforcement des capacités, cadres pratiques et changement institutionnel) reflète une séquence qui me semble juste. Les outils techniques ne suffiront pas à eux seuls à faire évoluer les pratiques si les incitations institutionnelles continuent de privilégier avant tout la reddition de comptes rétrospective. Les mandats d’évaluation, les processus de commande et les attentes fixées par les bailleurs de fonds font tous partie du système qui doit évoluer. C'est pourquoi j'ai inclus la question des changements institutionnels qui seraient nécessaires, car il me semble que c'est là que se situe le véritable goulot d'étranglement, et non dans la disponibilité des méthodes de prospective en soi.
Le rapport de la FAO sur les scénarios d'avenir de l'alimentation et de l'agriculture auquel vous faites référence est une ressource précieuse, et il serait intéressant d'entendre de la part de nos collègues si et comment les évaluateurs ont puisé dans ces scénarios dans leur propre travail, que ce soit pour définir le cadre des évaluations ou pour contextualiser les résultats. Je me réjouis de la poursuite de cet échange
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 26/03/2026
Carlos, merci d’avoir partagé cet exemple. L’évaluation « One Health » de la FAO est un cas véritablement instructif, et la manière dont vous présentez le « décalage temporel » entre les conclusions rétrospectives et la pertinence prospective met en lumière un aspect que, selon moi, de nombreux évaluateurs reconnaissent intuitivement mais peinent à formuler clairement dans leurs rapports d’évaluation.
Ce que je trouve particulièrement pertinent dans votre réflexion, c’est la réinterprétation des critères existants du CAD à travers le prisme de la prospective. Définir la pertinence comme « l’adéquation avec l’avenir », la durabilité comme « la résilience face au changement » et la cohérence comme « la capacité à travailler de manière transversale » ne constitue pas un écart radical par rapport aux critères. Je dirais qu’il s’agit d’une application plus honnête de ces critères dans des contextes où les conditions évoluent déjà pendant la mise en œuvre du programme. J'ai moi-même réfléchi dans le même sens, et votre exemple renforce l'idée que la prospective ne nécessite pas nécessairement l'introduction d'une méthodologie distincte dans l'évaluation… elle peut s'intégrer au cadre d'interprétation que nous utilisons déjà (voir ma réponse ci-dessous à Conny).
Votre remarque sur les dépendances de trajectoire est également pertinente. Les atouts institutionnels deviennent des contraintes lorsque l’avenir exige des configurations différentes d’expertise et de partenariat. Cela semble constituer un terrain fertile pour la planification par scénarios en particulier, qui peut aider des organisations comme la FAO à soumettre leurs modèles opérationnels actuels à des tests de résistance face aux futurs scénarios « One Health » émergents.
Votre commentaire m’a également fait penser à l’article de Michael Quinn Patton publié en 2020, intitulé « Critères d’évaluation pour évaluer la transformation : implications pour la pandémie de coronavirus et l’urgence climatique mondiale » (voir ci-joint). MQP critique les critères du CAD et propose six nouveaux critères axés sur la transformation. Extrait du résumé de son article :
Des transformations systémiques fondamentales sont nécessaires pour faire face à l’urgence mondiale provoquée par le changement climatique et les tendances mondiales connexes, y compris la pandémie de COVID-19, qui, ensemble, constituent des menaces existentielles pour l’avenir de l’humanité. La transformation est devenue un cri de ralliement sur la scène mondiale. L’évaluation de la transformation nécessite des critères. Les critères révisés de l’Organisation de coopération et de développement économiques (OCDE) et du Comité d’aide au développement (CAD) sont adéquats pour les évaluations sommatives et de responsabilité dans le cadre d’un statu quo, mais ils sont insuffisants pour aborder les transformations systémiques majeures. Six critères d’évaluation des transformations sont proposés, discutés et illustrés en les appliquant à la pandémie et à l’Alliance mondiale pour l’avenir de l’alimentation. Les critères suggérés illustrent des possibilités. Les critères permettant de juger toute intervention doivent être élaborés dans le contexte d’une évaluation spécifique et alignés sur son objectif, ainsi que sur les besoins en informations des principaux utilisateurs visés. Cet article conclut que le plus grand danger pour les évaluateurs en période de turbulence n’est pas la turbulence elle-même, mais le fait d’agir selon les critères d’hier.
J’ai utilisé les critères de transformation du MQP dans deux évaluations. Je partagerai plus tard comment cela a fonctionné et n’a pas fonctionné dans le contexte dans lequel je travaillais… une perspective prospective a certainement joué un rôle… ou devrais-je dire son absence.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 26/03/2026
Merci, Rama. L'évolution des perceptions de la durabilité au fil du temps constitue un sujet riche qui mérite d'être approfondi. L'une des tensions qui m'intéresse le plus dans ce domaine est que la durabilité est souvent évaluée à un moment précis (que ce soit lors de la conception ou de la clôture d'un programme), par rapport à des conditions qui pourraient s'avérer très différentes cinq ou dix ans plus tard. Une perspective prospective nous invite à nous demander non seulement si un programme est durable dans les conditions actuelles, mais aussi s’il est résilient face à l’éventail des futurs plausibles compte tenu des trajectoires climatiques, des changements politiques ou de la dynamique des écosystèmes. Seriez-vous disposé à partager un exemple tiré de votre propre expérience où l’évolution des perceptions de la durabilité, peut-être chez les bailleurs de fonds, les gouvernements ou les communautés, a influencé la manière dont les résultats de l’évaluation ont été reçus ou mis en œuvre ?
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 26/03/2026
Merci à tous pour vos contributions. Je n’avais vu aucun message mardi, mais hier, vous avez été nombreux à partager vos réflexions et vos réponses. Merci donc ! Je répondrai à chacun d’entre vous au cours de la journée d’aujourd’hui et de demain.
Conny, merci d’avoir lancé la discussion. Vous avez tout à fait raison. Ce que vous décrivez correspond exactement à la tension que cette discussion tente de mettre en lumière. Le « L » dans MEL/MEAL/MERL est souvent la première victime lorsque l’évaluation est traitée comme un simple exercice de conformité plutôt que comme un véritable processus d’apprentissage. Votre observation selon laquelle les résultats d’évaluation sont fréquemment « mis de côté » après la remise du rapport est l’un des schémas les plus persistants et frustrants de notre domaine, et elle touche au cœur même de l’importance de l’intégration de la prospective… si l’apprentissage ne se fait pas en temps réel, l’évaluation prospective devient encore plus difficile à ancrer au niveau institutionnel.
Quant à votre remarque sur l’Outcome Harvesting (OH) et l’Outcome Mapping (OM), elle est tout à fait pertinente. J’ai exploré de nouveaux concepts d’évaluation tels que l’« Anticipatory Outcome Fishing » et la « Foresight-Infused Outcome Mapping »… des tentatives visant à intégrer la réflexion prospective dans les approches d’évaluation. Comme vous l’avez mentionné, j’ai constaté que ces approches favorisent effectivement un engagement plus actif des parties prenantes tout au long des cycles de réflexion, ce qui peut contribuer à instaurer le type de culture d’évaluation qui rend la réflexion prospective plus naturelle… mais il n’est pas facile pour certaines organisations de s’engager à ce niveau. J'ajouterais également que la dimension participative que vous décrivez, c'est-à-dire amener les parties prenantes à réfléchir à ce qui a fonctionné, à ce qui n'a pas fonctionné et à ce qui était inattendu, constitue également un fondement de la réflexion par scénarios. Une fois que les gens sont à l'aise avec l'incertitude et l'identification des hypothèses, l'introduction d'outils de prospective tels que l'analyse des horizons ou le cadre des « trois horizons » devient une étape beaucoup plus simple. J'ai hâte d'en savoir plus à mesure que la discussion évolue.
Kenya
Steven Lynn Lichty
Managing Partner
REAL Consulting Group
Posté le 23/03/2026
Bienvenue dans la discussion « De la rétrospective à la prospective : comment l’évaluation peut s’orienter vers le futur ». Je m’appelle Steven Lichty et j’animerai cette discussion en ligne au cours des cinq prochaines semaines. Je vis à Nairobi et je travaille à l’intersection de la prospective et de l’évaluation depuis plus de 20 ans. Je me réjouis de faciliter nos échanges, de partager des ressources et d’apprendre de chacun d’entre vous.
L’évaluation nous a longtemps aidés à comprendre ce qui s’est passé, ce qui a fonctionné et ce qui n’a pas fonctionné. Cependant, de nombreux systèmes qui nous tiennent particulièrement à cœur, alimentation, agriculture, climat, écosystèmes, résilience, etc. Sont aujourd’hui façonnés par une incertitude croissante, des perturbations et des transformations à long terme. Dans ce contexte, regarder en arrière ne suffit plus. La question n’est pas seulement de savoir si une intervention a bien fonctionné dans le passé, mais si elle est adaptée aux futurs qui émergent.
Au cours des prochaines semaines, ce forum sera un espace pour tester des idées, partager des exemples, faire émerger des tensions et apprendre entre disciplines. À travers des expériences partagées, des lectures facultatives et une réflexion ouverte, nous explorerons ce que signifie concrètement le fait que l’évaluation commence à se tourner vers l’avenir. Il ne s’agit pas d’abandonner la rigueur, mais de l’élargir ; ni de remplacer les critères du CAD, mais de s’interroger sur ce que des critères tels que la pertinence et la durabilité signifient réellement lorsque le futur peut être radicalement différent du contexte dans lequel un programme a été initialement conçu.
Cette discussion invite les évaluateurs, les praticiens de la prospective, les commanditaires, les chercheurs et les décideurs à partager un espace commun de réflexion. Comment l’évaluation peut-elle devenir davantage éclairée par le futur, plus adaptative et plus utile en période de volatilité ? Que se passe-t-il lorsque nous intégrons des outils prospectifs tels que la veille des signaux faibles, les scénarios, les Trois Horizons, le Triangle des Futurs ou l’Analyse causale stratifiée — dans la conception, l’interprétation et l’utilisation de l’évaluation ? Comment les épistémologies et les ontologies qui sous-tendent la pensée critique sur l’avenir peuvent-elles enrichir notre pratique évaluative ?
Cette communauté rassemble certains des évaluateurs, commanditaires et praticiens les plus engagés dans les domaines de la sécurité alimentaire, de l’agriculture et de l’environnement. Vous avez été témoins des limites de l’évaluation rétrospective. Vous avez probablement aussi entrevu des approches plus prometteuses. Il n’est pas nécessaire d’être expert dans les deux domaines pour contribuer : les expériences pratiques, les questions critiques, les exemples prometteurs, les doutes et les réflexions stimulantes sont tous les bienvenus.
Commençons donc par cette réflexion : où avez-vous observé les limites de l’évaluation rétrospective dans un monde en rapide transformation ? Et où voyez-vous les points d’entrée les plus prometteurs pour intégrer une perspective prospective dans la pratique évaluative ?
Nous sommes ravis de vous compter parmi nous et attendons avec intérêt une discussion riche et stimulante.