- Over 8 years of experience in Monitoring, Evaluation, Research, and Learning (MERL) across East Africa
- Expertise in:
- Quantitative, qualitative, and mixed-methods research
- Quasi-experimental and participatory evaluation designs
- Outcome harvesting and adaptive learning approaches
- Gender-responsive monitoring and policy analysis
- Thematic areas:
- Food security and rural development
- Climate change adaptation and climate justice
- Gender equality and women’s economic empowerment
- Preventing and countering violent extremism (PCVE)
- Experience leading MERL frameworks for multi-country, multi-partner programs
- Conducted evaluations for major donors and development partners (World Bank, EU, DFID, GCERF)
- Recent focus areas include:
- Evaluation of climate-smart agriculture and sustainable livelihoods interventions
- Mapping local vulnerabilities to environmental and climate-related shocks
- Strengthening MEL systems in contexts with low technology access and literacy
- Proficient in data collection and analysis tools, including NVivo, KoboToolbox, SPSS, Stata, Python and OCR-based digitization methods
Posté le 08/12/2025
In connecting evidence across the Humanitarian–Development–Peace (HDP) Nexus, aligning evidence agendas across humanitarian, development, and peace pillars requires intentional systems that move beyond sectoral silos toward holistic, context-responsive learning. In my experience at the intersection of PCVE, gender, and governance in county settings, valuable data exists across all three pillars—yet fragmentation prevents it from shaping a unified understanding of risk, resilience, and long-term community wellbeing.
One way to strengthen coherence is through shared learning frameworks built around harmonized indicators, aligned theories of change, and interoperable data systems. Humanitarian actors collecting early warning signals, development teams gathering socio-economic data, and peacebuilding practitioners tracking governance and cohesion trends can feed insights into a common evidence ecosystem. Joint sense-making platforms across UN agencies, county governments, and civil society further ensure interpretation and adaptation occur collectively.
Supporting local CSOs to build capacity in Core Humanitarian Standards (CHS) of Quality Assurance is critical. When local actors understand and apply CHS, their data becomes more reliable and compatible with UN and donor systems. Co-creating evaluation tools, monitoring frameworks, and learning agendas with these CSOs strengthens ownership and ensures evidence reflects local realities.
In African contexts, incorporating “Made in Africa Evaluation” (MAE) approaches, published and championed by our very own, Africa Evaluation Association (AfEA), can further decolonize practice by integrating local values, culture (such as Ubuntu), and conditions. By combining MAE principles with CHS, UN and donor systems can leverage contextually relevant methodologies, strengthen local capacity, and promote governance and accountability in a culturally grounded manner.
Finally, stronger Donor–CSO networking structures—learning hubs, joint review forums, and communities of practice—deepen understanding of scope, stabilize transitions of project ownership, and support long-term collaboration. Connecting evidence, capacities, and local approaches ensures HDP programs are coherent, context-sensitive, and impactful for the communities they serve.
Kenya
Dennis Ngumi Wangombe
MEL Specialist
CHRIPS
Posté le 26/04/2026
Dans le prolongement de ma réflexion précédente, je pense que les arguments en faveur d’une évaluation tournée vers l’avenir deviennent encore plus convaincants lorsqu’on les examine sous l’angle de l’Afrique de l’Est. Dans toute la région, les programmes ne se déroulent pas seulement dans des « contextes complexes » ; ils s’inscrivent dans des systèmes en pleine mutation structurelle. La variabilité climatique, la mobilité (y compris les dynamiques liées aux réfugiés), la pression démographique et la gouvernance décentralisée ne constituent pas des risques externes ; ce sont des caractéristiques fondamentales du système lui-même. Dans de tels contextes, la limite de l’évaluation rétrospective n’est pas seulement qu’elle porte sur le passé, mais aussi qu’elle suppose souvent un niveau de stabilité du système qui n’existe tout simplement pas.
Par exemple :
Dans les zones arides et semi-arides, des cycles de sécheresse répétés peuvent complètement remodeler les systèmes de subsistance au cours de la durée de vie d’un programme
Dans les régions accueillant des réfugiés, les changements de politique et les flux de financement peuvent rapidement modifier les structures de prestation de services
Dans les systèmes de gouvernance décentralisée, les priorités et les capacités de mise en œuvre peuvent varier considérablement d’un comté à l’autre et au fil du temps
Concrètement, cela signifie que la performance des programmes devient très sensible aux changements systémiques, ce qui rend les critères d’évaluation statiques moins pertinents. En transposant cela au contexte kenyan, j’ai observé un schéma récurrent : les programmes sont souvent conçus avec des théories du changement relativement figées, mais sont mis en œuvre au sein d’écosystèmes de comté hautement dynamiques, tant sur le plan politique, institutionnel que social. Au moment où l'évaluation examine l'« efficacité » ou la « durabilité », les hypothèses sous-jacentes (sur lesquelles ces critères reposent) peuvent ne plus être valables. Cela crée un risque subtil mais important : nous finissons par évaluer la performance d'un programme dans une version passée du système, plutôt que sa capacité à s'adapter au système émergent.
Pour y répondre, je pense que l’évaluation prospective au Kenya (et dans des contextes similaires) doit évoluer vers quelques changements délibérés :
Des bases de référence statiques vers des points de référence dynamiques
Les bases de référence ne doivent pas être considérées comme des ancrages fixes, mais réévaluées à mesure que les systèmes évoluent
D’un jugement final vers une interprétation continue
En particulier au niveau des comtés, où l’économie politique et les réalités de la mise en œuvre changent rapidement
De l’« attribution sous contrôle » à la « contribution dans l’incertitude »
Reconnaître que les résultats sont de plus en plus coproduits par de multiples acteurs du système en interaction
Une intégration plus forte de l’économie politique et de la prospective climatique dans la conception de l’évaluation
Non pas comme des analyses distinctes, mais comme des éléments centraux de la manière dont nous interprétons les résultats
En fin de compte, dans des contextes comme celui du Kenya, l’évaluation prospective n’est pas une simple mise à niveau méthodologique, c’est une nécessité pratique pour garantir la pertinence. Elle permet à l'évaluation de répondre à une question légèrement différente mais plus utile : non seulement « Cela a-t-il fonctionné ? », mais « Cela continuera-t-il à fonctionner, et dans quelles conditions ? »
Je serais intéressé d'entendre d'autres personnes travaillant dans des systèmes décentralisés ou vulnérables au changement climatique : « Comment adaptez-vous les approches d'évaluation pour tenir compte de la variabilité infranationale et des contextes de mise en œuvre en rapide évolution ? »
Kenya
Dennis Ngumi Wangombe
MEL Specialist
CHRIPS
Posté le 26/04/2026
Une réflexion que j’aimerais ajouter à cette discussion est que le cadre « rétrospective contre prospective » est utile, mais peut-être encore incomplet. D’après mon expérience, le problème plus profond ne réside pas seulement dans le fait que l’évaluation est rétrospective, mais aussi dans le fait qu’elle est souvent rigide sur le plan temporel au sein de systèmes qui sont intrinsèquement adaptatifs. Dans bon nombre des programmes sur lesquels j’ai travaillé, en particulier dans des contextes fragiles et affectés par le changement climatique, il arrive qu’une intervention soit très « efficace » à mi-parcours, mais fondamentalement en décalage avec la direction prise par le système. Au moment de l’évaluation finale, le système a évolué, et les conclusions, bien que techniquement valables, ont déjà perdu leur valeur décisionnelle. Cela correspond à ce que l’article décrit comme un décalage temporel entre l’évaluation et la réalité. Cela suggère que l'intégration de la prospective ne se résume pas à ajouter des outils tels que la planification de scénarios ou l'analyse prospective. Il s'agit de reconfigurer quand et comment le jugement évaluatif est formulé.
Voici quelques changements pratiques que j'ai trouvés utiles :
Je souhaite également faire écho à un point soulevé plus tôt dans la discussion : la contrainte n'est pas principalement méthodologique, mais institutionnelle et culturelle. Tant que l'évaluation est commanditée principalement à des fins de reddition de comptes, même les outils de prospective les plus sophistiqués risquent d'être absorbés par la logique de conformité. Le changement ne consiste donc peut-être pas tant à passer de la rétrospective à la prospective, mais plutôt à passer de : l'évaluation en tant que jugement → l'évaluation en tant que navigation dans l'incertitude.
On pourrait également se poser la question suivante : comment repenser les commandes d'évaluation et les incitations afin que les connaissances éclairées par l'avenir ne soient pas seulement produites, mais réellement utilisées dans les cycles décisionnels ?