Aller au contenu principal
Dennis Ngumi Wangombe

Kenya

Dennis Ngumi Wangombe Member since 08/07/2025

CHRIPS

MEL Specialist
  • Over 8 years of experience in Monitoring, Evaluation, Research, and Learning (MERL) across East Africa
  • Expertise in:
    • Quantitative, qualitative, and mixed-methods research
    • Quasi-experimental and participatory evaluation designs
    • Outcome harvesting and adaptive learning approaches
    • Gender-responsive monitoring and policy analysis
  • Thematic areas:
    • Food security and rural development
    • Climate change adaptation and climate justice
    • Gender equality and women’s economic empowerment
    • Preventing and countering violent extremism (PCVE)
  • Experience leading MERL frameworks for multi-country, multi-partner programs
  • Conducted evaluations for major donors and development partners (World Bank, EU, DFID, GCERF)
  • Recent focus areas include:
    • Evaluation of climate-smart agriculture and sustainable livelihoods interventions
    • Mapping local vulnerabilities to environmental and climate-related shocks
    • Strengthening MEL systems in contexts with low technology access and literacy
  • Proficient in data collection and analysis tools, including NVivo, KoboToolbox, SPSS, Stata, Python and OCR-based digitization methods

My contributions

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Posté le 26/04/2026

      Dans le prolongement de ma réflexion précédente, je pense que les arguments en faveur d’une évaluation tournée vers l’avenir deviennent encore plus convaincants lorsqu’on les examine sous l’angle de l’Afrique de l’Est. Dans toute la région, les programmes ne se déroulent pas seulement dans des « contextes complexes » ; ils s’inscrivent dans des systèmes en pleine mutation structurelle. La variabilité climatique, la mobilité (y compris les dynamiques liées aux réfugiés), la pression démographique et la gouvernance décentralisée ne constituent pas des risques externes ; ce sont des caractéristiques fondamentales du système lui-même. Dans de tels contextes, la limite de l’évaluation rétrospective n’est pas seulement qu’elle porte sur le passé, mais aussi qu’elle suppose souvent un niveau de stabilité du système qui n’existe tout simplement pas.

      Par exemple :

      Dans les zones arides et semi-arides, des cycles de sécheresse répétés peuvent complètement remodeler les systèmes de subsistance au cours de la durée de vie d’un programme

      Dans les régions accueillant des réfugiés, les changements de politique et les flux de financement peuvent rapidement modifier les structures de prestation de services

      Dans les systèmes de gouvernance décentralisée, les priorités et les capacités de mise en œuvre peuvent varier considérablement d’un comté à l’autre et au fil du temps

      Concrètement, cela signifie que la performance des programmes devient très sensible aux changements systémiques, ce qui rend les critères d’évaluation statiques moins pertinents. En transposant cela au contexte kenyan, j’ai observé un schéma récurrent : les programmes sont souvent conçus avec des théories du changement relativement figées, mais sont mis en œuvre au sein d’écosystèmes de comté hautement dynamiques, tant sur le plan politique, institutionnel que social. Au moment où l'évaluation examine l'« efficacité » ou la « durabilité », les hypothèses sous-jacentes (sur lesquelles ces critères reposent) peuvent ne plus être valables. Cela crée un risque subtil mais important : nous finissons par évaluer la performance d'un programme dans une version passée du système, plutôt que sa capacité à s'adapter au système émergent.

      Pour y répondre, je pense que l’évaluation prospective au Kenya (et dans des contextes similaires) doit évoluer vers quelques changements délibérés :

      Des bases de référence statiques vers des points de référence dynamiques

      Les bases de référence ne doivent pas être considérées comme des ancrages fixes, mais réévaluées à mesure que les systèmes évoluent

      D’un jugement final vers une interprétation continue

      En particulier au niveau des comtés, où l’économie politique et les réalités de la mise en œuvre changent rapidement

      De l’« attribution sous contrôle » à la « contribution dans l’incertitude »

      Reconnaître que les résultats sont de plus en plus coproduits par de multiples acteurs du système en interaction

      Une intégration plus forte de l’économie politique et de la prospective climatique dans la conception de l’évaluation

      Non pas comme des analyses distinctes, mais comme des éléments centraux de la manière dont nous interprétons les résultats

       

      En fin de compte, dans des contextes comme celui du Kenya, l’évaluation prospective n’est pas une simple mise à niveau méthodologique, c’est une nécessité pratique pour garantir la pertinence. Elle permet à l'évaluation de répondre à une question légèrement différente mais plus utile : non seulement « Cela a-t-il fonctionné ? », mais « Cela continuera-t-il à fonctionner, et dans quelles conditions ? »

      Je serais intéressé d'entendre d'autres personnes travaillant dans des systèmes décentralisés ou vulnérables au changement climatique : « Comment adaptez-vous les approches d'évaluation pour tenir compte de la variabilité infranationale et des contextes de mise en œuvre en rapide évolution ? »

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Posté le 26/04/2026

      Une réflexion que j’aimerais ajouter à cette discussion est que le cadre « rétrospective contre prospective » est utile, mais peut-être encore incomplet. D’après mon expérience, le problème plus profond ne réside pas seulement dans le fait que l’évaluation est rétrospective, mais aussi dans le fait qu’elle est souvent rigide sur le plan temporel au sein de systèmes qui sont intrinsèquement adaptatifs. Dans bon nombre des programmes sur lesquels j’ai travaillé, en particulier dans des contextes fragiles et affectés par le changement climatique, il arrive qu’une intervention soit très « efficace » à mi-parcours, mais fondamentalement en décalage avec la direction prise par le système. Au moment de l’évaluation finale, le système a évolué, et les conclusions, bien que techniquement valables, ont déjà perdu leur valeur décisionnelle. Cela correspond à ce que l’article décrit comme un décalage temporel entre l’évaluation et la réalité. Cela suggère que l'intégration de la prospective ne se résume pas à ajouter des outils tels que la planification de scénarios ou l'analyse prospective. Il s'agit de reconfigurer quand et comment le jugement évaluatif est formulé.

      Voici quelques changements pratiques que j'ai trouvés utiles :

      • Intégrer la réflexion évaluative dans des cycles adaptatifs plutôt que dans des moments d'évaluation distincts
      • (par exemple, relier les systèmes de suivi, d'évaluation et d'apprentissage (MEL) à des points de décision en temps réel, et non pas seulement à des étapes de reporting)
      • Tester les théories du changement à l'aune de multiples futurs plausibles, et non pas simplement les valider par rapport à des données passées
      • (cela permet d'éviter de renforcer des hypothèses linéaires dans des systèmes non linéaires)
      • Recadrer les critères clés
        • Pertinence → pas seulement l'alignement sur les besoins actuels, mais l'adéquation dans des conditions futures plausibles
        • Durabilité → pas la pérennité des résultats, mais la résilience face au stress et au changement
      • Combiner l'analyse prédictive et la prospective
      • D'après mon expérience, cette combinaison est sous-utilisée : l'analyse quantitative des tendances aide à ancrer la plausibilité, tandis que la prospective élargit l'espace de ce que nous considérons comme possible.

      Je souhaite également faire écho à un point soulevé plus tôt dans la discussion : la contrainte n'est pas principalement méthodologique, mais institutionnelle et culturelle. Tant que l'évaluation est commanditée principalement à des fins de reddition de comptes, même les outils de prospective les plus sophistiqués risquent d'être absorbés par la logique de conformité. Le changement ne consiste donc peut-être pas tant à passer de la rétrospective à la prospective, mais plutôt à passer de : l'évaluation en tant que jugement → l'évaluation en tant que navigation dans l'incertitude.

      On pourrait également se poser la question suivante : comment repenser les commandes d'évaluation et les incitations afin que les connaissances éclairées par l'avenir ne soient pas seulement produites, mais réellement utilisées dans les cycles décisionnels ?

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Posté le 08/12/2025

      In connecting evidence across the Humanitarian–Development–Peace (HDP) Nexus, aligning evidence agendas across humanitarian, development, and peace pillars requires intentional systems that move beyond sectoral silos toward holistic, context-responsive learning. In my experience at the intersection of PCVE, gender, and governance in county settings, valuable data exists across all three pillars—yet fragmentation prevents it from shaping a unified understanding of risk, resilience, and long-term community wellbeing.

      One way to strengthen coherence is through shared learning frameworks built around harmonized indicators, aligned theories of change, and interoperable data systems. Humanitarian actors collecting early warning signals, development teams gathering socio-economic data, and peacebuilding practitioners tracking governance and cohesion trends can feed insights into a common evidence ecosystem. Joint sense-making platforms across UN agencies, county governments, and civil society further ensure interpretation and adaptation occur collectively.

      Supporting local CSOs to build capacity in Core Humanitarian Standards (CHS) of Quality Assurance is critical. When local actors understand and apply CHS, their data becomes more reliable and compatible with UN and donor systems. Co-creating evaluation tools, monitoring frameworks, and learning agendas with these CSOs strengthens ownership and ensures evidence reflects local realities.

      In African contexts, incorporating “Made in Africa Evaluation” (MAE) approaches, published and championed by our very own, Africa Evaluation Association (AfEA), can further decolonize practice by integrating local values, culture (such as Ubuntu), and conditions. By combining MAE principles with CHS, UN and donor systems can leverage contextually relevant methodologies, strengthen local capacity, and promote governance and accountability in a culturally grounded manner.

      Finally, stronger Donor–CSO networking structures—learning hubs, joint review forums, and communities of practice—deepen understanding of scope, stabilize transitions of project ownership, and support long-term collaboration. Connecting evidence, capacities, and local approaches ensures HDP programs are coherent, context-sensitive, and impactful for the communities they serve.

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Posté le 08/12/2025

      The impact evaluation community can play a critical role in advancing the UN’s reform agenda, particularly the goals of coherence, cost-effectiveness, and system-wide alignment. In my work across multi-partner consortia and county-level government structures, I have seen how fragmentation in evaluation approaches often leads to duplication, inconsistent standards, and heavy reporting burdens for local actors. Supporting UN reform begins with harmonizing evaluation frameworks across agencies so that they draw from shared theories of change, common indicators, and compatible data systems. This reduces transaction costs for implementing partners and allows evidence to be aggregated more systematically across the humanitarian–development–peace (HDP) nexus.

      The evaluation community can also contribute by promoting joint or multi-agency evaluations, particularly for cross-cutting thematic areas like PCVE, gender equality, and resilience. Joint evaluations not only save resources but also produce findings that are more holistic and better suited to inter-agency coordination. Additionally, evaluation teams can support reform by emphasizing adaptive, utilization-focused methodologies that produce real-time insights and decision-relevant evidence, rather than lengthy reports that come too late to influence programming.

      Cost-effectiveness can be further enhanced by investing in local evaluators, research institutions, and government systems rather than relying exclusively on external consultants. This not only builds long-term capacity but also reduces the financial and operational footprint of evaluations. The evaluation community can strengthen UN reform by championing a culture of shared accountability, collaborative learning, and strategic alignment—ensuring that evidence not only measures results but also enables the UN system to function more cohesively and effectively.

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Posté le 08/12/2025

      On localising evidence; designing and using impact evaluations to advance the localization agenda requires the UN and its partners to shift power toward local actors, both in defining evaluation priorities and in generating the evidence itself. From my experience supporting MEL across county governments, local CSOs, and community structures, localization succeeds when evaluations are not externally imposed but co-created with those closest to the problem. This begins with jointly defining evaluation questions that reflect community priorities and county development realities, rather than donor-driven assumptions. It also involves investing in the capacities of county departments, local researchers, and grassroots organizations to participate meaningfully in evaluation design, data collection, analysis, and interpretation.

      A particularly important opportunity is the intentional integration of citizen-generated data (CGD), that I have mentioned in a previous post, and locally collected datasets into evaluation frameworks. Many local CSOs like mine, community networks, and think tanks already generate rich and credible data on governance, resilience, gender dynamics, and PCVE indicators. When validated and aligned with national standards, these data sources can complement official statistics, strengthen SDG reporting, and ensure that evaluation findings reflect lived realities. This approach not only accelerates evidence availability but also embodies the principle of “nothing about us without us.”

      Localizing evidence also means ensuring that findings are communicated back to communities in accessible formats and used in county-level decision forums such as CIDP reviews, sector working groups, and community dialogues. Furthermore, evaluations should include iterative sense-making sessions with local actors so they can directly shape programme adaptation. Ultimately, localization is not just about generating evidence locally—it is about shifting ownership, elevating local expertise, and ensuring that impact evaluations meaningfully inform policies and programmes at the levels where change is most felt.

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Posté le 08/12/2025

      On brigding evidence with action; strengthening the link between impact evaluation findings and real-time decision-making requires the UN and its partners to embrace learning-oriented systems rather than compliance-driven evaluation cultures. From my experience leading MEL across multi-county PCVE and governance programmes, evidence becomes actionable only when it is intentionally embedded into programme management—through continuous feedback loops, co-created interpretation sessions, and adaptive planning processes. Structured learning forums where evaluators, implementers, government stakeholders, and community representatives jointly analyse emerging findings are particularly effective for translating insights into operational shifts.

      In the PCVE space, real-time evidence use is especially critical due to the fast-evolving nature of threats and community dynamics. A recent example is my organisation’s Submission to the UN Special Rapporteur under the UNOCT call for inputs on definitions of terrorism and violent extremism, where we highlighted how grounding global guidance in locally generated evidence improves both relevance and uptake. This experience reaffirmed that when evaluation findings are aligned with practitioner insights and local contextual knowledge, global frameworks become more actionable on the ground.

      Additionally, the UN can strengthen evidence uptake by integrating citizen-generated data (CGD) into SDG indicator ecosystems—particularly where local CSOs and think tanks already generate credible, validated datasets. Leveraging CGD not only accelerates access to real-time insights but also strengthens community ownership and localization.

      Ultimately, bridging evidence and action requires mixed-method evaluations, rapid dissemination tools, psychological safety for honest learning, and a UN culture where evidence is viewed as a shared resource for collective decision-making, not merely an accountability requirement.