Pasar al contenido principal
Dennis Ngumi Wangombe

Kenya

Dennis Ngumi Wangombe Member since 08/07/2025

CHRIPS

MEL Specialist
  • Over 8 years of experience in Monitoring, Evaluation, Research, and Learning (MERL) across East Africa
  • Expertise in:
    • Quantitative, qualitative, and mixed-methods research
    • Quasi-experimental and participatory evaluation designs
    • Outcome harvesting and adaptive learning approaches
    • Gender-responsive monitoring and policy analysis
  • Thematic areas:
    • Food security and rural development
    • Climate change adaptation and climate justice
    • Gender equality and women’s economic empowerment
    • Preventing and countering violent extremism (PCVE)
  • Experience leading MERL frameworks for multi-country, multi-partner programs
  • Conducted evaluations for major donors and development partners (World Bank, EU, DFID, GCERF)
  • Recent focus areas include:
    • Evaluation of climate-smart agriculture and sustainable livelihoods interventions
    • Mapping local vulnerabilities to environmental and climate-related shocks
    • Strengthening MEL systems in contexts with low technology access and literacy
  • Proficient in data collection and analysis tools, including NVivo, KoboToolbox, SPSS, Stata, Python and OCR-based digitization methods

My contributions

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Publicado el 26/04/2026

      Partiendo de mi reflexión anterior, creo que los argumentos a favor de una evaluación orientada al futuro resultan aún más convincentes cuando los analizamos desde la perspectiva de África Oriental. En toda la región, los programas no solo operan en «contextos complejos», sino que lo hacen en sistemas en constante transformación estructural. La variabilidad climática, la movilidad (incluida la dinámica de los refugiados), la presión demográfica y la gobernanza descentralizada no son riesgos externos, sino características fundamentales del propio sistema. En tales contextos, la limitación de la evaluación retrospectiva no es solo que mire hacia atrás, sino también que a menudo asume un nivel de estabilidad del sistema que simplemente no existe.

      Por ejemplo:

      En zonas áridas y semiáridas, los ciclos repetidos de sequía pueden remodelar por completo los sistemas de medios de vida durante la vigencia de un programa

      En regiones que acogen a refugiados, los cambios de política y los flujos de financiación pueden alterar rápidamente las estructuras de prestación de servicios

      En los sistemas de gobernanza descentralizada, las prioridades y la capacidad de implementación pueden variar significativamente entre condados y a lo largo del tiempo

      Lo que esto significa en la práctica es que el desempeño de los programas se vuelve muy sensible a los cambios del sistema, lo que resta significado a los puntos de referencia de evaluación estáticos. Llevando esto al contexto de Kenia, he observado un patrón recurrente: los programas suelen diseñarse con teorías del cambio relativamente fijas, pero se implementan en ecosistemas a nivel de condado altamente dinámicos, tanto política como institucional y socialmente. Para cuando la evaluación analiza la «eficacia» o la «sostenibilidad», es posible que los supuestos subyacentes (en los que se basan esos criterios) ya no sean válidos. Esto crea un riesgo sutil pero importante: acabamos evaluando el rendimiento de un programa en una versión pasada del sistema, en lugar de su posicionamiento para el sistema que está surgiendo.

      Para responder a esto, creo que la evaluación basada en el futuro en Kenia (y contextos similares) debe avanzar hacia algunos cambios deliberados:

      De líneas de base estáticas a puntos de referencia dinámicos

      Las líneas de base no deben tratarse como anclas fijas, sino revisarse a medida que los sistemas evolucionan

      De la valoración final a la interpretación continua

      Especialmente a nivel de condado, donde la economía política y las realidades de la implementación cambian rápidamente

      De la «atribución bajo control» a la «contribución bajo incertidumbre»

      Reconociendo que los resultados son cada vez más coproducidos por múltiples actores del sistema que interactúan

      Una mayor integración de la economía política y la previsión climática en el diseño de la evaluación

      No como análisis separados, sino como parte fundamental de cómo interpretamos los resultados

      En última instancia, en contextos como el de Kenia, la evaluación orientada al futuro no es una mejora metodológica, sino una necesidad práctica para la relevancia. Permite que la evaluación responda a una pregunta ligeramente diferente pero más útil: no solo «¿Funcionó esto?», sino «¿Seguirá funcionando, y en qué condiciones?».

      Me interesaría conocer la opinión de otras personas que trabajen en sistemas descentralizados o vulnerables al clima: «¿Cómo están adaptando los enfoques de evaluación para tener en cuenta la variabilidad subnacional y los contextos de implementación que cambian rápidamente?».

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Publicado el 26/04/2026

      Una reflexión que añadiría a este debate es que el enfoque de «retrospectiva frente a prospectiva» resulta útil, pero quizá siga siendo incompleto. Según la experiencia práctica, el problema más profundo no es solo que la evaluación sea retrospectiva, sino que a menudo es temporalmente rígida en sistemas que son intrínsecamente adaptativos. En muchos de los programas en los que he trabajado, especialmente en contextos frágiles y afectados por el clima, puede darse una intervención que sea muy «eficaz» en la evaluación intermedia, pero que esté fundamentalmente desalineada con la dirección en la que se mueve el sistema. Para cuando se lleva a cabo la evaluación final, el sistema ha cambiado y los resultados, aunque técnicamente válidos, ya han perdido su valor para la toma de decisiones. Esto concuerda con lo que el artículo describe como un desajuste temporal entre la evaluación y la realidad. Lo que esto sugiere es que integrar la prospectiva no consiste solo en añadir herramientas como la planificación de escenarios o el análisis de horizontes. Se trata de reconfigurar cuándo y cómo se produce el juicio evaluativo.

      Algunos cambios prácticos que me han resultado útiles:

      • Incorporar el pensamiento evaluativo en ciclos adaptativos en lugar de momentos de evaluación discretos
      • (p. ej., vincular los sistemas de MEL con puntos de decisión en tiempo real, no solo informar de hitos)
      • Contrastar las teorías del cambio con múltiples futuros plausibles, no solo validarlas con pruebas del pasado
      • (esto ayuda a evitar reforzar supuestos lineales en sistemas no lineales)
      • Reformular los criterios clave
        • Relevancia → no solo alineación con las necesidades actuales, sino idoneidad en condiciones futuras plausibles
        • Sostenibilidad → no durabilidad de los resultados, sino resiliencia ante el estrés y el cambio
      • Combinar el análisis predictivo con la prospectiva
      • Según mi experiencia, esta combinación está infrautilizada; el análisis cuantitativo de tendencias ayuda a afianzar la plausibilidad, mientras que la prospectiva amplía el espacio de lo que consideramos posible.

      También quiero hacerme eco de un punto planteado anteriormente en el debate: la limitación no es principalmente metodológica, sino institucional y cultural. Mientras la evaluación se encargue principalmente con fines de rendición de cuentas, incluso las herramientas de prospectiva más sofisticadas corren el riesgo de quedar absorbidas por la lógica del cumplimiento. Así que tal vez el cambio no consista tanto en pasar de la retrospectiva a la prospectiva, sino más bien en pasar de: la evaluación como juicio → la evaluación como navegación en la incertidumbre.

      Quizás también podamos plantearnos esto: ¿cómo rediseñamos los encargos de evaluación y los incentivos para que los conocimientos basados en el futuro no solo se generen, sino que se utilicen realmente en los ciclos de toma de decisiones?

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Publicado el 08/12/2025

      In connecting evidence across the Humanitarian–Development–Peace (HDP) Nexus, aligning evidence agendas across humanitarian, development, and peace pillars requires intentional systems that move beyond sectoral silos toward holistic, context-responsive learning. In my experience at the intersection of PCVE, gender, and governance in county settings, valuable data exists across all three pillars—yet fragmentation prevents it from shaping a unified understanding of risk, resilience, and long-term community wellbeing.

      One way to strengthen coherence is through shared learning frameworks built around harmonized indicators, aligned theories of change, and interoperable data systems. Humanitarian actors collecting early warning signals, development teams gathering socio-economic data, and peacebuilding practitioners tracking governance and cohesion trends can feed insights into a common evidence ecosystem. Joint sense-making platforms across UN agencies, county governments, and civil society further ensure interpretation and adaptation occur collectively.

      Supporting local CSOs to build capacity in Core Humanitarian Standards (CHS) of Quality Assurance is critical. When local actors understand and apply CHS, their data becomes more reliable and compatible with UN and donor systems. Co-creating evaluation tools, monitoring frameworks, and learning agendas with these CSOs strengthens ownership and ensures evidence reflects local realities.

      In African contexts, incorporating “Made in Africa Evaluation” (MAE) approaches, published and championed by our very own, Africa Evaluation Association (AfEA), can further decolonize practice by integrating local values, culture (such as Ubuntu), and conditions. By combining MAE principles with CHS, UN and donor systems can leverage contextually relevant methodologies, strengthen local capacity, and promote governance and accountability in a culturally grounded manner.

      Finally, stronger Donor–CSO networking structures—learning hubs, joint review forums, and communities of practice—deepen understanding of scope, stabilize transitions of project ownership, and support long-term collaboration. Connecting evidence, capacities, and local approaches ensures HDP programs are coherent, context-sensitive, and impactful for the communities they serve.

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Publicado el 08/12/2025

      The impact evaluation community can play a critical role in advancing the UN’s reform agenda, particularly the goals of coherence, cost-effectiveness, and system-wide alignment. In my work across multi-partner consortia and county-level government structures, I have seen how fragmentation in evaluation approaches often leads to duplication, inconsistent standards, and heavy reporting burdens for local actors. Supporting UN reform begins with harmonizing evaluation frameworks across agencies so that they draw from shared theories of change, common indicators, and compatible data systems. This reduces transaction costs for implementing partners and allows evidence to be aggregated more systematically across the humanitarian–development–peace (HDP) nexus.

      The evaluation community can also contribute by promoting joint or multi-agency evaluations, particularly for cross-cutting thematic areas like PCVE, gender equality, and resilience. Joint evaluations not only save resources but also produce findings that are more holistic and better suited to inter-agency coordination. Additionally, evaluation teams can support reform by emphasizing adaptive, utilization-focused methodologies that produce real-time insights and decision-relevant evidence, rather than lengthy reports that come too late to influence programming.

      Cost-effectiveness can be further enhanced by investing in local evaluators, research institutions, and government systems rather than relying exclusively on external consultants. This not only builds long-term capacity but also reduces the financial and operational footprint of evaluations. The evaluation community can strengthen UN reform by championing a culture of shared accountability, collaborative learning, and strategic alignment—ensuring that evidence not only measures results but also enables the UN system to function more cohesively and effectively.

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Publicado el 08/12/2025

      On localising evidence; designing and using impact evaluations to advance the localization agenda requires the UN and its partners to shift power toward local actors, both in defining evaluation priorities and in generating the evidence itself. From my experience supporting MEL across county governments, local CSOs, and community structures, localization succeeds when evaluations are not externally imposed but co-created with those closest to the problem. This begins with jointly defining evaluation questions that reflect community priorities and county development realities, rather than donor-driven assumptions. It also involves investing in the capacities of county departments, local researchers, and grassroots organizations to participate meaningfully in evaluation design, data collection, analysis, and interpretation.

      A particularly important opportunity is the intentional integration of citizen-generated data (CGD), that I have mentioned in a previous post, and locally collected datasets into evaluation frameworks. Many local CSOs like mine, community networks, and think tanks already generate rich and credible data on governance, resilience, gender dynamics, and PCVE indicators. When validated and aligned with national standards, these data sources can complement official statistics, strengthen SDG reporting, and ensure that evaluation findings reflect lived realities. This approach not only accelerates evidence availability but also embodies the principle of “nothing about us without us.”

      Localizing evidence also means ensuring that findings are communicated back to communities in accessible formats and used in county-level decision forums such as CIDP reviews, sector working groups, and community dialogues. Furthermore, evaluations should include iterative sense-making sessions with local actors so they can directly shape programme adaptation. Ultimately, localization is not just about generating evidence locally—it is about shifting ownership, elevating local expertise, and ensuring that impact evaluations meaningfully inform policies and programmes at the levels where change is most felt.

    • Dennis Ngumi Wangombe

      Kenya

      Dennis Ngumi Wangombe

      MEL Specialist

      CHRIPS

      Publicado el 08/12/2025

      On brigding evidence with action; strengthening the link between impact evaluation findings and real-time decision-making requires the UN and its partners to embrace learning-oriented systems rather than compliance-driven evaluation cultures. From my experience leading MEL across multi-county PCVE and governance programmes, evidence becomes actionable only when it is intentionally embedded into programme management—through continuous feedback loops, co-created interpretation sessions, and adaptive planning processes. Structured learning forums where evaluators, implementers, government stakeholders, and community representatives jointly analyse emerging findings are particularly effective for translating insights into operational shifts.

      In the PCVE space, real-time evidence use is especially critical due to the fast-evolving nature of threats and community dynamics. A recent example is my organisation’s Submission to the UN Special Rapporteur under the UNOCT call for inputs on definitions of terrorism and violent extremism, where we highlighted how grounding global guidance in locally generated evidence improves both relevance and uptake. This experience reaffirmed that when evaluation findings are aligned with practitioner insights and local contextual knowledge, global frameworks become more actionable on the ground.

      Additionally, the UN can strengthen evidence uptake by integrating citizen-generated data (CGD) into SDG indicator ecosystems—particularly where local CSOs and think tanks already generate credible, validated datasets. Leveraging CGD not only accelerates access to real-time insights but also strengthens community ownership and localization.

      Ultimately, bridging evidence and action requires mixed-method evaluations, rapid dissemination tools, psychological safety for honest learning, and a UN culture where evidence is viewed as a shared resource for collective decision-making, not merely an accountability requirement.