- Over 8 years of experience in Monitoring, Evaluation, Research, and Learning (MERL) across East Africa
- Expertise in:
- Quantitative, qualitative, and mixed-methods research
- Quasi-experimental and participatory evaluation designs
- Outcome harvesting and adaptive learning approaches
- Gender-responsive monitoring and policy analysis
- Thematic areas:
- Food security and rural development
- Climate change adaptation and climate justice
- Gender equality and women’s economic empowerment
- Preventing and countering violent extremism (PCVE)
- Experience leading MERL frameworks for multi-country, multi-partner programs
- Conducted evaluations for major donors and development partners (World Bank, EU, DFID, GCERF)
- Recent focus areas include:
- Evaluation of climate-smart agriculture and sustainable livelihoods interventions
- Mapping local vulnerabilities to environmental and climate-related shocks
- Strengthening MEL systems in contexts with low technology access and literacy
- Proficient in data collection and analysis tools, including NVivo, KoboToolbox, SPSS, Stata, Python and OCR-based digitization methods
Publicado el 08/12/2025
In connecting evidence across the Humanitarian–Development–Peace (HDP) Nexus, aligning evidence agendas across humanitarian, development, and peace pillars requires intentional systems that move beyond sectoral silos toward holistic, context-responsive learning. In my experience at the intersection of PCVE, gender, and governance in county settings, valuable data exists across all three pillars—yet fragmentation prevents it from shaping a unified understanding of risk, resilience, and long-term community wellbeing.
One way to strengthen coherence is through shared learning frameworks built around harmonized indicators, aligned theories of change, and interoperable data systems. Humanitarian actors collecting early warning signals, development teams gathering socio-economic data, and peacebuilding practitioners tracking governance and cohesion trends can feed insights into a common evidence ecosystem. Joint sense-making platforms across UN agencies, county governments, and civil society further ensure interpretation and adaptation occur collectively.
Supporting local CSOs to build capacity in Core Humanitarian Standards (CHS) of Quality Assurance is critical. When local actors understand and apply CHS, their data becomes more reliable and compatible with UN and donor systems. Co-creating evaluation tools, monitoring frameworks, and learning agendas with these CSOs strengthens ownership and ensures evidence reflects local realities.
In African contexts, incorporating “Made in Africa Evaluation” (MAE) approaches, published and championed by our very own, Africa Evaluation Association (AfEA), can further decolonize practice by integrating local values, culture (such as Ubuntu), and conditions. By combining MAE principles with CHS, UN and donor systems can leverage contextually relevant methodologies, strengthen local capacity, and promote governance and accountability in a culturally grounded manner.
Finally, stronger Donor–CSO networking structures—learning hubs, joint review forums, and communities of practice—deepen understanding of scope, stabilize transitions of project ownership, and support long-term collaboration. Connecting evidence, capacities, and local approaches ensures HDP programs are coherent, context-sensitive, and impactful for the communities they serve.
Kenya
Dennis Ngumi Wangombe
MEL Specialist
CHRIPS
Publicado el 26/04/2026
Partiendo de mi reflexión anterior, creo que los argumentos a favor de una evaluación orientada al futuro resultan aún más convincentes cuando los analizamos desde la perspectiva de África Oriental. En toda la región, los programas no solo operan en «contextos complejos», sino que lo hacen en sistemas en constante transformación estructural. La variabilidad climática, la movilidad (incluida la dinámica de los refugiados), la presión demográfica y la gobernanza descentralizada no son riesgos externos, sino características fundamentales del propio sistema. En tales contextos, la limitación de la evaluación retrospectiva no es solo que mire hacia atrás, sino también que a menudo asume un nivel de estabilidad del sistema que simplemente no existe.
Por ejemplo:
En zonas áridas y semiáridas, los ciclos repetidos de sequía pueden remodelar por completo los sistemas de medios de vida durante la vigencia de un programa
En regiones que acogen a refugiados, los cambios de política y los flujos de financiación pueden alterar rápidamente las estructuras de prestación de servicios
En los sistemas de gobernanza descentralizada, las prioridades y la capacidad de implementación pueden variar significativamente entre condados y a lo largo del tiempo
Lo que esto significa en la práctica es que el desempeño de los programas se vuelve muy sensible a los cambios del sistema, lo que resta significado a los puntos de referencia de evaluación estáticos. Llevando esto al contexto de Kenia, he observado un patrón recurrente: los programas suelen diseñarse con teorías del cambio relativamente fijas, pero se implementan en ecosistemas a nivel de condado altamente dinámicos, tanto política como institucional y socialmente. Para cuando la evaluación analiza la «eficacia» o la «sostenibilidad», es posible que los supuestos subyacentes (en los que se basan esos criterios) ya no sean válidos. Esto crea un riesgo sutil pero importante: acabamos evaluando el rendimiento de un programa en una versión pasada del sistema, en lugar de su posicionamiento para el sistema que está surgiendo.
Para responder a esto, creo que la evaluación basada en el futuro en Kenia (y contextos similares) debe avanzar hacia algunos cambios deliberados:
De líneas de base estáticas a puntos de referencia dinámicos
Las líneas de base no deben tratarse como anclas fijas, sino revisarse a medida que los sistemas evolucionan
De la valoración final a la interpretación continua
Especialmente a nivel de condado, donde la economía política y las realidades de la implementación cambian rápidamente
De la «atribución bajo control» a la «contribución bajo incertidumbre»
Reconociendo que los resultados son cada vez más coproducidos por múltiples actores del sistema que interactúan
Una mayor integración de la economía política y la previsión climática en el diseño de la evaluación
No como análisis separados, sino como parte fundamental de cómo interpretamos los resultados
En última instancia, en contextos como el de Kenia, la evaluación orientada al futuro no es una mejora metodológica, sino una necesidad práctica para la relevancia. Permite que la evaluación responda a una pregunta ligeramente diferente pero más útil: no solo «¿Funcionó esto?», sino «¿Seguirá funcionando, y en qué condiciones?».
Me interesaría conocer la opinión de otras personas que trabajen en sistemas descentralizados o vulnerables al clima: «¿Cómo están adaptando los enfoques de evaluación para tener en cuenta la variabilidad subnacional y los contextos de implementación que cambian rápidamente?».
Kenya
Dennis Ngumi Wangombe
MEL Specialist
CHRIPS
Publicado el 26/04/2026
Una reflexión que añadiría a este debate es que el enfoque de «retrospectiva frente a prospectiva» resulta útil, pero quizá siga siendo incompleto. Según la experiencia práctica, el problema más profundo no es solo que la evaluación sea retrospectiva, sino que a menudo es temporalmente rígida en sistemas que son intrínsecamente adaptativos. En muchos de los programas en los que he trabajado, especialmente en contextos frágiles y afectados por el clima, puede darse una intervención que sea muy «eficaz» en la evaluación intermedia, pero que esté fundamentalmente desalineada con la dirección en la que se mueve el sistema. Para cuando se lleva a cabo la evaluación final, el sistema ha cambiado y los resultados, aunque técnicamente válidos, ya han perdido su valor para la toma de decisiones. Esto concuerda con lo que el artículo describe como un desajuste temporal entre la evaluación y la realidad. Lo que esto sugiere es que integrar la prospectiva no consiste solo en añadir herramientas como la planificación de escenarios o el análisis de horizontes. Se trata de reconfigurar cuándo y cómo se produce el juicio evaluativo.
Algunos cambios prácticos que me han resultado útiles:
También quiero hacerme eco de un punto planteado anteriormente en el debate: la limitación no es principalmente metodológica, sino institucional y cultural. Mientras la evaluación se encargue principalmente con fines de rendición de cuentas, incluso las herramientas de prospectiva más sofisticadas corren el riesgo de quedar absorbidas por la lógica del cumplimiento. Así que tal vez el cambio no consista tanto en pasar de la retrospectiva a la prospectiva, sino más bien en pasar de: la evaluación como juicio → la evaluación como navegación en la incertidumbre.
Quizás también podamos plantearnos esto: ¿cómo rediseñamos los encargos de evaluación y los incentivos para que los conocimientos basados en el futuro no solo se generen, sino que se utilicen realmente en los ciclos de toma de decisiones?