Publicado el 09/10/2023
Estimado Jean, estimados colegas,
Gracias por aclarar que la discusión no se limita a programas, sino que también incluye proyectos o cualquier intervención humanitaria o de desarrollo. Está siendo muy instructiva y enriquecedora. ¡Y estoy aprendiendo mucho!
Cuando sostengo que, en el contexto de una evaluación, “cuando algo es demasiado complicado o complejo, la simplicidad es la mejor estrategia”, quiero decir que no es necesario utilizar varias metodologías y fuentes de datos para tener en cuenta la complejidad. Los datos cuantitativos y cualitativos se pueden centrar en los objetivos y las preguntas de la evaluación. Por ejemplo, utilizar enfoques de evaluación que tienen en cuenta la complejidad —como la recolección de resultados, el seguimiento de procesos, el análisis de contribuciones, el análisis de redes sociales, etc.— no implica necesariamente que haya que emplear varios métodos de recopilación de datos cuantitativos y cualitativos. Por ejemplo, en la recolección de resultados, se puede recurrir a la revisión de documentos y las entrevistas a informadores clave para elaborar descriptores de resultados. Y, posteriormente, durante la fundamentación, realizar una encuesta y entrevistar a informadores clave. He utilizado análisis de redes sociales y entrevistas a informadores clave para evaluar el cambio en las relaciones entre agentes de un sistema de mercado. Asimismo, he realizado análisis de redes sociales y entrevistas en profundidad en un estudio de impacto social de un programa de desarrollo de la iniciativa empresarial para jóvenes rurales. En esencia, basta con utilizar tres métodos de recopilación de datos (el concepto del taburete de tres patas o del triángulo) para alcanzar los objetivos de evaluación con información concreta y precisa. Mucho se ha escrito sobre cómo superar la complejidad con simplicidad en diferentes esferas de la vida, la gestión, el liderazgo, etc.
En relación con la pregunta sobre quién decide la metodología, un plan de seguimiento, evaluación y aprendizaje es muy claro en lo que respecta a las mediciones y los métodos de evaluación, al menos según mi experiencia. Este tipo de planes son elaborados por el equipo del programa. Se pide a los evaluadores que propongan una metodología de evaluación en las propuestas técnicas con un doble propósito: valorar su competencia técnica e identificar la que mejor se ajusta al plan de evaluación. Por lo general, el evaluador y el equipo del programa se ponen de acuerdo sobre la metodología más adecuada durante la fase inicial de la evaluación. Esto forma parte del informe inicial que normalmente suscribe el equipo del programa.
Mi punto de vista sobre estas cuestiones.
Gordon
Kenya
Gordon Wanzare
MEL/Project Management Specialist
Publicado el 25/04/2026
¡Un debate que invita a la reflexión!
Quizás estemos exagerando la falta de visión de futuro en la evaluación. La cuestión no son las herramientas, sino el momento, la profundidad y la intención.
En primer lugar, el Análisis Causal por Capas (CLA). La mayoría de las evaluaciones se quedan en el nivel de la litanía y los sistemas, y rara vez cuestionan las cosmovisiones subyacentes y la historia profunda. Sin embargo, la visión de futuro reside precisamente ahí. Si no cuestionamos los supuestos fundamentales —como la planificación lineal en sistemas volátiles—, la evaluación, por muy sofisticada que sea, simplemente los refuerza.
En segundo lugar, los registros de riesgos y el CLA (Colaboración, Aprendizaje, Adaptación). Estos son omnipresentes y a menudo se ejecutan bien, pero en gran medida dentro de los límites del cumplimiento normativo: gestionan los riesgos conocidos y permiten una adaptación incremental. Rara vez cuestionan si el plan en sí mismo sigue siendo válido. El valor transformador surge solo cuando los ciclos de aprendizaje van más allá del ajuste para replantear supuestos y objetivos.
En tercer lugar, el pensamiento estratégico. Las preguntas estratégicas fundamentales: ¿de dónde venimos? ¿dónde estamos ahora? ¿hacia dónde vamos? ¿cómo llegamos allí? ¿cómo sabemos que hemos llegado? — ya incorporan la previsión, pero la evaluación sigue anclada en el pasado (¿de dónde venimos?), el presente (¿dónde estamos ahora? — línea de base) y los puntos finales (¿cómo sabemos que hemos llegado allí?), mientras que la previsión crítica (¿hacia dónde vamos?) y el puente (¿cómo llegamos allí?) siguen teniendo un carácter consultivo. Armados con datos y conocimientos de calidad para la toma de decisiones, los evaluadores deberían influir de manera decisiva en la toma de decisiones informadas por el futuro.
En cuarto lugar, loscriterios de evaluación del CAD de la OCDE son intrínsecamente prospectivos, pero se aplican a posteriori —en particular los criterios de pertinencia, impacto y sostenibilidad—. Si se integran rigurosamente en la fase de diseño —mediante pruebas de estrés de escenarios—, desplazan la evaluación de la auditoría a la gobernanza anticipatoria, ¡del control de calidad a la garantía de calidad!
El problema no es la ausencia de prospectiva, sino su limitación. Hasta que la evaluación cuestione sistemáticamente las hipótesis de forma temprana y en tiempo real, seguiremos practicando la prospectiva en la forma, pero la retrospectiva en la función.
Gordon