Pasar al contenido principal
32 contributions

Cómo garantizar el uso eficaz de las observaciones y recomendaciones de los informes de evaluación en la toma de decisiones

Publicado el 31/07/2025 by Monica Azzahra
Monica

Antecedentes y justificación: En el contexto cambiante del desarrollo, la capacidad de adaptarse y responder a las necesidades de las comunidades mediante la toma de decisiones basada en datos es más crucial que nunca. Las observaciones y recomendaciones generadas a partir de los procesos de seguimiento y evaluación (SyE) tienen como fin fundamentar decisiones estratégicas, mejorar la programación y fomentar la rendición de cuentas. Sin embargo, a pesar de su potencial, esta información no se suele aprovechar lo suficiente o se obvia en el proceso de toma de decisiones.

Las organizaciones de desarrollo se enfrentan a diversos desafíos para integrar esta información de manera eficaz. Entre ellos, la resistencia al cambio, la falta de recursos para realizar análisis y una cultura que puede no priorizar la apertura o el aprendizaje continuo. Además, los responsables que no fomentan el uso de esta información suelen contribuir a un ciclo en virtud del cual se recopilan observaciones y recomendaciones pero no se actúa en consecuencia posteriormente.

Cuando los sistemas para formular y recopilar estas observaciones están mal integrados, se produce una desconexión entre las comunidades y los programas diseñados para proporcionarlas apoyo. Esto puede dar lugar a intervenciones ineficaces o desalineadas, mermando el impacto y la confianza de las partes interesadas. Afrontar estos desafíos es esencial para incrementar la relevancia, capacidad de respuesta y eficacia de los esfuerzos de desarrollo.

Finalidad de la discusión: Esta discusión tiene como objetivo generar información útil sobre cómo pueden garantizar mejor las organizaciones de desarrollo un uso eficaz de la información recopilada en las evaluaciones en sus procesos de toma de decisiones. Reunirá a profesionales, evaluadores, investigadores y responsables de organizaciones para reflexionar sobre los obstáculos actuales e identificar estrategias prácticas para fomentar el aprendizaje y la rendición de cuentas.

Enunciado del problema: Aunque las organizaciones de desarrollo reconocen la importancia de las observaciones y recomendaciones de las partes interesadas, sus procesos de toma de decisiones. La cultura de las organizaciones, las limitaciones de recursos, la falta de implicación de los responsables y la resistencia al cambio contribuyen a esta situación. Sin mecanismos sistemáticos para recopilar, analizar y aplicar esta información, se pierden oportunidades de aprendizaje y mejora, que a su vez merman el impacto, desconectan a las partes interesadas y afectan a la rendición de cuentas.

Objetivos de la discusión

  • Identificar las causas fundamentales de los obstáculos que impiden utilizar las observaciones y recomendaciones en la toma de decisiones sobre el desarrollo.
  • Explorar y evaluar estrategias para superar estos obstáculos, como el diseño de sistemas y procesos habilitadores.
  • Examinar el papel fundamental de los responsables en el fomento de una cultura institucional que valore las observaciones y recomendaciones y promueva su uso para el aprendizaje y el crecimiento estratégico.

Preguntas de orientación

  1. ¿Cuáles son los obstáculos más habituales para utilizar las observaciones y recomendaciones en las organizaciones de desarrollo?
  2. ¿Cómo pueden influir la cultura y los responsables de la organizaciones en la capacidad de respuesta a esta información?
  3. ¿Qué medidas prácticas pueden adoptar las organizaciones para integrar el uso de las observaciones y recomendaciones en sus ciclos de toma de decisiones?
  4. ¿Qué herramientas, incentivos y sistemas han demostrado ser eficaces para impulsar la acción derivada de esta información?
  5. ¿Cómo se puede mantener y reforzar la confianza e implicación de las partes interesadas mediante el uso de las observaciones y recomendaciones?

La discusión está abierta para contribuciones hasta el  05 de septiembre de 2025

This discussion is now closed. Please contact info@evalforearth.org for any further information.

Chamisa Innocent

Zimbabwe

Chamisa Innocent

EvalforEarth CoP Facilitator/Coordinator

EvalforEarth CoP

Publicado el 08/09/2025

Thank you all for sharing such rich and diverse insights during the discussion on “How to Ensure Effective Utilization of Feedback and Recommendations from Evaluation Reports in Decision-Making.”

A special mention goes to Monica, who initiated this discussion. We now officially close it.

Please note: A comprehensive summary of the discussion will be made available shortly in English, Spanish, and French. Check back soon for updates.

Interested in contributing or initiating a discussion? Propose your topic here: https://www.evalforearth.org/propose-your-topic. Our team will support you throughout the process.

On behalf of EvalforEarth Team

Lal - Manavado

Norway

Lal - Manavado

Consultant

Independent analyst/synthesist

Publicado el 08/09/2025

How to Ensure the Use of Evaluation Results in Decision Making

A historical retrospect of the evolution of policies would convince one of their fragmented and less than coherent emergence. A concerted attempt to ascertain their public utility by evaluation is fairly new. Thus, decision-making seems to have had a logical priority over evaluation.

 Before one proceeds, it is important to distinguish between decision-making and implementation. Owing to its general character and political considerations, the former is all too often guided by expediency or an obvious public need. This may be far from being ideal, but one would have to take political reality into consideration were one to make a worthwhile contribution to public well-being.

 This obvious distinction between decision-making and implementation introduces a temporal component to what kind of evaluation would be of significant utility to decision makers. This may be called pre- and post decision making evaluation feed-back respectively. When a decision is to be made, pre-decision evaluation feed-back could provide some useful guidance as to its appropriateness with reference to the following criteria:

   • Competence of decision makers and decision implementers; this ranges from the national and regional to the local field levels.

   • Cost of procurement, operation, and maintenance of the tools and other materials required for implementing a decision.

   • Its effects on the environment, national employment figures and the equitability of its results.

   • Its implications on local culture, public health etc.

 The perceptive reader would have noticed at once that the evaluation of those four criteria could only be undertaken with reference to a specific decision, hence, its logical priority over evaluation. 

Here, evaluation faces two major challenges:

   • Degree of political devolution in a country; for instance, in Canada, the provinces have a great deal of political autonomy, thus the regional policies ought to be dovetailed into their national counterparts. In Scandinavia, local authorities have a great deal of autonomy, hence, in those countries, decision design applicable to the area is carried out locally. In such cases, decision evaluation has to be very flexible because what food each area may successfullyproduce can vary significantly.

   • Differences in the type of data on which an evaluation could justifiably be based vary

considerably. While policies and their implementation strategies are concerned with overall national benefit, that at the local or field level one has to pay attention to what contribution a plan/project may make first to the well-being of an area and then to the country as a whole.

 When a previous decision to achieve comparable objectives has been implemented, the actual public utility of its results would provide the evaluator some very useful guidelines on what recommendations would be most useful to the designers and implementers of the next decision on the same subject. The utility of such recommendations depends on the willingness and ability of the political leaders and their decision makers to learn better ways of doing things.

Next, one encounters the problem of identifying the data on which an adequate evaluation may be based. Obviously, what ought to be monitored depends on the level at which an evaluation is carried out. For instance, an evaluation of a decision and its implementation strategy will require the pertinent information relative to the four criteria described earlier. It will be noted that at regional and local levels, the relevant data will also vary according to the political powers vested in them.

Finally at the plan/project level one needs clearly to distinguish between monitoring the ‘objective facts that may indicate its successful completion, and the actual benefits it offers the target group. A multi-million Dollar motor way hardly used by vehicular traffic had been quoted in this forum as an example of the former.

This sketch of multi-layered evaluation required at national, regional and local levels

provides one a glimpse of the way forward. It has two dimensions:

   • National decision-makers have neither the time or the inclination to peruse evaluations of plans/projects; what they need to know are the achievable goals of national importance, like a way to enhance food production. The decision and implementation strategies needed here are general in character. One might say that those provide a framework aimed at a general goal, while successful plans/projects can be seen as the pieces of a jigsaw puzzle, and if the general goal is attained, then those pieces would fit snugly into the picture of success.

   • The four criteria discussed earlier will guide those pieces of the jigsaw puzzle as to their place in the whole, their suitability with reference to a national goal. Therefore, the challenge one faces in incorporating evaluation as an adjunct to national planning is how to make the decision-makers understand its usefulness and persuade them to use it appropriately. Unfortunately, their unwillingness or inability to apprehend the necessity of completeness of the means of implementation in use, failure to grasp the need for inter- and inter decision harmony make the present task rather difficult.

 

Lal Manavado.

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Publicado el 03/09/2025

Estimados contribuyentes,

Expreso mi más sincero agradecimiento a todos quienes han compartido sus perspectivas, ideas y experiencias, así como a quienes amablemente proporcionaron enlaces y referencias que enriquecen aún más nuestra comprensión. ❤️❤️❤️ Valoro profundamente el esfuerzo colectivo para fortalecer la utilización efectiva de la retroalimentación en nuestro trabajo.

Principales conclusiones derivadas de las contribuciones:

Las aportaciones destacan que, si bien las evaluaciones generan hallazgos valiosos, su impacto depende de estrategias deliberadas para garantizar que la retroalimentación se integre de manera efectiva en la toma de decisiones. Los factores facilitadores clave incluyen fomentar la apropiación por parte de los actores, incorporar las recomendaciones en los sistemas organizacionales y alinear los procesos de evaluación con la cultura institucional y el liderazgo.

Los contribuyentes subrayaron la importancia de formatos de comunicación accesibles, la co-creación participativa de recomendaciones y mecanismos como los sistemas de respuesta de la gestión, las revisiones posteriores y el fortalecimiento de capacidades. También se señalaron como desafíos críticos las barreras estructurales y culturales, tales como el trabajo en silos, la resistencia a la retroalimentación y los contextos políticos.

En general, la discusión resalta la necesidad de enfoques institucionalizados, sensibles al contexto e inclusivos, que transformen las evaluaciones de herramientas de rendición de cuentas en motores de aprendizaje, adaptación e impacto sostenible.

Cerraremos esta discusión al final de esta semana, y hasta entonces serán bienvenidas las contribuciones adicionales. ♥♥♥

Atentamente,

Monica

Ibtissem Jouini

Italy

Ibtissem Jouini

Senior Evaluation Manager

CGIAR

Publicado el 02/09/2025

Estimada Monica,

La práctica demuestra que incluso las evaluaciones más rigurosas y de alta calidad no garantizan que sus hallazgos y recomendaciones sean utilizados, lo que subraya la necesidad de esfuerzos deliberados para integrar el uso de las evaluaciones en los procesos de toma de decisiones. Si bien la investigación sobre los factores que influyen en el uso de las evaluaciones sigue evolucionando, han surgido varias buenas prácticas para mejorar su adopción. Estas incluyen la elaboración de formatos más accesibles, como informes breves, resúmenes y videos, así como sesiones informativas individuales para involucrar a las partes interesadas de manera eficaz y significativa. Los enfoques participativos, como talleres para refinar o co-crear recomendaciones, también han ganado atención como estrategias para fomentar la apropiación y la relevancia.

Me gustaría contribuir a la discusión compartiendo algunos recursos en los que la función de evaluación de IAES del CGIAR ha estado trabajando para mejorar el uso de la evidencia y las evaluaciones en el CGIAR y más allá:

Mapeo de prácticas de gestión de la evaluación en organizaciones internacionales de investigación y desarrollo
Enlace: https://iaes.cgiar.org/sites/default/files/pdf/Mapping%20management%20practices_final%2029%20August_0.pdf
Este estudio explora cómo las prácticas de gestión de la evaluación influyen en el uso de los hallazgos y recomendaciones en la toma de decisiones, políticas y acciones. Mapea prácticas de entidades de evaluación independientes y destaca percepciones sobre el uso de las evaluaciones en organizaciones multilaterales. Más allá del CGIAR, el estudio busca generar un diálogo más amplio dentro de la comunidad de evaluación sobre cómo los arreglos de gestión pueden aumentar la pertinencia y la influencia de las evaluaciones. Basado en una revisión de la literatura y el mapeo de prácticas de gestión, ofrece conclusiones y recomendaciones organizadas en torno a las fases clave de una evaluación.

Sistemas de respuesta de la dirección a las evaluaciones: revisión comparativa
Enlace: https://cgspace.cgiar.org/server/api/core/bitstreams/46ead1fc-5f24-45a6-a908-478cced8a811/content
Este estudio comparativo analiza las estructuras, procesos y metodologías de revisión de los sistemas de respuesta de la dirección existentes, explorando buenas prácticas en implementación, mecanismos de supervisión y sistemas de seguimiento para apoyar la adopción de las evaluaciones.

Revisión del sistema de respuesta de la dirección del CGIAR a las evaluaciones independientes
Enlace: https://iaes.cgiar.org/sites/default/files/pdf/Review%20of%20CGIAR%20Management%20Response%20System%20to%20Independent%20Evaluations%20_1.pdf
La función de evaluación de IAES del CGIAR llevó a cabo esta revisión del sistema de respuesta de la dirección del CGIAR. Alineada con los objetivos de rendición de cuentas y aprendizaje, la revisión evaluó la eficacia y eficiencia del sistema de respuesta del CGIAR.

Atentamente,

Ibtissem Jouini

Esosa Tiven Orhue

Nigeria

Esosa Tiven Orhue

Founder/CEO

E-Warehouse Consulting

Publicado el 30/08/2025

Estimados miembros,

De manera empática, la utilización efectiva de la retroalimentación y de las recomendaciones de los informes de evaluación está determinada por el nivel de interés y de compromiso de las partes interesadas involucradas.

Es el informe el que determina la contribución al impacto y a los resultados de la implementación (es decir, si está basado en evidencias y es aplicable), y estos deben pasar por los siguientes sistemas o mecanismos:

  1. Sistema de preservación de la información
  2. Sistema de implementación continua
  3. Sistema de financiamiento continuo

Estos sistemas ayudan a sostener la institucionalización nacional o internacional de los sistemas de evaluación, que gestionan los datos de programas, proyectos y políticas, en beneficio de los responsables de decisiones nacionales e internacionales.

No obstante, si se aprovechan, se convierten en un sistema integrado para el crecimiento y el desarrollo económicos; los datos serán plenamente utilizados y la implementación de políticas se volverá más eficaz y eficiente en la sociedad.

Los puntos cardinales son el interés, el compromiso y la participación de las partes interesadas. La retroalimentación fortalece la recomendación cuando siempre hay decisiones eficaces y accionables tomadas para las personas; esto conducirá al crecimiento y desarrollo económico y, en consecuencia, reforzará el sistema de evaluación a nivel nacional y mundial.

La evaluación es, en gran medida, un trabajo de investigación continua. Debe asemejarse a un trabajo de investigación debido a los instrumentos utilizados y desplegados para la investigación, que son la retroalimentación (o hallazgos) y las recomendaciones.

El llamado a una retroalimentación y recomendaciones eficaces también incluye:

  • Un sistema de innovación tecnológica en el lugar de trabajo, que reforzará el sistema de evaluación para que la retroalimentación y las recomendaciones se conviertan en una fuente de solidez para la gestión de la información.
  • Un apoyo y una protección continuos de la fuerza laboral para garantizar una gestión de la información eficaz y eficiente.
  • Una fuerte sinergia entre las partes interesadas (investigadores, financiadores, gobiernos, ONG, etc.), con un acuerdo estricto sobre los insumos, impactos y resultados. Esto reforzará y garantizará la continuidad de las investigaciones y la implementación de los informes de evaluación.

Evaluar un programa, proyecto o política es asegurar el progreso, el impacto y los resultados esperados en la sociedad. Esto solo puede lograrse mediante decisiones y acciones consistentes, tomadas a partir de los informes de retroalimentación y recomendaciones.

Por lo tanto, la consistencia debe ser enfatizada y considerada primordial en el sistema de informes de evaluación.

Esosa Orhue.

Ines Freier

Germany

Ines Freier

Senior consultant for NRM and biodiversity, Green economy

consultant

Publicado el 29/08/2025

La cultura organizacional y las decisiones de gestión estratégica influyen en la adopción de las recomendaciones.

Normalmente recomiendo entre 4 y 8 acciones que el cliente puede implementar en un plazo determinado, y pregunto al personal qué tipo de recomendaciones quieren escuchar / dar ellos mismos / o dar a otros proyectos con la misma temática.

Algunas organizaciones internacionales o equipos de proyecto ven los informes de evaluación más como una herramienta de rendición de cuentas que como una herramienta de aprendizaje; por lo tanto, dar recomendaciones orientadas al aprendizaje sería una pérdida de tiempo. En cambio, se pueden formular recomendaciones para la recopilación de datos y la mejora del sistema de monitoreo.

Asimismo, las recomendaciones que se encuentran fuera de la teoría del cambio / de la comprensión del objeto de la evaluación por parte del cliente / o de los usuarios de las evaluaciones, no pueden darse aunque sean útiles. Un ejemplo es cuando un gerente de proyecto de una organización internacional actúa como un responsable de ONG a pesar de tener un pasaporte de la ONU: en ese caso, es difícil comunicar a los clientes cuál es o debería ser el papel de las Naciones Unidas en un ámbito de acción más allá de la implementación de un proyecto en un solo país. De igual manera, algunas ONG medioambientales reinventan la rueda al promover pequeñas empresas verdes, sin poder aprovechar el cuerpo de conocimiento de las organizaciones especializadas en la promoción de PYMEs, porque esto queda fuera de su red social.

 

Rasec Niembro

Mexico

Rasec Niembro

Evaluation Analyst

GEF IEO

Publicado el 28/08/2025

Según mi experiencia como analista de evaluación en la Oficina Independiente de Evaluación del FMAM, trabajando con el LDCF y el SCCF, he visto que el verdadero desafío no es producir recomendaciones, sino asegurar que se utilicen. En nuestra evaluación del apoyo del FMAM a los Sistemas de Información Climática y de Alerta Temprana (CIEWS), enfatizamos que la sostenibilidad requiere más que productos técnicos. Depende de la incorporación de estrategias financieras e institucionales que continúen después del cierre de los proyectos.

Para que las recomendaciones sean útiles, deben alcanzar el equilibrio adecuado. Si son demasiado prescriptivas, corren el riesgo de volverse irrelevantes. Si son demasiado vagas, son ignoradas. Los incentivos también importan. Ya sea a través de mecanismos de rendición de cuentas o de su integración en los ciclos de decisión, las organizaciones deben crear condiciones que hagan que la retroalimentación sea aplicable.

Aunque los campeones pueden acelerar la adopción, depender de individuos es arriesgado en instituciones con alta rotación de personal. En su lugar, los enfoques sistémicos, como exigir estrategias de sostenibilidad en todos los proyectos o institucionalizar mecanismos de seguimiento, proporcionan continuidad y resiliencia.

En última instancia, la retroalimentación gana influencia cuando está institucionalizada, incentivada y formulada de manera que los responsables de decisiones puedan adaptarla a sus realidades.

PATRICK DUMAZERT

Guatemala

PATRICK DUMAZERT

Lead

ANUBIS

Publicado el 28/08/2025

REFLEXIÓN SOBRE LA AUTOEVALUACIÓN Y LA COMUNICACIÓN ADMINISTRATIVA

Patrick Dumazert, agosto de 2025

En el documento «El impacto de las nuevas tecnologías en los métodos de comunicación interna en la empresa» una frase llama mi atención: «Los métodos tradicionales como la red jerárquica garantizaban la transmisión de las directrices de la dirección hacia los niveles inferiores…», y quisiera aprovechar para poner sobre la mesa un tema clave para la gestión pública por resultados.

De entrada, señalemos que este planteamiento centrado en las empresas puede fácilmente extenderse a la problemática de la gestión pública. No comparto la idea de que ocurra lo mismo en todos los casos, ni mucho menos, pero sí, en este caso los principios generales de la comunicación administrativa son válidos para ambos mundos, el público y el privado.

Dicho esto, esta forma dominante de comunicación administrativa, vertical y descendente, que prevalece en la administración pública, especialmente en países de cultura política autoritaria, debe complementarse con una forma ascendente para que la evaluación pueda desempeñar el papel que se espera de ella, que no es solamente un rol de control ex post sino también un rol de aprendizaje, retroalimentación y generación de mejores prácticas.

No basta con generar evidencias en el nivel donde ocurren los hechos. Ya es de por sí un reto seleccionar los hechos y transformarlos en datos organizados, y más aún “hacerlos hablar”, es decir, convertirlos en información que responda a criterios de juicio (e indicadores) y finalmente a preguntas evaluativas, organizadas según los criterios de evaluación (los clásicos criterios del CAD, entre otros). Pero eso no basta.

Luego es necesario comunicar esta información, analizada y argumentada, hacia arriba, hacia los distintos niveles de gestión y de toma de decisiones. Y dado que no puede haber el mismo número de puestos arriba que abajo (de lo contrario no sería una pirámide; nunca se ha visto un ejército con tantos generales como soldados), ello significa que la comunicación administrativa ascendente debe organizarse de manera adecuada a las expectativas de cada nivel de gestión, según las particularidades de la cultura institucional propia de cada entidad o incluso de cada Estado.

Existen culturas muy centralistas, donde los dirigentes de más alto nivel quieren saber cada lunes lo que ocurrió en cada municipio la semana anterior, mientras que otros modelos de gobierno son mucho más descentralizados.

Más allá de este aspecto, sin duda esencial, de las culturas institucionales particulares de cada contexto, hay también un aspecto crucial que se refiere a la naturaleza de los objetos de evaluación, que como sabemos, se organizan (o pueden organizarse) en el esquema conceptual ampliamente aceptado por la comunidad de evaluadores, el de la teoría del cambio. Con las variantes que se quiera, esta teoría postula que las acciones producen productos, que generan efectos, los cuales a su vez producen impactos.

Recordemos, aunque no sea el tema central aquí: los productos son verbos sustantivados (la acción de cortar manzanas produce manzanas cortadas), mientras que los efectos implican cambios en las prácticas de los actores (los consumidores pueden preferir comprar las manzanas ya cortadas – o no, lo cual permite juzgar la pertinencia de la acción). En cuanto a los impactos, para los cuales utilizo el término consagrado de «contribución», se trata de cambios transformacionales. En mi ejemplo trivial, se podría imaginar que con el tiempo los niños lleguen a creer que las manzanas ya vienen en trozos en los árboles.

Este recordatorio permite comprender que los objetos de evaluación, en particular los indicadores de resultados en los tres niveles de la cadena lógica, se modifican en el tiempo según una temporalidad propia de cada uno, y por lo tanto el dispositivo de evaluación debe tener también una dimensión adecuada a dicha temporalidad. Durante mucho tiempo, precisamente, las evaluaciones externas de resultados se realizaban al final de los proyectos, no solo para rendir cuentas al cierre de las operaciones, sino también para «dejar tiempo» a que los impactos se materialicen.

El problema es que esas evaluaciones externas y ex post, que buscaban sobre todo los impactos mediante medios cuantitativos y cuasi-experimentales, dejaban de ser útiles para la gestión, ya que las operaciones estaban concluidas cuando los informes llegaban. Su destino era entonces (y probablemente aún lo es con frecuencia) convertirse en documentos almacenados, sustituyendo los depósitos virtuales a las estanterías sin cambiar su función. Quienes aspiramos a hacer ciencia –y me incluyo– quisiéramos incluso realizar evaluaciones post-proyecto, algunos años después, pero nadie financia esto, al menos en el ámbito del desarrollo.

De allí mi propuesta (formulada hace ya más de veinte años), que consiste en lo siguiente: evaluar durante la implementación la generación de efectos, reconciliando así la dimensión temporal y la dimensión lógica, concentrándose en el eslabón esencial en el centro de la teoría del cambio, el de los efectos, cuidando al mismo tiempo de interrogar la realidad transformada por la acción, más allá del simple seguimiento de los «outputs».

Con base en estos análisis realizados en distintos momentos de la implementación, la evaluación puede alimentar mecanismos de comunicación administrativa ascendente, mediante análisis generativos, es decir, informados por los análisis realizados en el momento evaluativo anterior. No basta con decir en un momento dado que un indicador alcanza un determinado valor, sino también cómo se sitúa este valor respecto al momento evaluativo anterior, acompañado de la interpretación que corresponda, sin olvidar las comparaciones habituales con los valores iniciales y los esperados al final.

Posdata. La propuesta incluía también un añadido: uno de los mecanismos de comunicación ascendente en cuestión podría ser, en el límite, el de la «sala situacional», una idea inspirada en la gestión sanitaria y de crisis en general, pero resulta evidente que con las tecnologías virtuales e incluso la realidad aumentada, esta se vuelve caduca, en la medida en que resulta lo mismo «estar en el lugar» que permanecer en casa frente a una pantalla.

Angela M. Contreras

Guatemala

Angela M. Contreras

Founder, Director, and Principal Consultant.

Verapax Solutions Inc.

Publicado el 27/08/2025

Lo primero que me viene a la mente es el tema complejo del liderazgo y la cultura organizacional.

Como bien concluye Monica, el liderazgo es fundamental. Sin embargo, en mi experiencia como consultor externo que apoya a pequeñas organizaciones de la sociedad civil, en muchos casos son los miembros del personal junior quienes aportan las perspectivas más innovadoras sobre los problemas y las soluciones. Coincido con la conclusión de que «los líderes sénior deben dar ejemplo de aprendizaje, recompensar el seguimiento y crear espacios sin culpabilización para la reflexión, de modo que los hallazgos –positivos y negativos– impulsen la mejora». Pero también considero necesario diseñar enfoques participativos, colaborativos y de empoderamiento para el seguimiento y la evaluación, en los que se reserve periódicamente un tiempo para que los miembros del equipo (junior y sénior) participen en revisiones retrospectivas y reflexivas, y en la discusión de estudios de caso y lecciones a repetir o evitar.

En mi pequeña práctica de evaluación, he encontrado una receptividad creciente por parte de las pequeñas organizaciones a seleccionar informes de evaluación anteriores y analizarlos a la luz de la declaración de valores y principios compartidos de la organización. Este ejercicio forma parte de nuestras actividades de desarrollo de capacidades. En determinadas reuniones de equipo de proyecto o a nivel organizacional, se destinan de 15 a 30 minutos a discutir el informe de evaluación asignado y a co-generar una lista de lecciones para integrarlas formalmente en los sistemas de gestión y evaluación, o de fracasos de los que aprender y seguir trabajando; todo este proceso de interpretación se realiza buscando la coherencia con los valores y principios compartidos de la organización.

Si alguien más está aplicando un enfoque basado en principios para desarrollar una cultura organizacional que valore el aprendizaje y el intercambio de retroalimentación orientado a la acción, sus aportes serían igualmente valiosos.

Eddah Kanini (Board member: AfrEA, AGDEN & MEPAK

Kenya

Eddah Kanini (Board member: AfrEA, AGDEN & MEPAK

Monitoring, Evaluation and Gender Consultant/Trainer

Publicado el 26/08/2025

Gracias por iniciar este tema importante sobre el uso insuficiente de la retroalimentación en la toma de decisiones para el desarrollo.

Según mi experiencia, algunos de los obstáculos incluyen una cultura organizacional de resistencia, en la que la retroalimentación se percibe como una crítica en lugar de una herramienta de aprendizaje. El trabajo en silos también constituye una barrera, cuando la retroalimentación permanece dentro de una entidad o de un proyecto, en lugar de incorporarse en las decisiones institucionales más amplias.

El liderazgo y la cultura desempeñan un papel fundamental en influir en la capacidad de respuesta a la retroalimentación. Un buen liderazgo marcará la pauta al valorar la evidencia, permitir el diálogo y la reflexión abiertos, y fomentar la gestión adaptativa.

Algunos pasos prácticos para incorporar el uso de la retroalimentación incluyen institucionalizar las revisiones posteriores a la acción y los foros de aprendizaje. Otras medidas consisten en integrar la retroalimentación en los ciclos de planificación y en fortalecer las capacidades del personal no solo en la recolección de datos, sino también en la interpretación y la aplicación.

Daniela Maciel Pinto

Brazil

Daniela Maciel Pinto

Manager

Embrapa

Publicado el 26/08/2025

Estimada Monica, estimados colegas,

Gracias por este tema. Este debate sobre el “feedback-to-action” es muy pertinente. En mis investigaciones doctorales, he estado explorando precisamente esta brecha entre las evaluaciones y el uso efectivo de sus resultados, especialmente en el contexto de la investigación agrícola. En un artículo reciente, mostramos que las barreras no son únicamente técnicas, sino también estructurales, culturales y relacionales  algo que coincide estrechamente con lo que se ha planteado aquí.

En el mismo estudio, discutimos cómo el uso de los resultados de las evaluaciones de impacto en investigación sigue siendo limitado y con frecuencia está más asociado a la rendición de cuentas que al aprendizaje o la gestión estratégica (Pinto & Bin, 2025). A partir de ello, desarrollamos AgroRadarEval (Pinto et al., 2024)  una herramienta interactiva que busca sistematizar este uso, alineando la evaluación con los principios de la Investigación e Innovación Responsables (RRI) y la Evaluación Responsable de la Investigación (RRA).

Para complementar la discusión: considero la noción de “cultura de impacto” como un puente importante. Desplaza la perspectiva de “la evaluación como cumplimiento” hacia “la evaluación como motor de transformación”, conectando la institucionalización de procesos con cambios reales en la planificación, la colaboración y la comunicación. Este concepto puede ampliar la perspectiva sobre el paso del feedback a la acción, articulando no solo procesos y sistemas, sino también valores y reflexividad organizacional.

Dea Tsartsidze

Georgia

Dea Tsartsidze

International Research, Monitoring, Evaluation and Learning Practitioner

SAI - Solution Alternatives International

Publicado el 25/08/2025

Estimada Monica, estimados colegas,

Gracias por iniciar una discusión tan valiosa, y aprecio la riqueza de los aportes compartidos por todos. Las perspectivas expresadas reflejan de manera clara muchos de los desafíos a los que nos enfrentamos en nuestro ámbito.

Coincido con la mayoría de los puntos planteados, en particular con el énfasis de Aurélie en alinear la generación de evidencias con las necesidades de los actores interesados y con el enfoque de Brilliant en la formalización de los procesos de retroalimentación. Sin embargo, quisiera añadir otra dimensión a esta conversación: la importancia crítica de establecer procesos organizacionales claros que sitúen la evaluación no como un ejercicio aislado, sino como un componente integrado e interconectado con la implementación de los programas y con los sistemas más amplios de seguimiento y evaluación.

En mi experiencia, una de las barreras fundamentales que no hemos abordado plenamente es la cuestión de la apropiación. Con demasiada frecuencia, parece que las evaluaciones son “propiedad” exclusiva de los evaluadores o del personal de seguimiento y evaluación, mientras que los equipos de proyecto permanecen en cierta medida desvinculados del proceso. Esta desconexión puede influir de manera significativa en cómo se reciben y, en última instancia, se implementan las recomendaciones.

Esto me lleva a mi primera pregunta: ¿cómo podemos involucrar mejor al personal de los proyectos en la finalización de las recomendaciones? He encontrado particularmente útil organizar sesiones conjuntas en las que los evaluadores, el personal de seguimiento y evaluación y los equipos de proyecto se reúnan no solo para debatir los hallazgos, sino también para dar forma de manera colaborativa a las recomendaciones finales. Cuando el personal de los proyectos participa activamente en la interpretación de los hallazgos y en la elaboración de recomendaciones que reflejan su comprensión de las realidades operativas, la apropiación aumenta de manera natural. ¿Otros han experimentado con este enfoque?

Más allá del desafío de la apropiación, pienso que existe otro problema fundamental que debemos enfrentar de forma más directa: la calidad de la evidencia que producimos como evaluadores. ¿Estamos esforzándonos de manera constante por generar datos sólidos y creíbles? Cuando presentamos evidencia a los responsables de la toma de decisiones, ¿tenemos la certeza de que realmente cumple con los estándares de calidad, o cabe la posibilidad de que, en ocasiones, aunque de forma no intencional, estemos añadiendo otra barrera a su utilización, sobre todo para aquellos decisores ya escépticos que pueden utilizar una calidad cuestionable como argumento para descartar por completo los hallazgos?

Esto me conduce a mi segunda pregunta, que tiene dos partes. Primero, ¿disponemos de instrumentos de aseguramiento de calidad y de procesos internos adecuados para realizar un seguimiento real y garantizar la calidad de las evaluaciones que llevamos a cabo? He encontrado útiles los marcos de calidad, aunque reconozco que aún existe un margen considerable de mejora para hacerlos más objetivos y sistemáticos.

Segundo, incluso cuando nuestra evidencia es sólida, ¿qué tan eficazmente estamos traduciendo y comunicando nuestros hallazgos a los responsables de la toma de decisiones? ¿Son realmente accesibles y relevantes nuestros informes y presentaciones en relación con la forma en que se toman las decisiones dentro de las organizaciones, o estamos produciendo resultados técnicamente correctos pero de difícil uso práctico?

Estas preguntas no buscan desviar la atención de las barreras sistémicas que hemos identificado, sino más bien fomentar una reflexión más profunda sobre nuestro propio papel en el desafío de la utilización.

Quedo a la espera de sus perspectivas sobre este tema.

Astrid Brousselle

Canada

Astrid Brousselle

Professor

School of Public Administration

Publicado el 25/08/2025

Gracias a todos por sus aportes y a Monica por la síntesis de las ideas. Como evaluadores, a menudo consideramos que es nuestra responsabilidad hacerlo mejor y asumimos la carga de mejorar nuestras prácticas. Sin embargo, si el contexto no es receptivo a la colaboración, incluso las mejores prácticas no tendrán ningún impacto.

Los contextos no son iguales. Algunos son favorables a los enfoques colaborativos y estarán dispuestos a utilizar los resultados de las evaluaciones. Otros contextos son políticos, incluso polarizados, y probablemente solo utilizarán las evaluaciones si resultan estratégicamente relevantes. Finalmente, hay contextos que simplemente no están interesados en los resultados de las evaluaciones. En estos últimos casos, por más esfuerzos que se hagan para implementar las mejores prácticas de transferencia de conocimientos, no ocurrirá nada. A estos contextos los denominamos «pantanos de conocimiento» en el artículo que publicamos sobre el uso de la evaluación hace algunos años: Contandriopoulos, D., & Brousselle, A. (2012). Evaluation models and evaluation use. Evaluation, 18(1), 61-77.

Comprender las características del contexto para anticipar sus implicaciones sobre el uso de la evaluación es, en mi opinión, probablemente lo más importante que se debe hacer. Esto también ayuda a aliviar la carga que recae sobre los evaluadores, a quienes a menudo se les atribuye la mayor parte de la responsabilidad por el uso (o la falta de uso) de sus resultados.

Kavitha Moorthy

India

Kavitha Moorthy

Founder cum Managing Trustee

Vallabhbhai Patel Farmers Welfare Trust

Publicado el 24/08/2025

Estoy de acuerdo con el Dr. Ravindran Chandran en que los actores interesados son fundamentales en el proceso de evaluación y en la presentación de informes para la toma de decisiones en materia de políticas. Señaló acertadamente que las generaciones de agricultores podrían ser designadas como evaluadores con el fin de acelerar la retroalimentación recibida de los actores interesados. Los informes de evaluación deberían circularse o actualizarse entre los agricultores interesados y los directores de las organizaciones de productores agrícolas, con el fin de conocer el estado de la retroalimentación proporcionada por los actores interesados.

Nuestra organización, el Vallabhbhai Patel Farmers Welfare Trust, trabaja para la educación de las generaciones de agricultores y para su empleo. Me complace participar en esta importante discusión, que es tanto esencial como necesaria para la utilización efectiva de los informes elaborados por los administradores, y espero que dichos informes sean efectivamente incorporados lo antes posible a nivel de políticas.

Ravindran Chandran

India

Ravindran Chandran

Associate Professor and Head

Tamil Nadu Agricultural University

Publicado el 24/08/2025

La retroalimentación de los actores interesados siempre se recoge en las reuniones mensuales de quejas organizadas por los colectores de distrito de Tamil Nadu en la India, y las medidas adoptadas y las recomendaciones se actualizan en la siguiente reunión según la prioridad. La utilización efectiva de la retroalimentación y de las recomendaciones provenientes de informes de evaluación realizados por científicos o mediante encuestas depende totalmente de los funcionarios administrativos y de los ministros del gobierno en turno, así como del sistema vigente en las regiones.

Los informes de evaluación deberían ser evaluados periódicamente hasta su adopción o hasta que beneficien a los actores interesados, lo cual requiere de recursos humanos o apoyo financiero esenciales. Los actores interesados o sus descendientes (hijos e hijas) de las organizaciones de productores agrícolas deberían ser incluidos como evaluadores en cada proceso de evaluación con el fin de suplir la falta de mano de obra, agilizar el proceso y garantizar la utilización efectiva de la retroalimentación y de las recomendaciones.

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Publicado el 24/08/2025

Estimados contribuyentes,

Expreso mi agradecimiento a todos ustedes por compartir sus valiosas experiencias y conocimientos, que han brindado un aprendizaje significativo.

A continuación se presentan las conclusiones preliminares derivadas de nuestra discusión. Si existen puntos adicionales que aún no se han recogido, espero que se puedan compartir más contribuciones antes de que nuestra discusión concluya a finales de este mes.

En diversos contextos y organizaciones, los contribuyentes identifican una brecha persistente entre la recopilación de retroalimentación y su aplicación práctica. Esta brecha se debe menos a aspectos técnicos que a debilidades estructurales, culturales y relacionales. Entre los obstáculos comunes se mencionan la baja calidad de los datos y la fragmentación de los sistemas de información, una cultura de evaluación que interpreta los hallazgos como cumplimiento o juicio más que como aprendizaje, evaluaciones realizadas al final de los proyectos sin vinculación con la toma de decisiones, formatos de informes inaccesibles o poco prácticos, incentivos y responsabilidades poco claros, gobernanza débil o ausencia de sistemas de respuesta de la gestión, difusión limitada y falta de aprendizaje cruzado, así como restricciones de recursos. Estos problemas socavan la confianza con las partes interesadas y reducen el valor percibido de la retroalimentación.

Para superar estos obstáculos, los profesionales recomiendan institucionalizar procesos claros y formales que conviertan la retroalimentación en acción, asignando responsabilidades, plazos, recursos y mecanismos de seguimiento desde el inicio. Entre las medidas prácticas se incluyen la sincronización de las evaluaciones con los ciclos de planificación y presupuestación, el uso de sistemas de respuesta de la gestión y de tableros de control para monitorear el estado de las recomendaciones, y la conversión de estas en planes breves y accionables con responsables designados. El liderazgo es fundamental. Los altos directivos deben dar el ejemplo en materia de aprendizaje, premiar la implementación y crear espacios sin culpa para la reflexión, de modo que los hallazgos, tanto positivos como negativos, impulsen la mejora. Es necesario fortalecer las capacidades de los gerentes y del personal para interpretar la evidencia y traducirla en acciones viables.

El uso efectivo de la retroalimentación también depende de la comunicación y de la inclusión. Esto implica adaptar los productos a diferentes públicos (resúmenes de una página, infografías, tablas de acción), involucrar desde el inicio a los responsables de decisiones y a las comunidades, organizar talleres de reflexión y construcción conjunta con las partes interesadas, y cerrar el ciclo informando de manera transparente sobre los cambios realizados. Las herramientas tecnológicas y participativas, como los tableros en tiempo real, las encuestas por SMS y las tarjetas de evaluación comunitarias, pueden acortar los ciclos de retroalimentación, mientras que repositorios centralizados y foros de aprendizaje cruzado difunden las lecciones entre equipos y países. Varias organizaciones, como CRS y el PMA, muestran que integrar la evaluación en la planificación de rutina, dar seguimiento a la implementación y alinear las recomendaciones con los recursos y la gobernanza fortalece su adopción y uso.

En conclusión, transformar la retroalimentación en práctica requiere combinar sistemas y herramientas formales con liderazgo, recursos adecuados, comunicación accesible, procesos participativos y una cultura de aprendizaje que vincule la evidencia con acciones concretas y monitoreadas.

Atentamente,

Monica

Victoria Onyelu Ola

Nigeria

Victoria Onyelu Ola

Research and Grant Intern

HTSF Global Nigeria Limited

Publicado el 23/08/2025

La brecha entre la recopilación y la utilización de la retroalimentación en las organizaciones de desarrollo no es solo técnica, también es estructural y relacional, como se señala en los siguientes puntos:

Institucionalizar los bucles de retroalimentación
Las organizaciones deberían adoptar protocolos claros para transformar la retroalimentación en acción, en los que cada recomendación de evaluación sea registrada formalmente, asignada a una unidad responsable, monitoreada y revisada periódicamente. Esto convierte la retroalimentación en algo aplicable y no opcional.

El liderazgo como motor del aprendizaje
Los altos directivos deben demostrar que la retroalimentación importa, haciendo referencia a los hallazgos de las evaluaciones en las decisiones estratégicas, premiando a los equipos que actúan en consecuencia y responsabilizando a los gerentes de la implementación. El ejemplo del liderazgo crea una cultura en la que la retroalimentación no es simbólica, sino práctica.

Asignar recursos a los sistemas de retroalimentación
Más allá de recopilar datos, las organizaciones deben presupuestar para el análisis, la difusión y los talleres de aprendizaje que reúnan a personal, partes interesadas y representantes comunitarios para co-interpretar los hallazgos. Esto fomenta la apropiación y refuerza la confianza.

Tecnología y enfoques participativos
Los tableros digitales, las encuestas por SMS y las tarjetas comunitarias de evaluación pueden generar bucles de retroalimentación en tiempo real, especialmente en contextos de bajos recursos. Los enfoques participativos dan voz a las comunidades en la definición de las intervenciones y aseguran la alineación con las realidades locales.

Construir confianza y rendición de cuentas
La comunicación transparente hacia las partes interesadas es esencial. Sin cerrar el ciclo de retroalimentación, las comunidades pueden desilusionarse y percibir las evaluaciones como extractivas en lugar de transformadoras.

Ravindran Chandran

India

Ravindran Chandran

Associate Professor and Head

Tamil Nadu Agricultural University

Publicado el 22/08/2025

La retroalimentación y las recomendaciones de investigadores, científicos, emprendedores y partes interesadas son muy importantes en cualquier programa, conferencia, taller o simposio, tras su finalización, para formular recomendaciones dirigidas a los responsables de políticas. En los últimos años, la recepción de retroalimentación ha sido insuficiente en los programas de formación, así como por parte de los participantes de conferencias, simposios, talleres o cursos de capacitación. En la mayoría de los casos, las recomendaciones formuladas por el presidente de sesión de una conferencia o simposio no se recopilan ni se entregan a los responsables de políticas, lo que conduce a un desperdicio de recursos. Aunque algunas instituciones académicas recogen retroalimentación y entregan informes al gobierno, estos no son considerados con la debida atención para su adopción, principalmente debido a problemas financieros.

Para garantizar una utilización efectiva de la retroalimentación y de las recomendaciones, el organizador del evento, la sociedad científica o el consejo correspondiente deberían establecer un programa de seguimiento o un comité que supervise el proceso hasta la inclusión de los informes de evaluación en el nivel de políticas o hasta su adopción en el campo.

Por ejemplo, el uso de plásticos con fines ornamentales, lo cual va en contra de los productores de flores, de la industria de la floricultura y de la naturaleza, ha sido planteado en eventos internacionales. Sin embargo, no se han formulado recomendaciones y aún no ha llegado al nivel de políticas. Por lo tanto, cualquier informe de evaluación derivado de retroalimentación y recomendaciones debería implementarse a nivel político lo antes posible.

Aurelie Larmoyer

Italy

Aurelie Larmoyer

Senior Evaluation officer

WFP

Publicado el 22/08/2025

Estimada Mónica, estimados colegas:

Muchas gracias por plantear esta discusión y todas las contribuciones. Muy interesante. 

Aumentar la influencia de las evidencias en la toma de decisiones es un desafío prolongado para quienes trabajamos en el ámbito del seguimiento o la evaluación, relacionado con una serie de factores en todos los niveles de nuestras organizaciones, incluso cuando la importancia de las evidencias se reconoce ampliamente.

En el Departamento de Evaluación del Programa Mundial de Alimentos (PMA) hemos aplicado estrategias específicas para alentar a nuestras partes interesadas a utilizar evidencias en la adopción de decisiones. Tras varios años de experiencia, puedo compartir algunas reflexiones sobre lo que consideramos eficaz.

Sin duda, estoy de acuerdo con gran parte de las observaciones formuladas en relación con los factores que impiden integrar las evidencias en la toma de decisiones. Entre otros, la calidad deficiente de los datos; la fragmentación de los sistemas de información; una cultura organizativa que sigue considerando el seguimiento o la evaluación como meros requisitos, en lugar de oportunidades de aprendizaje; o la importancia del personal directivo superior en la promoción.

En cuanto a las opciones para mejorar la integración de las evidencias en la adopción de decisiones, coincido con el punto de vista de Brilliant Nkomo: formalizar los procesos es un primer paso fundamental. Si numerosas organizaciones cuentan con marcos de seguimiento y evaluación claros y elaboran orientaciones y desarrollan capacidades relacionadas, también es importante institucionalizar en cierta forma la incorporación de conocimientos basados en evidencias en cualquier debate sobre políticas o programas, integrándolos formalmente en la planificación estratégica o en procesos periódicos de balance y examen de programas.

En relación con lo anterior, nuestra experiencia ha demostrado que los esfuerzos por sincronizar nuestra generación de evidencias con las necesidades de nuestras partes interesadas merecen la pena: como generadores de evidencias y conocimientos, hemos sido más proactivos colaborando con aquellos cuyas decisiones podemos apoyar, para escuchar las dificultades a las que se enfrentan y saber cuáles son sus carencias. En paralelo, hemos desarrollado la capacidad de responder a las necesidades según van surgiendo, reutilizando las evidencias existentes en nuevos productos. Apreciamos un cambio cultural lento: la evaluación se considera ahora una aliada que proporciona conocimientos. 

Por último, cuando pedimos a nuestras partes interesadas que valoraran las evidencias proporcionadas, hemos confirmado nuevamente que la comunicación personalizada también merece la pena: sabemos que existen distintas preferencias en lo que respecta al tipo de evidencias y en cuáles de ellas centrarse. Por lo tanto, cuanto más nos adaptemos a la variedad de necesidades de aquellos a quienes servimos, mejor acogida tendrán nuestros productos y mayor será la probabilidad de que sean utilizados.

Les deseo lo mejor a todos.

 

Brilliant Nkomo

Zimbabwe

Brilliant Nkomo

Senior Evaluation Advisor

Publicado el 22/08/2025

Principales barreras para el uso de la retroalimentación en las organizaciones de desarrollo:
La mayoría de las organizaciones se enfrentan a una falta de confianza en la calidad de sus datos, lo que socava su credibilidad y utilidad para la toma de decisiones. Otro problema importante es la fragmentación de los sistemas de información, que genera silos de datos e impide tener una visión integral del desempeño de un programa. En ocasiones, existe una barrera cultural generalizada en las organizaciones, incluidos los donantes, dado que la evaluación se percibe como un ejercicio de cumplimiento más que como una oportunidad genuina de aprendizaje y adaptación.

Cultura organizacional e influencia del liderazgo:
El liderazgo es, sin duda, el factor más crítico. Cuando los altos directivos defienden de manera visible el uso de la evidencia y demuestran un compromiso con el aprendizaje continuo, transmiten un mensaje claro a toda la organización. Este refuerzo desde la dirección contribuye a transformar la cultura organizacional de una actitud aversa al riesgo hacia una que valora la retroalimentación como herramienta de mejora iterativa. Los líderes también deben dotar a sus equipos de las competencias y recursos necesarios, como la formación en alfabetización de datos, para fomentar un entorno en el que la toma de decisiones basada en la evidencia sea la norma.

Pasos prácticos para integrar la retroalimentación en los ciclos de decisión:
Para institucionalizar la retroalimentación, las organizaciones deben primero formalizar el proceso. Esto implica establecer marcos de monitoreo y evaluación claros y bien documentados que sirvan como hoja de ruta estratégica desde la recolección de datos hasta la revisión estratégica. Asimismo, es esencial invertir en un fortalecimiento de capacidades sostenido, pasando de capacitaciones aisladas a un acompañamiento a largo plazo que desarrolle competencias prácticas profundas en análisis de datos y gestión adaptativa. Al integrar los bucles de retroalimentación en los procesos de planificación estratégica existentes, las organizaciones pueden garantizar que el aprendizaje se convierta en una actividad continua y central, en lugar de un elemento ocasional. La institucionalización del monitoreo del uso de datos o de resultados de evaluaciones podría ser otra capa crítica en el marco de M&E.

Herramientas, incentivos y sistemas eficaces para cerrar la brecha entre retroalimentación y acción:
Las herramientas y sistemas eficaces son aquellos que acortan el ciclo de retroalimentación y hacen que los datos sean disponibles, asequibles, accesibles y utilizables. Las herramientas de recolección de datos en tiempo real, por ejemplo, son invaluables para garantizar que la retroalimentación sea oportuna y pertinente para realizar ajustes inmediatos en los programas. De igual forma, las herramientas de visualización de datos transforman información compleja en perspectivas claras y procesables, comprensibles para audiencias no técnicas. El incentivo más poderoso es la evidencia de un vínculo directo entre la retroalimentación y mejoras tangibles. Cuando el personal y los actores involucrados observan que su aporte conduce directamente a programas más efectivos y con mayor impacto, su motivación intrínseca para participar en el proceso se fortalece significativamente.

Mantener y fortalecer la confianza y el compromiso de los actores a través del uso de la retroalimentación:
La confianza de los actores se construye mediante una comunicación transparente y bidireccional. No basta con recopilar datos de comunidades y socios; las organizaciones deben compartir lo aprendido y demostrar cómo los aportes de los actores han dado lugar a cambios tangibles en la programación. Este proceso valida sus perspectivas y refuerza su sentido de apropiación.

Ndiacé DANGOURA

Senegal

Ndiacé DANGOURA

MEAL & Knowledge Management - Regional Advisor

Catholic Releif Services (CRS) -West and Central Africa

Publicado el 21/08/2025

El desafío de traducir los hallazgos de las evaluaciones en cambios organizacionales concretos sigue siendo uno de los problemas más persistentes de nuestro sector. A partir de mi experiencia en la gestión de programas y en sistemas MEAL en África Occidental, considero que es fundamental replantear cómo conceptualizamos la evaluación dentro del ciclo de vida de los proyectos.

Una de las principales barreras para la utilización de la retroalimentación radica en la cultura predominante de la evaluación, que la trata como un requisito de cumplimiento en lugar de una herramienta estratégica de aprendizaje. Una vez que un informe de evaluación recibe la aprobación interna o del donante, las organizaciones suelen dar por concluido el proceso, perdiendo así oportunidades críticas de gestión adaptativa y mejora de la calidad de los programas. Esta «mentalidad de marcar casillas» genera una desconexión entre la inversión en evaluación y los resultados reales de aprendizaje organizacional.

Solución sistemática:

En Catholic Relief Services (CRS), hemos institucionalizado un enfoque sistemático que demuestra cómo la retroalimentación puede integrarse eficazmente en los ciclos de toma de decisiones:

Procesos clave:

  • Sesiones de reflexión con los actores involucrados: Tras cada evaluación, los equipos realizan sesiones de reflexión sobre los resultados de la evaluación con miembros de la comunidad, socios y otros actores, con el fin de generar recomendaciones pertinentes e impulsar el aprendizaje organizacional.
  • Planificación de mejoras accionables: Las lecciones aprendidas y las recomendaciones realistas se traducen en planes de mejora con responsables designados.
  • Seguimiento sistemático: El plan de mejora se monitorea y se da seguimiento de forma sistemática durante las evaluaciones posteriores (cuando corresponda).
  • Integración en el desempeño: Las reuniones periódicas de desempeño y reflexión incluyen puntos específicos en la agenda sobre el estado de implementación de las recomendaciones.

Este enfoque se ha implementado con éxito en varios contextos, con ejemplos prácticos en CRS Malí, Burkina Faso, Guinea-Bisáu, Benín y Togo, especialmente en el marco del programa McGovern-Dole Food for Education y de otras intervenciones.

Ndiacé DANGOURA – Asesor Regional MEAL & KM – CRS África Occidental

Lea Corsetti

United Kingdom

Lea Corsetti

MERL Consultant

Publicado el 20/08/2025

Como "YEE" con experiencia tanto en la implementación de programas como en la evaluación externa, he observado cómo el sistema actual puede, de manera involuntaria, crear una dinámica de “juego” entre las partes interesadas y los donantes, en la que la retroalimentación se convierte en un requisito procedimental en lugar de un catalizador de un cambio significativo.

Barreras comunes para el uso de la retroalimentación (Q1)
Más allá de la resistencia de los ejecutores, creo que aún no hemos resuelto plenamente el desafío de las recomendaciones que no consideran el contexto. Los evaluadores externos pueden tener una comprensión limitada de las dinámicas locales que el personal de los programas enfrenta diariamente. Además, la capacidad organizacional varía considerablemente: algunas estructuras están preparadas para integrar cambios, mientras que otras tienen dificultades incluso con pequeñas modificaciones debido a dinámicas complejas, tanto internas como externas.

Influencia de la cultura y el liderazgo (Q2)
Cada vez considero más a los evaluadores como facilitadores del cambio en lugar de meros profesionales técnicos. Las organizaciones todavía suelen aferrarse al pensamiento de «siempre lo hemos hecho así». Una amiga de la familia, empresaria, me comentó recientemente que duda en contratar a recién graduados porque «cuando se incorporan, inmediatamente quieren cambiarlo todo, sin darse cuenta de que incluso un pequeño cambio requiere meses y reuniones interminables con el personal». No creo que esta experiencia sea exclusiva. He conversado con organizaciones que sienten lo mismo respecto a las recomendaciones de evaluación: cumplen con el ejercicio porque es un requisito del donante, pero modificar aspectos de proyectos en curso resulta abrumador. También me pregunto si basta con que el liderazgo cree espacios para acompañar el cambio y reflexionar sobre qué y cómo implementar las recomendaciones, o si sería necesario un enfoque más creativo, más allá del liderazgo, que permita una implementación más efectiva en todos los niveles.

Pasos prácticos para integrar la retroalimentación (Q3)
Mi experiencia más efectiva en un programa fue con un excelente gerente y jefe de operaciones en el país, que integraba el aprendizaje en nuestros ciclos semanales. No se trataba solo de revisar la progresión del proyecto: había bucles de retroalimentación constantes para mejorar y encontrar soluciones creativas frente a la compleja gestión de partes interesadas en un proyecto de largo plazo. Más allá de tomar en serio las recomendaciones, me pregunto si, como profesionales de la evaluación, también necesitamos mejores formatos de presentación. En una oficina de evaluación donde trabajé, las recomendaciones se presentaban en tablas para que los responsables de la toma de decisiones pudieran hacer seguimiento a la implementación. No siempre ocurre así cuando trabajo como evaluador independiente: podemos realizar un taller de análisis, integrar comentarios, pero una vez entregado el informe, deja de estar en nuestras manos. Tal vez deberíamos explorar formas más eficaces de comunicación más allá de los informes. Una evaluadora de políticas de Corea, a quien conocí en una conferencia, descubrió que los resúmenes de máximo una página para los responsables de la toma de decisiones eran los más eficaces: cualquier documento más largo no resultaba útil.

Herramientas y sistemas eficaces (Q4)
El establecimiento de sistemas de retroalimentación accesibles, que abarquen todo el ciclo del programa y a todos los actores, resulta lo más efectivo. Generar retroalimentación adaptada al contexto ya es un paso importante, al igual que implementar una gestión adaptativa con responsables de monitoreo que cuenten con conocimientos en evaluación (enfoque de aprendizaje en tiempo real).

Mantenimiento de la confianza de los actores (Q5)
La verdadera co-creación es difícil pero posible. Como muchos colegas podrán confirmar, todos hemos presenciado intervenciones que se autodenominaban participativas sin una implicación real y significativa de las partes interesadas. Recuerdo un proyecto de investigación en el que comprendí muy rápidamente que los beneficiarios me decían lo que pensaban que quería escuchar, debido a mi condición de externa y al temor de perder financiamiento si se percibía que las cosas no funcionaban. Generar confianza requiere superar estas dinámicas y, al mismo tiempo, fomentar culturas de respuesta a las necesidades de las partes interesadas en diferentes escalas de proyectos, ya que las necesidades de una intervención comunitaria local difieren de las de un programa multinacional.

Ismaël Naquielwiendé KIENDREBEOGO

Burkina Faso

Ismaël Naquielwiendé KIENDREBEOGO

Ouagadougou

UNALFA

Publicado el 13/08/2025

En la evaluación, la integración efectiva de la retroalimentación y las recomendaciones derivadas de una evaluación en la toma de decisiones se basa en tres ejes esenciales: eliminar las barreras, estructurar los mecanismos de utilización y arraigar una cultura de aprendizaje.

Para superar los obstáculos comunes al uso de la retroalimentación de las evaluaciones, es fundamental garantizar que las recomendaciones sean claras, pertinentes y directamente aplicables, formuladas de manera específica, medible y orientada a la acción. La apropiación por parte de los responsables de la toma de decisiones debe reforzarse implicándolos desde las primeras etapas de diseño e implementación de la evaluación. Por último, para evitar que la toma de decisiones se vea frenada por demoras o informes demasiado extensos, es preferible elaborar formatos sintéticos y fáciles de consultar que favorezcan un uso rápido y eficaz de los resultados.

Para fomentar el uso efectivo de los resultados de las evaluaciones, es crucial establecer sistemas estructurados. Esto implica elaborar un plan de acción posterior a la evaluación que defina claramente las responsabilidades, los plazos y las modalidades de seguimiento. Las conclusiones deben integrarse en las revisiones estratégicas y en los ciclos de planificación presupuestaria a fin de orientar de forma concreta las decisiones y la asignación de recursos. El uso de canales interactivos, como talleres de restitución o plataformas colaborativas, también permite debatir, contextualizar y ajustar las recomendaciones para garantizar su pertinencia y aplicación.

El liderazgo y la cultura organizacional desempeñan un papel central en el uso de la retroalimentación de las evaluaciones. Los dirigentes deben predicar con el ejemplo integrando explícitamente las conclusiones de las evaluaciones en sus decisiones, demostrando así la importancia que se concede a estos datos. También se trata de promover una cultura de aprendizaje en la que los errores no se estigmaticen, sino que se consideren oportunidades de mejora continua. Por último, el uso de la retroalimentación debe vincularse estrechamente con la rendición de cuentas, integrando indicadores de seguimiento pertinentes en los informes de desempeño para medir de forma concreta los avances logrados.

En resumen, la eficacia del uso de la retroalimentación no depende únicamente de la calidad de las evaluaciones, sino sobre todo de cómo se apropien, integren y sigan en los mecanismos de toma de decisiones y en la propia cultura de la organización.

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Publicado el 12/08/2025

¡Gracias a todas y todos por las valiosas ideas compartidas!

Agradecería mucho cualquier herramienta, material o referencia sobre estrategias para superar las barreras, en particular aquellas relacionadas con el liderazgo, los mecanismos integrados de retroalimentación y el fomento de una cultura de confianza que pueda implementarse eficazmente dentro de una organización, especialmente cuando esté respaldada por evidencia proveniente de informes de evaluación.

¿Alguien podría compartir un enlace o documento relacionado con este tema?

Emile Nounagnon HOUNGBO

Benin

Emile Nounagnon HOUNGBO

Agricultural Economist, Associate Professor, Director of the School of Agribusiness and Agricultural Policy

National University of Agriculture

Publicado el 11/08/2025

1.La principal barrera para el uso de la retroalimentación en las organizaciones de desarrollo es la negligencia; es decir, la ausencia de una programación sistemática de las recomendaciones validadas derivadas de las actividades de seguimiento y evaluación de proyectos y programas. Los resultados del seguimiento y la evaluación deberían, por defecto, constituir otro conjunto de actividades para complementar las actividades ordinarias planificadas. Cada recomendación debería convertirse en una actividad planificada a nivel operativo y organizacional, en igualdad de condiciones con las demás actividades regulares.

2.En general, los dirigentes son reacios a tener en cuenta las recomendaciones, ya que representan nuevas actividades prioritarias y vinculantes para ellos. Dado que los intereses son diversos para los distintos actores de los proyectos y programas, en última instancia es el equipo de seguimiento y evaluación quien se ocupa de estas recomendaciones. Los socios y las partes interesadas suelen ser cómplices, mientras que los beneficiarios aceptan sin comprender del todo. Esto puede generar conflictos si el equipo de seguimiento y evaluación insiste, lo que a menudo provoca el abandono de un seguimiento adecuado de las recomendaciones.

3.A mi entender, los únicos casos en los que la implementación de recomendaciones ha funcionado bien son aquellos en los que el socio financiero ha sido muy exigente en este aspecto, con disposiciones coercitivas para todos los actores del proyecto o programa. Este fue el caso de la implementación de los programas del Millennium Challenge Account (MCA) en África, que tuvieron gran éxito.

4.El instrumento que permitió este éxito fue la definición de condiciones favorables que debían cumplirse para cualquier actividad, junto con la implicación sistemática del sistema judicial (alguaciles) para la validación de las recomendaciones y el seguimiento de su implementación.

5.La confianza y la implicación de las partes interesadas solo pueden mantenerse y reforzarse mediante el uso de la retroalimentación si existe esta disposición jurídica, respaldada por el o los socios financieros del programa o proyecto.

Esra AKINCI

Turkey

Esra AKINCI

Programme/Project Evaluator; Management Consultant ; Finance

United Nations and European Commission

Publicado el 11/08/2025

Cerrar el ciclo de retroalimentación – Del conocimiento a la acción

Todos sabemos que la retroalimentación y los hallazgos de las evaluaciones están destinados a orientar mejores decisiones. Sin embargo, en la práctica, demasiada información valiosa nunca supera la etapa del informe.

Según mi experiencia, convertir la retroalimentación en acción depende de:

  1. Un liderazgo que modele el aprendizaje – cuando los líderes actúan de forma tangible sobre las recomendaciones, los equipos siguen su ejemplo.
  2. Canales de retroalimentación integrados – incorporar directamente las conclusiones en los ciclos de planificación, presupuestación y revisión.
  3. Una cultura de confianza – donde la retroalimentación se reciba como una herramienta de crecimiento y no como una amenaza.

¿El resultado? Programas más relevantes, mayor confianza comunitaria y equipos que sienten responsabilidad sobre la mejora.

Si logramos que el uso de la retroalimentación sea un hábito y no una ocurrencia tardía, no solo mejoraremos los proyectos, sino que también fortaleceremos la rendición de cuentas y la credibilidad en todos los niveles.

¿Cómo han incorporado ustedes los hallazgos de las evaluaciones en sus ciclos de toma de decisiones? Se agradecen ejemplos prácticos.

Ms. Esra AKINCI – Consultora y evaluadora en gestión de programas/proyectos para la Comisión Europea y las Naciones Unidas

Hailu Negu Bedhane

Ethiopia

Hailu Negu Bedhane

cementing engineer

Ethiopian electric power

Publicado el 11/08/2025

Cómo garantizar el uso efectivo de la retroalimentación y las recomendaciones derivadas de los informes de evaluación en la toma de decisiones

1. Incluir la evaluación en el ciclo de toma de decisiones

  • Vincular el calendario de las evaluaciones con los ciclos de planificación. Programar las evaluaciones para que los resultados estén disponibles antes de las decisiones presupuestarias o estratégicas clave.
  • Cumplir con las prioridades de la organización. Asegurarse de que las recomendaciones respondan directamente a los indicadores clave de desempeño (KPI), a las necesidades de cumplimiento o a los objetivos estratégicos.

2. Presentar resultados claros y accesibles

  • Resumir y simplificar para ayudar a los responsables de la toma de decisiones que no lean los informes completos a comprender las conclusiones; utilizar resúmenes ejecutivos, infografías y un lenguaje claro.
  • Dar prioridad a las recomendaciones; clasificarlas según su impacto potencial, viabilidad y urgencia.

3. Crear un proceso estructurado de retroalimentación a la acción

  • Talleres de planificación de acciones: después de la evaluación, reunir a los ejecutores y a los responsables de la toma de decisiones para convertir las recomendaciones en planes de acción concretos.
  • Asignar responsabilidades: definir, con compromisos formales, quién hará qué y para cuándo.
  • Asignación de recursos: vincular las recomendaciones aprobadas a los planes de personal y presupuesto.

4. Fomentar la apropiación por parte de las partes interesadas

  • Involucrar a los responsables de la toma de decisiones en el proceso de evaluación. Es más probable que apliquen los resultados si participan en la formulación de las preguntas y en la revisión de los hallazgos preliminares.
  • Promover bucles de retroalimentación: permitir que los directivos discutan y ajusten las recomendaciones para hacerlas más realistas sin comprometer su esencia.

5. Monitorear e informar sobre el avance de la implementación

  • Tablero de control: hacer seguimiento del estado de cada recomendación: No iniciada, En progreso, Implementada.
  • Revisiones periódicas: participar en reuniones trimestrales o anuales para revisar avances.
  • Rendición de cuentas pública: cuando corresponda, mantener informadas a las partes interesadas para mantener la presión hacia la acción.

6. Establecer una cultura de aprendizaje

  • Enfoque sin culpabilizar: considerar las evaluaciones como oportunidades de aprendizaje y no como ejercicios para asignar responsabilidades por fallos.
  • Intercambio de conocimientos: documentar y difundir las lecciones aprendidas para que beneficien a proyectos futuros.
  • Fortalecimiento de capacidades: capacitar a los directivos en el uso e interpretación de los datos de evaluación.

Ejemplo práctico
Si la auditoría de calidad de una planta de producción recomienda una mejor programación del mantenimiento de los equipos:

  • Resumen de conclusiones: «Paradas imprevistas debido a una mala coordinación del mantenimiento».
  • Priorización: alto impacto en la eficiencia de la producción.
  • Plan de acción: en un plazo de tres meses, el equipo de mantenimiento instalará un software de mantenimiento preventivo.
  • Asignación: responsabilidad de los ingenieros de planta, con presupuesto aprobado.
  • Seguimiento: el tablero de control muestra la tasa mensual de tiempo de inactividad.
Publicado el 09/08/2025

My response to: How to Ensure Effective Utilization of Feedback and Recommendations from Evaluation Reports in Decision-Making: 

I share observations from my own evaluation work, highlight common barriers I have encountered, and propose practical actions that can help organisations make better use of evaluation findings in their decision-making processes.

Introduction
Evaluations are intended to do more than assess performance: they are designed to inform better decisions, strengthen programmes, and improve accountability. In practice, however, the journey from feedback to action does not always happen as intended. Findings may be presented, reports submitted, and then the process slows or ends before their potential is fully realised. This does not necessarily mean that the findings are irrelevant. Often, the reasons lie in a mix of cultural, structural, and practical factors: how evaluations are perceived, when they are conducted, how findings are communicated, the incentives in place, the systems for follow-up, and whether leadership feels equipped to champion their use.
 

From my work as an evaluator, I have noticed recurring patterns across different contexts: the tendency to focus on positive findings and sideline challenges, the loss of momentum when project teams disperse, reports that are seldom revisited after presentation, and leadership teams that value learning but are unsure how to embed it into everyday decision-making.I explore these patterns, illustrate them with grounded examples, and offer possible actions for making evaluation a more consistent part of organisational decision cycles.
Barrier 1: Perception as Judgment
One of the most persistent barriers to the effective use of evaluation results lies in how findings are perceived. Too often, they are seen as a verdict on individual or organisational performance rather than as a balanced body of evidence for learning and improvement.This framing can influence not only the tone of discussions but also which parts of the evidence receive attention.When results are largely positive, they are sometimes treated as confirmation of success, prompting celebrations that, while important for morale, may overshadow the role of these findings as part of an evidence base. Positive results are still findings, and they should be interrogated with the same curiosity and rigour as less favourable results. For example, strong
performance in certain areas can reveal underlying drivers of success that could be replicated elsewhere, just as much as weaker performance signals areas needing attention. However, when the focus remains solely on reinforcing a success narrative, particularly for external audiences, recommendations for further improvement may receive less follow-through.
On the other hand, when evaluations reveal significant challenges, conversations can become defensive. Stakeholders may invest more energy in contextualising the results, explaining constraints, or questioning certain data sources and measures. In settings where evaluations are closely tied to accountability, especially when reputations, funding, or career progression are perceived to be at stake, such responses are understandable. This is not necessarily resistance for its own sake, but a natural human and organisational reaction to perceived judgment.The challenge is that both of these patterns, celebrating positive results without deeper analysis, and defensively responding to difficult findings, can limit the opportunity to learn from the full spectrum of evidence. By prioritising how results reflect on performance over what they reveal about processes, systems, and external factors, organisations risk narrowing the space for honest reflection.
Barrier 2: Timing and the End-of-Project Trap
When an evaluation is done can make all the difference in whether its findings are put to use or simply filed away. Too often, evaluations are completed right at the end of a project, just as staff contracts are ending, budgets are already spoken for, and most attention is focused on closing activities or preparing the next proposal. By the time the findings are ready, there is little room to act on them.I have been part of evaluations where valuable and innovative ideas were uncovered, but there was no next phase or active team to carry them forward. Without a plan for handing over or transitioning these ideas, the recommendations stayed in the report and went no further.
Staff changes make this problem worse. As projects wind down, team members who understand the history, context, and challenges often move on. Without a clear way to pass on this knowledge, new teams are left without the background they need to make sense of the recommendations. In some cases, they end up repeating the same mistakes or design gaps that earlier evaluations had already highlighted.The “end-of-project trap” is not just about timing; it is about how organisations manage the link between evaluation and action. If evaluations are timed to feed into ongoing work, with resources and systems in place to ensure knowledge is passed on, there is a far better chance that good ideas will be used rather than forgotten.
Barrier 3: Report Format, Accessibility, and Feasibility
The format and presentation of evaluation reports can sometimes make them less accessible to the people who need them most. Many reports are lengthy, technical, and written in a style that suits academic or sector specialists, but not necessarily busy managers or community partners, although executive summaries are provided.Another challenge is that recommendations may not always take into account the resources available to the stakeholders who are expected to implement them. This means that while a recommendation may be sound in principle, it may not be practical. For example, suggesting that a small partner organisation establish a dedicated monitoring unit may be beyond reach if they have only a few staff members and no additional budget.It is also worth noting that findings are often introduced in a presentation before the full report is shared. These sessions are interactive and help bring the data to life. However, once the meeting is over, the detailed report can feel like a repetition of what has already been discussed. Without a clear reason to revisit it, some stakeholders may not explore the more nuanced explanations and qualifiers contained in the main text and annexes.
Barrier 4: Incentives and Accountability Gaps
Organisational systems and incentives play a significant role in whether evaluation findings are acted upon. In many cases, evaluators are rewarded for producing a thorough report on time, implementers are measured against the delivery of activities and outputs, and donors focus on compliance and risk management requirements.What is often missing is direct accountability for implementing recommendations. Without a designated department or manager responsible for follow-through, action can rely on the goodwill or personal drive of individual champions. When those individuals leave or when priorities change, momentum can quickly be lost and progress stalls.
Barrier 5: Limited Dissemination and Cross-Learning
The way evaluation findings are shared strongly influences their reach and use. In some organisations, reports are not published or stored in a central, easily accessible database. As a result, lessons often remain within a single team, project, or country office, with no structured mechanism to inform the design of future initiatives. I have seen cases where innovative approaches, clearly documented in one location, never reached colleagues tackling similar issues elsewhere. Without a deliberate system for sharing and discussing these findings, other teams may unknowingly duplicate work, invest resources in already-tested ideas, or miss the chance to adapt proven methods to their own contexts. This not only limits organisational learning but also slows the spread of good practice that could strengthen results across programmes.
Barrier 6: Weak Governance and No Management Response System
When there is no structured process for responding to recommendations, there is a real risk that they will be acknowledged but not acted upon. A Management Response System (MRS) provides a framework for assigning ownership, setting timelines, allocating resources, and tracking progress on agreed actions.I have seen situations where workshops produced strong consensus on the importance of certain follow-up steps. However, without a clear mechanism to record these commitments, assign responsibility, and revisit progress, they gradually lost visibility. Even well-supported recommendations can stall when they are not tied to a specific department or manager and monitored over time.
Barrier 7: Leadership Capacity to Use Evaluation Findings
Clear evaluation recommendations will only be useful if leaders have the capacity to apply them. In some cases, managers may lack the necessary skills to translate recommendations into practical measures that align with organisational priorities, plans, and budgets.
Where this capacity gap exists, recommendations may be formally acknowledged but remain unimplemented. The challenge lies not in the clarity of the evidence, but in the ability to convert it into concrete and context-appropriate actions.


Recommendations
1. Evaluation as a Learning process

Shifting the perception of evaluation from a judgment to a learning tool requires deliberate organisational strategies that address both culture and process. The following approaches can help create an environment where all findings: positive, negative, or mixed are used constructively.
a. Set the Learning Tone from the Outset
Evaluation terms of reference, inception meetings, and communications should emphasise that the purpose is to generate actionable learning rather than to pass judgment. This framing needs to be reinforced throughout the process, including during data collection and dissemination, so that stakeholders are primed to see findings as evidence for growth.
b. Analyse Positive Findings with the Same Rigour
Treat favourable results as opportunities to understand what works and why. This includes identifying enabling factors, strategies, or contextual elements that led to success and assessing whether these can be replicated or adapted in other contexts. Documenting and communicating these drivers of success helps shift the focus from defending performance to scaling good practice.
c. Create Safe Spaces for Honest Reflection
Organise debriefs where findings can be discussed openly without the pressure of immediate accountability reporting. When teams feel safe to acknowledge weaknesses, they are more likely to engage with the evidence constructively. Senior leaders play a key role in modelling openness by acknowledging gaps and inviting solutions.
d. Separate Accountability Reviews from Learning Reviews
Where possible, distinguish between processes that assess compliance or contractual performance and those designed to generate strategic learning. This separation reduces defensiveness and allows evaluation spaces to remain focused on improvement.
2. Avoiding the End-of-Project Trap
Addressing the end-of-project trap means planning evaluations so they lead to action while there is still time, people, and resources to follow through. The approaches below can help ensure that findings are not left behind once a project ends.
a. Match Evaluation Timing to Key Decisions
Schedule evaluations so findings are ready before important moments such as work planning, budgeting, or donor discussions. Midline or quick-turn evaluations can capture lessons early enough for teams to act on them.
b. Include Handover and Follow-Up in the Plan
From the start, be clear about who will take responsibility for each recommendation and how progress will be tracked. Build follow-up steps into the evaluation plan so the work continues beyond the final report.
c. Keep Knowledge When Staff Change
Hold debrief sessions before staff leave to pass on the stories, context, and reasoning behind recommendations. Let outgoing and incoming staff work together briefly, and store key information where it can be easily found later.
d. Share Findings Before the Project Closes
Present key findings while the team is still in place. Use short, focused briefs that highlight what needs to be done. This gives the team a chance to act immediately or link recommendations to other ongoing work.
3. Improving Report Accessibility and Feasibility
Evaluation findings are more likely to be used when they are presented in a way that people can easily understand and act on, and when recommendations are realistic for those expected to implement them.
a. Make Reports Usable for Different Audiences
Prepare different versions of the findings: a concise action brief for decision-makers, a plain-language summary for community partners, and the full technical report for specialists. This ensures that each audience can engage with the content in a way that suits their needs and time.
b. Check Feasibility Before Finalising Recommendations
Hold a short “recommendation review” meeting after sharing preliminary findings. Use this time to confirm whether recommendations are practical given available staff, budgets, and timelines, and adjust them where needed.
c. Link Recommendations to Action Plans
Where possible, show exactly how each recommendation can be implemented, including suggested steps, timelines, and responsible parties. This makes it easier for organisations to move from reading the report to acting on it.
4. Closing the Incentive and Accountability Gaps
To improve the likelihood that evaluation findings are acted on, responsibilities for implementation should be made clear in the recommendation statements.
a. Name the Responsible Department or Manager in the Evaluation Report
Each recommendation should specify the department or manager expected to lead its implementation. This ensures clarity from the moment the report is delivered.
b. Confirm Feasibility Before Finalising Recommendations
During the validation of preliminary findings, engage the relevant departments or managers to confirm that the recommendations are realistic given available resources and timelines.
5. Strengthening Dissemination and Cross-Learning
Evaluation findings are more likely to be used across and beyond an organisation when they are shared widely, stored in accessible formats, and actively connected to future programme design.
a. Share Findings Beyond the Immediate Project Team
Circulate the evaluation report and summary briefs to other departments, country offices, and relevant partners. Use internal newsletters, learning forums, or staff meetings to highlight key lessons.
b. Store Reports in a Central, Accessible Location
Ensure that the final report, executive summary, and any related briefs are uploaded to a shared organisational repository or knowledge management platform that all relevant staff can access.
c. Create Opportunities for Cross-Learning Discussions
Organise short learning sessions where teams from different projects or countries can discuss the findings and explore how they might be applied elsewhere.
d. Publish for Wider Access Where Possible
Where there are no confidentiality or data protection constraints, make the report or key findings available on the organisation’s website or other public platforms so that the wider community can benefit from the lessons.
6. Strengthen Governance and Management Response
A Management Response System (MRS) can help ensure that recommendations are acted on by assigning clear responsibilities, setting timelines, and tracking progress from the moment the evaluation is completed.
a. Establish a Management Response Process Before the Evaluation Ends
Agree with the commissioning organisation on the structure and timing of the MRS so it is ready to accompany the final report. This ensures that follow-up starts immediately.
b. Name Responsible Departments or Managers in the Evaluation Report
For each recommendation, clearly state which department or manager is expected to lead implementation. This creates ownership from the outset.
c. Set Review Points to Monitor Progress
Agree on dates for follow-up reviews within the organisation’s governance framework to check on progress against the Management Response.
d. Link the MRS to Existing Planning and Budgeting Cycles
Where possible, align recommended actions with upcoming planning, budget allocation, or reporting timelines so that they can be resourced and implemented without delay.
7. Strengthen Leadership Capacity to Apply Evaluation Findings
Building the skills of managers to apply evaluation recommendations is essential to ensure that findings are used to guide organisational decisions.
a. Include Capacity-Building in the Evaluation Design
Ensure the Terms of Reference (ToR) require activities aimed at strengthening managers’ ability to apply recommendations, such as practical workshops or scenario-based exercises.
b. Provide Decision-Oriented Briefs
Prepare concise, action-focused briefs alongside the evaluation report, outlining specific options and steps for integrating recommendations into planning, budgeting, and operational processes.
c. Facilitate Joint Planning Sessions
Organise sessions with managers to translate recommendations into concrete action plans, ensuring alignment with organisational priorities and available resources.
d. Offer Targeted Support Materials
Develop templates, checklists, or guidance notes to assist managers in systematically incorporating recommendations into decision-making.


Conclusion
Making full use of evaluation findings requires timely evaluations, clear communication, strong follow-up systems, and leadership capacity to act on recommendations. By addressing barriers such as end-of-project timing, inaccessible reports, unclear accountability, limited sharing, and weak governance, organisations can turn evaluations into a practical tool for learning and improvement.

 

By Supreme Edwin Asare 

Monitoring, Evaluation, Research & Learning (MERL) Consultant (Remote | Onsite | Hybrid) | Author of the AI Made in Africa Newsletter. Experienced in conducting performance and process evaluations using theory-based and quasi-experimental methods, including Contribution Analysis and mixed-methods designs. Skilled in Theory of Change development, MEL system design, and training on AI integration in evaluation.📩 kdztrains@gmail.com

Serdar Bayryyev

Italy

Serdar Bayryyev

Senior Evaluation Officer

FAO

Publicado el 04/08/2025

« Las organizaciones pueden influir en la orientación hacia la retroalimentación de sus empleados fomentando una cultura del feedback. Además, la retroalimentación organizacional pasa de un enfoque basado en tareas a una práctica organizacional. » (Fuchs et al., 2021)

¿Qué opina sobre esta afirmación?

Respuesta:
La afirmación sugiere que las organizaciones desempeñan un papel importante en cómo los empleados perciben y utilizan la retroalimentación, al fomentar una cultura organizacional que valore y promueva su uso. También implica que la retroalimentación evoluciona de ser una actividad ligada a tareas específicas a convertirse en una práctica integrada en la cultura de aprendizaje y acción de la organización.

Considero que es una perspectiva válida. Fomentar una cultura de retroalimentación puede ayudar a que los empleados sean más abiertos, receptivos y proactivos en dar y recibir retroalimentación. Cuando esta se incorpora al entorno organizacional, deja de ser una actividad puntual y se convierte en una práctica continua y compartida que apoya el aprendizaje y la mejora en toda la organización.

En general, una comunicación abierta y transparente puede contribuir a construir esta cultura, fortalecer la confianza y promover un desarrollo constante, elementos esenciales para el crecimiento organizacional y la sostenibilidad de los resultados.

Serdar Bayryyev

Italy

Serdar Bayryyev

Senior Evaluation Officer

FAO

Publicado el 04/08/2025

El éxito de las agencias de desarrollo depende en gran medida de su capacidad para incorporar la evidencia evaluativa en la toma de decisiones estratégicas. Aunque las oficinas de evaluación recogen información valiosa a través de las actividades de seguimiento y evaluación, transformar esa retroalimentación en mejoras significativas de los programas sigue siendo un desafío. Superar estos obstáculos es fundamental para asegurar que los esfuerzos de desarrollo respondan verdaderamente a las necesidades de las comunidades vulnerables y los socios en todo el mundo.

Entre los obstáculos comunes en un entorno de desarrollo complejo se encuentran:

  • Limitaciones de recursos: Capacidad limitada para realizar un seguimiento riguroso, análisis de datos de calidad y procesamiento adecuado, especialmente en contextos remotos, afectados por crisis o con recursos escasos.
  • Factores culturales: Las actitudes que priorizan la experiencia técnica sobre los enfoques participativos pueden limitar el diálogo abierto con los actores involucrados.
  • Compromiso del liderazgo: Sin el respaldo activo de la alta dirección para el uso efectivo de la evidencia evaluativa, los esfuerzos suelen quedar superficiales o dispersos.

El liderazgo desempeña un papel fundamental en fomentar una cultura que valore la transparencia, la inclusión y el aprendizaje continuo. Cuando la alta dirección apoya activamente los mecanismos de retroalimentación – como la planificación, el seguimiento, las consultas y la gestión adaptativa – el personal y los socios tienden a ver la retroalimentación como un elemento esencial del éxito operativo. Crear un entorno organizacional que premie la apertura y el aprendizaje fomenta la innovación, respalda acciones correctivas y fortalece la rendición de cuentas.

Estrategias de mejora posibles:

  • Fortalecer los sistemas de retroalimentación: Desarrollar plataformas digitales multilingües y fáciles de usar para presentar hallazgos y recomendaciones de evaluación. Asegurar que las respuestas de la dirección sean transparentes, monitoreadas y ejecutadas a tiempo.
  • Desarrollo de capacidades: Ofrecer formación específica al personal y socios sobre análisis de retroalimentación, toma de decisiones basada en resultados y adopción de enfoques participativos.
  • Institucionalizar bucles de retroalimentación: Integrar procesos estructurados – como marcos de gestión adaptativa y agendas de aprendizaje – en los ciclos de los proyectos para asegurar que la evidencia evaluativa informe los ajustes, escalamiento y desarrollo de políticas. Hacer visibles y atribuibles estos ajustes.
  • Incentivar el uso de la retroalimentación: Reconocer y recompensar a las oficinas que integran eficazmente los resultados de la evaluación en su trabajo.
  • Aprovechar la tecnología: Utilizar herramientas móviles de recolección de datos, paneles de control en tiempo real y plataformas remotas para monitorear acciones de seguimiento y facilitar el aprendizaje continuo.
Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Publicado el 04/08/2025

« Las organizaciones pueden influir en la orientación hacia la retroalimentación de sus empleados fomentando una cultura del feedback. Además, la retroalimentación organizacional pasa de un enfoque basado en tareas a una práctica organizacional. » (Fuchs et al., 2021)

¿Qué opina sobre esta afirmación?

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Publicado el 31/07/2025

Bienvenidas y bienvenidos a todas y todos.
Estamos aquí para reflexionar sobre las causas profundas de los obstáculos al uso de la retroalimentación en la toma de decisiones para el desarrollo, explorar estrategias para superarlos y destacar el papel del liderazgo en la construcción de una cultura basada en la retroalimentación.

Les invitamos cordialmente a compartir sus ideas, experiencias o cualquier referencia útil que pueda enriquecer nuestro intercambio.

Hagamos de este espacio uno colaborativo, abierto y orientado a la acción. ¡Su voz importa, aprendamos y crezcamos juntos!