Aller au contenu principal
32 contributions

Comment assurer l'utilisation efficace des retours d'information et des recommandations issus des rapports d'évaluation dans la prise de décision

Posté le 31/07/2025 by Monica Azzahra
Monica

Contexte et motivations: Dans le paysage en pleine évolution du travail de développement, la capacité à s’adapter et à répondre aux besoins des communautés à travers une prise de décision fondée sur des données est plus importante que jamais. Les retours d'information et les recommandations issus des processus de suivi et évaluation visent à éclairer les décisions stratégiques, à améliorer la programmation et à encourager la redevabilité. Toutefois, malgré leur potentiel, ces informations sont souvent sous-utilisées ou mises de côté dans les processus décisionnels.

Les organisations de développement sont confrontées à divers défis pour intégrer de manière efficace les retours d'information. Il s'agit en autre de la résistance au changement organisationnel, du manque de ressources pour l'analyse et d'une culture qui ne privilégie pas toujours l'ouverture ou l'apprentissage continu. En outre, les dirigeants qui échouent à modéliser ou à renforcer l'utilisation des retours d'information contribuent souvent à un cycle dans lequel les retours d'information sont recueillis mais sans être suivis d'effets.

Lorsque les systèmes de retours d'informations sont faiblement intégrés, un fossé se creuse entre les communautés et les programmes conçus pour les servir. Cela peut conduire à des interventions inefficaces ou inappropriées, ce qui diminue à la fois leur impact et la confiance des parties prenantes. Relever ces défis est essentiel pour augmenter la pertinence les réponses et l'efficacité des efforts de développement.

Finalité de la discussion: Cette discussion vise à générer des informations exploitables sur la manière dont les organisations de développement peuvent davantage garantir une utilisation efficace des retours d'information des évaluations dans leur processus décisionnel. Elle rassemblera des praticiens, des évaluateurs, des chercheurs et des dirigeants des organisations pour réfléchir aux barrières actuelles et identifier les stratégies pratiques afin d'améliorer l'apprentissage et la redevabilité.

Énoncé du problème: Bien que les organisations de développement reconnaissent l'importance des retours d'informations des parties prenantes, nombre d'entre elles ne parviennent pas à les incorporer de manière significative dans la prise de décision. La culture organisationnelle, les ressources limitées, le manque d'implication des dirigeants et la résistance au changement contribuent ensemble à cette problématique. En l'absence de mécanismes systématiques de collecte, d'analyse et d'application des retours d'informations, les opportunités d'apprentissage et d’amélioration sont perdues, ce qui conduit à un impact réduit, un manque d'implication des parties prenantes et une redevabilité amoindrie.

Objectifs de la discussion

  • Identifier les causes profondes des barrières à l’utilisation des retours d'information dans la prise de décision pour le développement.
  • Analyser et évaluer les stratégies pour surmonter ces barrières telles que la conception de systèmes et de processus favorables.
  • Examiner le rôle essentiel des dirigeants pour encourager une culture organisationnelle qui valorise les retours d'information et promeut leur utilisation pour l’apprentissage et la croissance stratégique.

Questions directrices

  1. Quelles sont les barrières les plus courantes à l’utilisation des retours d'information dans les organisations de développement?
  2. Comment la culture organisationnelle et l’influence des dirigeants peuvent-elles influencer la réactivité vis-à-vis des retours d'information?
  3. Quelles étapes pratiques les organisations peuvent-elles mettre en œuvre pour intégrer l’utilisation des retours d'information dans leur cycle décisionnel?
  4. Quels sont les instruments, les incitations et les systèmes qui se sont montrés efficaces pour combler les écarts entre les retours d'information et l'action?
  5. Comment la confiance et l’implication des parties prenantes peuvent-elles être maintenues et renforcées à travers l'utilisation des retours d'information?

La discussion est ouverte aux contributions jusqu'au  05 septembre 2025.

This discussion is now closed. Please contact info@evalforearth.org for any further information.

Chamisa Innocent

Zimbabwe

Chamisa Innocent

EvalforEarth CoP Facilitator/Coordinator

EvalForward

Posté le 08/09/2025

Thank you all for sharing such rich and diverse insights during the discussion on “How to Ensure Effective Utilization of Feedback and Recommendations from Evaluation Reports in Decision-Making.”

A special mention goes to Monica, who initiated this discussion. We now officially close it.

Please note: A comprehensive summary of the discussion will be made available shortly in English, Spanish, and French. Check back soon for updates.

Interested in contributing or initiating a discussion? Propose your topic here: https://www.evalforearth.org/propose-your-topic. Our team will support you throughout the process.

On behalf of EvalforEarth Team

Lal - Manavado

Norway

Lal - Manavado

Consultant

Independent analyst/synthesist

Posté le 08/09/2025

How to Ensure the Use of Evaluation Results in Decision Making

A historical retrospect of the evolution of policies would convince one of their fragmented and less than coherent emergence. A concerted attempt to ascertain their public utility by evaluation is fairly new. Thus, decision-making seems to have had a logical priority over evaluation.

 Before one proceeds, it is important to distinguish between decision-making and implementation. Owing to its general character and political considerations, the former is all too often guided by expediency or an obvious public need. This may be far from being ideal, but one would have to take political reality into consideration were one to make a worthwhile contribution to public well-being.

 This obvious distinction between decision-making and implementation introduces a temporal component to what kind of evaluation would be of significant utility to decision makers. This may be called pre- and post decision making evaluation feed-back respectively. When a decision is to be made, pre-decision evaluation feed-back could provide some useful guidance as to its appropriateness with reference to the following criteria:

   • Competence of decision makers and decision implementers; this ranges from the national and regional to the local field levels.

   • Cost of procurement, operation, and maintenance of the tools and other materials required for implementing a decision.

   • Its effects on the environment, national employment figures and the equitability of its results.

   • Its implications on local culture, public health etc.

 The perceptive reader would have noticed at once that the evaluation of those four criteria could only be undertaken with reference to a specific decision, hence, its logical priority over evaluation. 

Here, evaluation faces two major challenges:

   • Degree of political devolution in a country; for instance, in Canada, the provinces have a great deal of political autonomy, thus the regional policies ought to be dovetailed into their national counterparts. In Scandinavia, local authorities have a great deal of autonomy, hence, in those countries, decision design applicable to the area is carried out locally. In such cases, decision evaluation has to be very flexible because what food each area may successfullyproduce can vary significantly.

   • Differences in the type of data on which an evaluation could justifiably be based vary

considerably. While policies and their implementation strategies are concerned with overall national benefit, that at the local or field level one has to pay attention to what contribution a plan/project may make first to the well-being of an area and then to the country as a whole.

 When a previous decision to achieve comparable objectives has been implemented, the actual public utility of its results would provide the evaluator some very useful guidelines on what recommendations would be most useful to the designers and implementers of the next decision on the same subject. The utility of such recommendations depends on the willingness and ability of the political leaders and their decision makers to learn better ways of doing things.

Next, one encounters the problem of identifying the data on which an adequate evaluation may be based. Obviously, what ought to be monitored depends on the level at which an evaluation is carried out. For instance, an evaluation of a decision and its implementation strategy will require the pertinent information relative to the four criteria described earlier. It will be noted that at regional and local levels, the relevant data will also vary according to the political powers vested in them.

Finally at the plan/project level one needs clearly to distinguish between monitoring the ‘objective facts that may indicate its successful completion, and the actual benefits it offers the target group. A multi-million Dollar motor way hardly used by vehicular traffic had been quoted in this forum as an example of the former.

This sketch of multi-layered evaluation required at national, regional and local levels

provides one a glimpse of the way forward. It has two dimensions:

   • National decision-makers have neither the time or the inclination to peruse evaluations of plans/projects; what they need to know are the achievable goals of national importance, like a way to enhance food production. The decision and implementation strategies needed here are general in character. One might say that those provide a framework aimed at a general goal, while successful plans/projects can be seen as the pieces of a jigsaw puzzle, and if the general goal is attained, then those pieces would fit snugly into the picture of success.

   • The four criteria discussed earlier will guide those pieces of the jigsaw puzzle as to their place in the whole, their suitability with reference to a national goal. Therefore, the challenge one faces in incorporating evaluation as an adjunct to national planning is how to make the decision-makers understand its usefulness and persuade them to use it appropriately. Unfortunately, their unwillingness or inability to apprehend the necessity of completeness of the means of implementation in use, failure to grasp the need for inter- and inter decision harmony make the present task rather difficult.

 

Lal Manavado.

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Posté le 03/09/2025

Chers contributeurs,

Je tiens à exprimer ma sincère gratitude à toutes celles et ceux qui ont partagé leurs perspectives, idées et expériences, ainsi qu’à celles et ceux qui ont aimablement fourni des liens et références qui enrichissent davantage notre compréhension ! ❤️❤️❤️ J’apprécie véritablement l’effort collectif visant à renforcer l’utilisation efficace des retours dans notre travail.

Principaux enseignements issus des contributions :

Les contributions soulignent que, si les évaluations produisent des résultats précieux, leur impact dépend de stratégies délibérées visant à garantir que les retours soient effectivement intégrés dans la prise de décision. Les principaux facteurs favorables incluent le renforcement de l’appropriation par les parties prenantes, l’intégration des recommandations dans les systèmes organisationnels et l’alignement des processus d’évaluation avec la culture institutionnelle et le leadership.

Les contributeurs ont insisté sur l’importance de formats de communication accessibles, de la co-création participative des recommandations, ainsi que de mécanismes tels que les systèmes de réponses de la direction, les revues a posteriori et le renforcement des capacités. Les obstacles structurels et culturels — tels que le cloisonnement des travaux, la résistance aux retours et les contextes politiques — ont également été identifiés comme des défis majeurs.

Dans l’ensemble, la discussion met en évidence la nécessité d’approches institutionnalisées, sensibles au contexte et inclusives, transformant les évaluations d’outils de redevabilité en moteurs d’apprentissage, d’adaptation et d’impact durable.

Nous clôturerons cette discussion à la fin de cette semaine, et les contributions supplémentaires sont les bienvenues jusque-là. ♥♥♥

Bien cordialement,

Monica 

Ibtissem Jouini

Italy

Ibtissem Jouini

Senior Evaluation Manager

CGIAR

Posté le 02/09/2025

Chère Monica,

La pratique montre que même les évaluations les plus rigoureuses et de haute qualité ne garantissent pas l’utilisation de leurs constats et recommandations, ce qui souligne la nécessité d’efforts délibérés pour intégrer l’utilisation des évaluations dans les processus décisionnels. Alors que la recherche sur les facteurs influençant l’utilisation des évaluations continue d’évoluer, plusieurs bonnes pratiques ont émergé pour renforcer leur adoption. Celles-ci incluent la production de formats plus accessibles, tels que des rapports synthétiques, des notes d’information et des vidéos, ainsi que des séances d’information individuelles pour engager les parties prenantes de manière efficace et pertinente. Les approches participatives, telles que les ateliers pour affiner ou co-créer des recommandations, ont également gagné en importance comme stratégies favorisant l’appropriation et la pertinence.

Je souhaite contribuer à la discussion en partageant quelques ressources sur lesquelles la fonction d’évaluation de l’IAES du CGIAR a travaillé afin d’améliorer l’utilisation des données probantes et des évaluations au sein du CGIAR et au-delà :

Cartographie des pratiques de gestion de l’évaluation dans les organisations internationales de recherche et de développement
Lien : https://iaes.cgiar.org/sites/default/files/pdf/Mapping%20management%20practices_final%2029%20August_0.pdf
Cette étude explore la manière dont les pratiques de gestion de l’évaluation influencent l’utilisation des constats et recommandations dans la prise de décision, les politiques et les actions. Elle cartographie les pratiques des entités indépendantes d’évaluation et met en lumière les perceptions de l’utilisation de l’évaluation dans les organisations multilatérales. Au-delà du CGIAR, l’étude vise à stimuler un dialogue plus large au sein de la communauté de l’évaluation sur la manière dont les dispositifs de gestion peuvent renforcer la pertinence et l’influence des évaluations. S’appuyant sur une revue de la littérature et une cartographie des pratiques de gestion de l’évaluation, elle propose des conclusions et recommandations organisées autour des principales phases d’une évaluation.

Systèmes de réponse de la direction aux évaluations : étude comparative
Lien : https://cgspace.cgiar.org/server/api/core/bitstreams/46ead1fc-5f24-45a6-a908-478cced8a811/content
Cette étude comparative recense les structures de réponse de la direction, les processus et méthodologies de revue existants, en explorant les meilleures pratiques en matière de mise en œuvre, de mécanismes de supervision et de systèmes de suivi visant à renforcer l’adoption des évaluations.

Revue du système de réponse de la direction du CGIAR aux évaluations indépendantes
Lien : https://iaes.cgiar.org/sites/default/files/pdf/Review%20of%20CGIAR%20Management%20Response%20System%20to%20Independent%20Evaluations%20_1.pdf
La fonction d’évaluation de l’IAES du CGIAR a mené cette revue du système de réponse de la direction du CGIAR. Conformément aux objectifs de redevabilité et d’apprentissage, la revue a évalué l’efficacité et l’efficience du système de réponse de la direction du CGIAR.

Bien à vous,

Ibtissem Jouini

Esosa Tiven Orhue

Nigeria

Esosa Tiven Orhue

Founder/CEO

E-Warehouse Consulting

Posté le 30/08/2025

Chers membres,

De manière empathique, l’utilisation effective des retours et recommandations issus des rapports d’évaluation est déterminée par le degré d’intérêt et d’engagement des parties prenantes concernées.

C’est le rapport qui détermine la contribution à l’impact et aux résultats de la mise en œuvre (c’est-à-dire s’il est fondé sur des données probantes, applicable) et ceux-ci doivent passer par les systèmes ou mécanismes suivants :

  1. Système de préservation de l’information
  2. Système de mise en œuvre continue
  3. Système de financement continu

Ces systèmes contribuent à soutenir l’institutionnalisation nationale ou internationale des systèmes d’évaluation, qui gèrent les données relatives aux programmes, projets et politiques, au bénéfice des décideurs nationaux et internationaux.

Cependant, s’ils sont exploités, ils deviennent un système intégré favorisant la croissance et le développement économiques ; les données seront pleinement utilisées et la mise en œuvre des politiques deviendra plus efficace et efficiente dans la société.

Les points cardinaux sont l’intérêt, l’engagement et l’implication des parties prenantes. Le retour renforce la recommandation lorsqu’il existe toujours une décision efficace et exploitable prise au bénéfice des populations ; cela conduit à la croissance et au développement économiques et, en fin de compte, renforce le système d’évaluation aux niveaux national et mondial.

L’évaluation est en grande partie un travail de recherche continue. Elle devrait être assimilée à un travail de recherche en raison des instruments employés et déployés pour l’investigation, à savoir les retours (ou constatations) et recommandations.

L’appel à un usage efficace des retours et recommandations inclut également :

  • Un système d’innovation technologique sur le lieu de travail, qui renforcera le système d’évaluation pour faire des retours et recommandations une source de solidité pour la gestion de l’information.
  • Un soutien et une protection continus de la main-d’œuvre afin d’assurer une gestion de l’information efficace et efficiente.
  • Une forte synergie entre les parties prenantes (chercheurs, bailleurs, gouvernements, ONG, etc.), avec un accord strict sur les apports, impacts et résultats. Cela renforcera et garantira la poursuite des investigations et la mise en œuvre des rapports d’évaluation.

Évaluer un programme, un projet ou une politique vise à garantir les progrès, l’impact et les résultats attendus dans la société. Cela ne peut être fait que par des décisions et des actions cohérentes, prises à partir des retours et recommandations des rapports.

Par conséquent, la cohérence doit être soulignée et demeurer primordiale dans le système des rapports d’évaluation.

Esosa Orhue.

Ines Freier

Germany

Ines Freier

Senior consultant for NRM and biodiversity, Green economy

consultant

Posté le 29/08/2025

La culture organisationnelle et les décisions de gestion stratégique influencent l’adoption des recommandations.

Je recommande principalement entre 4 et 8 actions que le client peut mettre en œuvre dans un délai donné, et je demande au personnel quel type de recommandations ils souhaitent entendre / donner eux-mêmes / ou adresser à d’autres projets traitant du même sujet.

Certaines organisations internationales ou équipes de projet considèrent les rapports d’évaluation davantage comme un outil de redevabilité que comme un outil d’apprentissage ; formuler des recommandations orientées vers l’apprentissage serait donc une perte de temps. En revanche, des recommandations visant à améliorer la collecte de données et le système de suivi peuvent être proposées.

Par ailleurs, les recommandations qui se situent en dehors de la théorie du changement / de la compréhension de l’objet de l’évaluation par le client / ou par les utilisateurs des évaluations, ne peuvent pas être formulées même si elles sont utiles. Un exemple est celui d’un chef de projet d’une organisation internationale qui agit comme un responsable d’ONG malgré son passeport onusien : il est alors difficile de communiquer aux clients quel est ou devrait être le rôle des Nations Unies dans un domaine d’action au-delà de la mise en œuvre d’un projet national. De même, certaines ONG environnementales réinventent la roue en promouvant de petites entreprises vertes, incapables de tirer parti de l’ensemble des connaissances d’organisations spécialisées dans la promotion des PME, car cela se situe en dehors de leur réseau social.

Rasec Niembro

Mexico

Rasec Niembro

Evaluation Analyst

GEF IEO

Posté le 28/08/2025

D’après mon expérience en tant qu’analyste en évaluation au Bureau indépendant d’évaluation du FEM, travaillant avec le LDCF et le SCCF, j’ai constaté que le véritable défi ne réside pas dans la production de recommandations, mais dans leur utilisation effective. Dans notre évaluation du soutien du FEM aux Systèmes d’information climatique et d’alerte précoce (CIEWS), nous avons souligné que la durabilité exige plus que des résultats techniques. Elle dépend de l’intégration de stratégies financières et institutionnelles qui perdurent après la clôture des projets.

Pour que les recommandations soient utiles, elles doivent trouver le juste équilibre. Trop prescriptives, elles risquent de devenir irréalistes. Trop vagues, elles sont ignorées. Les incitations jouent également un rôle essentiel. Qu’il s’agisse de mécanismes de redevabilité ou de leur intégration dans les cycles décisionnels, les organisations doivent créer des conditions qui rendent les retours exploitables.

Si les champions peuvent accélérer l’adoption des recommandations, le fait de se reposer sur des individus reste risqué dans des institutions marquées par un fort taux de rotation. À la place, les approches systémiques, telles que l’exigence de stratégies de durabilité dans tous les projets ou l’institutionnalisation de mécanismes de suivi, offrent continuité et résilience.

En définitive, les retours gagnent en influence lorsqu’ils sont institutionnalisés, encouragés par des incitations et formulés de manière à ce que les décideurs puissent les adapter à leurs réalités.

PATRICK DUMAZERT

Guatemala

PATRICK DUMAZERT

Lead

ANUBIS

Posté le 28/08/2025

REFLEXION SUR L’AUTOEVALUATION ET LA COMMUNICATION ADMINISTRATIVE

Patrick Dumazert, aout 2025.

Dans le document « L'impact des nouvelles technologies sur les méthodes de communication interne en entreprise » une phrase retient mon attention : « Les méthodes traditionnelles telles que le réseau hiérarchique garantissaient la transmission des directives de la direction vers les échelons inférieurs… », et je voudrais en profiter pour mettre sur la table un sujet clé pour la gestion publique par résultats.

Disons d’emblée que ce propos centré sur les entreprises peut facilement être étendu à la problématique de la gestion publique. Je ne partage pas l’idée qu’il en va de même pour tous les sujets, loin de là, mais oui, dans ce cas, les principes généraux de la communication administrative sont valables pour les deux mondes, le public et le privé.

Ceci dit, cette forme dominante de communication administrative, verticale et descendante, qui domine dans l’administration publique, notamment dans les pays de culture politique autoritaire, doit être doublée d’une forme ascendante pour que l’évaluation puisse jouer le rôle qui est attendu d’elle, qui n’est pas seulement un rôle de contrôle ex – post mais (aussi) un rôle d’apprentissage, de rétro-alimentation et de génération de meilleures pratiques.

Il n’est pas suffisant de générer des évidences au niveau où les faits se passent. Ce n’est déjà pas une petite affaire, celle de sélectionner les faits et les convertir en données compilées et organisées, et encore moins celle de les « faire parler », comme j’aime bien dire, c’est-à-dire les convertir en informations répondant à des critères de jugement (et des indicateurs) et finalement à des questions évaluatives, elles-mêmes organisées selon les critères d’évaluation (les classiques critères CAD, et autres…). Mais ce n’est pas suffisant.

Il faut ensuite communiquer ces informations, analysées et argumentées, vers le « haut », vers les différents niveaux de la gérance, et la prise de décision.  Et puisqu’il ne peut pas y avoir la même place en haut qu’en bas (sinon ce ne serait plus une pyramide, on n’a jamais vu une armée où il y aurait autant de généraux que de soldats…) cela veut dire qu’il faut organiser la communication administrative ascendante, en la concentrant selon une forme appropriée aux attentes des différents niveaux de gérance, selon les particularités de la culture institutionnelle propre à chaque entité, voire chaque état. 

Il y a des cultures très centralistes, où les gouvernants au plus haut niveau veulent savoir chaque lundi ce qui s’est passé dans chaque commune la semaine précédente…, alors que d’autres formes de gouvernement sont beaucoup plus décentralisées.

Mais outre cet aspect, sans doute essentiel, des cultures institutionnelles particulières de chaque contexte, il y a aussi un aspect crucial, qui porte sur la nature des objets d’évaluation, lesquels selon nous savons, sont organisés (ou en tout cas organisables) dans le schéma conceptuel largement admis par la communauté des évaluateurs, celui de la théorie de changement. Avec les variantes que l’on voudra, celle-ci postule que les actions ont des produits, qui ont des effets, lesquels génèrent eux-mêmes des impacts.

Pour mémoire, car ce n’est pas le sujet ici : les produits sont des verbes substantivés (l’action de couper des pommes produit des pommes coupées) tandis que les effets impliquent des changements de pratiques de la part de sujets agissants (les consommateurs peuvent préférer acheter les pommes déjà coupées – ou non, d’ailleurs, c’est là où on juge la pertinence de l’action). Quant aux impacts, pour lesquels on notera que j’utilise le mot consacré, celui de « contribution », il s’agit de changements transformationnels, comme on dit maintenant. Dans mon exemple trivial on pourrait imaginer qu’à la longue les enfants finissent par croire que les pommes viennent déjà en morceaux sur les arbres…

Ce petit rappel étant fait, on comprend bien que les objets d’évaluation, notamment les indicateurs de résultats aux trois grands niveaux de la chaine logique, se modifient dans le temps, selon une temporalité propre à chacun d’eux, et donc le dispositif d’évaluation doit également avoir une dimension adéquate à cette temporalité. Pendant longtemps justement, les évaluations externes de résultats se sont faites à la fin des projets, pas seulement pour rendre des comptes à la clôture des opérations, mais aussi pour « laisser le temps » aux impacts de se mettre en place…

Sauf que, du coup, les évaluations, externes et ex-post, qui cherchaient avant tout les impacts (par des moyens « quantitatifs », utilisant des méthodes quasi-expérimentales, cessaient d’être utiles pour la gérance, puisque l’opération était déjà terminée lors que les rapports leur parvenaient. Leur devenir était donc (et c’est probablement encore souvent le cas) celui de se convertir en documents entassés, les dépôts virtuels ayant remplacé les étagères sans en changer la fonction. Ceux qui rêvent de faire de la science – et j’en fais partie – voudraient même avoir l’occasion de faire des évaluations « post-projets », quelques années plus tard, mais personne ne paie pour cela, en tout cas pas dans le monde du développement.

D’où ma proposition (formulée il y a déjà un peu plus d’une vingtaine d’années), qui consiste principalement en ceci : évaluer sur la marche la génération des effets, réconciliant ainsi la dimension temporelle et la dimension logique, en se concentrant sur le chainon essentiel au centre de la théorie de changement, celui des effets, tout en prenant soin d’interroger la réalité transformée par l’action, au-delà du simple suivi des « outputs ». 

Forte de ces analyses réalisées à différents moments de l’implémentation, l’évaluation peut pour alimenter des mécanismes de communication administrative ascendante, avec des analyses génératives, c’est-à-dire informées par les analyses réalisées lors du moment évaluatif précédent. Il ne suffit pas de dire à un moment quelconque que tel indicateur atteint telle valeur, mais aussi comment cette valeur momentanée se situe par rapport au moment évaluatif précédent, et accompagner cette comparaison de l’interprétation qu’elle mérite, sans oublier les comparaisons habituelles avec les valeurs de départ et celles attendues à l’arrivée.

Post data. La proposition comprenait aussi un ajout : un des mécanismes de communication ascendante en question pourrait être, a la limite, celui de la « salle situationnelle », une proposition inspirée de la gestion sanitaire et de la gestion de crise en général, mais il est évident que celle-ci, avec les technologies virtuelles et même la réalité augmentée, devient par nature caduque, à partir du moment où cela revient au même « d’être sur place » ou de rester chez soi devant un écran.

Angela M. Contreras

Guatemala

Angela M. Contreras

Founder, Director, and Principal Consultant.

Verapax Solutions Inc.

Posté le 27/08/2025

Ce qui me vient immédiatement à l’esprit est la question complexe du leadership et de la culture organisationnelle.

Comme Monica le conclut à juste titre, le leadership est essentiel. Mais, dans mon expérience en tant que consultant externe accompagnant de petites organisations de la société civile, j’ai constaté que, dans de nombreux cas, ce sont les membres du personnel junior qui apportent les perspectives les plus innovantes sur les enjeux et les solutions. J’adhère à la conclusion selon laquelle « les cadres supérieurs doivent incarner l’apprentissage, récompenser la mise en œuvre et créer des espaces sans blâme pour la réflexion afin que les constats – positifs comme négatifs – servent à l’amélioration », mais je considère également nécessaire de concevoir des approches participatives, collaboratives et responsabilisantes du suivi et de l’évaluation, où un temps est périodiquement consacré aux membres de l’équipe (juniors et seniors) pour des revues rétrospectives, réflexives, et la discussion d’études de cas et de leçons à reproduire ou à éviter.

Dans ma pratique d’évaluation à petite échelle, j’observe une réceptivité croissante des petites organisations à sélectionner des rapports d’évaluation antérieurs et à les examiner à la lumière de la déclaration des valeurs et principes partagés de l’organisation. Cet exercice fait partie de nos activités de renforcement des capacités. Lors de réunions d’équipes de projet ou de réunions organisationnelles, un temps de 15 à 30 minutes est consacré à la discussion du rapport d’évaluation assigné et à la co-production d’une liste de leçons à intégrer formellement dans les systèmes de gestion et d’évaluation, ou d’échecs dont il faut tirer des enseignements et continuer à travailler ; tout ce travail d’interprétation vise à rechercher l’alignement avec les valeurs et principes partagés de l’organisation.

Si d’autres ont recours à une approche fondée sur des principes pour développer une culture organisationnelle valorisant l’apprentissage et les échanges de rétroaction orientés vers l’action, leurs expériences seraient également utiles.

Eddah Kanini (Board member: AfrEA, AGDEN & MEPAK

Kenya

Eddah Kanini (Board member: AfrEA, AGDEN & MEPAK

Monitoring, Evaluation and Gender Consultant/Trainer

Posté le 26/08/2025

Merci d’avoir lancé ce sujet important sur l’utilisation insuffisante des retours d’expérience dans la prise de décision en matière de développement.

D’après mon expérience, certains obstacles incluent une culture organisationnelle de résistance, où les retours sont perçus comme des critiques plutôt que comme un outil d’apprentissage. Le travail en silo constitue également un obstacle, lorsque les retours restent confinés à une entité ou à un projet, au lieu d’alimenter des décisions institutionnelles plus larges.

Le leadership et la culture jouent un rôle déterminant dans l’influence de la réactivité aux retours. Un bon leadership fixe l’orientation en valorisant les données probantes, en permettant un dialogue et une réflexion ouverts, et en encourageant une gestion adaptative.

Parmi les mesures pratiques pour intégrer l’utilisation des retours, on peut citer l’institutionnalisation des revues après action et des forums d’apprentissage. D’autres mesures consistent à intégrer les retours dans les cycles de planification et à renforcer les capacités du personnel non seulement en matière de collecte de données, mais aussi d’interprétation et d’application.

Daniela Maciel Pinto

Brazil

Daniela Maciel Pinto

Manager

Embrapa

Posté le 26/08/2025

Chère Monica, chers collègues,

Merci pour ce sujet. Ce débat sur le passage du « retour d’information à l’action » est très pertinent. Dans mes recherches doctorales, j’explore précisément cet écart entre les évaluations et l’utilisation effective de leurs résultats, en particulier dans le contexte de la recherche agricole. Dans un article récent, nous avons montré que les obstacles ne sont pas uniquement techniques, mais également structurels, culturels et relationnels ce qui fait fortement écho à ce qui a été soulevé ici.

Dans la même étude, nous avons discuté du fait que l’utilisation des résultats des évaluations d’impact de la recherche demeure limitée et souvent davantage associée à la reddition de comptes qu’à l’apprentissage ou à la gestion stratégique (Pinto & Bin, 2025). En nous appuyant sur cela, nous avons développé AgroRadarEval (Pinto et al., 2024) un outil interactif visant à systématiser cette utilisation, en alignant l’évaluation sur les principes de la Recherche et Innovation Responsables (RRI) et de l’Évaluation Responsable de la Recherche (RRA).

Pour compléter la discussion : je considère la notion de « culture de l’impact » comme un pont important. Elle déplace la perspective de « l’évaluation comme conformité » vers « l’évaluation comme moteur de transformation », en reliant l’institutionnalisation des processus à de réels changements dans la planification, la collaboration et la communication. Ce concept peut élargir la perspective du passage du retour d’information à l’action, en articulant non seulement les processus et les systèmes, mais aussi les valeurs et la réflexivité organisationnelle.

Dea Tsartsidze

Georgia

Dea Tsartsidze

International Research, Monitoring, Evaluation and Learning Practitioner

SAI - Solution Alternatives International

Posté le 25/08/2025

Chère Monica, chers collègues,

Merci d’avoir lancé une discussion aussi précieuse, et j’apprécie la richesse des idées partagées par chacun. Les perspectives exprimées reflètent véritablement bon nombre des défis auxquels nous sommes confrontés dans notre domaine.

Je me retrouve en accord avec la plupart des points soulevés, en particulier l’accent mis par Aurélie sur l’alignement de la production de données probantes avec les besoins des parties prenantes et la mise en avant par Brilliant de la formalisation des processus de rétroaction. Toutefois, j’aimerais ajouter une autre dimension à cette conversation: l’importance cruciale d’établir des processus organisationnels clairs qui positionnent l’évaluation non pas comme un exercice isolé, mais comme un élément intégré et interconnecté avec la mise en œuvre des programmes et les systèmes plus larges de suivi et d’évaluation.

D’après mon expérience, l’un des obstacles fondamentaux que nous n’avons pas pleinement abordés est la question de l’appropriation. Trop souvent, il semble que les évaluations soient « détenues » exclusivement par les évaluateurs ou le personnel de suivi et évaluation, tandis que les équipes de projet restent quelque peu détachées du processus. Cette déconnexion peut avoir un impact significatif sur la manière dont les recommandations sont reçues et, en fin de compte, mises en œuvre.

Cela soulève ma première question: comment pouvons-nous mieux impliquer les équipes de projet dans la finalisation des recommandations? J’ai trouvé particulièrement utile d’organiser des séances conjointes où les évaluateurs, le personnel de suivi et évaluation et les équipes de projet se réunissent non seulement pour discuter des conclusions, mais aussi pour façonner ensemble les recommandations finales. Lorsque le personnel des projets participe activement à l’interprétation des résultats et à l’élaboration de recommandations qui reflètent leur compréhension des réalités opérationnelles, l’appropriation s’accroît naturellement. D’autres ont-ils expérimenté cette approche?

Au-delà du défi de l’appropriation, je pense qu’il existe un autre problème fondamental que nous devons affronter plus directement: la qualité des données probantes que nous produisons en tant qu’évaluateurs. Cherchons-nous systématiquement à générer des données solides et crédibles? Lorsque nous présentons des données probantes aux décideurs, sommes-nous certains qu’elles répondent réellement aux normes de qualité, ou se peut-il que, parfois, même involontairement, nous ajoutions un obstacle supplémentaire à leur utilisation, notamment pour des décideurs déjà sceptiques qui peuvent invoquer une qualité jugée discutable pour écarter complètement les conclusions?

Cela m’amène à ma deuxième question, qui comporte deux volets. Premièrement, disposons-nous d’instruments d’assurance qualité et de processus internes adéquats pour réellement suivre et garantir la qualité des évaluations que nous réalisons? J’ai trouvé les cadres de qualité utiles, bien qu’il reste encore une marge considérable d’amélioration pour les rendre plus objectifs et systématiques.

Deuxièmement, même lorsque nos données probantes sont solides, à quel point traduisons-nous et communiquons-nous efficacement nos résultats aux décideurs? Nos rapports et présentations sont-ils réellement accessibles et pertinents par rapport à la manière dont les décisions sont prises au sein des organisations, ou produisons-nous des livrables techniquement solides mais pratiquement difficilement utilisables?

Ces questions ne visent pas à détourner l’attention des obstacles systémiques que nous avons identifiés, mais plutôt à encourager une réflexion plus approfondie sur notre propre rôle dans le défi de l’utilisation.

Dans l’attente de vos perspectives à ce sujet.

Astrid Brousselle

Canada

Astrid Brousselle

Professor

School of Public Administration

Posté le 25/08/2025

Merci à toutes et à tous pour vos contributions et à Monica pour la synthèse des idées. En tant qu’évaluateurs, nous considérons souvent qu’il est de notre responsabilité de faire mieux et nous assumons la charge d’améliorer nos pratiques. Cependant, si le contexte n’est pas réceptif à la collaboration, même les meilleures pratiques n’auront aucun impact.

Les contextes ne sont pas égaux. Certains sont favorables aux approches collaboratives et seront disposés à utiliser les résultats des évaluations. D’autres contextes sont politiques, voire polarisés, et n’utiliseront probablement les évaluations que si elles sont stratégiquement pertinentes. Enfin, certains contextes ne s’intéressent tout simplement pas aux résultats des évaluations. Dans ces derniers cas, quels que soient les efforts déployés pour mettre en œuvre les meilleures pratiques de transfert de connaissances, rien ne se produira. Nous avons qualifié ces contextes de « marécages de connaissances » dans l’article que nous avons publié sur l’utilisation de l’évaluation il y a quelques années : Contandriopoulos, D., & Brousselle, A. (2012). Evaluation models and evaluation use. Evaluation, 18(1), 61-77.

Comprendre les caractéristiques du contexte afin d’anticiper leurs implications sur l’utilisation de l’évaluation est, à mon avis, probablement la chose la plus importante à faire. Cela permet également d’alléger le poids qui repose sur les épaules des évaluateurs, à qui l’on attribue souvent une grande part de responsabilité dans l’utilisation (ou la non-utilisation) de leurs résultats.

Kavitha Moorthy

India

Kavitha Moorthy

Founder cum Managing Trustee

Vallabhbhai Patel Farmers Welfare Trust

Posté le 24/08/2025

Je suis d’accord avec le Dr Ravindran Chandran sur le fait que les parties prenantes sont essentielles dans le processus d’évaluation et dans la soumission des rapports pour la prise de décision politique. Il a eu raison de souligner que les générations de producteurs agricoles pourraient être désignées comme évaluateurs afin d’accélérer le retour d’information provenant des parties prenantes. Les rapports d’évaluation devraient être diffusés ou mis à jour auprès des agriculteurs concernés et des directeurs des organisations de producteurs agricoles, afin de connaître l’état du retour d’information fourni par les parties prenantes.

Notre organisation, le Vallabhbhai Patel Farmers Welfare Trust, œuvre pour l’éducation des générations d’agriculteurs et pour leur emploi. Je suis heureux de participer à cette discussion importante, qui est à la fois essentielle et nécessaire pour une utilisation efficace des rapports préparés par les administrateurs, et j’espère que ces rapports seront effectivement intégrés dès que possible au niveau des politiques.

Ravindran Chandran

India

Ravindran Chandran

Associate Professor and Head

Tamil Nadu Agricultural University

Posté le 24/08/2025

Stakeholder feedback is always taken from monthly grievance meeting conducted by District collectors of Tamil Nadu in India and the action taken and recommendation will be updated in next meeting based on the priority. Effective utilization of feedback and recommendation from evaluation reports done by scientists or through survey is entirely depends on the administrative officers and ministers of the rolling government and system prevailing in the regions. Evaluation reports should be periodically evaluated until its adoption or benefitted by the stakeholders for which man power or financial support is very much essential.  Stakeholders or their generations (Son and Daughters) from Farmers Producer Organization should be included as evaluators in every evaluating process to avoid manpower and speed up the process and effective utilization of feedback and recommendation.

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Posté le 24/08/2025

Chers contributeurs,

J’adresse toute ma reconnaissance à chacun d’entre vous pour le partage de vos précieuses expériences et connaissances, qui ont apporté un apprentissage significatif.

Vous trouverez ci-dessous les premières conclusions tirées de notre discussion. S’il existe des points supplémentaires qui n’ont pas encore été pris en compte, j’espère que d’autres contributions pourront être partagées avant la clôture de notre discussion à la fin de ce mois.

Dans divers contextes et organisations, les contributeurs identifient un écart persistant entre la collecte de retours et leur mise en pratique. Celui-ci réside moins dans des aspects techniques que dans des faiblesses structurelles, culturelles et relationnelles. Les obstacles fréquemment mentionnés incluent la mauvaise qualité des données et la fragmentation des systèmes d’information, une culture d’évaluation qui considère les constats comme une exigence de conformité ou de jugement plutôt que comme un apprentissage, des évaluations réalisées en fin de projet sans lien avec les décisions, des formats de rapports inaccessibles ou peu pratiques, des incitations et responsabilités peu claires, une gouvernance faible ou l’absence de systèmes de réponse de la direction, une diffusion limitée et un manque d’apprentissage croisé, ainsi que des contraintes de ressources. Ces problèmes fragilisent la confiance avec les parties prenantes et réduisent la valeur perçue des retours.

Pour surmonter ces obstacles, les praticiens recommandent d’institutionnaliser des processus clairs et formels de transformation des retours en actions, en définissant responsabilités, délais, ressources et suivi dès le départ. Les mesures pratiques incluent l’alignement des évaluations sur les cycles de planification et de budgétisation, l’utilisation de systèmes de réponse de la direction et de tableaux de bord pour suivre l’état d’avancement des recommandations, et la conversion des recommandations en plans concis et exploitables avec des responsables identifiés. Le leadership est déterminant. Les dirigeants doivent donner l’exemple en matière d’apprentissage, récompenser la mise en œuvre et créer des espaces sans reproche pour la réflexion, afin que les constats, positifs comme négatifs, nourrissent l’amélioration. Le renforcement des capacités des gestionnaires et du personnel est nécessaire pour interpréter les données probantes et les traduire en actions réalisables.

L’utilisation effective des retours dépend également de la communication et de l’inclusion. Il s’agit d’adapter les produits aux différents publics (notes d’une page, infographies, tableaux d’action), d’impliquer les décideurs et les communautés dès le début, d’organiser des ateliers de réflexion et de co-construction avec les parties prenantes et de boucler la boucle en rendant compte de manière transparente des changements réalisés. Les outils technologiques et participatifs, tels que les tableaux de bord en temps réel, les enquêtes par SMS et les fiches communautaires de suivi, permettent de raccourcir les boucles de rétroaction, tandis que des référentiels centralisés et des forums d’apprentissage croisé diffusent les enseignements entre équipes et pays. Plusieurs organisations, telles que CRS et le PAM, illustrent que l’intégration de l’évaluation dans la planification courante, le suivi de la mise en œuvre et l’alignement des recommandations avec les ressources et la gouvernance renforcent l’appropriation et l’utilisation.

En somme, transformer les retours en pratique exige de combiner des systèmes et outils formels avec le leadership, des ressources adaptées, une communication accessible, des processus participatifs et une culture d’apprentissage qui relie les données probantes à des actions concrètes et suivies.

Bien cordialement,

Monica

Victoria Onyelu Ola

Nigeria

Victoria Onyelu Ola

Research and Grant Intern

HTSF Global Nigeria Limited

Posté le 23/08/2025

L’écart entre la collecte et l’utilisation des retours dans les organisations de développement n’est pas seulement technique, il est aussi structurel et relationnel, comme le montrent les points suivants :

Institutionnaliser les boucles de rétroaction
Les organisations devraient adopter des protocoles clairs de transformation des retours en actions, dans lesquels chaque recommandation d’évaluation est formellement enregistrée, attribuée à une unité responsable, suivie et examinée périodiquement. Cela rend les retours exploitables et non facultatifs.

Le leadership comme moteur de l’apprentissage
Les dirigeants doivent démontrer que les retours comptent en faisant référence aux constats des évaluations dans les décisions stratégiques, en récompensant les équipes qui agissent en conséquence et en tenant les gestionnaires responsables de la mise en œuvre. Le modèle donné par le leadership crée une culture où les retours ne sont pas symboliques mais pratiques.

Doter les systèmes de rétroaction de ressources
Au-delà de la collecte de données, les organisations doivent prévoir un budget pour l’analyse, la diffusion et les ateliers de capitalisation qui réunissent le personnel, les parties prenantes et les représentants des communautés afin de co-interpréter les résultats. Cela favorise l’appropriation et renforce la confiance.

Technologie et approches participatives
Les tableaux de bord numériques, les enquêtes par SMS et les fiches communautaires de suivi peuvent créer des boucles de rétroaction en temps réel, en particulier dans les contextes à faibles ressources. Les approches participatives donnent aux communautés une voix dans la conception des interventions et assurent leur alignement avec les réalités locales.

Construire la confiance et la redevabilité
Une communication transparente auprès des parties prenantes est essentielle. Sans boucler la boucle de rétroaction, les communautés risquent de devenir désabusées, percevant les évaluations comme extractives plutôt que transformatrices.

Ravindran Chandran

India

Ravindran Chandran

Associate Professor and Head

Tamil Nadu Agricultural University

Posté le 22/08/2025

Les retours et recommandations des chercheurs, scientifiques, entrepreneurs et parties prenantes sont très importants dans le cadre de tout programme, conférence, atelier ou séminaire, après leur achèvement, afin de formuler des recommandations destinées aux décideurs politiques. Ces dernières années, la collecte de retours a été insuffisante dans les programmes de formation ainsi que de la part des participants aux conférences, symposiums, ateliers ou formations. La plupart du temps, les recommandations formulées par les présidents de séance des conférences ou symposiums ne sont pas compilées ni soumises aux décideurs, ce qui conduit à un gaspillage de ressources. Bien que certains établissements académiques recueillent les retours et transmettent des rapports au gouvernement, ceux-ci ne sont pas suffisamment pris en considération pour adoption, notamment en raison de contraintes financières.

Pour garantir une utilisation effective des retours et recommandations, l’organisateur de l’événement, la société scientifique ou le conseil concerné devrait mettre en place un programme de suivi ou un comité chargé de suivre le processus jusqu’à l’inclusion des rapports d’évaluation au niveau des politiques ou leur adoption sur le terrain.

Par exemple, l’utilisation de plastiques à des fins ornementales, ce qui va à l’encontre des intérêts des producteurs de fleurs, de l’industrie floricole et de la nature, a été présentée dans des événements internationaux. Mais aucune recommandation n’a été formulée et la question n’a pas encore atteint le niveau des politiques. Ainsi, tout rapport d’évaluation issu de retours et de recommandations devrait être mis en œuvre au niveau politique le plus tôt possible.

Aurelie Larmoyer

Italy

Aurelie Larmoyer

Senior Evaluation officer

WFP

Posté le 22/08/2025

Chère Monica, chers collègues,

Merci pour cette discussion et ces réflexions très intéressantes.

Accroître l'influence des données probantes sur la prise de décision est un défi de longue date, pour nous tous qui travaillons dans les fonctions de suivi et évaluation, lié à un ensemble de facteurs à tous les niveaux de nos organisations, même quand l'importance des données probantes est bien reconnue.

Au sein de la fonction d'évaluation du Programme alimentaire mondial, nous avons mis en œuvre des stratégies spécifiques pour encourager nos parties prenantes à utiliser les données probantes lorsqu'ils prennent des décisions. Sur la base de quelques années d'expérience passées, je peux partager quelques réflexions sur ce que nous commençons à considérer efficace.

J'adhère tout à fait à de nombreuses remarques formulées par mes collègues concernant les facteurs défavorable, tels que les problématiques relatives à la qualité de leurs données, la fragmentation des systèmes d'information, une culture organisationnelle qui considère encore le suivi et évaluation comme des exercices de conformité plutôt que des opportunités d'apprentissage, ou la centralité du rôle de promoteurs des hauts dirigeants en la matière.

En observant les options pour mieux intégrer les données probantes dans les décisions, je partage également l'opinion de mon collègue Brilliant Nkomo, qui affirme que les processus de formalisation sont une première étape essentielle. Si de nombreuses organisations ont des cadres de suivi et évaluation clairs et développent les orientations et capacités relatives, il est également essentiel d'assurer dans une certaine mesure l'institutionnalisation de l'intégration des connaissances basées sur les données probantes dans toute discussion politique ou programmatique, en les intégrant formellement dans la programmation stratégique ou dans le bilan ou les processus de révision des programmes réguliers.

À ce propos, notre expérience a montré que les efforts pour adapter notre production de données probantes aux besoins de nos parties prenantes portent leurs fruits: en tant que producteurs de données probantes et de connaissances, nous avons été plus proactifs dans l'implication des personnes dont nous pouvions, selon nous, soutenir les décisions et dans l'écoute des difficultés de nos collègues pour comprendre où se situaient leurs besoins. En parallèle, nous avons développé des compétences pour répondre aux besoins tels qu'ils apparaissaient, en réutilisant les données probantes existantes dans de nouveaux produits. Depuis que nous avons commencé à développer ces capacités, nous observons qu'une évolution culturelle se produit lentement et permet à l'évaluation d'être considérée comme un partenaire de connaissances.

Enfin, je souhaiterais ajouter que les commentaires reçus de nos parties prenantes, en réponse à nos enquêtes sur la manière dont ils évaluent les données probantes que nous fournissons, ont également confirmé qu'une communication sur mesure porte également ses fruits: nous savons que les différents rôles exigeront différentes priorités et préférences en matière de données probantes. Ainsi, plus nous nous adaptons aux différents besoins de ceux que nous servons, plus nos produits reçoivent un bon accueil et sont susceptibles d'être utilisés.

Bien à vous.

Brilliant Nkomo

Zimbabwe

Brilliant Nkomo

Senior Evaluation Advisor

Posté le 22/08/2025

Principaux obstacles à l’utilisation du feedback dans les organisations de développement :
La plupart des organisations sont confrontées à un manque de confiance dans la qualité de leurs données, ce qui compromet leur crédibilité et leur utilité pour la prise de décision. Un autre problème majeur est la fragmentation des systèmes d’information, entraînant des silos de données qui empêchent d’avoir une vision holistique de la performance d’un programme. Parfois, un obstacle culturel persistant existe au sein des organisations, y compris chez les bailleurs, car l’évaluation est perçue comme un exercice de conformité plutôt que comme une réelle opportunité d’apprentissage et d’adaptation.

Culture organisationnelle et influence du leadership :
Le leadership est sans doute le facteur le plus déterminant. Lorsque les dirigeants principaux défendent de manière visible l’utilisation des données probantes et incarnent un engagement envers l’apprentissage continu, ils envoient un signal clair à l’ensemble de l’organisation. Ce renforcement descendant contribue à faire évoluer la culture organisationnelle d’une logique de gestion du risque vers une approche qui valorise le feedback comme outil d’amélioration itérative. Les dirigeants doivent également donner à leurs équipes les compétences et ressources nécessaires, telles que la formation à la littératie des données, afin de favoriser un environnement où la prise de décision fondée sur des données probantes devient la norme.

Étapes pratiques pour intégrer le feedback dans les cycles décisionnels :
Pour institutionnaliser le feedback, les organisations doivent d’abord formaliser le processus. Cela implique la mise en place de cadres clairs et bien documentés de suivi et d’évaluation, qui servent de feuille de route stratégique depuis la collecte des données jusqu’à la revue stratégique. Il est également essentiel d’investir dans un renforcement de capacités durable, allant au-delà des formations ponctuelles pour instaurer un mentorat de long terme qui développe des compétences pratiques approfondies en analyse de données et en gestion adaptative. En intégrant les boucles de rétroaction dans les processus existants de planification stratégique, les organisations peuvent s’assurer que l’apprentissage devient une activité continue et centrale, plutôt qu’une réflexion ponctuelle. L’institutionnalisation du suivi de l’utilisation des données ou des résultats d’évaluation pourrait constituer une couche critique supplémentaire dans le cadre de S&E.

Outils, incitations et systèmes efficaces pour combler l’écart entre feedback et action :
Les outils et systèmes efficaces sont ceux qui raccourcissent la boucle de rétroaction et rendent les données disponibles, abordables, accessibles et utilisables. Les outils de collecte de données en temps réel, par exemple, sont inestimables pour garantir que le feedback soit opportun et pertinent pour des ajustements programmatiques immédiats. De même, les outils de visualisation de données transforment des informations complexes en analyses claires et exploitables, compréhensibles pour des publics non techniques. L’incitation la plus puissante demeure le lien démontré entre feedback et améliorations tangibles. Lorsque le personnel et les parties prenantes constatent que leurs contributions mènent directement à des programmes plus efficaces et impactants, leur motivation intrinsèque à participer au processus s’en trouve considérablement renforcée.

Maintenir et renforcer la confiance et l’engagement des parties prenantes grâce à l’utilisation du feedback :
La confiance des parties prenantes se construit par une communication transparente et bidirectionnelle. Il ne suffit pas simplement de collecter des données auprès des communautés et partenaires ; les organisations doivent partager ce qu’elles ont appris et démontrer comment les contributions des parties prenantes ont conduit à des changements concrets dans les programmes. Ce processus valorise leurs points de vue et renforce leur sentiment d’appropriation.

Ndiacé DANGOURA

Senegal

Ndiacé DANGOURA

MEAL & Knowledge Management - Regional Advisor

Catholic Releif Services (CRS) -West and Central Africa

Posté le 21/08/2025

Le défi de transformer les résultats d’évaluation en changements organisationnels concrets demeure l’un des problèmes les plus persistants de notre secteur. D’après mon expérience en gestion de programmes et en systèmes MEAL en Afrique de l’Ouest, je pense qu’il est indispensable de repenser fondamentalement la manière dont nous concevons l’évaluation au sein du cycle de vie des projets.

L’un des principaux obstacles à l’utilisation des feedbacks réside dans la culture dominante de l’évaluation, qui considère celle-ci comme une exigence de conformité plutôt que comme un outil stratégique d’apprentissage. Une fois qu’un rapport d’évaluation obtient l’approbation interne ou celle du bailleur, les organisations considèrent souvent le processus comme achevé, manquant ainsi des opportunités essentielles de gestion adaptative et d’amélioration de la qualité des programmes. Cette « mentalité de case à cocher » crée une déconnexion entre l’investissement dans l’évaluation et les résultats réels en termes d’apprentissage organisationnel.

Solution systématique :

À Catholic Relief Services (CRS), nous avons institutionnalisé une approche systématique démontrant comment le feedback peut être efficacement intégré dans les cycles décisionnels :

Processus clés :

  • Séances de réflexion avec les parties prenantes : Après chaque évaluation, les équipes organisent des sessions de réflexion sur les résultats avec les membres des communautés, les partenaires et autres parties prenantes, afin de générer des recommandations appropriées et d’alimenter l’apprentissage organisationnel.
  • Planification d’améliorations concrètes : Les enseignements tirés et les recommandations réalistes sont traduits en plans d’amélioration avec des responsables désignés.
  • Suivi systématique : Le plan d’amélioration est suivi et systématiquement contrôlé lors des évaluations ultérieures (lorsque pertinent).
  • Intégration à la performance : Les réunions régulières de performance et de réflexion incluent des points spécifiques à l’ordre du jour sur l’état de mise en œuvre des recommandations.

Cette approche a été mise en œuvre avec succès dans plusieurs contextes, avec des exemples pratiques au CRS Mali, Burkina Faso, Guinée-Bissau, Bénin et Togo, notamment dans le cadre du programme McGovern-Dole Food for Education et d’autres interventions.

Ndiacé DANGOURA – Conseiller Régional MEAL & KM – CRS Afrique de l’Ouest

Lea Corsetti

United Kingdom

Lea Corsetti

MERL Consultant

Posté le 20/08/2025

En tant que "YEE" avec une expérience couvrant la mise en œuvre de programmes et l’évaluation externe, j’ai observé comment le système actuel peut, de manière involontaire, créer une dynamique de « jeu » entre parties prenantes et bailleurs, où le retour d’information devient une exigence procédurale plutôt qu’un catalyseur de changement significatif.

Obstacles courants à l’utilisation du retour d’information (Q1)
Au-delà de la résistance des exécutants, je pense que nous n’avons pas encore pleinement résolu le défi des recommandations qui ne tiennent pas compte du contexte. Les évaluateurs externes peuvent avoir une compréhension limitée des dynamiques locales que le personnel de programme doit gérer au quotidien. De plus, la capacité organisationnelle varie considérablement : certaines structures sont préparées à intégrer des changements, tandis que d’autres peinent même à appliquer de petites modifications, en raison de dynamiques complexes, internes et externes.

Influence de la culture et du leadership (Q2)
Je considère de plus en plus les évaluateurs comme des facilitateurs du changement plutôt que de simples professionnels techniques. Les organisations restent parfois attachées à la mentalité du « nous avons toujours fait ainsi ». Une amie de la famille, cheffe d’entreprise, m’a récemment confié qu’elle hésitait à recruter des jeunes diplômés car « dès qu’ils arrivent, ils veulent tout changer, sans réaliser qu’un petit changement exige des mois et d’innombrables réunions avec le personnel ». Je ne pense pas que cette expérience soit isolée. J’ai discuté avec des organisations qui partagent ce ressenti vis-à-vis des recommandations d’évaluation : elles considèrent l’exercice comme une exigence des bailleurs, mais modifier des aspects de projets en cours apparaît trop lourd. Je me demande également si le rôle du leadership se limite à créer un espace permettant d’accompagner le changement et de réfléchir à la mise en œuvre des recommandations, ou si une approche plus créative, au-delà du leadership, pourrait favoriser une adoption effective à tous les niveaux.

Mesures pratiques pour intégrer le retour d’information (Q3)
L’expérience la plus efficace que j’ai vécue concernait un excellent responsable et directeur pays qui intégrait l’apprentissage dans nos cycles hebdomadaires. Il ne s’agissait pas seulement de vérifier la progression du projet : il y avait des boucles de rétroaction constantes pour améliorer et résoudre de manière créative les défis liés à la gestion des parties prenantes dans un projet de long terme. Au-delà du sérieux accordé aux recommandations, je me demande si, en tant que professionnels de l’évaluation, nous ne devrions pas améliorer aussi nos formats de présentation. Dans un bureau d’évaluation où j’ai travaillé, les recommandations étaient présentées sous forme de tableaux afin que les décideurs puissent en suivre la mise en œuvre. Ce n’est pas toujours le cas lorsque je travaille comme évaluateur indépendant : nous pouvons organiser un atelier de restitution, intégrer des retours, mais une fois le rapport remis, il sort de nos mains. Peut-être devons-nous réfléchir à des modes de communication plus efficaces au-delà des rapports. Une évaluatrice coréenne, rencontrée lors d’une conférence, m’a expliqué que des résumés d’une page maximum destinés aux décideurs étaient les plus efficaces : tout document plus long n’était pas utilisé.

Outils et systèmes efficaces (Q4)
La mise en place de systèmes de retour d’information simples, couvrant l’ensemble du cycle de programme et impliquant tous les acteurs, s’avère la plus efficace. La génération de retours adaptés au contexte est déjà une étape importante, tout comme la mise en œuvre d’une gestion adaptative avec des responsables du suivi dotés de compétences en évaluation (approche d’apprentissage en temps réel).

Maintien de la confiance des parties prenantes (Q5)
La véritable co-création est difficile mais possible. Comme beaucoup de collègues l’ont sûrement constaté, il arrive qu’une intervention se dise participative sans réelle implication significative des parties prenantes. Je me souviens d’un projet de recherche où j’ai rapidement compris que les bénéficiaires me disaient ce qu’ils pensaient que je voulais entendre, en raison de ma position d’extérieure et de leur crainte de perdre des financements si les résultats apparaissaient négatifs. Construire la confiance implique de surmonter ces dynamiques tout en favorisant des cultures de réactivité aux besoins des parties prenantes à différentes échelles de projet, car les besoins d’une intervention communautaire locale diffèrent de ceux d’un programme plurinational.

Ismaël Naquielwiendé KIENDREBEOGO

Burkina Faso

Ismaël Naquielwiendé KIENDREBEOGO

Ouagadougou

UNALFA

Posté le 13/08/2025

En évaluation l’intégration efficace des retours et recommandations efficace des retours issus d’une évaluation dans la prise de décision repose sur trois leviers essentiels : lever les obstacles, structurer les mécanismes d’utilisation, et ancrer une culture de l’apprentissage.

Pour lever les obstacles courants à l’utilisation du feedback d’évaluation, il est essentiel de veiller à ce que les recommandations soient claires, pertinentes et directement exploitables, en les formulant de façon spécifique, mesurable et orientée vers l’action. L’appropriation par les décideurs doit être renforcée en les associant dès les premières étapes de conception et de mise en œuvre de l’évaluation. Enfin, pour éviter que la prise de décision ne soit freinée par des délais ou des rapports trop lourds, il est préférable de produire des formats synthétiques et faciles à consulter, favorisant ainsi un usage rapide et efficace des résultats.

Pour favoriser l’utilisation effective des résultats d’évaluation, il est crucial de mettre en place des systèmes structurés. Cela implique de créer un plan d’action post-évaluation définissant clairement les responsabilités, les échéances et les modalités de suivi. Les conclusions doivent être intégrées aux revues stratégiques ainsi qu’aux cycles de planification budgétaire afin d’orienter concrètement les décisions et les allocations de ressources. Enfin, l’utilisation de canaux interactifs, tels que les ateliers de restitution ou les plateformes collaboratives, permet de discuter, contextualiser et ajuster les recommandations pour garantir leur pertinence et leur mise en œuvre.

Le leadership et la culture organisationnelle jouent un rôle central dans l’utilisation du feedback d’évaluation. Les dirigeants doivent donner l’exemple en intégrant explicitement les conclusions des évaluations dans leurs décisions, montrant ainsi l’importance accordée à ces données. Il s’agit aussi de promouvoir une culture de l’apprentissage où les erreurs ne sont pas stigmatisées, mais considérées comme des occasions d’amélioration continue. Enfin, l’utilisation du feedback doit être étroitement liée à la redevabilité, en intégrant des indicateurs de suivi pertinents dans les rapports de performance, afin de mesurer concrètement les progrès réalisés.

En résumé, l’efficacité de l’utilisation de la rétroaction ne dépend pas uniquement de la qualité des évaluations, mais surtout de la manière dont elles sont appropriées, intégrées et suivies dans les mécanismes décisionnels et dans la culture même de l’organisation.

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Posté le 12/08/2025

Merci à toutes et à tous pour les précieux éclairages partagés !

J’apprécierais grandement de recevoir tout outil, matériel ou référence sur les stratégies permettant de surmonter les obstacles, en particulier ceux liés au leadership, aux mécanismes intégrés de retour d’information et au renforcement d’une culture de confiance, pouvant être mis en œuvre efficacement au sein d’une organisation, notamment lorsqu’ils sont étayés par des preuves issues des rapports d’évaluation.

Quelqu’un pourrait-il partager un lien ou un document à ce sujet ?

Emile Nounagnon HOUNGBO

Benin

Emile Nounagnon HOUNGBO

Agricultural Economist, Associate Professor, Director of the School of Agribusiness and Agricultural Policy

National University of Agriculture

Posté le 11/08/2025
  1. La principale barrière à l’utilisation des retours d'information dans les organisations de développement est la négligence ; c'est-à-dire la non-programmation systématique des recommandations validées issues des activités de suivi et d'évaluation des projets et programmes. Les résultats issus du suivi-évaluation et de l'évaluation devraient constituer d'office une autre manche d'activités pour compléter les activités ordinaires planifiées. Chaque recommandation devrait devenir une activité planifiée au plan opérationnel et organisationnel, au même titre que les autres activités ordinaires.
  2. Généralement, les dirigeants sont gênés de prendre en compte les recommandations, du fait qu'elles constituent de nouvelles activités phares et contraignantes pour eux. Les enjeux étant divers pour les acteurs des projets et programmes, c'est finalement l'équipe de suivi-évaluation qui se préoccupe de ces recommandations. Les partenaires et les parties prenantes en sont souvent complices. Les bénéficiaires se soumettent sans comprendre grand-chose. Ce qui peut engendrer des conflits si cette équipe de suivi-évaluation insiste, d'où l'abandon d'un bon suivi des recommandations.
  3. Les seuls cas où la mise en œuvre des recommandations a bien marché à ma connaissance sont les cas où le partenaire financier est très exigeant sur cet aspect des recommandations, avec des dispositions coercitives pour tous les acteurs du projet/programme. C'est ce qui s'est passé dans la mise en œuvre des programmes du Millennium Challenge Account (MCA) en Afrique, qui ont très bien réussi.
  4. L'instrument qui a permis cette réussite est la définition de conditions favorables à remplir pour toute activité, et ceci avec l'implication systématique de la justice (huissiers) pour la validation des recommandations et le suivi de leur mise en œuvre.
  5. La confiance et l’implication des parties prenantes ne peuvent être maintenues et renforcées à travers l'utilisation des retours d'information que grâce à cette disposition juridique, soutenue par le ou les partenaire(s) financier(s) du programme/projet.
Esra AKINCI

Turkey

Esra AKINCI

Programme/Project Evaluator; Management Consultant ; Finance

United Nations and European Commission

Posté le 11/08/2025

Clore la boucle de rétroaction – De l’idée à l’action

Nous savons tous que les retours d’information et les conclusions des évaluations sont censés orienter de meilleures décisions. Pourtant, dans la pratique, trop de données précieuses ne dépassent jamais le stade du rapport.

D’après mon expérience, transformer les retours d’information en actions repose sur :

  1. Un leadership qui incarne l’apprentissage – lorsque les dirigeants agissent concrètement sur les recommandations, les équipes suivent.
  2. Des voies de rétroaction intégrées – intégrer directement les enseignements dans les cycles de planification, de budgétisation et de révision.
  3. Une culture de confiance – où le retour d’information est accueilli comme un outil de développement et non comme une menace.

Le résultat ? Des programmes plus pertinents, une confiance communautaire renforcée et des équipes qui se sentent responsables de l’amélioration.

Si nous faisons de l’utilisation des retours d’information une habitude plutôt qu’une réflexion après coup, nous n’améliorons pas seulement les projets – nous renforçons la redevabilité et la crédibilité à tous les niveaux.

Comment avez-vous intégré les conclusions des évaluations dans vos cycles de décision ? Des exemples pratiques sont les bienvenus.

Ms. Esra AKINCI – Consultante et évaluatrice en gestion de programmes/projets auprès de la Commission européenne et des Nations Unies

Hailu Negu Bedhane

Ethiopia

Hailu Negu Bedhane

cementing engineer

Ethiopian electric power

Posté le 11/08/2025

Comment garantir l’utilisation effective des retours et recommandations issus des rapports d’évaluation dans la prise de décision

1. Intégrer l’évaluation dans le cycle décisionnel

  • Relier le calendrier des évaluations aux cycles de planification. Planifier les évaluations de manière à ce que les résultats soient disponibles avant les décisions budgétaires ou stratégiques importantes.
  • Se conformer aux priorités de l’organisation. S’assurer que les recommandations répondent directement aux indicateurs clés de performance (KPI), aux exigences de conformité ou aux objectifs stratégiques.

2. Fournir des résultats clairs et accessibles

  • Résumer et simplifier, afin d’aider les décideurs qui ne lisent pas l’intégralité des rapports à comprendre les conclusions ; utiliser des résumés exécutifs, des infographies et un langage simple.
  • Donner la priorité aux recommandations ; les classer selon leur impact potentiel, leur faisabilité et leur urgence.

3. Mettre en place un processus structuré de passage du feedback à l’action

  • Ateliers de planification : après l’évaluation, réunir les responsables de la mise en œuvre et les décideurs pour transformer les recommandations en plans d’action précis.
  • Attribution des responsabilités : définir, avec engagements formels, qui fera quoi et pour quand.
  • Allocation des ressources : associer les recommandations approuvées aux plans de personnel et de budget.

4. Encourager l’appropriation par les parties prenantes

  • Impliquer les décideurs dans le processus d’évaluation. Ils sont plus enclins à appliquer les résultats s’ils participent à la formulation des questions et à l’examen des résultats préliminaires.
  • Promouvoir les boucles de rétroaction : permettre aux gestionnaires de discuter et d’ajuster les recommandations pour les rendre plus réalistes sans en altérer le fond.

5. Suivre et rendre compte des progrès de mise en œuvre

  • Tableau de bord : suivre l’état d’avancement de chaque recommandation : Non commencée, En cours, Mise en œuvre.
  • Points de suivi réguliers : participer à des réunions trimestrielles ou annuelles pour examiner les progrès.
  • Responsabilité publique : lorsque pertinent, informer régulièrement les parties prenantes des avancées pour maintenir la dynamique.

6. Instaurer une culture de l’apprentissage

  • Approche sans blâme : considérer les évaluations comme des occasions d’apprentissage plutôt que comme des exercices visant à désigner des fautes.
  • Partage des connaissances : consigner et diffuser les enseignements tirés pour que les futurs projets en bénéficient.
  • Renforcement des capacités : former les gestionnaires à l’utilisation et à l’interprétation des données d’évaluation.

Exemple pratique
Si l’audit qualité d’une usine de production recommande une meilleure planification de la maintenance des équipements :

  • Résumé des conclusions : « Pannes imprévues dues à une mauvaise coordination de la maintenance ».
  • Priorisation : fort impact sur l’efficacité de la production.
  • Plan d’action : sous trois mois, l’équipe de maintenance installera un logiciel de maintenance préventive.
  • Attribution : les ingénieurs de l’usine sont responsables, budget approuvé.
  • Suivi : le tableau de bord indique le taux mensuel d’immobilisation.
Posté le 09/08/2025

My response to: How to Ensure Effective Utilization of Feedback and Recommendations from Evaluation Reports in Decision-Making: 

I share observations from my own evaluation work, highlight common barriers I have encountered, and propose practical actions that can help organisations make better use of evaluation findings in their decision-making processes.

Introduction
Evaluations are intended to do more than assess performance: they are designed to inform better decisions, strengthen programmes, and improve accountability. In practice, however, the journey from feedback to action does not always happen as intended. Findings may be presented, reports submitted, and then the process slows or ends before their potential is fully realised. This does not necessarily mean that the findings are irrelevant. Often, the reasons lie in a mix of cultural, structural, and practical factors: how evaluations are perceived, when they are conducted, how findings are communicated, the incentives in place, the systems for follow-up, and whether leadership feels equipped to champion their use.
 

From my work as an evaluator, I have noticed recurring patterns across different contexts: the tendency to focus on positive findings and sideline challenges, the loss of momentum when project teams disperse, reports that are seldom revisited after presentation, and leadership teams that value learning but are unsure how to embed it into everyday decision-making.I explore these patterns, illustrate them with grounded examples, and offer possible actions for making evaluation a more consistent part of organisational decision cycles.
Barrier 1: Perception as Judgment
One of the most persistent barriers to the effective use of evaluation results lies in how findings are perceived. Too often, they are seen as a verdict on individual or organisational performance rather than as a balanced body of evidence for learning and improvement.This framing can influence not only the tone of discussions but also which parts of the evidence receive attention.When results are largely positive, they are sometimes treated as confirmation of success, prompting celebrations that, while important for morale, may overshadow the role of these findings as part of an evidence base. Positive results are still findings, and they should be interrogated with the same curiosity and rigour as less favourable results. For example, strong
performance in certain areas can reveal underlying drivers of success that could be replicated elsewhere, just as much as weaker performance signals areas needing attention. However, when the focus remains solely on reinforcing a success narrative, particularly for external audiences, recommendations for further improvement may receive less follow-through.
On the other hand, when evaluations reveal significant challenges, conversations can become defensive. Stakeholders may invest more energy in contextualising the results, explaining constraints, or questioning certain data sources and measures. In settings where evaluations are closely tied to accountability, especially when reputations, funding, or career progression are perceived to be at stake, such responses are understandable. This is not necessarily resistance for its own sake, but a natural human and organisational reaction to perceived judgment.The challenge is that both of these patterns, celebrating positive results without deeper analysis, and defensively responding to difficult findings, can limit the opportunity to learn from the full spectrum of evidence. By prioritising how results reflect on performance over what they reveal about processes, systems, and external factors, organisations risk narrowing the space for honest reflection.
Barrier 2: Timing and the End-of-Project Trap
When an evaluation is done can make all the difference in whether its findings are put to use or simply filed away. Too often, evaluations are completed right at the end of a project, just as staff contracts are ending, budgets are already spoken for, and most attention is focused on closing activities or preparing the next proposal. By the time the findings are ready, there is little room to act on them.I have been part of evaluations where valuable and innovative ideas were uncovered, but there was no next phase or active team to carry them forward. Without a plan for handing over or transitioning these ideas, the recommendations stayed in the report and went no further.
Staff changes make this problem worse. As projects wind down, team members who understand the history, context, and challenges often move on. Without a clear way to pass on this knowledge, new teams are left without the background they need to make sense of the recommendations. In some cases, they end up repeating the same mistakes or design gaps that earlier evaluations had already highlighted.The “end-of-project trap” is not just about timing; it is about how organisations manage the link between evaluation and action. If evaluations are timed to feed into ongoing work, with resources and systems in place to ensure knowledge is passed on, there is a far better chance that good ideas will be used rather than forgotten.
Barrier 3: Report Format, Accessibility, and Feasibility
The format and presentation of evaluation reports can sometimes make them less accessible to the people who need them most. Many reports are lengthy, technical, and written in a style that suits academic or sector specialists, but not necessarily busy managers or community partners, although executive summaries are provided.Another challenge is that recommendations may not always take into account the resources available to the stakeholders who are expected to implement them. This means that while a recommendation may be sound in principle, it may not be practical. For example, suggesting that a small partner organisation establish a dedicated monitoring unit may be beyond reach if they have only a few staff members and no additional budget.It is also worth noting that findings are often introduced in a presentation before the full report is shared. These sessions are interactive and help bring the data to life. However, once the meeting is over, the detailed report can feel like a repetition of what has already been discussed. Without a clear reason to revisit it, some stakeholders may not explore the more nuanced explanations and qualifiers contained in the main text and annexes.
Barrier 4: Incentives and Accountability Gaps
Organisational systems and incentives play a significant role in whether evaluation findings are acted upon. In many cases, evaluators are rewarded for producing a thorough report on time, implementers are measured against the delivery of activities and outputs, and donors focus on compliance and risk management requirements.What is often missing is direct accountability for implementing recommendations. Without a designated department or manager responsible for follow-through, action can rely on the goodwill or personal drive of individual champions. When those individuals leave or when priorities change, momentum can quickly be lost and progress stalls.
Barrier 5: Limited Dissemination and Cross-Learning
The way evaluation findings are shared strongly influences their reach and use. In some organisations, reports are not published or stored in a central, easily accessible database. As a result, lessons often remain within a single team, project, or country office, with no structured mechanism to inform the design of future initiatives. I have seen cases where innovative approaches, clearly documented in one location, never reached colleagues tackling similar issues elsewhere. Without a deliberate system for sharing and discussing these findings, other teams may unknowingly duplicate work, invest resources in already-tested ideas, or miss the chance to adapt proven methods to their own contexts. This not only limits organisational learning but also slows the spread of good practice that could strengthen results across programmes.
Barrier 6: Weak Governance and No Management Response System
When there is no structured process for responding to recommendations, there is a real risk that they will be acknowledged but not acted upon. A Management Response System (MRS) provides a framework for assigning ownership, setting timelines, allocating resources, and tracking progress on agreed actions.I have seen situations where workshops produced strong consensus on the importance of certain follow-up steps. However, without a clear mechanism to record these commitments, assign responsibility, and revisit progress, they gradually lost visibility. Even well-supported recommendations can stall when they are not tied to a specific department or manager and monitored over time.
Barrier 7: Leadership Capacity to Use Evaluation Findings
Clear evaluation recommendations will only be useful if leaders have the capacity to apply them. In some cases, managers may lack the necessary skills to translate recommendations into practical measures that align with organisational priorities, plans, and budgets.
Where this capacity gap exists, recommendations may be formally acknowledged but remain unimplemented. The challenge lies not in the clarity of the evidence, but in the ability to convert it into concrete and context-appropriate actions.


Recommendations
1. Evaluation as a Learning process

Shifting the perception of evaluation from a judgment to a learning tool requires deliberate organisational strategies that address both culture and process. The following approaches can help create an environment where all findings: positive, negative, or mixed are used constructively.
a. Set the Learning Tone from the Outset
Evaluation terms of reference, inception meetings, and communications should emphasise that the purpose is to generate actionable learning rather than to pass judgment. This framing needs to be reinforced throughout the process, including during data collection and dissemination, so that stakeholders are primed to see findings as evidence for growth.
b. Analyse Positive Findings with the Same Rigour
Treat favourable results as opportunities to understand what works and why. This includes identifying enabling factors, strategies, or contextual elements that led to success and assessing whether these can be replicated or adapted in other contexts. Documenting and communicating these drivers of success helps shift the focus from defending performance to scaling good practice.
c. Create Safe Spaces for Honest Reflection
Organise debriefs where findings can be discussed openly without the pressure of immediate accountability reporting. When teams feel safe to acknowledge weaknesses, they are more likely to engage with the evidence constructively. Senior leaders play a key role in modelling openness by acknowledging gaps and inviting solutions.
d. Separate Accountability Reviews from Learning Reviews
Where possible, distinguish between processes that assess compliance or contractual performance and those designed to generate strategic learning. This separation reduces defensiveness and allows evaluation spaces to remain focused on improvement.
2. Avoiding the End-of-Project Trap
Addressing the end-of-project trap means planning evaluations so they lead to action while there is still time, people, and resources to follow through. The approaches below can help ensure that findings are not left behind once a project ends.
a. Match Evaluation Timing to Key Decisions
Schedule evaluations so findings are ready before important moments such as work planning, budgeting, or donor discussions. Midline or quick-turn evaluations can capture lessons early enough for teams to act on them.
b. Include Handover and Follow-Up in the Plan
From the start, be clear about who will take responsibility for each recommendation and how progress will be tracked. Build follow-up steps into the evaluation plan so the work continues beyond the final report.
c. Keep Knowledge When Staff Change
Hold debrief sessions before staff leave to pass on the stories, context, and reasoning behind recommendations. Let outgoing and incoming staff work together briefly, and store key information where it can be easily found later.
d. Share Findings Before the Project Closes
Present key findings while the team is still in place. Use short, focused briefs that highlight what needs to be done. This gives the team a chance to act immediately or link recommendations to other ongoing work.
3. Improving Report Accessibility and Feasibility
Evaluation findings are more likely to be used when they are presented in a way that people can easily understand and act on, and when recommendations are realistic for those expected to implement them.
a. Make Reports Usable for Different Audiences
Prepare different versions of the findings: a concise action brief for decision-makers, a plain-language summary for community partners, and the full technical report for specialists. This ensures that each audience can engage with the content in a way that suits their needs and time.
b. Check Feasibility Before Finalising Recommendations
Hold a short “recommendation review” meeting after sharing preliminary findings. Use this time to confirm whether recommendations are practical given available staff, budgets, and timelines, and adjust them where needed.
c. Link Recommendations to Action Plans
Where possible, show exactly how each recommendation can be implemented, including suggested steps, timelines, and responsible parties. This makes it easier for organisations to move from reading the report to acting on it.
4. Closing the Incentive and Accountability Gaps
To improve the likelihood that evaluation findings are acted on, responsibilities for implementation should be made clear in the recommendation statements.
a. Name the Responsible Department or Manager in the Evaluation Report
Each recommendation should specify the department or manager expected to lead its implementation. This ensures clarity from the moment the report is delivered.
b. Confirm Feasibility Before Finalising Recommendations
During the validation of preliminary findings, engage the relevant departments or managers to confirm that the recommendations are realistic given available resources and timelines.
5. Strengthening Dissemination and Cross-Learning
Evaluation findings are more likely to be used across and beyond an organisation when they are shared widely, stored in accessible formats, and actively connected to future programme design.
a. Share Findings Beyond the Immediate Project Team
Circulate the evaluation report and summary briefs to other departments, country offices, and relevant partners. Use internal newsletters, learning forums, or staff meetings to highlight key lessons.
b. Store Reports in a Central, Accessible Location
Ensure that the final report, executive summary, and any related briefs are uploaded to a shared organisational repository or knowledge management platform that all relevant staff can access.
c. Create Opportunities for Cross-Learning Discussions
Organise short learning sessions where teams from different projects or countries can discuss the findings and explore how they might be applied elsewhere.
d. Publish for Wider Access Where Possible
Where there are no confidentiality or data protection constraints, make the report or key findings available on the organisation’s website or other public platforms so that the wider community can benefit from the lessons.
6. Strengthen Governance and Management Response
A Management Response System (MRS) can help ensure that recommendations are acted on by assigning clear responsibilities, setting timelines, and tracking progress from the moment the evaluation is completed.
a. Establish a Management Response Process Before the Evaluation Ends
Agree with the commissioning organisation on the structure and timing of the MRS so it is ready to accompany the final report. This ensures that follow-up starts immediately.
b. Name Responsible Departments or Managers in the Evaluation Report
For each recommendation, clearly state which department or manager is expected to lead implementation. This creates ownership from the outset.
c. Set Review Points to Monitor Progress
Agree on dates for follow-up reviews within the organisation’s governance framework to check on progress against the Management Response.
d. Link the MRS to Existing Planning and Budgeting Cycles
Where possible, align recommended actions with upcoming planning, budget allocation, or reporting timelines so that they can be resourced and implemented without delay.
7. Strengthen Leadership Capacity to Apply Evaluation Findings
Building the skills of managers to apply evaluation recommendations is essential to ensure that findings are used to guide organisational decisions.
a. Include Capacity-Building in the Evaluation Design
Ensure the Terms of Reference (ToR) require activities aimed at strengthening managers’ ability to apply recommendations, such as practical workshops or scenario-based exercises.
b. Provide Decision-Oriented Briefs
Prepare concise, action-focused briefs alongside the evaluation report, outlining specific options and steps for integrating recommendations into planning, budgeting, and operational processes.
c. Facilitate Joint Planning Sessions
Organise sessions with managers to translate recommendations into concrete action plans, ensuring alignment with organisational priorities and available resources.
d. Offer Targeted Support Materials
Develop templates, checklists, or guidance notes to assist managers in systematically incorporating recommendations into decision-making.


Conclusion
Making full use of evaluation findings requires timely evaluations, clear communication, strong follow-up systems, and leadership capacity to act on recommendations. By addressing barriers such as end-of-project timing, inaccessible reports, unclear accountability, limited sharing, and weak governance, organisations can turn evaluations into a practical tool for learning and improvement.

 

By Supreme Edwin Asare 

Monitoring, Evaluation, Research & Learning (MERL) Consultant (Remote | Onsite | Hybrid) | Author of the AI Made in Africa Newsletter. Experienced in conducting performance and process evaluations using theory-based and quasi-experimental methods, including Contribution Analysis and mixed-methods designs. Skilled in Theory of Change development, MEL system design, and training on AI integration in evaluation.📩 kdztrains@gmail.com

Serdar Bayryyev

Italy

Serdar Bayryyev

Senior Evaluation Officer

FAO

Posté le 04/08/2025

« Les organisations peuvent orienter la manière dont les employés reçoivent et utilisent les retours en favorisant une culture du feedback. De plus, le feedback organisationnel évolue d'une approche centrée sur les tâches vers une pratique organisationnelle. » (Fuchs et al., 2021)

Que pensez-vous de cette affirmation ?

Réponse :
L’affirmation suggère que les organisations jouent un rôle important dans la manière dont les employés perçoivent et utilisent le feedback, en cultivant une culture organisationnelle qui valorise et encourage les retours. Elle implique également que le feedback évolue, au sein des organisations, d’une activité liée aux tâches vers une pratique intégrée dans la culture d’apprentissage et d’action.

Je pense que c’est une perspective pertinente. Le développement d’une culture du feedback peut effectivement contribuer à rendre les employés plus ouverts, réceptifs et proactifs dans l’échange de retours. Lorsque le feedback est intégré dans l’environnement organisationnel, il dépasse les tâches isolées pour devenir une pratique continue et partagée, soutenant l’apprentissage et l’amélioration à tous les niveaux.

De manière générale, une communication ouverte et transparente peut contribuer à instaurer cette culture, favoriser la confiance et soutenir un développement continu, ce qui est essentiel pour la croissance organisationnelle et des résultats durables.

Serdar Bayryyev

Italy

Serdar Bayryyev

Senior Evaluation Officer

FAO

Posté le 04/08/2025

Le succès des agences de développement dépend largement de leur capacité à intégrer les données issues de l’évaluation dans la prise de décisions stratégiques. Bien que les bureaux d’évaluation recueillent des informations précieuses à partir des activités de suivi et d’évaluation, transformer ces retours en améliorations concrètes des programmes reste un défi. Surmonter ces obstacles est essentiel pour que les efforts de développement répondent réellement aux besoins des communautés vulnérables et des partenaires à travers le monde.

Parmi les obstacles courants dans un environnement de développement complexe, on trouve :

  • Contraintes de ressources : Capacité limitée pour un suivi rigoureux, une analyse de données de qualité et leur traitement, en particulier dans les contextes éloignés, touchés par des crises ou aux ressources limitées.
  • Facteurs culturels : Les attitudes valorisant l’expertise technique au détriment des approches participatives peuvent freiner le dialogue ouvert avec les parties prenantes.
  • Engagement du leadership : Sans un engagement actif des dirigeants en faveur de l'utilisation des résultats d’évaluation, les efforts restent souvent superficiels ou fragmentés.

Le leadership joue un rôle central dans la promotion d'une culture de transparence, d'inclusivité et d’apprentissage continu. Lorsque la direction soutient activement les mécanismes de retour d’information – tels que la planification, le suivi, les consultations et la gestion adaptative – le personnel et les partenaires considèrent davantage le feedback comme un élément clé de la réussite opérationnelle. Un environnement organisationnel qui valorise l’ouverture et l’apprentissage encourage l’innovation, soutient les actions correctives et renforce la redevabilité.

Stratégies d’amélioration possibles :

  • Renforcement des systèmes de feedback : Développer des plateformes numériques multilingues et conviviales pour présenter les résultats d’évaluation et les recommandations. Veiller à ce que les réponses de la direction soient transparentes, suivies et mises en œuvre dans des délais appropriés.
  • Renforcement des capacités : Offrir des formations ciblées au personnel et aux partenaires sur l’analyse des retours, la prise de décisions fondées sur les résultats, et l’adoption d’approches participatives.
  • Institutionnalisation des boucles de rétroaction : Intégrer des processus structurés – tels que des cadres de gestion adaptative et des agendas d’apprentissage – dans les cycles de projet pour garantir que les résultats des évaluations informent les ajustements, l’extension ou l’élaboration des politiques. Rendre ces ajustements visibles et traçables.
  • Incitations à l’utilisation du feedback : Reconnaître et récompenser les bureaux qui intègrent efficacement les résultats d’évaluation dans leurs activités.
  • Utilisation des technologies : Recourir à des outils de collecte de données mobiles, des tableaux de bord en temps réel et des plateformes d’engagement à distance pour suivre les mesures de suivi et faciliter l’apprentissage continu.
Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Posté le 04/08/2025

« Les organisations peuvent orienter la manière dont les employés reçoivent et utilisent les retours en favorisant une culture du feedback. De plus, le feedback organisationnel évolue d'une approche centrée sur les tâches vers une pratique organisationnelle. » (Fuchs et al., 2021)

Que pensez-vous de cette affirmation ?

Monica Azzahra

Indonesia

Monica Azzahra

MELIA Specialist

Center for International Forestry Research (CIFOR)

Posté le 31/07/2025

Bienvenue à toutes et à tous.
Nous sommes ici pour réfléchir aux causes profondes des obstacles à l’utilisation des retours d'information dans la prise de décision en matière de développement, explorer des stratégies pour les surmonter et souligner le rôle du leadership dans la construction d’une culture fondée sur les retours.

Nous vous invitons à partager librement vos réflexions, expériences ou toute ressource pertinente qui pourrait enrichir notre échange.

Faisons de cet espace un lieu collaboratif, ouvert et orienté vers l’action. Votre voix compte — apprenons et avançons ensemble !