Lea is a skilled evaluator with a strong background in social science and international development. She holds a BA in Social Science from the University College Utrecht and an MSc in International Development Studies (Sociology of Development and Change), from Wageningen University and Research. With a global perspective and interest in participatory approaches, Lea brings several years of experience of collaborating on complex evaluations across diverse sectors, including agriculture and livelihoods. She has contributed to several assignments for CGIAR IAES, including co-authoring the 2025 technical note on using AI in Evaluation as well as the 2024 Science Group Evaluations. As a leader in EvalYouth Europe and the EvalYouth Global Management Group, she is dedicated to empowering young professionals in the field. Lea's unique combination of skills and experience enables her to navigate international projects and multi-stakeholder settings with ease, driving meaningful change through impactful evaluations.
United Kingdom
Lea Corsetti
MERL Consultant
Posté le 20/08/2025
En tant que "YEE" avec une expérience couvrant la mise en œuvre de programmes et l’évaluation externe, j’ai observé comment le système actuel peut, de manière involontaire, créer une dynamique de « jeu » entre parties prenantes et bailleurs, où le retour d’information devient une exigence procédurale plutôt qu’un catalyseur de changement significatif.
Obstacles courants à l’utilisation du retour d’information (Q1)
Au-delà de la résistance des exécutants, je pense que nous n’avons pas encore pleinement résolu le défi des recommandations qui ne tiennent pas compte du contexte. Les évaluateurs externes peuvent avoir une compréhension limitée des dynamiques locales que le personnel de programme doit gérer au quotidien. De plus, la capacité organisationnelle varie considérablement : certaines structures sont préparées à intégrer des changements, tandis que d’autres peinent même à appliquer de petites modifications, en raison de dynamiques complexes, internes et externes.
Influence de la culture et du leadership (Q2)
Je considère de plus en plus les évaluateurs comme des facilitateurs du changement plutôt que de simples professionnels techniques. Les organisations restent parfois attachées à la mentalité du « nous avons toujours fait ainsi ». Une amie de la famille, cheffe d’entreprise, m’a récemment confié qu’elle hésitait à recruter des jeunes diplômés car « dès qu’ils arrivent, ils veulent tout changer, sans réaliser qu’un petit changement exige des mois et d’innombrables réunions avec le personnel ». Je ne pense pas que cette expérience soit isolée. J’ai discuté avec des organisations qui partagent ce ressenti vis-à-vis des recommandations d’évaluation : elles considèrent l’exercice comme une exigence des bailleurs, mais modifier des aspects de projets en cours apparaît trop lourd. Je me demande également si le rôle du leadership se limite à créer un espace permettant d’accompagner le changement et de réfléchir à la mise en œuvre des recommandations, ou si une approche plus créative, au-delà du leadership, pourrait favoriser une adoption effective à tous les niveaux.
Mesures pratiques pour intégrer le retour d’information (Q3)
L’expérience la plus efficace que j’ai vécue concernait un excellent responsable et directeur pays qui intégrait l’apprentissage dans nos cycles hebdomadaires. Il ne s’agissait pas seulement de vérifier la progression du projet : il y avait des boucles de rétroaction constantes pour améliorer et résoudre de manière créative les défis liés à la gestion des parties prenantes dans un projet de long terme. Au-delà du sérieux accordé aux recommandations, je me demande si, en tant que professionnels de l’évaluation, nous ne devrions pas améliorer aussi nos formats de présentation. Dans un bureau d’évaluation où j’ai travaillé, les recommandations étaient présentées sous forme de tableaux afin que les décideurs puissent en suivre la mise en œuvre. Ce n’est pas toujours le cas lorsque je travaille comme évaluateur indépendant : nous pouvons organiser un atelier de restitution, intégrer des retours, mais une fois le rapport remis, il sort de nos mains. Peut-être devons-nous réfléchir à des modes de communication plus efficaces au-delà des rapports. Une évaluatrice coréenne, rencontrée lors d’une conférence, m’a expliqué que des résumés d’une page maximum destinés aux décideurs étaient les plus efficaces : tout document plus long n’était pas utilisé.
Outils et systèmes efficaces (Q4)
La mise en place de systèmes de retour d’information simples, couvrant l’ensemble du cycle de programme et impliquant tous les acteurs, s’avère la plus efficace. La génération de retours adaptés au contexte est déjà une étape importante, tout comme la mise en œuvre d’une gestion adaptative avec des responsables du suivi dotés de compétences en évaluation (approche d’apprentissage en temps réel).
Maintien de la confiance des parties prenantes (Q5)
La véritable co-création est difficile mais possible. Comme beaucoup de collègues l’ont sûrement constaté, il arrive qu’une intervention se dise participative sans réelle implication significative des parties prenantes. Je me souviens d’un projet de recherche où j’ai rapidement compris que les bénéficiaires me disaient ce qu’ils pensaient que je voulais entendre, en raison de ma position d’extérieure et de leur crainte de perdre des financements si les résultats apparaissaient négatifs. Construire la confiance implique de surmonter ces dynamiques tout en favorisant des cultures de réactivité aux besoins des parties prenantes à différentes échelles de projet, car les besoins d’une intervention communautaire locale diffèrent de ceux d’un programme plurinational.