Aller au contenu principal
Dea Tsartsidze

Georgia

Dea Tsartsidze Member since 17/08/2025

SAI - Solution Alternatives International

International Research, Monitoring, Evaluation and Learning Practitioner
Website

International research and evaluation practitioner with 15+ years of experience spearheading comprehensive MEL initiatives across over 100 countries. Currently serves as a Faculty member at the University of Georgia and Founding Partner at Solution Alternatives International. Accomplished in designing mixed-method research and establishing evidence-based evaluation and monitoring systems for projects funded by major international organizations, including UN agencies, USAID, MCC, EU, FCDO, and other key donors.

Passionate about driving impact through data-driven strategy expertise and advancing evaluation methodologies to conduct strong and credible evaluations that matter strategically. Believes that evaluation drives meaningful impact when rigorous methodologies transform complex data into actionable insights for strategic decision-making and organizational learning. Specializes in impact evaluation, evaluation capacity building, and institutionalizing adaptive learning systems. Recognized as a finalist for the Molly Hageboeck Award for MEL Innovation for developing a groundbreaking monitoring and evaluation methodology for governance strategy implementation.

Previously established MEL systems across the South Caucasus region for Action Against Hunger and led the development of Georgia's first policy monitoring and evaluation methodology for OGP National Action Plan, setting new standards recognized by the EU and OECD. Member of the international evaluation community with extensive experience in food security, agriculture, rural development, governance, humanitarian, and media sectors.

My contributions

    • Dea Tsartsidze

      Georgia

      Dea Tsartsidze

      International Research, Monitoring, Evaluation and Learning Practitioner

      SAI - Solution Alternatives International

      Posté le 25/08/2025

      Chère Monica, chers collègues,

      Merci d’avoir lancé une discussion aussi précieuse, et j’apprécie la richesse des idées partagées par chacun. Les perspectives exprimées reflètent véritablement bon nombre des défis auxquels nous sommes confrontés dans notre domaine.

      Je me retrouve en accord avec la plupart des points soulevés, en particulier l’accent mis par Aurélie sur l’alignement de la production de données probantes avec les besoins des parties prenantes et la mise en avant par Brilliant de la formalisation des processus de rétroaction. Toutefois, j’aimerais ajouter une autre dimension à cette conversation: l’importance cruciale d’établir des processus organisationnels clairs qui positionnent l’évaluation non pas comme un exercice isolé, mais comme un élément intégré et interconnecté avec la mise en œuvre des programmes et les systèmes plus larges de suivi et d’évaluation.

      D’après mon expérience, l’un des obstacles fondamentaux que nous n’avons pas pleinement abordés est la question de l’appropriation. Trop souvent, il semble que les évaluations soient « détenues » exclusivement par les évaluateurs ou le personnel de suivi et évaluation, tandis que les équipes de projet restent quelque peu détachées du processus. Cette déconnexion peut avoir un impact significatif sur la manière dont les recommandations sont reçues et, en fin de compte, mises en œuvre.

      Cela soulève ma première question: comment pouvons-nous mieux impliquer les équipes de projet dans la finalisation des recommandations? J’ai trouvé particulièrement utile d’organiser des séances conjointes où les évaluateurs, le personnel de suivi et évaluation et les équipes de projet se réunissent non seulement pour discuter des conclusions, mais aussi pour façonner ensemble les recommandations finales. Lorsque le personnel des projets participe activement à l’interprétation des résultats et à l’élaboration de recommandations qui reflètent leur compréhension des réalités opérationnelles, l’appropriation s’accroît naturellement. D’autres ont-ils expérimenté cette approche?

      Au-delà du défi de l’appropriation, je pense qu’il existe un autre problème fondamental que nous devons affronter plus directement: la qualité des données probantes que nous produisons en tant qu’évaluateurs. Cherchons-nous systématiquement à générer des données solides et crédibles? Lorsque nous présentons des données probantes aux décideurs, sommes-nous certains qu’elles répondent réellement aux normes de qualité, ou se peut-il que, parfois, même involontairement, nous ajoutions un obstacle supplémentaire à leur utilisation, notamment pour des décideurs déjà sceptiques qui peuvent invoquer une qualité jugée discutable pour écarter complètement les conclusions?

      Cela m’amène à ma deuxième question, qui comporte deux volets. Premièrement, disposons-nous d’instruments d’assurance qualité et de processus internes adéquats pour réellement suivre et garantir la qualité des évaluations que nous réalisons? J’ai trouvé les cadres de qualité utiles, bien qu’il reste encore une marge considérable d’amélioration pour les rendre plus objectifs et systématiques.

      Deuxièmement, même lorsque nos données probantes sont solides, à quel point traduisons-nous et communiquons-nous efficacement nos résultats aux décideurs? Nos rapports et présentations sont-ils réellement accessibles et pertinents par rapport à la manière dont les décisions sont prises au sein des organisations, ou produisons-nous des livrables techniquement solides mais pratiquement difficilement utilisables?

      Ces questions ne visent pas à détourner l’attention des obstacles systémiques que nous avons identifiés, mais plutôt à encourager une réflexion plus approfondie sur notre propre rôle dans le défi de l’utilisation.

      Dans l’attente de vos perspectives à ce sujet.