Posté le 09/10/2023
Chère Jean et chers collègues.
Merci d'avoir précisé que la discussion ne se limite pas aux programmes, mais qu'elle englobe également les projets ou toute intervention humanitaire ou de développement. Cette discussion est très intéressante et riche en informations. J'apprends beaucoup dans ce processus !
Lorsque je dis "lorsque quelque chose est trop compliqué ou complexe, la simplicité est la meilleure stratégie" dans le contexte des évaluations, je veux dire qu'il n'est pas nécessaire d'utiliser un ensemble ou plusieurs méthodologies et sources de données pour qu'une évaluation soit sensible à la complexité. Les données, tant quantitatives que qualitatives, peuvent rester légères et se concentrer sur les objectifs et les questions de l'évaluation. Par exemple, l'utilisation d'approches d'évaluation tenant compte de la complexité, telles que la récolte des résultats, la traçabilité des processus, l'analyse des contributions, l'analyse des réseaux sociaux, etc. ne signifie pas nécessairement qu'il faut appliquer plusieurs méthodes de collecte de données quantitatives et qualitatives. Par exemple, dans le cadre de l'Outcome Harvesting, il est possible d'utiliser l'analyse documentaire et les entretiens avec des informateurs clés pour élaborer des descripteurs de résultats, puis de réaliser une enquête et des entretiens avec des informateurs clés au cours de la phase de corroboration. J'ai utilisé l'analyse des réseaux sociaux et les entretiens avec des informateurs clé our évaluer les changements dans les relations entre les acteurs d'un système de marché. J'ai utilisé l'analyse des réseaux sociaux suivie d'entretiens avec des informateurs clés dans le cadre d'une étude d'impact social d'un programme de développement de l'esprit d'entreprise chez les jeunes ruraux. En substance, vous pouvez limiter les méthodes de collecte de données à trois (le tabouret à trois pieds ou le concept du triangle) et atteindre vos objectifs d'évaluation avec des données légères et précises. On a beaucoup écrit sur la simplicité pour surmonter la complexité dans différents domaines de la vie, de la gestion, du leadership, etc.
En ce qui concerne la question de savoir qui décide de la méthodologie, l'évaluateur ou l'équipe du programme ? D'après mon expérience, un plan MEL est très clair sur les mesures et les méthodes d'évaluation. De plus, les plans de MEL sont élaborés par l'équipe du programme. Les évaluateurs sont invités à proposer une méthodologie d'évaluation dans les offres techniques afin de répondre à deux objectifs : évaluer leur compétence technique et identifier la meilleure adéquation avec le plan d'évaluation. En principe, l'évaluateur et l'équipe du programme se consultent sur la méthodologie la mieux adaptée au cours de la phase initiale de l'évaluation et cela fait partie du rapport initial qui est normalement signé par l'équipe du programme.
Voilà ce que j'en pense.
Gordon
Kenya
Gordon Wanzare
MEL/Project Management Specialist
Posté le 25/04/2026
Une discussion qui donne vraiment à réfléchir !
Nous exagérons peut-être l'absence de prospective dans l'évaluation. Le problème ne réside pas dans les outils, mais dans le timing, la profondeur et l'intention.
Premièrement, l'analyse causale par couches (CLA). La plupart des évaluations restent au niveau des énumérations et des systèmes, interrogeant rarement les visions du monde sous-jacentes et l'histoire profonde. Or, c'est précisément là que réside la prospective. Si nous ne remettons pas en question les hypothèses fondamentales — telles que la planification linéaire dans des systèmes volatils —, l'évaluation, aussi sophistiquée soit-elle, ne fait que les renforcer.
Deuxièmement, les registres de risques et la CLA (Collaboration, Apprentissage, Adaptation). Ceux-ci sont omniprésents et souvent bien exécutés, mais restent largement confinés aux limites de la conformité — gérant les risques connus et permettant une adaptation progressive. Ils remettent rarement en question la validité du plan lui-même. La valeur transformatrice n'émerge que lorsque les boucles d'apprentissage vont au-delà de l'ajustement pour recadrer les hypothèses et les objectifs.
Troisièmement, la réflexion stratégique. Les questions stratégiques fondamentales — d'où venons-nous ? où en sommes-nous ? où allons-nous ? comment y parvenir ? comment savoir que nous y sommes arrivés ? – intègrent déjà la prospective, mais l’évaluation reste ancrée dans le passé (d’où venons-nous ?), le présent (où en sommes-nous ? – référence) et les points d’arrivée (comment savoir que nous y sommes arrivés ?) tandis que la prospective critique (où allons-nous ?) et le pont (comment y parvenir ?) restent consultatifs. Forts de données et d’informations exploitables pour la prise de décision, les évaluateurs devraient fortement influencer une prise de décision éclairée par l’avenir.
Quatrièmement, lescritères d’évaluation du CAD de l’OCDE sont intrinsèquement tournés vers l’avenir, mais appliqués a posteriori – en particulier les critères de pertinence, d’impact et de durabilité. S’ils sont rigoureusement intégrés dès la phase de conception – par le biais de tests de résistance de scénarios –, ils font passer l’évaluation de l’audit à la gouvernance anticipative, du contrôle qualité à l’assurance qualité !
Le problème n’est pas l’absence de prospective, mais son confinement. Tant que l’évaluation ne remettra pas systématiquement en question les hypothèses dès le début et en temps réel, nous continuerons à pratiquer la prospective dans la forme, mais le recul dans la fonction.
Gordon