Estoy de acuerdo con el planteamiento de que la aplicación rígida de una herramienta, sea cual sea, probablemente no dé lugar a un resultado positivo. Puede tratarse de la aplicación rígida de las teorías del cambio, un enfoque demasiado utilizado que se ha convertido en sinónimo de «hacer» evaluación y que, sin embargo, sigue sin utilizarse en toda su extensión en la mayoría de los informes de evaluación que leo. O con la sobrevaloración de los ensayos controlados aleatorios (ECA) en función de intereses ideológicos. O con la aplicación rígida de los criterios del CAD de la OCDE basados en un paradigma esperado. Existen vías esperadas sobre lo que debe ser el «conocimiento» dentro de nuestro campo que contribuyen a esta rigidez, sobre todo cuando se aplican de forma mecanicista, y su uso excesivo puede, de hecho, perpetuar la naturaleza burocrática de nuestros sistemas establecidos. Estoy totalmente de acuerdo con los puntos planteados por Dahler-Larsen y Raimondo en Copenhague hace varios años en la EES.
Sin embargo, también creo que cualquier herramienta, como un análisis de evaluabilidad, no debe descartarse basándose en este mismo argumento. Creo que una línea de investigación más útil podría ser pensar en cuándo y cómo podrían ser más útiles las EA. En mi experiencia, las EA pueden ser una herramienta para romper con la evaluación mecanicista y los sistemas burocráticos -y sí, un intento de romper con la apropiación de la evaluación por parte de la dirección- mediante una mejor definición de un enfoque significativo y útil para una evaluación. O la decisión de no realizar una evaluación en función de sus resultados. Creo que el reto está en el nivel organizativo, con el inevitable intento de estandarizar y crear normas para su uso en las realidades complejas.
RE: Evaluability Assessments: An invitation to reflect and discuss
United States of America
Amy Jersild
PhD Candidate and evaluation consultant
Western Michigan University
Publicado el 23/08/2024
Hola a todos,
Estoy de acuerdo con el planteamiento de que la aplicación rígida de una herramienta, sea cual sea, probablemente no dé lugar a un resultado positivo. Puede tratarse de la aplicación rígida de las teorías del cambio, un enfoque demasiado utilizado que se ha convertido en sinónimo de «hacer» evaluación y que, sin embargo, sigue sin utilizarse en toda su extensión en la mayoría de los informes de evaluación que leo. O con la sobrevaloración de los ensayos controlados aleatorios (ECA) en función de intereses ideológicos. O con la aplicación rígida de los criterios del CAD de la OCDE basados en un paradigma esperado. Existen vías esperadas sobre lo que debe ser el «conocimiento» dentro de nuestro campo que contribuyen a esta rigidez, sobre todo cuando se aplican de forma mecanicista, y su uso excesivo puede, de hecho, perpetuar la naturaleza burocrática de nuestros sistemas establecidos. Estoy totalmente de acuerdo con los puntos planteados por Dahler-Larsen y Raimondo en Copenhague hace varios años en la EES.
Sin embargo, también creo que cualquier herramienta, como un análisis de evaluabilidad, no debe descartarse basándose en este mismo argumento. Creo que una línea de investigación más útil podría ser pensar en cuándo y cómo podrían ser más útiles las EA. En mi experiencia, las EA pueden ser una herramienta para romper con la evaluación mecanicista y los sistemas burocráticos -y sí, un intento de romper con la apropiación de la evaluación por parte de la dirección- mediante una mejor definición de un enfoque significativo y útil para una evaluación. O la decisión de no realizar una evaluación en función de sus resultados. Creo que el reto está en el nivel organizativo, con el inevitable intento de estandarizar y crear normas para su uso en las realidades complejas.
Saludos, Amy