Publicado el 29/04/2023
¡Gran tema, grandes debates!
La evaluación y la comunicación son dos caras de la misma moneda, que intentan alcanzar objetivos similares (difundir las pruebas de evaluación para su uso en la toma de decisiones). Por cierto, ambas requieren competencias diferentes. No es para tanto.
Volviendo al tema. Supongamos que todos los evaluadores somos profesores. Preparamos lecciones, listos para enseñar, quiero decir facilitar el proceso de aprendizaje. ¿Nos cruzamos de brazos tras la preparación y finalización de la lección? En absoluto. Supongo que no soy el único que cree, con razón, que el profesor seguirá adelante incluso después de enseñar, facilitando un proceso de aprendizaje. Partiendo de la lección anterior, el profesor suele recapitular antes de empezar una nueva. Interesante, ¡parece que nuestras evaluaciones también deberían informar las evaluaciones posteriores!
El escenario del profesor también se aplica aquí, al menos en mi escuela de práctica de la evaluación. La esencia de la evaluación no consiste en elaborar informes o comunicar resultados. ¿Para qué? ¿Para quién y por qué se comunican los resultados de la evaluación? No para archivar, no para marcar la casilla. Sería descorazonador que nosotros, como profesores, después de invertir tiempo y recursos, preparáramos apuntes y orientaciones de clase y nuestros alumnos nunca los utilizaran. ¿Estaría alguien motivado para preparar apuntes y orientaciones para la siguiente lección? Muy pocos lo harían. Por muy apasionados y profesionales que seamos (o debamos ser) como evaluadores, somos agentes de cambio. De acuerdo con nuestras normas éticas y profesionales, nunca debemos darnos por satisfechos con informar de los resultados de la evaluación sin hacer un seguimiento para garantizar que las pruebas de los mismos se utilicen tanto como sea posible. Algunos principios de evaluación incluyen la utilidad de las evaluaciones.
A las buenas preguntas que ha planteado, mis dos centavos:
- Cada evaluación tiene (o debería tener) un plan de difusión y comunicación (o un plan de campaña para el uso de las pruebas de evaluación). Esto debe formar parte del presupuesto general de la evaluación. Los evaluadores deben seguir abogando por la difusión de los resultados de la evaluación en diferentes formatos y para diferentes tipos de audiencia, incluso cuando las evaluaciones hayan finalizado, incluso hace uno o más años.
- Si hay personas que entienden mejor los resultados de la evaluación, el evaluador es una de ellas. Junto con otras partes interesadas que hayan participado en el proceso de evaluación, debe formar parte de los procesos de comunicación para evitar que los comunicadores externos malinterpreten los mensajes y el significado. Los comunicadores (algunas organizaciones tienen funciones específicas, como especialistas en comunicación para el desarrollo) son expertos que conocen los trucos del oficio. Nuestros aliados.
Feliz lectura de las contribuciones de los colegas.
Jean Providence
South Africa
Jean Providence Nzabonimpa
Regional Evaluation Officer
United Nations World Food Programme
Publicado el 03/10/2023
Estimados colegas,
Muchas gracias por hacer un esfuerzo adicional para aportar nuevas perspectivas a esta discusión. Éstas incluyen diseños de métodos mixtos secuenciales, simultáneos y paralelos. En algunos casos, los datos se analizan por separado, mientras que en otros se utilizan análisis de un método para corroborar tendencias o resultados derivados de otro.
Algunas de las contribuciones más recientes reflejan estas ideas fundamentales:
“Los evaluadores [...] cotejan los datos de la encuesta con las conclusiones de la investigación cualitativa y la revisión de documentos o cualquier otro método empleado. [...] En ocasiones, una conclusión de la investigación cualitativa se presenta con datos cuantitativos de la encuesta”. Jackie.
“Los métodos mixtos están muy bien, pero la medida y el orden en que se utilizan se deben basar en las circunstancias del programa y la evaluación. De lo contrario, en lugar de dar respuesta a las preguntas de evaluación de un programa complejo o complicado, nos faltarán datos. Utilizar todo tipo de métodos cualitativos a la vez (encuestas abiertas, entrevistas a informantes clave, reuniones para la reflexión comunitaria, observaciones, revisión de documentos, etc.) además de métodos cuantitativos quizás no sea tan buena idea”. Gordon.
Lal:
Gracias por hacer referencia a dos proyectos: uno sobre “un puente de 1 000 millones de USD para unir una isla con tierra firme en un próspero país del norte de Europa” y otro sobre “una autopista multimillonaria en un país africano”. Se trata de un ejemplo excelente de lo que puede suceder cuando un proyecto se diseña de forma deficiente y se evalúa de forma inadecuada. ¿Puedes compartir algún informe/referencia de estos dos proyectos? Este ejemplo constituye una buena fuente de inspiración para enriquecer nuestra discusión y, lo que es más importante, para mejorar nuestra práctica profesional de la evaluación utilizando métodos mixtos. Me encanta esta reflexión: “el enfoque reduccionista contrapuso la calidad y la cantidad a los objetivos de ambos proyectos”. En este sentido, tu resumen me parece muy acertado: “los suministros alimentarios de emergencia a una zona de desastre no pueden cumplir razonablemente los mismos estándares en materia de calidad o cantidad, y deberían ajustarse para que el abastecimiento fuera adecuado en esas circunstancias”.
Olivier:
Argumentas —acertadamente— que los diseños exploratorios secuenciales son apropiados: “No se puede medir aquello que no se ha concebido adecuadamente. Por tanto, antes de intentar medir algo, siempre es necesaria una exploración cualitativa”. Pero también reconoces que: “hay cabida para enfoques cualitativos tras un esfuerzo de cuantificación”, Tienes razón. En algunos casos, una encuesta puede obtener resultados aparentemente chocantes. Una forma de darles sentido es profundizar en esa cuestión concreta por medio de algunas entrevistas cualitativas adicionales.
Gordon:
Mea culpa. Debería haber especificado que la discusión versa sobre la evaluación de programas, proyectos o cualquier intervención humanitaria o de desarrollo. Haces hincapié —con acierto— en la complejidad que subyace en los programas: “ Los programas no suelen ser sencillos, ya que se desconocen la mayor parte de las cuestiones. Los programas pueden ser complicados o complejos, en función de que sepamos —o no— qué desconocemos”. Uno de los argumentos que has esgrimido parece contradictorio: “cuando algo es demasiado complicado o complejo, ¡la simplicidad es la mejor estrategia!” Para dar contexto a este punto de vista y ayudar a los miembros de EvalForward a comprenderlo, quizás podrías proporcionar más detalles. Asimismo, ¿quién debería decidir qué métodos utilizar? ¿El evaluador o el equipo del programa?
Aunque me gustaría pedir a todos los colegas que leyeran todas las contribuciones, la de Jackie es diferente, repleta de consejos prácticos utilizados en los métodos mixtos.
Jackie:
Muchas gracias por tu tiempo y tus perspicaces comentarios. En relación con nuestra práctica de la evaluación, ¿podrías explicar cómo “se puede responder [cualquier pregunta de evaluación] utilizando un enfoque de métodos mixtos”? En tu opinión, las herramientas de recopilación de datos se desarrollan en paralelo, o de forma simultánea. Y sostienes que hay UNA matriz de diseño de la evaluación. De ahí que ambos métodos intenten responder a la misma pregunta. En cuanto al muestreo, ¿podrías aclarar cómo has utilizado el muestreo probabilístico o no probabilístico? ¿O al menos describir cuál aplicaste, por qué y cómo? ¿Se podría aplicar el muestreo intencional a una evaluación cuantitativa?
Salvo algunos casos, la mayoría de las contribuciones recibidas son más teóricas/hipotéticas que prácticas/experiencias vividas. Creo que sería de gran ayuda conocer consejos prácticos, incluidos informes de evaluación o publicaciones que hayan utilizado métodos mixtos. Por favor, compartan ejemplos prácticos y referencias de métodos mixtos sobre las siguientes cuestiones:
Espero que sigamos compartiendo diferentes ejemplos, referencias y puntos de vista sobre el tema de esta discusión.
South Africa
Jean Providence Nzabonimpa
Regional Evaluation Officer
United Nations World Food Programme
Publicado el 23/09/2023
Esta discusión es interesante e intrigante, especialmente dada la formación y experiencia multidisciplinar de los participantes. Sin adelantarme a otras ideas y nuevas perspectivas que estén dispuestos a compartir, permítanme solicitar aclaraciones adicionales para nuestro aprendizaje compartido. Esta petición no se limita a quienes menciono, es una discusión abierta. Por favor, no duden tampoco en compartir enlaces a otras plataformas o redes.
Consideren estos puntos de vista antes de profundizar en otras cuestiones. Sigan leyendo, la guinda del pastel viene después:
“[Los métodos mixtos en la evaluación] obtienen buenos resultados cuando el proceso de integración está bien definido o cuando los métodos se aplican de forma secuencial (p. ej. estableciendo grupos de discusión para definir las preguntas de las encuestas, o seleccionando casos —sobre la base de las encuestas— para realizar entrevistas en profundidad)”. Cristian Maneiro.
“Cinco propósitos de las evaluaciones que utilizan métodos mixtos: comprobación, complementariedad, desarrollo, iniciación y expansión (también resumido en este artículo)”. Anne Kepple. Animo a todos los profesionales que utilizan métodos mixtos —y a todos los partidarios de este enfoque— a leer este artículo.
“Un buen fontanero utiliza herramientas diferentes según sea necesario y no se pregunta qué reparaciones requieren una única herramienta... Del mismo modo, un buen evaluador debe saber utilizar una amplia variedad de herramientas, no sólo una llave inglesa”. Olivier Cossée.
“La evaluación también analizó y explicó los resultados cuantitativos con información obtenida con métodos cualitativos. Esto no sólo permitió caracterizar la intervención, la política educativa y la financiación, sino que también dio lugar a recomendaciones más pertinentes en materia de políticas”. Maria Pia Cebrian.
Preguntas adicionales:
¡Espero que todos sigamos aprendiendo con esta discusión!
South Africa
Jean Providence Nzabonimpa
Regional Evaluation Officer
United Nations World Food Programme
Publicado el 31/10/2023
Estimados evaluadores, estimados colegas:
¡Muchas gracias a quienes han participado activamente en esta discusión —respondiendo a mis preguntas y comentarios complementarios— y han leído las contribuciones con el fin de aprender!
La discusión ha sido enriquecedora y esclarecedora. Ha puesto de relieve los motivos principales para utilizar los métodos mixtos, así como algunos desafíos y deficiencias persistentes en la aplicación práctica de esta metodología.
En resumidas cuentas: los métodos mixtos han llegado para quedarse. Sin embargo, existen herramientas innovadoras y revolucionarias —como los macrodatos, la inteligencia artificial y el aprendizaje automático— que han empezado a determinar la forma de recopilar, procesar y mostrar la información. Por otro lado, hay carencias metodológicas que subsanar. Como evaluadores, debemos velar por que los métodos mixtos no se limiten a una mención en los términos de referencia y un seguimiento superficial, sino que se utilicen de forma adecuada en la teoría y en la práctica.
Próximamente compartiré un resumen de la discusión con algunas reflexiones metodológicas personales. ¡Estén atentos!
JP