Edit Session
Image
Figura 1. Diagrama de flujo de la investigacion.png
Image
Tabla_1.png
¿Es posible promover una planeación orientada al impacto social entre OSC? Un ensayo piloto de factibilidad no-aleatorizado Las organizaciones de la sociedad civil (OSC) en México implementan un amplio espectro de acciones para combatir los problemas sociales más urgentes. Sin embargo, es infrecuente encontrar organizaciones que realicen intervenciones basadas en evidencia y/o que realicen evaluaciones de impacto. El uso de un enfoque basado en evidencia informa la mejora continua a través de identificar intervenciones inefectivas, redundancias en procesos de implementación y necesidades de entrenamiento del personal. El estándar actual de un enfoque basado en evidencia sugiere que las evaluaciones aleatorizadas son el método más confiable para obtener estimaciones del cambio. Sin Embargo, este enfoque no es aplicable al contexto de la mayoría de OSC en México debido al conocimiento técnico que requiere. Este trabajo tiene por objetivo explorar la factibilidad del uso de un fortalecimiento organizacional en desarrollo y evaluación de intervenciones complejas para mejorar la capacidad de planeación orientada al impacto. Se implementó un proceso de acompañamiento a 12 organizaciones de todo México que incluyó 38 horas lectivas y 12 horas de mentoría enfocadas en la construcción de evidencia de factibilidad: Generación y validación de la teoría de cambio, generación de indicadores de aceptabilidad, fidelidad y resultados de la implementación, y análisis inferencial de datos. Para medir la mejora en el uso y calidad de la evidencia se utilizó la dimensión de planeación de la Escala de Buenas Prácticas, desarrollada por USAID para evaluar procesos de fortalecimiento organizacional, y se realizó una comparativa de medidas repetidas en dos puntos, tomando la línea base y línea final a los dos meses de concluido el proceso. Para medir la posible mortalidad experimental se midió el porcentaje de asistencia y una escala de Likert de cinco puntos de satisfacción general como medida de aceptabilidad. El análisis realizado sugiere que la puntuación media de planeación en la línea base (M=12.36 ;D.E.=5.59) es menor a la puntuación media de planeación en la línea final (M=16.63 ;D.E.=6.68), la diferencia observada es significativa (t(10)=-2.63; p=0.02) y de tamaño grande (d=-0.79). En cuanto a la mortalidad experimental, la mediana de asistencia fue del 100% y a la aceptabilidad del proceso tendió a medianas iguales o mayores a 4.67. Los resultados sugieren que el proceso de implementado se encuentra asociado con una mejora en la capacidad de planeación para el uso y calidad de evidencia de las intervenciones sociales. Podría ser que un enfoque de fortalecimiento como el implementado favorezca el impacto social de las OSC. Este trabajo está limitado por el tamaño muestra y el diseño de medidas repetidas, los datos obtenidos son promisorios y sugieren que sería factible realizar una evaluación aleatorizada considerando baja mortalidad experimental, alta aceptabilidad y un tamaño de efecto grande. Dada la urgencia de los problemas sociales en México, es prioritario encontrar formas para incrementar el impacto social del sector, por ende, se buscará repetir este proceso con un diseño aleatorizado.   Introducción Las organizaciones de la sociedad civil (OSC) en México atienden una gran diversidad de problemas. Datos de 2017 reportan la existencia de al menos 41,782 OSC en los registros oficiales del país y cuyos intereses temáticos son ampliamente diversos; desarrollo económico y comunitario sostenible, servicios asistenciales, humanitarios y de apoyo a grupos vulnerables, salud, derechos humanos, educación, arte y cultura y medio ambiente (Johansen Campos, Martínez Benítez, & Revilla Casaos, 2019). Sin embargo, a pesar de esta gran diversidad, las OSC enfrentan fuertes retos para tener un mayor impacto. Por ejemplo, un sondeo del área metropolitana de Guadalajara sugiere que alrededor del 66% de organizaciones experimenta dificultades para incidir en la agenda pública o no saben como hacerlo (Alpuche Cabrera, Heredia Talavera, Carrillo Hernández, de la Peña Subacius, & Valencia González, 2021). En una línea similar, un diagnóstico realizado a organizaciones donantes encontró que la forma en que miden y reportan su impacto es un área de oportunidad; solo el 24% ha realizado algún tipo de evaluación de impacto de su trabajo (Johansen Campos & Olvera Ortega, 2019). Complementariamente, otro sondeo enfocado en organizaciones comunitarias encontró que las evaluaciones empleadas han sido predominantemente sobre el ejercicio presupuestal, visitas de campo, y reportes narrativos (Olvera Ortega, Layton, Graterol Acevedo, & Bolaños Martínez, 2016). En suma, predomina en entre las OSC un tipo de aproximación que dificulta el uso de un enfoque basado en evidencia; la forma de evaluar parece no informar la mejora continua, la identificación de intervenciones inefectivas, redundancias en procesos de implementación y necesidades de entrenamiento del personal. El panorama mencionado ha impulsado la generación de recomendaciones para apoyar a las OSC a incrementar su impacto a través de fortalecer sus capacidades de aprendizaje continuo y de propiciar un ambiente en el que las lecciones aprendidas y las evaluaciones sirvan para mejorar la entrega de servicios en comunidad y la administración (Olvera Ortega et al., 2016). Uno de los enfoques más aceptados y difundidos para lograr lo anterior es el desarrollo de capacidades de evaluación (DCE), que puede ser definido como un proceso que se usa para incrementar la motivación, el conocimiento y las habilidades individuales, para favorecer que una organización sea capaz de utilizar la evaluación (Labin, Duffy, Meyers, Wandersman, & Lesesne, 2012). Sin embargo, a pesar de lo extendida que se encuentra la práctica y del nivel de consolidación teórica, la evidencia empírica a su favor aun no es lo suficientemente robusta (Labin et al., 2012; Suarez-Balcazar & Taylor-Ritzler, 2014). Por un lado, se tiene evidencia prospectiva a favor del impacto positivo del DCE. Un estudio prospectivo dio seguimiento a una cohorte de 292 iniciativas durante cuatro años encontró que a través de involucrar y favorecer la participación de una organización en actividades de evaluación y de uso de información se aumenta la probabilidad de lograr los resultados deseados y su sustentabilidad (Clinton, 2014). De forma similar, un estudio cuasi-experimental de medidas repetidas con un grupo control, evaluó el impacto de un entrenamiento en DCE entre 226 participantes y encontraron diferencias significativas a favor de quienes tomaron el entrenamiento en sus puntuaciones auto reportadas de mentalidad de evaluación, capacidad de evaluación y comunicación de evaluación (Ngai et al., 2022). Otro estudio que examinó de forma retrospectiva la calidad de los planes de evaluación a lo largo de catorce años a una cohorte de organizaciones concursantes de financiamiento, encontró que aquellas que participaron en programas de DCE mostraron mejores significativas a lo largo del tiempo (Wingate et al., 2022). En suma, la evidencia observacional y cuasiexperimental tiende a sugerir un efecto positivo del DCE en habilidades auto reportadas y en la calidad de productos de evaluación. A la fecha no se ha reportado algún ensayo clínico controlado (ECA) en DCE. Sin embargo, algunos ECA en desarrollo de capacidades muestran resultados contrastantes. Por ejemplo, un estudio realizado con 200 municipalidades a las que se asigno un día de desarrollo de capacidades para desarrollar proyectos de adaptación a la crisis climática, encontró que después de dos años no se detectaron diferencias significativas entre los grupos en cuanto a la aplicación de proyectos (Alpízar, Bernedo Del Carpio, Ferraro, & Meiselman, 2019). Por otra parte, un estudio que se enfocó en desarrollo de capacidades para la implementación de guías alimentarias entre espacios comunitarios para ejercicio y recreación, encontró mejoras estadísticamente significativas del ambiente alimentario en el grupo que participó por 18 meses en un entrenamiento de desarrollo de capacidades (Olstad et al., 2019). Esta evidencia experimental parece apoyar la noción de que el desarrollo de capacidades funciona cuando la intervención es prolongada, por lo que podría ser que una intervención de DCE muestre un efecto similar. La revisión de la literatura presentada sugiere que las intervenciones de DCE podrían funcionar para mejorar la efectividad de las OSC. Sin embargo, la evidencia es limitada dado que no se cuenta con ningún ECA enfocado en el tema y los estudios actuales han tendido a enfocarse en métricas de auto reporte y en diseños prospectivos. Dada la urgencia y gravedad de los problemas sociales que se enfrentan en México, es importante identificar mecanismos que puedan contribuir a que las OSC tengan un mayor impacto. En consecuencia, este trabajo explora la factibilidad del uso de DCE para mejorar la capacidad de productos de planeación orientada al impacto con el fin de planificar un ECA enfocado en DCE. Métodos Diseño Para responder a los objetivos de este estudio se escogió un diseño cuasi experimental de un solo brazo, con mediciones antes y después. Es decir, se estableció una línea base con un conjunto de organizaciones que fueron medidas nuevamente a los tres meses de finalizar la intervención. Reclutamiento y proceso de selección Para poder participar en el estudio, una organización de segundo piso lazó una convocatoria de alcance nacional a través de sus redes sociales, para invitar a posibles interesadas a aplicar para formar parte de la cohorte que conformaría el estudio. Para la recolección de datos se solicitó a las organizaciones responder un cuestionario en línea a través del servidor de la organización de segundo piso. Se estableció como criterios de exclusión a) ser una organización con un mínimo de 5 años de constitución legal; b) contar con documentación sobre la sistematización del modelo de intervención a través de manuales operativos y diagnósticos; c) tener conocimientos en manejo de hojas de cálculo; d) estar abiertos a aprender y utilizar software para estadística; y e) comprometerse a atender las clases y mentorías virtuales. Las organizaciones que cumplieron con estos criterios respondieron la línea base de la escala de buenas prácticas (EBP) y un equipo procedió a verificar los puntajes auto reportados con la documentación compartida. Durante la verificación, la calificación reportada se ajustó de acuerdo con la evidencia proporcionada por las organizaciones. Posteriormente se ordenaron de mayor a menor calificación verificada y un comité de la organización de según piso evaluó si el postulante de cada organización se encontraba en una posición de toma de decisión y para modificar procesos en su organización. Finalmente, se seleccionaron las 12 primeras organizaciones con participantes en roles de toma de decisión y con mejor calificación. La cantidad final de organizaciones participantes se estableció de acuerdo con la disponibilidad de recursos humanos para proporcionar mentoría a los participantes (Ver figura 1). Insertar Figura 1. Intervención La intervención consistió en la implementación de un proceso de acompañamiento organizacional de Febrero a Septiembre del 2022, incluyó 38 horas lectivas en formato virtual divididas en módulos temáticos de 2 horas y 12 horas de mentoría virtuales en módulos de dos horas, enfocadas en la construcción de evidencia de factibilidad: Generación y validación de la teoría de cambio, generación de indicadores de aceptabilidad, fidelidad y resultados de la implementación, y análisis inferencial de datos (Ver Material complementario 1) Medidas Para este estudio se midieron tres constructos. Se midió la aceptabilidad de la intervención de acuerdo con la propuesta del marco teórico de aceptabilidad v2 (Sekhon, Cartwright, & Francis, 2017), se midió la fidelidad de implementación de acuerdo al marco conceptual para la fidelidad de la implementación (Carroll et al., 2007), y se midió el cambio en la planeación orientada al impacto a partir de la Escala de Buenas Prácticas (USAID, 2018) antes de comenzar la intervención y tres meses después de finalizar. El marco teórico de aceptabilidad propone un modelo que encuadra la aceptabilidad en siete dimensiones que pueden medir de forma prospectiva, concurrente o retrospectiva. En esta investigación se midieron de forma concurrente cuatro de las dimensiones propuestas por el autor mencionado; actitud afectiva, autoeficacia, efectividad percibida y desgaste. Para ello se aplicó una encuesta al final de cada sesión en la que se pidió a los participantes expresar su opinión a través de ítems con formato de respuesta tipo Likert de cinco puntos. Cinco ítems se usaron para medir actitud afectiva, un ítem para medir autoeficacia, un ítem para medir efectividad percibida, y porcentaje de asistencia para medir desgaste (Ver material complementario 2). En cuanto a fidelidad de la implementación se utilizó como punto de partida el marco conceptual para la fidelidad de implementación (Carroll et al., 2007), del cual se utilizó la dimensión de adherencia. En ese sentido, se midió el porcentaje de cobertura que se cubrió sobre el plan original a través de verificar el cumplimiento de cada sesión planteada. Adicionalmente, se pidió a los participantes identificar si los objetivos cubiertos en la sesión constituyeron los promocionados a través de un ítem con formato de respuesta Likert de cinco puntos que se aplicó en al final de cada sesión. Para medir el cambio en la capacidad organizacional de la planeación orientada al impacto social se utilizó la dimensión de planeación de la EBP (USAID, 2018). Se decidió utilizar esta herramienta debido a que la organización aliada con la que se implementó el piloto ya tenía embebido en sus procesos administrativos la aplicación y calificación a través de un proceso de verificación de respuestas con productos permanentes o evidencias documentales proporcionadas por cada organización participante. Esta escala surge en el contexto del programa Juntos por la Prevención de la Violencia (JPV), que implementó a agencia de estados unidos para el desarrollo en México. Como herramienta analiza la medida en que una intervención hace uso de evidencia, así como de la calidad de esta. Este instrumento se compone de cinco dimensiones que se califican a través de la verificación de una colección de criterios y que pueden recibir de cero a hasta tres puntos por cada criterio en función de la calidad de evidencia proporcionada La dimensión de planeación de la EBP evalúa cinco criterios que pueden dar de cero a veinticinco puntos. Los cinco criterios que se consideran son: a) un instrumento de planeación conceptualmente sólido; b) objetivos, componentes, población objetivo y tamaño de la misma, frecuencia y duración de las actividades y/o servicios a dar; c) indicadores de acuerdo al instrumento de planeación; d) un sistema de monitoreo de los indicadores de la teoría de cambio; y e) una estrategia clara de seguimiento a beneficiarios una vez terminada la implementación. Para mayor detalle del proceso de calificación se sugiere ver el manual de la EBP, disponible públicamente (USAID, 2018). Análisis estadísticos En la línea base, se calcularon las medidas de tendencia central y de dispersión para las cinco dimensiones de la EBP, adicionalmente se comparó al grupo seleccionado para participar contra el grupo de organizaciones que no fueron seleccionadas en cuanto las cinco dimensiones de la EBP. Para explorar las aceptabilidad y fidelidad de la intervención, se calcularon las medias de tendencia central y de dispersión para las cuatro dimensiones de aceptabilidad recolectadas y para los dos indicadores de adherencia a la implementación que se usaron para fidelidad. Finalmente, con la intención de estimar el efecto asociado a la intervención se realizó una prueba de comparación de muestras relacionadas en un formato de intención de tratar. Resultados Flujo de participantes y reclutamiento Se lazó una convocatoria a organizaciones de la sociedad civil de México que estuvo abierta por espacio de un mes de enero a febrero del 2022 y que logró reclutar a 60 organizaciones alrededor de México. Como se puede apreciar en el diagrama de lujo (figura X), veintisiete organizaciones presentaron criterios de exclusión para participar. De as restantes treinta y cuatro, se priorizaron de acuerdo con si la persona a participar de la organización postulante era parte de los tomadores de decisión y del puntaje que obtuvieron en el EBP de la línea base. Finalmente, se seleccionaron 12 organizaciones para participar de las cuales una abandono, once completaron el proceso y diez participaron en la medición final. Línea base De las organizaciones participantes, cuatro fueron originarias de Jalisco, dos del Estado de México, y una por cada uno de los siguientes estados: Chihuahua, CDMX, Nuevo León, Puebla y Sonora. Asimismo, el grupo tuvo una mediana de tiempo de constitución legal de 16 años, siendo 14 o menos años la cantidad de tiempo reportada por el 25% de la muestra, y el tercer cuartil de 48 o menos años lo reportado por el 75% de la muestra. Se observó que el grupo seleccionado para participar tuvo una puntuación media estadísticamente mayor que el grupo no seleccionado en planeación e implementación de la EBP (ver tabla 1). Lo anterior es acorde con la forma en que se seleccionaron las organizaciones participantes. De igual forma, es importante mencionar que bajo los criterios de la EBP para calificar el uso de evidencia la dimensión de diagnóstico del grupo participante es la única que tiene una calificación aprobatoria (>14). Insertar Tabla 1. Resultados de aceptabilidad El promedio de los reactivos usados para estimar la actitud afectiva hacia la intervención tuvo una distribución significativamente sesgada hacia la izquierda (Z=-5.25, p<0.001) y una curtosis que sugiere una distribución significativamente puntiaguda (Z=9.29, p<0.001). El 25% de los participantes reportaron una calificación de actitud afectiva igual o menor a 4.81, de manera similar, la mitad de los participantes tuvieron calificaciones iguales o menores a 4.9 puntos, y el 75% reporte puntuaciones iguales o menores a 4.93. Lo anterior sugiere que en general los valores observados se encuentran dentro de rangos favorables para la intervención. Las puntuaciones de autoeficacia presentaron una distribución significativamente sesgada a la izquierda (Z=-3.15, p<0.01) y con una curtosis significativamente puntiaguda (Z=3.89, p<0.001). De la muestra observada, el 25% de las puntuaciones fue menor o igual a 4.67, el 50% de las calificaciones fue menor o igual a 4.90, y el 75% de lo observado fue menor o igual a 4.86. Lo anterior sugiere valores favorables para la autoeficacia de los participantes, es decir que tienden a sentirse confiados de que pueden aprovechar los aprendizajes obtenidos. En cuanto a la eficacia percibida, las puntuaciones tienen una distribución con un sesgo significativo hacia la izquierda (Z=-2.60, p<0.05) y una curtosis que sugiere una agudeza significativa (Z=2.64, p<0.05). Por su parte, el 25% de las puntuaciones son menores o iguales a 4.57, el 50% son menores o iguales a 4.67 y el 75% de lo observado es menor o igual a 4.79. En su conjunto, los valores observados sugieren que las puntuaciones de eficacia percibida son favorables y que los participantes tienden a considerar que la intervención cumple con el propósito que se persigue. El desgaste también presentó valores en rangos favorables. La distribución tu un sesgo significativo hacia la izquierda (Z=2.28, p<0.05), pero a diferencia de las otras puntuaciones, su curtosis sugiere una forma tendiente a lo aplanado (Z=-0.06, p>0.05). El 25% de los participantes tuvo un porcentaje de asistencia menor o igual a 91%, mientras que la mediana y el percentil 75 coinciden con la calificación de 100%. En su conjunto sugiere que la intervención tiene un bajo nivel de desgaste para los participantes y que el esfuerzo que requiere tiende a no interferir con su participación. Resultados de fidelidad Los valores observados de fidelidad en su dimensión de cobertura se encontraron en rangos favorables. Se realizó el total de sesiones planificadas, es decir, que todo el contenido previsto fue cubierto. Aunque se cancelaron dos sesiones de las dieciocho programadas, en ambas ocasiones se reagendo la actividad. Complementariamente, las puntuaciones de fidelidad de la cobertura percibida por los participantes apuntan a la misma dirección; la distribución de las calificaciones tiene un sesgo no significativo a la izquierda (Z=-0.66, p>0.05) y una agudeza tendiente a lo mesocúrtica (Z=-0.67, p>0.05). En consonancia, el 25% de las puntuaciones observadas fue menor o igual a 4.75, mientras que el 50% de la muestra tuvo puntuaciones menores o iguales a 4.83, y el 75% de las puntuaciones observadas fue menor o igual a 4.92. En resumen, la implementación de la intervención tendió hacia la fidelidad de implementación y la misma percepción desde la mirada de los participantes. Resultados de planeación orientada al impacto Para comparar los valores medios observados en las puntuaciones de planeación de la EBP en la línea base y la línea final se realizó una prueba t para muestras pareadas. Los resultados indican un diferencia estadísticamente significativa (t(10)=-2.63, p=0.02). La media de planeación en la línea base (M=12.36, D.E.=5.59) es menor a la puntuación media observada en la línea final (M16.63, D.E.= 6.68) y el tamaño de la diferencia se encuentra en un rango medio a grande (D=-0.79). Lo anterior sugiere que la intervención implementada se asocia a un cambio favorable para las organizaciones participantes en cuanto a su planeación orientada al impacto. Discusión Los resultados obtenidos en este estudio piloto informan la planificación para un ensayo clínico aleatorizado con un tamaño de muestra adecuado. En su conjunto, los mecanismos de reclutamiento, selección, medición, aceptabilidad, fidelidad, y tamaño de efecto observados contribuyen a informar el diseño de un ensayo clínico aleatorizado. En cuanto al proceso de reclutamiento, se observa que la publicación a través de las redes sociales de una organización de segundo piso tiene una buena tasa de respuesta, sin embargo, para poder juntar el tamaño de muestra requerido en un ensayo clínico sería necesario aumentar el tiempo de reclutamiento y/o aumentar tanto la intensidad de publicación como la diversidad de canales. En suma, es factible alcanzar un interés de participación cercano al necesario para un ensayo aleatorizado. El análisis de los criterios de exclusión sugiere que aproximadamente la mitad de los potenciales interesados no cumplirán con los requisitos seleccionados para participar. Lo anterior aumenta el énfasis que será necesario dar al reclutamiento para poder obtener una muestra de tamaño adecuado. Es posible que la publicidad pagada y la participación de más de una agencia de segundo piso pueda incrementar el alcance del reclutamiento. El análisis de la línea base sugiere que las organizaciones tienen un amplio espacio de mejora en cuanto a su uso de la evidencia y de la planeación orientada al impacto ya que sus calificaciones medias se encontraron fuera del rango aprobatorio señalado por el instrumento. En adición, en una futura investigación con un diseño aleatorizado, debería ser posible balancear los grupos en cuanto a sus calificaciones de la EBP. Cabe señalar que la disparidad observada entre los grupos era esperada principalmente en la dimensión de planeación dado que se tendió a escoger para el ensayo a las organizaciones con mayor calificación global. Los resultados de aceptabilidad de la intervención son prometedores. Los sesgos detectados en las distribuciones de los indicadores recabados sugieren que la tendencia de los participantes es sentirse favorablemente sobre la intervención. Es particularmente importante lo observado en el indicador de desgaste, ya que los valores observados sugieren que en un ECA podríamos esperar un bajo nivel de mortalidad experimental y por tanto la cantidad de muestra para compensar relativamente pequeña. Los indicadores de fidelidad observados sugieren que es posible implementar el programa de DCE con estabilidad y apego a lo planificado. Es decir, es posible prospectar que la cantidad de temas y la planificación pueden desplegarse con un alto nivel de apego al tratamiento. Cabe señalar que permanece como un reto de recursos humanos el reclutamiento de mentores especializados que puedan acompañar a las organizaciones. En este estudió piloto el tamaño de muestra se vio limitado por la disponibilidad de profesionales especializados en el tema que simultáneamente contaran con habilidades de acompañamiento. Los resultados observados en la dimensión de planeación de la EBP sugieren que el proceso de implementado se encuentra asociado con una mejora en la puntuación de este aspecto y que el tamaño de efecto observado es mediano. Lo anterior se encuentra en la misma dirección que los trabajos presentados en la revisión de la literatura. Por ejemplo, la extensión relativamente prolongada de la intervención se encuentra en la misma dirección que lo reportado por Olstad et al. (2019). Adicionalmente, los cambios observados en los productos asociados a la planeación de evaluación son similares a los observados por Wingate et al. (2022). Lo anterior sugiere dos cosas, primero que un ECA sobre DCE podría aportar evidencia de mayor robustez sobre su utilidad para mejorar el impacto de las OSC, y segundo, los datos de este estudio podrían informar el cálculo de tamaño de muestra para un estudio de mayor extensión y robustez de diseño experimental. Este trabajo está limitado en cuanto a su capacidad para informar el diseño de un ensayo clínico futuro por la forma de selección final que se aplicó a los participantes. Dado que se seleccionó a aquellos con mejores calificaciones, queda duda sobre la confiabilidad del estimado de desgaste de la intervención. Es decir, la baja deserción que se observó podría ser consecuencia de un mayor nivel de desarrollo organizacional reflejado a través de mejores calificaciones de la EBP. De manera similar, los niveles de aceptabilidad de la intervención podrían resultar afectados con una muestra cuyas calificaciones se encuentra a lo largo de todo el espectro de calificaciones de la EBP. Sin embargo, es posible compensar por estos aspectos a la hora del reclutamiento a partir de ampliar el tamaño de los grupos de un futuro experimento. En suma, los resultados obtenidos en este piloto favorecen la adecuada planeación de un ECA a través de proveer datos confiables de la aceptabilidad, la fidelidad de implementación, y el tamaño de efecto asociado a una intervención de DCE.   Referencias Alpízar, F., Bernedo Del Carpio, M., Ferraro, P. J., & Meiselman, B. S. (2019). The impacts of a capacity-building workshop in a randomized adaptation project. Nature Climate Change, 9(8), 587-591. https://doi.org/10.1038/s41558-019-0536-3 Alpuche Cabrera, C., Heredia Talavera, D., Carrillo Hernández, L., de la Peña Subacius, A., & Valencia González, M. elena. (2021). DIAGNÓSTICO DE CAPACIDADES DE ORGANIZACIONES DE LA SOCIEDAD CIVIL PARA INCIDIR EN POLÍTICAS PÚBLICAS. Jalisco: Prosociedad hacer bien el Bien, A.C. Carroll, C., Patterson, M., Wood, S., Booth, A., Rick, J., & Balain, S. (2007). A conceptual framework for implementation fidelity. Implementation Science, 2(1), 40. https://doi.org/10.1186/1748-5908-2-40 Clinton, J. (2014). The True Impact of Evaluation: Motivation for ECB. American Journal of Evaluation, 35(1), 120-127. https://doi.org/10.1177/1098214013499602 Johansen Campos, E., Martínez Benítez, Beatriz Antonieta, & Revilla Casaos, D. (2019). DATOS A LA VISTA UNA APROXIMACIÓN CUANTITATIVA AL SECTOR DE ORGANIZACIONES DE LA SOCIEDAD CIVIL EN MÉXICO. Ciudad de México: Alternativas y Capacidades, A.C. Recuperado de https://alternativasycapacidades.org/wp-content/uploads/2019/04/Datos-a-la-Vista_20190404.pdf Johansen Campos, E., & Olvera Ortega, M. de los Á. (2019). DIAGNÓSTICO DE DONANTES. EL RUMBO DE LA INVERSIÓN SOCIAL EN MÉXICO. México: ALTERNATIVAS Y CAPACIDADES, A.C. Recuperado de https://alternativasycapacidades.org/wp-content/uploads/2020/09/DiagnosticoDonantes_VF_DigitalSpread.pdf Labin, S. N., Duffy, J. L., Meyers, D. C., Wandersman, A., & Lesesne, C. A. (2012). A Research Synthesis of the Evaluation Capacity Building Literature. American Journal of Evaluation, 33(3), 307-338. https://doi.org/10.1177/1098214011434608 Ngai, S. S., Cheung, C., Li, Y., Zhao, L., Jiang, S., Wang, L., & Tang, H. (2022). Building Program Evaluation Capacity of Non-Governmental Organizations Practitioners in Hong Kong. Research on Social Work Practice, 32(4), 434-447. https://doi.org/10.1177/10497315211067809 Olstad, D. L., Raine, K. D., Prowse, R. J. L., Tomlin, D., Kirk, S. F., McIsaac, J.-L. D., … Naylor, P.-J. (2019). Eat, play, live: A randomized controlled trial within a natural experiment examining the role of nutrition policy and capacity building in improving food environments in recreation and sport facilities. International Journal of Behavioral Nutrition and Physical Activity, 16(1), 51. https://doi.org/10.1186/s12966-019-0811-8 Olvera Ortega, M. de los Á., Layton, M. D., Graterol Acevedo, G. L., & Bolaños Martínez, L. M. (2016). COMMUNITY FOUNDATIONS IN MEXICO: A COMPREHENSIVE PROFILE, 2009-2016. Alternativas y Capacidades A.C. Sekhon, M., Cartwright, M., & Francis, J. J. (2017). Acceptability of healthcare interventions: An overview of reviews and development of a theoretical framework. BMC Health Services Research, 17(1), 88. https://doi.org/10.1186/s12913-017-2031-8 Suarez-Balcazar, Y., & Taylor-Ritzler, T. (2014). Moving From Science to Practice in Evaluation Capacity Building. American Journal of Evaluation, 35(1), 95-99. https://doi.org/10.1177/1098214013499440 USAID. (2018). Guía escala de buenas prácticas en prevención de la violencia. Wingate, L. A., Robertson, K., FitzGerald, M., Rucks, L., Tsuzaki, T., Clasen, C., & Schwob, J. (2022). Thinking Outside the Self-Report: Using Evaluation Plans to Assess Evaluation Capacity Building. American Journal of Evaluation, 43(4), 515-538. https://doi.org/10.1177/10982140211062884
Experience level
Advanced
Intended Audience
All
Session Time Slot(s)
Time
-
Authors

RODRIGUEZ-AKE, AGUSTIN L.