Con la Ley General de Desarrollo Social de 2004, nació el Consejo Nacional de Evaluación de la Política de Desarrollo Social (Coneval). Además de su trascendencia en la medición de la pobreza, uno de sus grandes aciertos fue el establecer estándares profesionales y de coordinación para la valoración de la Política Nacional de Desarrollo Social.
En la práctica, esto se tradujo en el establecimiento de las reglas y metodologías para generar evidencia objetiva que permitiera corregir el rumbo de las estrategias de políticas públicas y asegurar un mejor impacto de la acción gubernamental en todos sus niveles: federal, estatal y municipal, así como en todas sus poblaciones objetivos.
Al comienzo de este esfuerzo inédito, las primeras evaluaciones externas se llevaron a cabo a través de consultores externos, universidades y centros de investigación. Coneval fue incrementando los estándares técnicos, con lo que se obligó a crear comunidades profesionales de evaluación, fomentando que estados y municipios replicaran estos modelos de monitoreo y evaluación para mejorar sus propias gestiones locales. Como resultado, en la mayor parte del país se fortalecieron capacidades técnicas de evaluación, con respeto a los contextos particulares de cada entidad federativa.
Esta función clave hoy está en un alto riesgo de transformarse en una evaluación centralizada y limitada en sus alcances. En 2024, se impulsó una reforma constitucional para eliminar diversos organismos autónomos, incluido el Coneval. En diciembre de 2025, la Unidad de Política y Estrategia para Resultados de la Secretaría de Hacienda y Crédito Público publicó la Convocatoria para integrar el Padrón de Evaluadores de Políticas Públicas y los Lineamientos para la integración del Padrón de Evaluadores de Políticas Públicas que se derivan del Plan Nacional de Desarrollo, de los programas presupuestarios y recursos federales transferidos que pertenecen al Sistema de Evaluación del Desempeño.
Mediante esta estrategia, el gobierno federal busca mejorar la calidad de las evaluaciones de los recursos federales, incluidos los correspondientes al gasto federalizado. La Convocatoria invita a personas físicas y morales a integrarse al Padrón de Evaluadores para el ejercicio fiscal 2026. Para ello, las personas interesadas deben acreditar requisitos legales, fiscales y administrativos, así como experiencia y capacidad técnica en evaluaciones realizadas en la Administración Pública Federal durante los últimos cinco años.
El proceso inició con el envío de solicitud y documentación por correo electrónico entre el 2 y 16 de enero de 2026. Tras una revisión inicial y posible subsanación, los aspirantes que cumplan los requisitos formales realizarán un examen de capacidades técnicas y normativas (del 9 al 11 de febrero). Un Grupo Dictaminador evaluará dos componentes: la persona física o moral (máximo 25 puntos) y la persona coordinadora de la evaluación (máximo 75 puntos), con un puntaje total mínimo de 80 para ser autorizados. Los resultados se comunicarían el 27 de febrero y el registro otorgado tendrá vigencia de dos años. Todo el proceso está centrado en experiencia reciente y en criterios técnicos alineados al modelo de gestión presupuestal federal.
La construcción de un padrón puede fortalecer la evaluación si está diseñada para agilizar procesos, consolidar comunidades evaluadoras y, en general, dotar de un mercado de evaluación más competitivo no sólo al gobierno federal, sino también en los estados y municipios. A continuación, se presenta una serie de mecanismos establecidos para integrar el padrón, que podrían tener efectos no positivos.
|
PROBLEMA |
MANIFESTACIÓN CONCRETA |
IMPACTO CRÍTICO |
| 1. PROBLEMAS OPERATIVOS |
|
|
| 2. INCONSISTENCIAS NORMATIVAS |
|
|
| 3. EXCLUSIÓN TERRITORIAL |
|
|
| 4. SESGO METODOLÓGICO |
|
|
| 5. CONCENTRACIÓN DE MERCADO |
|
|
Fuente: Elaboración propia.
Por lo que se refiere al primer punto, los problemas operativos, el calendario establecido resulta insuficiente para reunir la documentación extensa requerida. Asimismo, la solicitud del “Documento de Posición Institucional o equivalente” es problemática porque no todas las dependencias federales o estatales emiten estos documentos. El hecho de que el examen de capacidades técnicas y normativas —que debería ser el instrumento más objetivo para medir competencias reales— valga sólo 25 puntos de 100 (apenas el 25 % del puntaje total) invierte las prioridades: un evaluador con conocimientos metodológicos profundos pero sin experiencia federal previa tiene mínimas posibilidades de ingresar, mientras que alguien con conocimientos mediocres pero contratos previos y documentos de posición favorables puede calificar fácilmente. Estos problemas operativos no son meros inconvenientes administrativos; pueden privilegiar contactos establecidos y trayectorias burocráticas sobre capacidades técnicas.
En cuanto al segundo punto, las inconsistencias normativas, se invoca el artículo 134° constitucional que mandata administrar recursos con eficiencia, eficacia, economía y transparencia, pero la restricción del padrón reduce la competencia (elevando costos), excluye evaluadores competentes (disminuyendo calidad potencial), concentra el mercado (impidiendo optimizar recursos). Estas disposiciones contradicen la Ley Federal de Competencia Económica al crear barreras a la entrada injustificadas técnicamente que favorecen la concentración en beneficio de agentes económicos establecidos.
Incluso contradice los propios Lineamientos Generales de Gestión para Resultados que promueven innovación (pero el padrón penaliza enfoques innovadores), enfoque en resultados (pero privilegia formalidades sobre capacidades demostrables), y mejora continua (pero la concentración reduce incentivos para mejorar). El sistema de puntuación carece de fundamentación: no se explica por qué Procesos/Indicadores vale ×3, por qué el coordinador vale 75 puntos versus 25 de la entidad, o por qué publicaciones académicas —que podrían ser decenas de artículos— valen sólo 10 puntos máximo.
Otro efecto adverso es la exclusión territorial. El requisito de presentar evaluaciones realizadas “en la Administración Pública Federal en los últimos cinco años” excluye a evaluadores con experiencia valiosa en contextos estatales y municipales, descartando automáticamente el conocimiento acumulado en la evaluación de fondos de aportaciones federales (Ramo 33). Esta exclusión puede carecer de pertinencia si se considera que la mayoría de las políticas públicas federales se implementan a nivel territorial a través de estados y municipios. Asimismo, el artículo 49 de la Ley de Coordinación Fiscal mandata la evaluación de estos recursos federales transferidos. Un evaluador que ha analizado durante una década cómo se ejercen fondos como el FAEB, FASSA o FORTAMUN en diversos estados posee conocimientos críticos sobre implementación territorial, coordinación intergubernamental y adaptaciones locales que quedan completamente descalificados por criterios administrativamente artificiales y técnicamente irrelevantes.

Una consecuencia también riesgosa tiene que ver con los sesgos metodológicos. El sistema de ponderación establecido en la Convocatoria privilegia de manera arbitraria enfoques metodológicos tradicionales sobre paradigmas evaluativos innovadores. La asignación de multiplicadores (×3 para Procesos/Indicadores, ×2 para Estratégica/Específica, ×1 para Consistencia y Resultados) carece de fundamentación técnica y no refleja la complejidad metodológica real de cada tipo de evaluación. Es notable que las evaluaciones de impacto —consideradas por la comunidad internacional como las más rigurosas metodológicamente— están ausentes del sistema; las evaluaciones de diseño también fueron ignoradas; las evaluaciones de procesos que tienen el más alto ponderador no suelen ser las más recurrentes en los programas anuales de evaluación.
También hay que decir que los criterios de “afinidad académica” excluyen disciplinas altamente relevantes como antropología, geografía humana, estudios de desarrollo y ciencia política comparada. Este sesgo margina metodologías como la Evaluación Realista (Realist Evaluation), enfoques participativos validados por Unicef y el Banco Mundial, la Evaluación de Desarrollo (Developmental Evaluation) de Michael Quinn Patton, métodos mixtos avanzados como Process Tracing y QCA, y evaluaciones basadas en teoría (Theory-Based Evaluation) o evaluaciones participativas. El resultado es un padrón que perpetúa enfoques convencionales sin espacio para la innovación metodológica.
Contrario al espíritu de apertura que mantuvo por muchos años el Coneval, este padrón puede generar oligopolios centralizados en materia de evaluación. De entrada, el requisito de cinco años de experiencia en evaluaciones federales genera un círculo vicioso que consolida a aquellas consultorías con contratos en los últimos cinco años nada más. El mercado de evaluaciones federales es inherentemente pequeño —alrededor de 40-150 evaluaciones anuales—, por lo que sólo reconocer la validez de algunas consultorías o algunos consultores, generaría un mercado aún menos competitivo en términos de su calidad y representatividad nacional.
La concentración tiene consecuencias documentadas: reducción de la competencia efectiva en licitaciones, encarecimiento artificial de servicios sin justificación técnica, homogeneización metodológica, exclusión de talento emergente que impide la entrada de investigadores jóvenes con formación metodológica de punta. Incluso, también se excluyen a evaluadores de larga experiencia que no han podido ser evaluadores de los programas públicos durante la última administración. Por ejemplo, bajo los parámetros del nuevo padrón, investigadores de la talla de Gary King —reconocido por su análisis de Progresa— serán excluidos de acceder al registro.
Mientras se escriben estas líneas, el proceso sigue su curso y tras los exámenes, habrá una lista muy pequeña y sesgada de evaluadores. Jamás se dialogó con las comunidades de evaluadores para pensar en cómo generar un padrón propositivo y representativo de la diversidad nacional y subnacional. Esta tarea debe considerar varios aspectos hasta ahora mantenidos al margen.
Primero, reconocer la experiencia en evaluaciones estatales y municipales, sobre todo del Ramo 33, con ponderación equivalente (1.0) dado que son recursos cuya evaluación está mandatada por ley federal. Segundo, ampliar los enfoques metodológicos aceptados, reconociendo metodologías innovadoras y expandiendo los criterios de afinidad académica Tercero, reducir barreras de entrada eliminando el periodo de experiencia requerido. Lo que sí es posible hacer con los años de experiencia es crear categorías diferenciadas (Junior/Senior/Experto), aumentando el peso del examen técnico de 25 % a 40 %, y permitiendo portafolios alternativos como publicaciones peer-reviewed. Cuarto, fundamentar técnicamente todos los multiplicadores y pesos mediante metodología transparente, e implementar evaluación de desempeño continúa con consecuencias reales. Finalmente, garantizar transparencia absoluta publicando puntajes anonimizados de todos los aspirantes y las actas completas del Grupo Dictaminador.
Un padrón de evaluadores profesional debe medirse por la calidad de los estudios que produce, por la evidencia generada y por su capacidad para compartir las mejores prácticas institucionales. Construir este padrón a partir de la exclusión y la centralización es contradictorio con los principios de un federalismo cooperativo y con la necesidad de fortalecer a la comunidad profesional que no pondera el espacio geográfico evaluado, sino los enormes aprendizajes compartidos en todos los umbrales de las políticas públicas.
Nancy García
Departamento de Políticas Públicas de la Universidad de Guadalajara