«En casa del herrero,…»: la evaluación de la  investigación

En casa del herrero, cuchillo de palo…

Durante los últimos tres años he sido presidente del panel de Economía de la Agencia Estatal de Investigación. He aprendido algunas cosas interesantes. Por ejemplo, mis colegas no se parecen mucho al estereotipo del homo oeconomicus/femina oeconomica. Dado el trabajo inmenso que hacen, intentando que el dinero público llegue a las mejores manos, con una bajísima compensación monetaria y ninguna profesional, más bien los hace merecedores de pertenecer al género altruisticus. Otra cosa menos optimista que también he aprendido es que el status quo de los procedimientos de evaluación es carísimo. Y les voy a presentar una evidencia que me hace pensar que es extraordinariamente ineficiente.

Los programas de evaluación de la investigación

Aunque la Agencia evalúa muchas cosas, hay dos tipos de programas que sobresalen. Por una lado están los de “Generación de Conocimiento” que se dan a grupos de investigadores. Por otro lado, existen los programas de “recursos humanos” para investigadores individuales que se van a integrar  en equipos o departamentos, como Juan de la Cierva y Ramón y Cajal.

En los dos casos, los investigadores responsables presentan un programa de trabajo, el “proyecto” y su CV. Luego, un grupo de entre tres y cinco científicos estudia esos materiales. Esto, claro está, después de un filtro del personal de la Agencia para eliminar candidaturas que no se ajustan a los términos de la convocatoria. Este año había unos 300 proyectos de Generación de Conocimiento candidatos en el área de Economía.

Si cada proyecto se estudió durante una hora por parte de cinco científicos, imaginen el coste de oportunidad, es decir, la cantidad de investigación científica que esta gente dejó de hacer para evaluar esos proyectos.

Todo ello sin computar el esfuerzo de los científicos que han escrito los proyectos, dedicando, posiblemente, varias semanas para cada uno. A todos los economistas con los que he hablado les llama mucho la atención que se dediquen tantos recursos a estas actividades para evaluar la investigación. A todos nos gustaría saber si se pueden ahorrar algunos. Sobre todo, teniendo en cuenta que la cantidad media destinada a financiar esos proyectos oscila entre 50 y 100.000 euros para equipos de entre 3 y 6 personas de media, para un periodo de 3 años. En definitiva, se reparten unos 5.000 euros por persona y año, cifra que en cualquier departamento razonable de USA o UK se conceden como fondo de investigación solamente por el hecho de ser miembro activo del departamento.

¿Es eficiente este modo de evaluar la investigación?

Teniendo en cuenta el propósito de la Agencia, lo natural sería que el procedimiento se hubiera evaluado para ver si esa forma de actuar es efectiva, dado su coste. Pero, que yo sepa, no se ha hecho. Ya saben, en casa del herrero, cuchillo de palo. El sistema ya era así cuando me doctoré, en 1993 y la Agencia aún no existía. Por suerte, mi colega Anxo Sánchez me ha sugerido que lea una evaluación aplicada en los Países Bajos en la que se sugiere muy fuertemente que el sistema es ineficiente y que debería estudiarse seriamente un cambio.

El artículo en cuestión tiene un título muy descriptivo: “¿Importan los textos de las solicitudes de proyectos para las decisiones de financiación?: un experimento de campo.”

¡Spoiler alert: no importan!

Veamos cómo lo demuestran los autores (Müge Simsek, Mathijs de Vaan y Arnout van de Rijt). En primer lugar, el método es una evaluación aleatorizada, es decir, un gold standard de la evaluación en ciencia. Y, en segundo lugar, es una evaluación de campo, con solicitudes reales y en un entorno con consecuencias, no un experimento de “laboratorio”.

Un experimento sugerente para la evaluación de la investigación

Alcance y criterios de selección

El experimento se realizó con 182 candidaturas procedentes de ocho paneles de Ciencias Sociales y Humanidades de la Agencia de Evaluación de los Países Bajos. Cada una de las 182 solicitudes se asignó a dos panelistas de la forma habitual y a otros dos panelistas “en la sombra”. Todos ellos tenían que evaluar las solicitudes con tres puntuaciones en una escala de 1 (excelente) a 9 (malo):

  • Una puntación otorgada a la calidad del investigador (el CV)
  • Otra destinada a la calidad, el carácter innovador y el impacto académico de la investigación propuesta (puntuación de la propuesta).
  • La tercera se aplicaba al potencial de utilización del conocimiento para la sociedad y para la economía (puntuación de utilización del conocimiento).

Por cierto, este sistema de evaluación es muy similar a lo que se hace en España y en otros países para los que he realizado evaluaciones.

Campo y resultados

Los panelistas en la sombra se asignaron de manera aleatoria a dos tipos de tratamiento: en uno de ellos veían la propuesta completa y el CV; en el otro, solamente el CV y un resumen de la propuesta.

Los resultados son bastante llamativos. Los porcentajes de desacuerdo en los rankings o en las notas son estadísticamente iguales en los dos tratamientos, tanto en el ranking general como desagregando por cada uno de los ítems a valorar.

En resumen, si se mezclaran los evaluadores de las dos condiciones los resultados habrían sido estadísticamente equivalentes.

¿Y si ponemos algunos procedimientos en tela de juicio?

La utilidad del curriculum vitae para la evaluación de la investigación

No creo que a ninguno de mis lectores que hayan vivido estos procesos de evaluación de la investigación en primera persona les sorprenda mucho el resultado. El CV de una persona es un predictor bastante bueno de los resultados que va a obtener en su investigación subsiguiente. Y es verdad que los proyectos dan algo de información sobre la trayectoria futura.

Si es así, ¿de verdad hace falta torturar a los candidatos y a los evaluadores con la configuración de un proyecto para conseguir 5.000 euros al año, si podemos juzgarlos mirando su CV?

Obviamente, este procedimiento no sirve para todo. Los investigadores más jóvenes pueden no tener un CV tan voluminoso como para juzgarlo, pero los investigadores principales de los proyectos de generación del conocimiento suelen estar bastante consolidados.

Sobre los fondos destinados a la investigación

Nos podría preocupar que este sistema diera siempre el dinero a las mismas personas. Pero, fíjense en que el artículo que les he compartido ya se dice que hay desacuerdos incluso en el juicio acerca de los CV, de manera que esto no es completamente cierto.

Si se quiere introducir un poco más de aleatoriedad para evitar el Efecto Mateo y posiblemente la ausencia de ideas novedosas, otro sistema interesante es dar unos cuantos proyectos “al azar”.

Lo describe muy bien aquí la directora de la fundación Novo Nordisk, Lenne Oddershede, en la que se está decidiendo así la asignación de sus proyectos. Siempre hay, aproximadamente, un 10% de proyectos que son financiables con seguridad. Otro 20% que debería serlo, “si hay dinero”, pero no lo hay para todos los que se presentan, como es obvio.

Nuestros comités, como los suyos, pasan casi todo el tiempo discutiendo acerca de estos últimos. La decisión de la fundación ha sido dar estos proyectos al azar a la mitad de ellos. Se han basado en un interesante informe de la Real Academia Danesa de Ciencias y Letras , que revisa precisamente los procedimientos para la evaluación de la investigación.

Igual se lo comento otro día, pero por hoy ya he abusado mucho de su paciencia. Espero al menos haber provocado un debate sobre la evaluación de la investigación que se me antoja muy importante.


Suscríbete al blog por correo electrónico

Suscripción conforme al RGPD 2016/679.

 

Comentarios
  1. Javier dice: 10/09/2024 a las 17:58

    Opino que, para evaluar y financiar proyectos, lo que habría que valorar es la propuesta en sí y dar el CV por descontado. En todos mis años como evaluador de proyectos tanto en diferentes programas españoles como internacionales, el cv nunca ha sido realmente un factor para la puntuación final: la trayectoria siempre era sólida (junior o senior). Ahora bien, la calidad de la propuesta es lo que variaba enormemente y había proyectos que hacían agua por todas partes (incluyendo solicitudes de figuras importantes). Otra cuestión es que las cantidades individuales por año que suelen concederse en muchos proyectos nacionales sea el dinero que en otros países cada investigador tiene concedido por defecto. Hay que empezar a reclamar una financiación basal continua ya (y resultados de investigación, claro).


¿Y tú qué opinas?