Sobre la promoción del profesorado universitario: una pregunta retórica
En un congreso multidisciplinar, abierto a posibles participantes de todas las ramas del conocimiento, se estableció un premio a la mejor tesis doctoral. Quienes habían defendido su tesis recientemente podían optar a él, exponiendo un resumen de la investigación realizada y de los indicadores de calidad asociados a la misma (por ejemplo, publicaciones de impacto que se han derivado , número de citas, etc.). Uno de los candidatos explicó su investigación que, resumiendo mucho para facilitar esta exposición, consistía en lo fundamental en comprobar la diferencia de unas características (ahora da igual si se referían a variables de tipo social, fisiológicas o de cualquier otro tipo) en dos contextos diferentes. Añadió que de esa investigación se habían derivado ya 5 publicaciones Q1, y alguna más en evaluación. Uno de los miembros del jurado al comentar la exposición, y por preguntar algo, le pidió que explicara un poco más cómo había comprobado las diferencias de la medida y qué test estadístico había utilizado. La sorprendente respuesta de quien presentaba dicha investigación fue “¡ahí me has pillado!” El miembro del jurado quedó perplejo. Primero, porque su intervención no tenía ninguna intención de “pillar” a nadie y, segundo, porque alguien que había hecho una tesis doctoral basada en comprobar unas diferencias no sabía explicar cómo las había obtenido. Hubiera bastado con decir que había aplicado un sencillo test de diferencia de medias o un ANOVA, algo extremadamente básico en cualquier investigación empírica.
En otra exposición similar se presentó una investigación en la que se había efectuado una clasificación de individuos de una determinada especie aplicando análisis cluster. De nuevo la investigación ya había dado lugar a varias publicaciones en revistas de impacto. Al autor que presentaba también se le formuló una pregunta, más parecida a una deferencia que a un examen, consistente en que diera algún detalle adicional sobre las características del análisis cluster aplicado (distancia utilizada, procedimiento de agrupación elegido, etc.). La respuesta fue el silencio, mientras el ponente miraba al resto del equipo, presente en la exposición, en busca de ayuda.
Son dos anécdotas verídicas, pero se podrían poner muchas más. Estas situaciones se observan con más frecuencia de la deseable. ¿Cómo es posible que alguien que ha investigado sobre la diferencia entre dos medidas o que ha llevado a cabo una determinada clasificación no sepa dar detalles acerca de dicha investigación? ¿Cómo es posible que se llegue a tener ese número de publicaciones en revistas de impacto y no se sepa explicar lo básico sobre lo que trata el trabajo?
En La era del acceso, el economista Jeremy Rifkin subrayaba la importancia que ha alcanzado el acceso en detrimento de la que tuvo, aún la tiene, la propiedad. Destaca que lo importante es tener acceso, estar conectado, tener cobertura o tener el uso. Antes se compraba un libro, un disco, un cd o un determinado software, mientras que ahora se paga por tener acceso a una plataforma, por estar conectado o por un software que solo podemos usar online.
Salvando las distancias, esta perspectiva de la era del acceso puede tener cierto paralelismo con cómo se orienta la ingeniería curricular, acelerada por los sistema de evaluación imperantes (ver aquí). Esa ingeniería no es igual que la investigación, pero la condiciona bastante. La clave es acceder a un grupo, sobre todo acceder/aparecer en publicaciones de impacto. El hecho de que “la investigación esté bien o mal hecha, sea útil o no, tenga interés o no, es secundario, lo que yo quiero es tener un número X de JCR cada año”. El entrecomillado se debe a que es un comentario literal de un colega, que hace tiempo me reconoció, con esta cruda sinceridad, su orientación. Lamentablemente, es una perspectiva cada vez más extendida. (Quede claro que la investigación en colaboración es necesaria, cuando no imprescindible. La crítica se refiere a determinados usos y abusos que se dan en la práctica).
La analítica de las distintas plataformas (por ejemplo, Google Analytics, Google Scholar, Clarivate Analytics, Scopus, etc.) proporcionan un bosque de indicadores para medir el desempeño como investigador. Claro que tienen utilidad, pero me temo que sobre ello hay un exceso de análisis cuantitativo, en ocasiones simplista, y un gran déficit de análisis cualitativo.
En ejemplos como los mencionados, los autores aparecerán con un buen número de publicaciones, incluso en Q1, con citas y puntuaciones en las diferentes plataformas al uso. En suma, pueden presentar unos indicadores magníficos para su corta trayectoria investigadora, y sin embargo no saben responder a lo básico de su investigación, quedando la duda de lo que representa su verdadera aportación. En ese cómputo cuantitativo, un investigador aparecerá mejor que otro simplemente por su habilidad al manejar la reputación digital (incluyo indicadores bibliométricos) o por “re-publicar” mucho; aunque, en lo fundamental, su aportación sea menor.
El sistema actual favorece a quienes son más expertos en esa apariencia que en la realidad que se pretende evaluar. Cuando un investigador no sabe los trabajos que tiene en evaluación ni en qué estado se encuentra dicha evaluación, es muy probable que sea del primer tipo y, además, que su aportación no sea muy relevante (al menos para él cuando ni le sigue la pista).
Sin embargo, como la evaluación de la investigación es básicamente cuantitativa lo que queda es el número de artículos, impacto de la revista, etc. Menos se sabe, y nada se tiene en cuenta, de la real contribución del autor, de si sabe responder a lo que verdaderamente se hace en la investigación o de si se trata de una repetición más sobre algo sobradamente probado. La necesidad de ese análisis cualitativo, que no es sinónimo de subjetivo, es cada vez más acuciante. Todo esto tiene implicaciones de gran importancia, hasta el punto que condiciona la promoción del profesorado y la consecución de recursos (por ejemplo, proyectos, becas, contratos).
Además, esto es determinante en la acreditación para los cuerpos docentes universitarios. Esto conecta con otra idiosincrasia de nuestro burocrático sistema: en ausencia de competencia, el concurso de acceso a la titularidad o cátedra se convierte en algo de dudosa pertinencia, tal como ahora está. Algo perfectamente prescindible, insisto, como ahora está. Es cierto que hay aspirantes que, aún sin competencia, hacen un verdadero ejercicio de reflexión sobre su materia, un balance completo y crítico de su trayectoria, además elaboran un pensado y argumentado proyecto de futuro para el nuevo estatus al que aspiran (titularidad o cátedra). Incluso el concurso se realiza de manera que la comisión evaluadora tiene tiempo para examinar dicha documentación, normalmente abundante. Esos merecen todo el reconocimiento, toda la valoración. Pero esto, por muy deseable que sea, no es lo habitual. En otros casos se toma como un trámite, en esto hay gran variación en función del carácter del o de la aspirante y la cultura del departamento o área de conocimiento.
Al final, los aspirantes que se toman todas esas molestias que implican muchas horas más de esfuerzo, alcanzan el mismo objetivo que quienes optan por una opción menos esforzada o de trámite, al margen de la satisfacción personal y algún reconocimiento testimonial poco discriminatorio. Al fin y al cabo quienes optan por la segunda opción ya están acreditados y, como no hay rival, tampoco ese esfuerzo adicional tiene un reflejo diferenciado reconocible en el curriculum vitae de quien se toma la molestia respecto de quienes optan por una vía menos esforzada.
En suma, quisiera terminar con la anunciada pregunta retórica: ¿tiene sentido mantener (como están) estos procesos de selección/promoción, en ausencia de competencia, en los que los ejercicios se toman como un trámite y se entrega la documentación (de cientos de páginas) a la comisión en el mismo acto de evaluación?
Este artículo pone el dedo en una de las llagas, y además es algo de lo que pocas veces se oye hablar con tanta claridad. Gracias por esta aportación.
[…] Enlace al post original Sobre la promoción del profesorado universitario: una pregunta retórica […]
El problema también está en lo previo: ese único candidato ha sido acreditado gracias a un informe que ha elaborado un «experto» informante en su despacho, sabiendo que el resto de miembros de la comisión no se van a meter a reevaluarlo. Lo que sucede en esa elaboración del informe es un pozo oscuro. Se favorece acreditar a los «conocidos» y luego se facilita su acceso directo al funcionariado o a la cátedra. Con lo fácil que es hoy hacer pruebas públicas, grabarlas y publicarlas, sin acreditaciones previas que generan gasto económico y tiempo perdido de investigación.
Gracias por los comentarios..
Efectivamente, Rafael, el problema también está ahí. Se producen grandes agravios comparativos. Un proceso manifiestamente mejorable.
Muy acertada y oportuna reflexión.
No hablemos ya de la falta de consideración/evaluación alguna (ni cualitativa, ni cuantitativa) de otros méritos y capacidades tan deseables e importantes en un profesor universitario (más aún en el
de un catedrático), como la de impartir docencia en su especialidad o liderar equipos de trabajo y líneas de investigación.
Gracias, José Ángel. Por supuesto que también debieran incluirse esos méritos y capacidades, incluso los que tienen que ver con la ética universitaria.