Ranking de Shanghái 2019: algunas curiosidades
Cada año en agosto se publica el Academic Ranking of World Universities (ARWU), más conocido como ranking de universidades de Shanghái. Las tranquilas aguas de la información, especialmente universitaria, durante ese mes se agitan con su publicación. Automáticamente surgen una serie de titulares periodísticos, en muchos casos simplistas, y declaraciones diversas que suelen ser bastante superficiales.
Como siempre, vaya por delante el siguiente sofisma (obvio y a la vez fundamental): los rankings miden lo que miden y no miden lo que no miden. Asumiendo esto, es decir, sus reglas y limitaciones, el principal interés de los rankings universitarios radica en el análisis de tendencias, en el seguimiento de la evolución de las universidades que aparecen y en la posibilidad de ponerlos en relación con otras características. Está claro que si la tendencia es ascendente algo se está haciendo bien, dentro de esas reglas de juego, y viceversa.
Veamos cuál es la situación de las universidades españolas respecto al año anterior en este ranking. En términos generales, se ha producido una mejora. Con respecto al año anterior, de las universidades que aparecen entre las 500 primeras de ARWU, nueve universidades españolas suben de puntuación frente a la líder de la clasificación que siempre se toma como referencia (Universidad de Harvard) y son solamente cuatro las que bajan. Las que más suben son las universidades de Valencia (sube un 30% su puntuación respecto a Harvard), Sevilla (23,34%) y la de Islas Baleares (16,72%). Por el contrario, las que bajan más en este grupo son las del País Vasco y la Pompeu Fabra que habían tenido importantes aumentos en el año 2018.
La variación neta de puestos o, dicho de otra manera, el saldo de los cambios producidos en las universidades españolas que aparecen entre las 500 primeras es de una mejora de 269 posiciones. Entre las que más suben, lógicamente, están la universidad de Valencia (sube 123 puestos), Sevilla (112) e Islas Baleares (69). Mientras que la Pompeu Fabra baja 116 y la del País Vasco 90 (ver figura 1).
En los últimos tres años, son excepción las universidades que no han tenido algún alti-bajo. Para ese trienio destaca el descenso de posiciones de la Universidad Politécnica de Cataluña, Santiago de Compostela, Politécnica de Valencia, Rovira y Virgili y Autónoma de Madrid y han subido especialmente las universidades de Sevilla, Valencia, Zaragoza y Complutense, superando así la tendencia descendente que habían sufrido.
La inclusión de indicadores relativos a premios Nobel y medallas Fields en este ranking es objeto de controversia. Si descontamos su efecto, las universidades españolas entre las primeras 500 mejorarían algo más de 22 puestos por término medio cada una de ellas. La subida de posiciones es más elevada entre las que están más arriba en el ranking; esto es lógico, porque las universidades que tienen más puntuación en indicadores de premios Nobel y medallas Fields suelen estar más arriba. Así, la Universidad de Barcelona subiría 36 puestos, la Autónoma de Barcelona 31, Granada 33 y Valencia 35. La única que perdería posiciones sería la Complutense de Madrid, que es la única española con puntuación por este motivo.
La explicación de la variación con respecto al año anterior de las primeras universidades españolas (las 13 que aparecen entre las primeras 500, más la de Santiago que sale de este grupo este año) se debe a lo siguiente:
- Mejores puntuaciones en el indicador de autores altamente citados (HiCi). Hay 6 universidades que no tenían puntuación en este indicador en 2018 y otras 2 que lo aumentan. Las universidades que más posiciones han perdido son también las que pierden más puntuación en este indicador (País Vasco y Pompeu Fabra) o sufren una reducción importante del mismo (Santiago).
- Por publicaciones en Nature & Science (N&S), solamente suben las 5 primeras universidades, especialmente las universidades de Granada y Valencia, a distancia Barcelona. El resto tiene una evolución negativa, con una caída próxima al 8% para las universidades de Santiago y Politécnica de Valencia.
- Respecto al indicador PUB sobre el número de artículos publicados (SCI, SSCI), aumentan 10 universidades, especialmente la Universidad de Islas Baleares que crece casi un 30%, seguida a mucha distancia de la Politécnica de Valencia (+5,56%). De las 4 que descienden, la que más lo hace es la de Barcelona.
- Finalmente, en el indicador de desempeño per cápita PCP que contempla el efecto tamaño de la universidad, hay 5 universidades que suben y el resto baja respecto al año anterior. La que más gana aquí es la Universidad Islas Baleares (+18%) y la de Valencia (+5%). Las que más descienden son Pompeu Fabra (-8%) y Barcelona (-5,6%).
Dejando a un lado los indicadores relativos a premios Nobel, hay dos universidades que mejoran en todos los indicadores (HiCi, N&S, PUB y PCP), siempre con respecto a la universidad líder, que son Autónoma de Barcelona y Valencia. Hay tres universidades que mejoran en tres de ellos: Complutense (no mejora en PUB); Sevilla e Islas Baleares (ambas con la excepción de N&S). Mientras que las siguientes universidades descienden en tres de los cuatro indicadores: Santiago (baja en todos menos en PUB); Barcelona (solo aumenta en N&S); Zaragoza y Oviedo (en ambos casos, baja en todos menos en HiCi, que es el principal motivo de su ascenso de posiciones), País Vasco , Autónoma de Madrid y Pompeu Fabra (únicamente no bajan en PUB). Finalmente, Granada sube en dos (N&S, PUB) y baja en los otros dos indicadores; y la Politécnica de Valencia sube en dos (HiCi y PUB) baja en uno (N&S) y permanece igual en PCP.
Entre las universidades que están a partir del puesto 500, el saldo neto también es positivo y hay una mejora de posiciones, en términos generales. Los mayores aumentos en este último año los tienen Rovira y Virgili, Córdoba y Salamanca que mejoran más de 100 puestos, mientras que el mayor descenso es para Jaén y, sobre todo, para la Miguel Hernández (ver figura 2).
Para terminar, un ejemplo de la posibilidad de utilizar los rankings en relación con otras variables: es el caso de la presencia de la mujer en la universidad. Cabe preguntarse si su mayor o menor presencia tiene algo que ver con la posición de la universidad en los rankings internacionales. En un estudio que próximamente aparecerá publicado[1] se analiza la composición por género de casi un millar de universidades de todo el mundo distinguiendo tres grupos de universidades: grupo con menor presencia femenina (menos de un 47%), presencia intermedia (47%-54%) y mayor presencia (55% o más). En los 6 rankings analizados (ARWU, CWUR,NTU, QS, THE URAP), las universidades con mayor puntuación y, por tanto, con mejor posición son las del grupo de universidades en las que la composición por género es equilibrada. Además eso es así en la mayoría de los indicadores con los que se elaboran los rankings, salvo algunas excepciones (como los indicadores relativos a premios Nobel y al porcentaje de financiación procedente de la industria) en las que alcanzan mayor puntuación las mayoritariamente masculinas, mientras que las universidades más masificadas tienen mayor presencia femenina.
En suma, el análisis de la evolución de los indicadores de los rankings y su puesta en relación con otras variables de las universidades (composición, financiación u otras) da pistas interesantes.
Referencias
[1] Luque-Martínez, T.; Faraoni, N.; Doña-Toledo, L. (próximamente) Los rankings académicos y la distribución por género de las universidades . Revista Española de Documentación Científica.
Muchas gracias, Prof. Luque, por su análisis.
Me permito subrayar su afirmación «vaya por delante el siguiente sofisma (obvio y a la vez fundamental): los rankings miden lo que miden y no miden lo que no miden» ante la cual comento:
1. No creo que sea un sofisma, ya que, según la R.A.E., sofisma es un «Argumento falso o capcioso que se pretende hacer pasar por verdadero». Hacer caer en la cuenta de que los rankings solo miden lo que miden es una verdad; por supuesto obvia, pero ante la cual toda insistencia es poca.
2. Encuentro muy peligroso que la «Sociedad», especialmente la constituida por los «trabajadores de la inteligencia» (perdón por el nada académico concepto) – que se suponen que son los que más sentido crítico deberían tener – acepte, y conforme sus políticas de pensamiento y gestión, como criterios de calidad unos indicadores que, desde mi punto de vista, pueden ser contraproducentes para el desarrollo humano en plenitud.
3. Quizá el problema de fondo esté en aceptar la existencia de los propios rankings, dando por sentado que hay un modo concreto de medir ese constructo intangible denominado «calidad» y que este es válido para todos los estudios, todas las especialidades, todos los países, todas las culturas. Personalmente lo veo empobrecedor por uniformante.
Muchas gracias por su atención. Un saludo muy cordial,
JF
Estimado José Fernando:
Muchas gracias por su comentario. No lo había visto hasta ahora.
En primer lugar, evidentemente no era esa acepción de “sofisma” la que pretendía transmitir. Tampoco creo que sea la única que tiene ese término, si fuera así sería simplificar demasiado la herencia sofista. Por ejemplo, una de las expresiones sofistas más conocidas : el hombre es la medida de todas las cosas, de las que son en cuanto que son y de las que no son en cuanto que no son, ¿es un argumento falso o capcioso que se pretende hacer pasar por verdadero?
Mi intención iba más por una acepción, creo que popular, que tiene más que ver con la retórica.
Respecto al punto 2 y 3, no he mencionado el término calidad en ningún momento y por supuesto no he identificado ranking con calidad. Es más, insisto en que los rankings miden lo que miden y no miden lo que no miden. Procuro tener cuidado y por eso llamo la atención sobre las reglas o los criterios con los que se elaboran los rankings. Los comentarios que realizo siempre están supeditados a esas reglas de juego. Los rankings son imperfectos, de ahí mi advertencia.
No obstante, es innegable que hay universidades (también facultades, departamentos, grupos…) que funcionan mejor que otras en docencia, en investigación o en otras dimensiones. En el momento que se realiza esta afirmación ya se está midiendo, ya se está estableciendo un orden, en suma un ranking.
Caben dos posibilidades, mejorar la medida (entre otras cosas es necesario para gestionar y para corregir, en suma mejorar) o no querer saber. Personalmente creo que es peor la segunda opción.
Un saludo.
Teodoro Luque
Muchas gracias, estimado Teodoro, por responder y por las oportunas puntualizaciones.
Ante el no querer saber… ¡midamos! Eso sí, sabiendo que no siempre está clara la definición del constructo medido y que, como consecuencia,toda medida ha de tomarse con prudencia y de modo orientativo.
De otro modo se corre el peligro, muy real y frecuente en la Enseñanza Secundaria, de focalizar los esfuerzos de aprendizaje, y enseñanza, casi exclusivamente en aquellos contenidos, prácticas, competencias, que van a ser medidos. En resumen, la medición modifica la realidad de lo medido.
Por eso, entiendo que no debemos renunciar en absoluto al sentido crítico.
Saludos muy cordiales,
JF
Totalmente de acuerdo, claro que hay tomar esto con prudencia y a modo orientativo. Y por supuesto no renunciar al sentido crítico hacia la medida, también hacia la «no medida».
Un saludo.
Teodoro Luque