Rankings entre universidades: lo no dicho
En los últimos años, las universidades e instituciones superiores de todo el mundo se han reorientado según distintos parámetros y criterios de calidad, componentes de diversos rankings. Pero, ¿qué miden los rankings en educación superior, y qué implicancias tienen estas comparaciones? El Dr. Ing. Liberto Ercoli analiza la cuestión con una mirada crítica hacia el propio mundo académico – científico.
Es un hecho aceptado en la comunidad académica internacional que las instituciones educativas deben ordenarse en concordancia con criterios de calidad. En efecto, en un mundo global altamente competitivo, cada padre desea conocer a qué universidad enviar a sus hijos para que con su esfuerzo logren títulos reconocidos que los preparen para la vida. También es común que los docentes e investigadores consideremos a qué universidad iremos a capacitarnos o con cuál nos uniremos para desarrollar nuestros proyectos; esto porque buscamos una garantía mínima inicial de sustentabilidad y éxito en nuestra actividad. Y que las empresas lo consideren cuando desean colocar fondos para subsidiar investigaciones. Ni hablar de aquellas universidades del mundo que buscan pares para su internacionalización como vía para mejorar sus planteles docentes con profesores visitantes y con movilidad con el fin de preparar a sus alumnos para el ejercicio global de sus profesiones.
Estas y otras razones no menores determinan que cada uno de nosotros, aun en forma inconsciente, “ranqueemos” a las universidades.
La cultura del ranking la he vivido en Estados Unidos y en Europa donde el tema es tan natural como aceptado. Últimamente, he tenido la impactante experiencia de visitar universidades de China, donde pude observar con sorpresa que allí también las autoridades políticas y académicas poseen cultura de la calidad, un alto sentido de élite y respetan los rankings entre universidades.
Una historia reciente
Los rankings globales son un fenómeno bastante reciente. En 2003 se conoció el primer ranking académico de las universidades del mundo elaborado por la Universidad Shanghai Jiao Tong. Al año siguiente, Times Higher Education publicó su primer ranking global de universidades.
Es así que cada tanto nos enteramos por los medios masivos -que replican los resultados de artículos publicados en revistas especializadas-, de cuán lejos estamos de las “top ten”.
Debido a que los datos del sector científico son fácilmente recopilables al estar más sistematizados, la mayoría de los rankings tienden a depender demasiado de la investigación, desconociendo la docencia y la extensión de las universidades.
Así por ejemplo, hace sólo unas semanas atrás se dio amplia difusión al Ranking Iberoamericano SIR 2010, el cual se presenta como una herramienta de análisis y evaluación de la actividad investigadora de las Instituciones de Educación Superior en Iberoamérica (período 2003-08).
En el mismo, cuando se evalúa la Producción Científica (PC) mediante un mero conteo de publicaciones (papers), entre 607 universidades iberoamericanas (489 latinoamericanas, sin las de España y Portugal), la UTN figura número 193, encontrándose en el puesto 17 cuando se consideran sólo las universidades argentinas. Sin embargo, si se toma como indicador la Calidad Científica Promedio (CCP), índice que contextualiza la citación que recibe una institución por áreas temáticas, tipos de publicaciones y por el periodo en que se reciben y elimina la influencia del tamaño de la institución, la UTN asciende al tercer puesto. Este salto es hacia atrás para las universidades nacionales clásicas que superan a la nuestra cuando sólo se cuentan los papers de sus investigadores sin medir su calidad, las que pasan a estar muy relegadas respecto de la UTN cuando sí se analiza.
Si bien el mismo trabajo admite que “la calidad de la investigación científica es una dimensión de la investigación difícil de establecer y medir, además de controvertida”, ayuda al menos a separar en principio la paja del trigo y a ver la punta del iceberg del verdadero problema de la investigación: el paradigma “publicar o perecer”.
He aquí la cuestión
No he podido encontrar un solo artículo de divulgación masiva que cite este fenómeno por el cual la cultura académica imperante empuja a los investigadores a tener que publicar compulsivamente, so pena de ver interrumpidas sus carreras académicas. De esta forma, la información brindada a la sociedad, única destinataria de los resultados de las investigaciones de aquellos a quienes forma y paga el salario para que suministren soluciones a sus problemáticas, en la búsqueda constante de mejorar sus condiciones de vida, es parcial y contribuye a la desinformación.
Sin embargo, sí es común encontrar numerosos artículos de prestigiosos investigadores a escala global que están preocupados por este fenómeno. Baste como ejemplo un reciente artículo de investigadores de las universidades norteamericanas de Emory, Virginia Commonwelth y California en Los Angeles que convocan a detener la avalancha de “journals” (revistas científicas periódicas) de mala calidad.
En él, sostienen que “la cantidad de investigación descaradamente pobre, intrascendente y redundante ha crecido en las décadas recientes” y que “Más no significa mejor. En algún punto la cantidad debe dar paso a la calidad”. Afirman que “sólo si el sistema de recompensas cambia se detendrá la avalancha”, instando a que entendamos que “la sobre publicación existe, y que empujando a miles de investigadores a publicar argumentos y hallazgos mediocres y olvidables, se hace un terrible mal uso tanto del capital humano como fiscal”
En lo que ruego no sea tomado como un ejemplo descarado de autocita, tan frecuentemente cometido como criticado en el mundillo científico, aporto como ampliatorio de contenidos y bibliografía, por su pertinencia con el tema, un trabajo minucioso de mi autoría.
Un déficit en la transferencia del conocimiento
A esta altura, creo necesario declarar que no me opongo a la existencia de rankings; por lo contrario, adhiero a ellos. Tampoco me opongo a la publicación de resultados de investigaciones serias, única vía para compartir entre pares resultados que necesariamente deben ser constatados y evaluados.
A lo que sí me opongo es a que sean utilizados como herramientas de desinformación por algunas instituciones y por quienes dedican sus vidas al mero aumento de sus currículos, encerrados en sus laboratorios “investigando” cómo lograr una nueva publicación. Mientras, se mantienen aislados de la sociedad -que en teoría debería apropiarse de sus resultados-, con el único fin de sobrevivir a las evaluaciones periódicas en sus carreras.
Suele admitirse en discusiones académicas que nuestro país no está mal posicionado en lo que se refiere a investigadores individuales en el contexto de Latinoamérica, aunque existe un déficit en la transferencia del conocimiento, hecho que se traduce en el abismo que se observa entre la sociedad y la producción del conocimiento.
En este contexto, considero que el paradigma citado es muy peligroso, pues suele ocurrir que jóvenes doctorandos son obligados durante sus períodos de formación a trabajar a destajo en la publicación de resultados que les sirvan tanto a ellos para obtener la próxima beca de formación como a sus directores para permanecer en el mundillo, entrando así en una cultura negativa que los absorberá de por vida, y frustrando los intentos de la sociedad por lograr una masa de científicos que la eleve junto a su país en el contexto de las naciones.
En tanto universidad pública de carácter federal, concebida para “crear, preservar y transmitir la técnica y la cultura universal en el ámbito de la tecnología”, con el claro objetivo de promover el desarrollo científico y tecnológico del país, la UTN debe asegurarse para sí el control de los resultados de la investigación en su ámbito, preservando del mal uso a sus recursos para la especulación.
La UTN se caracteriza por un sostenido crecimiento de su función investigación en los últimos años, un tanto relegada al principio por su misma génesis. Se ha logrado en buena parte el deseado equilibrio entre sus tres funciones sustantivas Docencia-Investigación-Extensión, con acciones de mejora que han sido implementadas con total aceptación y convencimiento de la comunidad universitaria. Todas estas acciones han sido acompañadas de claras señales de política institucional.
En suma, se trata simplemente de que los investigadores sigan las políticas y líneas de acción institucionales, y que las autoridades velen por su cumplimiento.
Las políticas nacionales de los últimos años han ido en esa dirección. Sólo falta que estas políticas penetren los organismos científicos y comisiones que aún recurren al conteo de papers como principal –y a veces único- criterio para las evaluaciones de sus agentes.
Ampliar la mirada
Los rankings reflejan un aspecto unidimensional de la naturaleza multifacética de las universidades, ya que no se poseen modelos de evaluación integral de su impacto socioeconómico. Está pendiente entonces la necesidad de medir su calidad en un contexto más amplio, para poner de relieve la gama completa de actividades que abarcan.
La empinada escalera de la transferencia al medio comprende desde un primer escalón con la formación profesional y la certificación de competencias para el desarrollo de capital humano hasta el último con la generación de emprendimientos spin-off y empresas de base tecnológica, pasando por intermedios como la adaptación y apropiación de tecnologías, modernización de diseños y procesos, desarrollo e innovación y patentamiento de productos. Es sobre la base de estas producciones que la transferencia de las universidades debe medirse.
Dr. Ing. Liberto Ercoli
Decano FRBB – UTN