Lyotard avisaba hace ya décadas en su seminal La Condición Postmoderna acerca de la falta de legitimación de la Ciencia. Bueno. Al menos de la falta de una legitimación bonita, porque se dio cuenta que en lugar de buscar la verdad o mejorar las condiciones de vida del género humano, la Ciencia a día de hoy está gobernada por el principio de la performatividad, alias retorno de la inversión. Dicho en 4 palabras, la ciencia debe de ser lucrativa para devolver dinero por cada inversión, compitiendo con otros negocios. Vamos, que la mejor forma de asegurar un flujo regular de dinero para la investigación es ser indecentemente lucrativa. Bueno, no será tan grave si hasta los Sex Pistols se coquetearon ligeramente con el ‘lucro indecente’. Para aquellos que ‘performatividad’ aún les suene a filosofía críptica o a trabalenguas, Feyerabend acude al rescate en ¿Por qué no Platón?:
La ciencia del siglo XX ha renunciado a toda pretensión filosófica y ha pasado a ser un gran negocio Ya no constituye una amenaza para la sociedad, sino que es uno de sus puntales más firmes. Feyerabend, ¿Por qué no Platón? P. 10
¿Pero esto es malo? Repugnante. Especialmente si piensas en la sociedad como el sistema ideológico que tiene como función reproducir desequilibrios a base de soportar y transmitir evitando modificaciones el esquema que mantiene a unos pocos en la cima de la pirámide social, aquellos que tienen los recursos y detentan las relaciones de poder.
Hay toneladas de ejemplos de cómo la ciencia ya no es un arma de progreso, sino un modo de perpetuar el statu quo, pero uno de mis preferidos son los Citation Indexes.
Citation Indexes! Keskesesá?
Son básicamente listas en las que las revistas científicas se clasifican atendiendo a su factor de impacto, la medida de cómo son esos artículos de importantes para la Comunidad Científica. Suena precioso y muy útil ya que muestra…’a journal’s true place in the scholarly research world’ and ‘Measure research influence and impact at the journal and category levels’ (Thomson Reuters, the editor of the JCR ranking, dixit). Para los que se disgusten leyendo la lengua bárbara, dice Thomson Reuters que este listado que hacen llamado JCR es chachi porque muestra el verdadero –¡Y olé!- lugar en el mundo de la investigación y mide la influencia de las investigaciones y su impacto.
Suena precioso, pero no lo es.
Del mismo modo que JCR califica las buenas revistas, estas revistas transitivamente señalan con el dedo a los buenos investigadores, es decir, aquellos cuyos trabajos se publican en esas revistas. Y excluyen a los otros…
Los rankings de Citation Indexes promueven la desigualdad.
¿Y eso? Pues primero, las revistas en la cima de la lista son caras. Tan caras que no hay un acceso global, generando una poderosa fuente de
desigualdad… no sólo entre países. De hecho hay numerosísimos investigadores sin acceso a los artículos de más impactos precisamente por esos precios abusivos: cada paper puede costar unos 30$ y para una investigación como Dios manda, debieras leer unos pocos más que muchos. Si esos artículos son –esto se podría discutir, no obstante- los mejores, los trabajos científicos de las personas sin acceso a ellos entonces tendrán más dificultades para llevar a resultados brillantes e innovadores, si pensamos la ciencia como un proceso acumulativo de generación de conocimiento.
Si los índices de cita sobreponderan investigadores de todo el mundo, evidentemente vienen con la cara B de invisibilizar al resto. Los trabajos de éstos segundos son excluidos del mainstream de la actividad investigadora no exactamente por su calidad inherente, sino por donde se publican e indirectamente, pero no menos importante, debido al lenguaje en el que están publicados (la inmensa mayoría de las revistas del primer cuartil, las que molan, son en inglés, así que como mínimo necesitarás pagar alguien para revisar tu artículo si no eres nativo) o por las relaciones que tengan estos investigadores en los buenos lugares, o bien su ausencia.
Por supuesto que estos investigadores no son explícitamente postergados. Pero la violencia simbólica de la segregación es brutal, precisamente primero porque ésta se explica y legitima en términos de dudas sobre la calidad del trabajo de investigación que hay detrás y además por la relativa invisibilidad de esta segregación.
Vale ¿Y existe una alternativa a los Citation Indexes?
La crítica fue destronada hace mucho tiempo en su trabajo de dirigir el consumo de contenidos de entretenimiento por mecanismos de seudodemocracia o seudointersubjetividad. Habermas se queja incluso de la falta de autoridad de los intelectuales para dirigir discusiones en la esfera pública. ¿Y la Ciencia? La Ciencia, un motor de cambio por definición, parece ser uno de los reductos en los que se atrincheran los galos con su poderosísima arma llamada Argumento de Autoridad en forma, no exclusivamente, de comités de peer reviews con poderes chamánicos para interactuar con algo así como el Olimpo del Conocimiento verdadero, decidiendo lo que es bueno, inteligente y brillante y lo que no.
[learn_more caption=”Peer Reviews success cases Hall of Fame” state=”open”] Todo lo anterior luce incluso peor cuando se descubre que algunos peer review se ‘fabrican’ o simplemente a algunas publicaciones les pierde el ansia de pillar pasta de los bolsillos de los jóvenes investigadores, a la vez, ansiosos por publicar algo y poder justificar algún mérito y llegan a validar artículos sin haberlos leído. Para muestra no debes perderte el delicioso artículo ‘Get me off your fucking mailing list’ [/learn_more]
No me malinterpretéis. Estoy abiertamente poco enamorado de los mecanismos de seudodemocracia de la masa, facilmente influenciables e incluso cocinables por construcciones publicitarias y burbujas de filtros. Pero está claro que se tiene que dar voz a sistemas de revisión de los pares más horizontales y abiertos, en los que cualquiera pueda ser un par. Esa es la idea. Y los sistemas públicos de certificación de méritos de investigación podrían igualmente tener en cuenta otras medidas del impacto de investigación más abiertas y modernas, más alineadas con lo que debieran significar la Ciencia y la Investigación.
¿Pero existe algo así?
¿Qué me dices de academia.edu? Podría ser un punto de partida, ¿No?
Academia.edu is a platform for academics to share research papers. The company’s mission is to accelerate the world’s research.
Academics use Academia.edu to share their research, monitor deep analytics around the impact of their research, and track the research of academics they follow. 32,590,050 academics have signed up to Academia.edu, adding 9,815,878 papers and 1,817,127 research interests. Academia.edu attracts over 36 million unique visitors a month. (Academia.edu)










Leave a Reply to Ciencia que sirve para perpetuar el statu quoCancel reply