Bibliometría en tiempos de espejos rotos

Un espejo que no alcanza a reflejarlo todo
Durante años, los países latinoamericanos han medido su ciencia con reglas que no escribieron. Las bases de datos internacionales —Scopus y Web of Science— se convirtieron en sinónimo de prestigio, visibilidad y calidad, como si fueran los únicos espejos capaces de mostrarnos quiénes somos en el mapa del conocimiento.
Pero, ¿de verdad reflejan nuestra realidad? ¿O solo devuelven una imagen parcial, recortada y a veces distorsionada de la ciencia que producimos?
La pregunta parece sencilla, pero encierra una verdad incómoda: la ciencia que no se ve, no existe para quienes deciden las políticas, los incentivos y los presupuestos.
Y en América Latina, buena parte de nuestra ciencia sigue siendo invisible para los sistemas que definen qué vale y qué no.
El espejismo de la objetividad
“Las métricas no son neutras; son decisiones políticas disfrazadas de números.”
Las bases de datos internacionales han sido presentadas como sistemas objetivos de medición. Sin embargo, su estructura fue concebida desde lógicas editoriales y lingüísticas que responden a otra realidad: la del Norte Global.
Las categorías temáticas, los idiomas priorizados y las editoriales dominantes no representan la diversidad ni la complejidad de América Latina y el Caribe.
En 2025, las cifras son reveladoras:
–Aproximadamente 921 revistas latinoamericanas están indexadas en Scopus,
–Aproximadamente 1 006 en Web of Science (incluyendo ESCI),
mientras que SciELO, Redalyc y Latindex Catálogo 2.0 reúnen más de 7 000 revistas de la región.
Menos del 15 % de las revistas científicas latinoamericanas forman parte del “mapa global” que los gobiernos usan para decidir quién recibe reconocimiento o financiamiento.
A esta brecha se suma una frontera invisible: el idioma.
Aproximadamente el 88 % de las revistas procesadas en Scopus se editan en inglés, lo que condiciona la visibilidad del conocimiento y excluye a miles de investigadores que comunican su ciencia en español o portugués.
La visibilidad no es universal; es política.
Y mientras seguimos buscando “impacto”, olvidamos la pregunta esencial: ¿qué tan útil es la ciencia para quienes más la necesitan?
La burocracia del conocimiento
“En América Latina, la ciencia se mide por la cantidad de artículos, no por la cantidad de realidades transformadas.”
Las secretarías y ministerios de ciencia siguen utilizando modelos de evaluación diseñados hace más de treinta años. Convocatorias, estímulos y programas nacionales de investigadores siguen atados a indicadores importados: cuántos artículos se publican en inglés, en revistas Scopus, con alto factor de impacto.
Este modelo crea una burocracia del conocimiento, donde el investigador debe publicar para sobrevivir, no necesariamente para aportar.
Las universidades repiten la lógica: premian la cantidad, castigan la pertinencia.
Así, proyectos con gran valor social o educativo quedan fuera de los mecanismos de reconocimiento porque no encajan en la métrica que define el éxito.
El resultado es una paradoja dolorosa: cuanto más buscamos “excelencia internacional”, más nos alejamos de nuestra realidad local.
Medir sin excluir: hacia una mirada integral
La bibliometría no es el problema. Lo problemático es usar los indicadores sin contexto.
Cuando las métricas se aplican con visión crítica, pueden ser herramientas poderosas para mejorar la gestión científica y orientar políticas más justas.
Por eso, desde Habilis ICC desarrollamos Scintra, una plataforma que reconstruye la mirada sobre la ciencia latinoamericana.
Scintra no solo mide cuántos artículos existen, sino dónde se producen, con quién se colabora y qué impacto social generan.
Integra múltiples fuentes —Google Scholar, SciELO, DOAJ, Open Aire, Open Citation, Unpaywall, otras— para ofrecer una visión 360° de la producción científica, más justa y representativa.
En lugar de alimentar el espejismo de la visibilidad global, Scintra devuelve a las instituciones una imagen completa y contextualizada de su propio conocimiento.
Las consecuencias del modelo basado en cantidad
“Cuantos más artículos exigimos, más cara se vuelve la ciencia.”
El énfasis en la productividad ha modificado las reglas del ecosistema editorial: publicar cuesta cada vez más.
Los Article Processing Charges (APC) de muchas editoriales internacionales superan los 2 000 – 3 500 USD por artículo, cifras imposibles de asumir para universidades o centros de investigación con presupuestos públicos.
El efecto dominó es claro:
-Los fondos nacionales terminan financiando revistas extranjeras en lugar de fortalecer las locales.
-Se consolida una ciencia de élite, accesible solo para quien puede pagar.
-Y en los márgenes, crece el número de revistas depredadoras, que prometen indexación y revisión exprés a cambio de una tarifa.
Según la European University Association (2025), los costos globales de publicación se triplicaron entre 2019 y 2023, mientras que el 68 % de la producción científica latinoamericana ya es de acceso abierto, demostrando que los modelos comerciales no son el único camino hacia la visibilidad.
El informe también advierte que el actual sistema de comunicación académica —dominado por un puñado de corporaciones— ha distorsionado el propósito esencial de la ciencia: difundir conocimiento de manera equitativa y sostenible.
Según estimaciones recientes, más de 400 000 artículos al año se publican en revistas de baja integridad académica, un fenómeno que erosiona la credibilidad del conocimiento y pone en riesgo la reputación de instituciones y autores.
El círculo es perverso: las políticas que miden cantidad alimentan los costos, los costos empujan la precariedad, y la precariedad abre la puerta al fraude científico.
La pregunta que debemos hacernos
¿Para qué sirve la ciencia que hacemos?
No es una pregunta retórica. Es un llamado a replantear las políticas científicas, los sistemas de evaluación y los incentivos que moldean nuestras universidades.
Sirve cuando transforma, cuando mejora la vida de las personas, cuando ayuda a tomar decisiones informadas.
La ciencia no puede reducirse a una cifra ni a un índice. Debe volver a ser una herramienta de sentido.
Conclusión
América Latina produce conocimiento de valor, pero lo mide con lentes ajenos.
Mientras los ministerios cuentan artículos, nadie mide cuánta realidad transformamos.
La bibliometría responsable —la que entiende contexto, colaboración e impacto social— no es un lujo: es una necesidad.
La bibliometría no destruye la ciencia. La desnuda.
Y solo cuando nos miremos sin espejos rotos, podremos vernos realmente como somos: una región que piensa, crea y transforma, aunque aún, no lo contemos bien.
