CiteScore was developed to implement familiar calculations but make them more comprehensive and transparent. The justification for a new metric was to complement existing information to allow for comparison and evaluation. CiteScore is available for all newly indexed journals with a publication history of 1 year. CiteScore Tracker is updated monthly to show progress towards the annual snapshot CiteScore. Feedback helps CiteScore develop, for example, by improving the management of title changes. CiteScore provided metrics for 23,350 journals in 2018.
Цель настоящей статьи-проверить утверждение, что эффективная оценка, основанная на количественных показателях, требует использования не одного, а целого набора определенных показателей (своего рода «корзины метрик») для более разнопланового и глубокого анализа качества журнала. Методы. Для изучения мнений проводился опрос (число опрошенных-204; доля ответивших-61 %) международного научного сообщества по поводу применения метрик (показателей) в системах оценки качества журналов и публикаций. Результаты. Ответ «Исследование лучше всего оценивать по нескольким критериям» был выбран наибольшим количеством респондентов (40 %) как признание ценности показателей (метрик) использования. Причем 95 % респондентов указали, что они «применяли бы» или «скорее применяли бы» показатели использования для оценки качества исследований, если бы имели доступ к этим показателям. Аналогичное предпочтение получено для простых и сложных показателей использования. Все это подтверждает, что один показатель никого не устраивает и одного параметра явно недостаточно для оценки качества. В заключение отметим, что опрос показывает полную готовность и реальное желание респондентов использовать «корзину метрик» для расширения способов, с помощью которых можно будет определить и продемонстрировать качество исследования.
Recent advances in computational power and the advancement of the Internet, mean that we now have access to a wider array of data than ever before. If used appropriately, and in conjunction with peer evaluation and careful interpretation, metrics can inform and enhance research assessment through the benefits of being impartial, comparable, and scalable. There have been several calls for a "basket of metrics" to be incorporated into research evaluation. However, research is a multi-faceted and complex endeavour. Its outputs and outcomes vary, in particular by field, so that measuring research impact can be challenging. In this paper, we reflect on the concept of field-weighting and discuss field-weighting methodologies. We study applications of field-weighting for Mendeley reads and present comparative analyses of field-weighted citation impact (FWCI) and fieldweighted readership impact (FWRI). We see that there is a strong correlation between the number of papers cited and read per country. Overall, per subject area for the most prolific countries, FWCI and FWRI values tend to be close. Variations per country tend to hold true per field. FWRI appears as a robust metrics that can offer a useful complement to FWCI, in that it provides insights on a different part of the scholarly communications cycle.
No abstract
scite is a Brooklyn-based organization that helps researchers better discover and understand research articles through Smart Citations–citations that display the context of the citation and describe whether the article provides supporting or contrasting evidence. scite is used by students and researchers from around the world and is funded in part by the National Science Foundation and the National Institute on Drug Abuse of the National Institutes of Health.
customersupport@researchsolutions.com
10624 S. Eastern Ave., Ste. A-614
Henderson, NV 89052, USA
This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.
Copyright © 2024 scite LLC. All rights reserved.
Made with 💙 for researchers
Part of the Research Solutions Family.