30 ноября, 2020

Опубликованы результаты опроса «Онлайн-инструменты для поиска академических публикаций»

С каждым годом все больше научных издательств предоставляют метаданные публикаций поисковым системам и агрегаторам. Результатом стало появление новых онлайн-ресурсов с возможностями поиска и анализа публикаций. Многие из них доступны в бесплатном режиме для всех пользователей, а некоторые, по ряду характеристик и технических возможностей, уже могут составить конкуренцию1,2,3,4,5 коммерческим ресурсам Web of Science (Clarivate) и Scopus (Elsevier).


Российский фонд фундаментальных исследований (РФФИ), как оператор централизованной подписки, провел опрос отечественных исследователей. Как оценивают российские ученые новые ресурсы и смогут ли последние стать альтернативой «золотым стандартам»?


Более 12 тысяч респондентов дали ответы на вопросы, касающиеся практических аспектов поиска и анализа научной информации с использованием онлайн-инструментов. Полученные данные представляют интерес не только с точки зрения оценки значимости доступа к индексам научного цитирования для российских ученых. Не менее ценным является и запечатленное в ответах отражение актуальных исследовательских практик, состояние осведомленности о возможностях новых ресурсов и восприятие важности доступа к отдельным инструментам для научной работы.


РФФИ принял решение опубликовать полученный массив ответов в открытом доступе (лицензия CC-BY), дополнив его сведениями о конкурсной активности и специализации респондентов6


Мы приглашаем всех интересующихся вопросами научно-технологической политики, библио- и наукометрии, научной коммуникации и социологии науки ознакомиться с опубликованным массивом данных и рассматривать его в качестве источника данных для собственных исследований. 


В качестве иллюстрации возможности использования массива приводим работу “Выбор российских исследователей между Scopus и Web of Science: результаты опроса РФФИ”.


Источники:

  1. Waltman L., Larivière V. Special issue on bibliographic data sources // Quantitative Science Studies. 2020. № 1 (1). P. 360–362. – URL: https://doi.org/10.1162/qss_e_00026
  2. Visser M., Eck N. J. van, Waltman L. Large-scale comparison of bibliographic data sources: Scopus, Web of Science, Dimensions, Crossref, and Microsoft Academic // 17th International Conference on Scientometrics and Informetrics, ISSI 2019 - Proceedings. 2020. (2). P. 2358–2369. – URL: http://arxiv.org/abs/2005.10732 
  3. Martín-Martín A. [et al.]. Google Scholar, Microsoft Academic, Scopus, Dimensions, Web of Science, and OpenCitations’ COCI: a multidisciplinary comparison of coverage via citations // Scientometrics. 2020. – URL: https://doi.org/10.1007/s11192-020-03690-4
  4. Gusenbauer M. Google Scholar to overshadow them all? Comparing the sizes of 12 academic search engines and bibliographic databases // Scientometrics. 2019. № 1 (118). P. 177–214. – URL: https://doi.org/10.1007/s11192-018-2958-5
  5. Gusenbauer, M., & Haddaway, N. R. (2020). Which academic search systems are suitable for systematic reviews or meta‐analyses? Evaluating retrieval qualities of Google Scholar, PubMed, and 26 other resources. Research Synthesis Methods, 11(2), P. 181–217. – URL: https://doi.org/10.1002/jrsm.1378
  6. РФФИ. Онлайн-инструменты для поиска академических публикаций : результаты опроса. – DOI 10.6084/m9.figshare.13274789. – Текст : электронный // Figshare : [сайт]. – URL: https://doi.org/10.6084/m9.figshare.13274789. – Дата публикации: 30.11.2020
Вернуться к списку новостей >>>