В научном сообществе этические проблемы проявляются выпукло и болезненно. Требуются системные усилия по восстановлению института научных репутаций, считает д.э.н. Ирина Дежина, руководитель группы по научной и промышленной политике Сколковского института науки и технологий. С разрешения автора Sk.ru перепечатывает статью, опубликованную на ресурсе stimul.online


Ирина Дежина, руководитель группы по научной и промышленной политике Сколковского института науки и технологий, доктор экономических наук. Фото: Sk.ru

   

Недавно я искала литературу по одной из науковедческих тем и обратила внимание, как много стало работ, основанных на анализе библиометрических данных. Действительно, это направление развивается, уточняются показатели и появляются новые, совершенствуется интерфейс баз данных. В дополнение к библиометрическим показателям появилась альтметрика. Все это говорит о росте спроса на такие оценки, причем не только в России.

Но в России, похоже, прессинг библиометрии начинает принимать экстремальные формы. Оценивают людей, институты, работу по проектам, финансируемым ведомствами, и по грантам фондов. Российский научный фонд выставляет требования по минимально требуемому количеству статей, ежегодно индексируемых в WoS/Scopus. Статьи нужны университетам, особенно стремящимся попасть в рейтинги или улучшить в них свое положение. Статьями интересуется ФАНО…

Этот прессинг вышел за границы страны, и его почувствовали зарубежные коллеги, сотрудничающие с российскими учеными. Результаты недавнего опроса, который я проводила, показали, что давление необходимости опубликовать энное число статей в год, которое оказывается на российских ученых, распространилось на их зарубежных партнеров. Нужно все больше статей, а в них — все больше российских соавторов. По мнению иностранных ученых, российские требования по количеству публикаций иногда почти абсурдны и мешают нормально работать.

Действие, как известно, вызывает противодействие. Появилось множество ухищрений, направленных на то, чтобы выполнять требования по количеству публикаций. Это рост числа «салями-публикаций», когда новый материал нарезается на фрагменты и на основе каждого из них пишется отдельная статья; искусственно наращиваемое число соавторов путем «вписывания» людей, не имеющих отношения или имеющих минимальное отношение к подготовке статьи; рост цитирования группами и кланами и др. Все эти и другие «публикационные стратегии» уже хорошо описаны в разных статьях.

Есть и позитивный эффект, выражающийся в росте высокоцитируемых публикаций, написанных российскими учеными, и не только в зарубежном соавторстве. Но в долгосрочной перспективе распространение жульнических ухищрений может нанести сильный вред с точки зрения состояния этических норм в научном сообществе, не компенсируемый удовлетворением от некоторого роста числа статей, попадания в предметные рейтинги и выполнения указов и правил по наращиванию публикационной активности.

При этом на опасность библиометрии как средства оценки людей и организаций зарубежные ученые указывали еще в 2000-х, до начала ее массового использования в России. Так, в 2010 году нобелевский лауреат Ричард Эрнст призывал остановить «унизительный бюрократический режим ранжирующих и цитирующих агентств и бездумное сообщество их поклонников»1.

Позднее была серия публикаций в Nature на ту же тему, появились оценки пагубности публикационной гонки в долгосрочной перспективе, такие как снижение интереса молодежи к занятиям наукой, ориентация на мейнстрим в научной тематике. Исследования показали, что научная работа, содержащая нестандартные, перспективные выводы и идеи, выходит на высокое цитирование в среднем значительно позднее, чем рядовая статья2.

Казалось бы, выход из «библиометрической ловушки» лежит на поверхности. Следует оставить библиометрии ее родовой функционал справочной статистики и прогностическую функцию анализа направлений и областей развития науки («карты и атласы науки»), а оценку научного труда возложить на экспертное сообщество. Некоторое движение в этом направлении есть — например, широко известен английский прецедент перехода к качественным оценкам для гуманитарных и общественных наук, где показатели цитирования используются как дополнительная информация.

Противовесом библиометрии все больше стала рассматриваться экспертная оценка, хотя тема степени корректности ее результатов тоже становится все более волнующей в связи с растущей неудовлетворенностью ее результатами в российском научном сообществе. Причем здесь уже проблема в большей степени российская, а не международной. Практически все постсоветские годы число ученых сокращалось, возрастной провал «средневозрастных» исследователей углублялся, и российская экспертиза постепенно деградировала: она стала сильнее страдать от малого числа специалистов в определенных областях, когда конфликт интересов практически неизбежен.

После того как закончился период подъема и стало сокращаться финансирование науки, эффект малого числа достойных по размеру грантов начал проявляться еще и в том, что экспертиза стала средством продвижения «своих» вне зависимости от конфликта интересов, поскольку нередко соревноваться друг с другом вынуждены широкие дисциплинарные области.

Ну и не будем забывать, что объективно каждый ученый, даже опытный и с безупречной репутацией, то есть именно тот, которого можно считать действующим или потенциальным экспертом, все равно не свободен от тех или иных предпочтений, в лучшем случае мировоззренческих.

Проблемы библиометрии и экспертизы наиболее явно сошлись в научных журналах. Все большее число ученых хочет опубликоваться, портфели редакций российских журналов, попавших в базы данных WoS/Scopus, стали переполняться, и, несмотря на введение в них практики экспертизы, давление библиометрии стало влиять и на издательскую политику. Какие-то статьи оцениваются объективно, однако остается, по крайней мере в общественных науках, ряд особых предпочтений, когда статьи публикуются по итогам формально проведенной экспертизы, поскольку решение принято заранее на основании имени автора, а не текста статьи.

Глубину этой проблемы оценило вольное сетевое общество «Диссернет», начав проект «Диссеропедия российских журналов». Еще раньше (в 2012 году) разобраться с российскими журналами советовала RuSciTech, международная ассоциация русскоязычных ученых и специалистов в области технологий, проживающих за пределами России, предложив проект под запоминающимся названием «Авгиевы конюшни». 

Преодолеть библиометрическую и экспертную ловушки непросто, так как принимаемые меры затрагивают следствие, а не причину. Причина лежит в деградации такой ценностной ориентации, как научная репутация. Чистка журналов, выявление плагиаторов, критика экспертизы и автоматическое назначение экспертов — все это полезно, но общественное сознание меняется крайне медленно.

Проблема репутации выходит далеко за рамки научного сообщества. Вспоминая Александра Николаевича Островского, «честное купеческое слово» давно уже не действует. Но в научном сообществе проблема морали проявляется явно и болезненно. И, может быть, именно это поможет, если действовать долго и последовательно — меняя журналы, диссоветы, практику оценки научных работ, систему продвижения в науке, — восстановить институт научных репутаций.

  • 1 — Ernst, R. (2010) The Follies of Citation Indices and Academic Ranking Lists. A Brief Commentary to ‘Bibliometrics as Weapons of Mass Citation’. Chimia, 64, 1/2, 90–90.
  • 2 — Stephan, P., Veugelers, R., Wang, J. (2017) Blinked by Bibliometrics. Nature, 544, 411–411.
    
  

Источник: stimul.online