Musimy empirycznie dowieść, że nasza polityka przynosi rezultaty – transkrypcja

Czy złota droga otwartego odstępu, czyli otwarte czasopisma pobierające opłaty za artykuły, nie doprowadzi w końcu do sytuacji, w której otwarty dostęp okaże się droższy od starego modelu opartego na subskrypcjach? To bardzo uzasadnione pytanie – przekonuje Jean-Claude Burgelman, szef działu polityki naukowej w Komisji Europejskiej, w rozmowie z Maciejem Chojnowskim. Badamy to zagadnienie i staramy się je lepiej zrozumieć od strony ekonomicznej, żeby móc mówić o faktach, a nie o odczuciach. Jest za wcześnie, żeby stwierdzić, że to obecnie duży problem. Nie zmienia to jednak faktu, że taki problem istnieje i że jest poważny.

 

Banner J.-C. Burgelman Rozmowy Otwartej Nauki odc. 15

 

Maciej Chojnowski: Ostatnimi czasy dużo mówi się o otwartej nauce, nauce 2.0 czy też kolejnej zmianie paradygmatów naukowych. Czy uważa Pan, że rzeczywiście wkraczamy w nową erę historii nauki? A jeśli tak, to jakie są jej najważniejsze cechy?

Jean-Claude Burgelman: To raczej nie tyle kwestia przekonań, co faktów. Spójrzmy na to, co dzieje się w świecie nauki, w jaki sposób przeprowadzane są badania, jak otwiera się publikacje naukowe, w jaki sposób ludzie współpracują dzięki wykorzystaniu różnych otwartych modeli, jak rozwijają się nowe inicjatywy w rodzaju repozytoriów danych, repozytoriów preprintów czy też innego rodzaju materiałów. Z tego wszystkiego wyłania się obraz, zgodnie z którym tradycyjny model prowadzenia badań ulega zmianie. I nie jest to jakaś pomniejsza modyfikacja, lecz zmiana o charakterze zasadniczym. Możemy zatem mówić o zmianie paradygmatu – tak właśnie określamy to w Brukseli – z nauki na otwartą naukę tudzież z nauki 1.0 na naukę 2.0, ponieważ to, co się dzieje, ma charakter systemowy. To nie kwestia pojedynczego elementu – otwartego dostępu czy otwartych danych. Rzecz w zmianie całego procesu naukowego: począwszy od badania, przez stawianie pytań, pozyskiwanie danych, publikowanie, a na zdobywaniu informacji zwrotnej skończywszy. Ten proces podlega obecnie zupełnemu przeobrażeniu, w kierunku bardziej otwartego środowiska.

Powracając do pańskiego pytania: ponieważ zmiana ta ma systemowy charakter, uważam, że rzeczywiście obecnie rozgrywa się coś ważnego i jest to nieodwracalne. Ma to również związek z tym, co dzieje się w naszych społeczeństwach. Spójrzmy na otwarte oprogramowanie, będące czymś zupełnie nowym, a przy tym dobrze działającym; spójrzmy na otwarte innowacje, które odzwierciedlają trendy znane z przemian w nauce – to wszystko jest częścią zmieniającego się modelu biznesowego, zmieniającego się sposobu wyrażania relacji społecznych, co prowadzi do przekonania, że faktycznie mamy obecnie do czynienia ze zmianą paradygmatu. Co jest tutaj najważniejsze? Istota rzeczy tkwi w przejściu od systemu zamkniętego, w którym jedynie x osób współpracuje ze sobą w ściśle określony sposób, do modelu otwartego, który zmienia sposoby działania badaczy, wydawców, uczelni, grantodawców itd. Oto punkt wyjścia.

Próba określenia, jak daleko to wszystko zajdzie – bo o to poniekąd pan pyta – byłaby spekulacją. Mam na ten temat swoje zdanie, ale to jedynie przypuszczenia, bo przecież nikt z nas nie może przewidzieć przyszłości. Jednak opierając swoje rozumowanie na prognozowaniu czy porównując to, co się dzieje, ze zmianami, które zaszły w przeszłości, można z łatwością przypuścić, że w ciągu dekady krajobraz badań naukowych i sposoby zachowań interesariuszy w tym obszarze ulegną gruntownej przemianie. Co jednak nie oznacza, że zmieniają się same podstawy uprawiania nauki. Będziemy zawsze prowadzić badania empiryczne i opierać się na recenzjach naukowych. Będziemy zawsze mieli profesorów i biblioteki. Ale metody działania – to jak recenzujemy, uczymy, prowadzimy badania – ulegną zmianie. Nie dotyczy to jednak podstaw samej nauki, której istota wciąż polega na stawianiu pytań wynikających z określonej teorii, poszukiwaniu danych dowodzących słuszności tych pytań, modyfikowaniu teorii i tak od nowa – to nie ulegnie zmianie. Podstawy będą takie same, zmieni się jednak sposób działania, a w rezultacie cały system.

Czy nie istnieje jednak niebezpieczeństwo, że ta nowa nauka stanie się niebawem jakimś odczłowieczonym przedsięwzięciem? Wraz z wielkimi zbiorami danych wyjaśnianie jest przecież stopniowo zastępowane przez korelację. Czy to aby nie koniec prawdziwego rozumienia?

W pańskim pytaniu zawiera się kilka kwestii. Zacznijmy od tego, że korelacja nie oznacza przyczynowości. Uczą tego na pierwszym roku statystyki. I tego samego uczono dawniej. Pomiędzy dwiema seriami zdarzeń zachodzącymi w tym samym czasie można mówić o korelacji, nie zaś o przyczynowości. Podobnie rzecz wygląda w przypadku wielkich zbiorów danych. Oczywiście, zmieniło się to, że obecnie można zestawiać wszystko ze wszystkim, bo dysponujemy danymi na temat wszystkiego. W związku z tym musimy w przyszłości kłaść na uczelniach większy nacisk na uświadamianie studentom, że korelacja nie oznacza przyczynowości. Należy wręcz na powrót zadać sobie pytanie o podstawy metody naukowej. Jest to obecnie znacznie ważniejsze niż kiedyś. I dobrze, że tak się dzieje. To jedna część pańskiego pytania.

Druga rzecz to kwestia ewentualnego odczłowieczenia nauki. Nie postrzegam tego w ten sposób. Otwarta nauka i otwarte zbiory danych umożliwiają lepsze wykorzystanie czasu i środków finansowych w nauce. Otwierając dane, umożliwiamy ich ponowne wykorzystanie. Otwarta współpraca oznacza udział większej liczby ludzi. To po prostu inny sposób uprawiania nauki, a nie kwestia dehumanizacji lub jej braku. Ważne jest, że w przyszłości będziemy dysponowali danymi na każdy temat. Za 20 lat wszystko, włączając w to nasze ciało, będzie wyposażone w mikroprocesory zbierające dane w każdym obszarze. Będzie więc można zbierać dane empiryczne o wszystkim. Podczas gdy 50 lat temu wiele naszych wysiłków badawczych było uzależnionych od możliwości pozyskania danych, teraz problem ten będzie znacznie mniejszy. Będziemy w stanie robić znacznie więcej, co jest pozytywne. Ale oznacza to również, że musimy uczyć ludzi krytycznego myślenia.

Wracając do pańskiego pytania – problem nie polega na tym, że mamy dane, ani na tym, że możemy te dane skorelować. Z samej możliwości korelacji nie wynika, że robi się coś znaczącego. Tak więc krytyczne myślenie, epistemologia, wartość źródeł i danych – wszystkie te kwestie będą musiały wejść do standardowego uniwersyteckiego programu nauczania właśnie ze względu na nasze nowe narzędzia. Na podobnej zasadzie uczymy dziś, jak oceniać obserwacje i odnajdywać w nich zafałszowania, a na historii – oceny wartości materiału źródłowego. Było to zawsze częścią programu nauczania, ale w przyszłości znaczenie tych kwestii jeszcze bardziej się zwiększy ze względu na ten ogromny przyrost danych.

Additional information