Otwarty dostęp jest dobry

Michał Starczewski

Eksperyment "Science" dobitnie pokazał, że proces recenzowania, na którym spoczywa ciężar utrzymywania wysokiej jakości pracy badawczej, jest często wadliwy. Przypisywanie winy otwartemu dostępowi jest jednak nieporozumieniem. Źródłem problemów jest raczej tendencja do oceniania dorobku naukowców i przyznawania grantów na badania wyłącznie na podstawie statystyk, w których dwa różne artykuły opublikowane w tym samym czasopiśmie ważą tak samo.

 

W ubiegłym tygodniu jedno z najbardziej prestiżowych czasopism naukowych na świecie, "Science", opublikowało numer specjalny poświęcony komunikacji naukowej. Największe poruszenie wywołał reportaż ze swoistego śledztwa dziennikarskiego, pokazujący nieprawidłowości przy akceptacji tekstów przez redakcje periodyków. Prowokacja redaktora "Science" zainteresowała Piotra Kościelniaka, który opublikował do niej komentarz Jak naukowcy nabrali ignorantów?. Jest to dobra okazja, aby zatrzymać się na chwilę przy zagadnieniu czasopism naukowych.

Wiążą się z nim dwa zagadnienia, które bywają ze sobą mylone. Czytelnicy komentarza Kościelniaka mogą wręcz odnieść wrażenie, że autor utożsamia je ze sobą. Pierwsze zagadnienie to ocena jakości pracy badawczej, a drugie to sposoby, w jakie jej efekty są prezentowane kolejnym naukowcom i, ewentualnie, innym zainteresowanym. W czasach, kiedy niewiele osób zajmowało się nauką, a informacje raczej nie wykraczały poza lokalne podwórko, akademicy mogli pozwolić sobie na śledzenie osiągnięć kolegów ze swojej dyscypliny. Dziś w praktyce jest to możliwe co najwyżej w zakresie bardzo wąskich specjalizacji ze względu na wykładniczy przyrost informacji, także naukowej. Instytucje zarządzające nauką na całym świecie szukają rozwiązania w parametryzacji. Bezpośrednio ocenia się więc liczbę publikacji i liczy się, ile razy zostały one zacytowane. Pośrednio uzyskane w ten sposób liczby mają oddawać jakość pracy: więcej znaczy przyjęcie tekstu przez prestiżowy periodyk i to jego redaktorzy mają stać na straży wysokiego poziomu i rzetelności. Podstawowym narzędziem jest recenzja naukowa. W wzorowej sytuacji recenzenci nie znają nawet nazwiska autora i jego powiązania instytucjonalnego.

Oddzielnym zagadnieniem jest sposób, w jaki publikacje są udostępniane. Przed rozwojem internetu wykształcił się model, w którym badania były finansowane za pieniądze publiczne. Ich efektem były publikacje, do których majątkowe prawa autorskie badacz przekazywał zazwyczaj nieodpłatnie wydawcom. Wydawcy zaś sprzedawali egzemplarze czasopisma głównie bibliotekom, działającym za publiczne pieniądze. W ten sposób podatnik płacił dwa razy. Elektroniczne środki komunikacji sprawiły, że zmieniła się pozycja wydawców w systemie. Mimo że proces wydawniczy stał się prostszy, wydawniczy giganci, tacy jak Elsevier czy Springer, drastycznie podwyższyli opłaty za dostęp do treści naukowych. Rezygnacja z wersji papierowej oznacza, że biblioteki płacą tylko za ograniczony w czasie dostęp. Jeśli zrezygnują z subskrypcji, czytelnicy stracą możliwość korzystania nie tylko z nowych numerów periodyków, ale również z tych treści, do których dostęp był do niedawna wykupiony.

Informacji naukowych jest coraz więcej i stają się one coraz droższe. Skutkiem tego komunikacja naukowa staje się coraz mniej wydolna. Nawet najbogatsze amerykańskie uczelnie nie są w stanie płacić kwot żądanych przez wydawców. Różnica między Uniwersytetem Harvarda, prenumerującym najwięcej czasopism (prawie 100 tys.), a następnym najlepiej zaopatrzonym Uniwersytetem Yale (75 tys. tytułów) wynosi 25%. Pojawia się luka dostępu, której doświadczył chyba każdy naukowiec: artykuły potrzebne do pracy są niedostępne. Oddziela od nich mur horrendalnie wysokich opłat.

Odpowiedzią na ten problem jest tzw. otwarty dostęp (ang. open access). Istotą tej idei jest wykorzystanie tych samych publicznych pieniędzy, które teraz przeznaczone są na kupowanie często ograniczonego w czasie dostępu, na opłacanie kosztów publikacji, które są następnie dostępne nieodpłatnie dla każdego internauty na zawsze. W przypadku badań o dużym potencjale komercyjnym dopuszczalne jest nawet dwunastomiesięczne embargo, pozwalające na gospodarczą eksploatację dorobku naukowego. Coraz więcej instytucji finansujących badania uzależnia przyznanie grantu od zobowiązania do umieszczenia efektów sfinansowanych w ten sposób badań w otwartym dostępie. Najczęściej wymienia się amerykański Narodowy Instytut Zdrowia (NIH). W Programie Ramowym Horyzont 2020, z którego będą finansowane badania w Unii Europejskiej w latach 2014-2020, zapowiadane jest przyjęcie analogicznych rozwiązań. Dzięki zaangażowaniu i znaczeniu CERN, za najbardziej otwartą dziedzinę uchodzi fizyka cząstek elementarnych. Ponad 90% prac z tej dyscypliny jest otwartych. Jedna z największych na świecie pozarządowych fundacji wspierających naukę, Wellcome Trust, wymaga od swoich beneficjentów umieszczania publikacji w otwartym dostępie. Podobne polityki otwartości przyjęło wiele najlepszych uczelni, na czele z Universytetem Harvarda i Massachusetts Institute of Technology. Podsumowując ten wątek: tradycyjnie opłaty ponoszone są „ze strony czytelnika” (za pośrednictwem bibliotek). Nowy model zakłada finansowanie zazwyczaj „ze strony autora”. Choć zdarza się, że autor płaci z własnej kieszeni, to zazwyczaj środki pochodzą od grantodawcy lub pracodawcy. Wiele otwartych czasopism w ogóle nie pobiera opłat. Utrzymywane są przez uczelnie.

Artykuł w "Science" dotyka obu opisanych wyżej zagadnień. Przypomnijmy: John Bohannon napisał pełen bzdur artykuł „naukowy” i wysłał go, zmieniając nieistotne szczegóły, do 304 redakcji otwartych czasopism. Podpisał go fikcyjnym nazwiskiem afrykańskiego naukowca pracującego w wymyślonym instytucie. 157 odpowiedzi było pozytywnych, a wiele nie nosiło śladów choćby najbardziej powierzchownej recenzji. Niewątpliwie taki wynik świadczy o szeroko rozprzestrzenionej patologii.

"Science" sugeruje, że to model otwartości czasopism jest skażony. „Opłaty ze strony autora” zniszczyły jakość. Sugestia ta nie jest jednak tak jednoznaczna, jakby chciał Piotr Kościelak. Nie mogłaby być, wszak samo "Science" otwiera wszystkie swoje artykuły po 12 miesiącach, a w pewnym zakresie pozwala na dostęp w przypadku takiego wymogu ze strony instytucji przyznającej grant. Sam tytuł artykułu mówi o recenzowaniu, a nie o sposobie udostępniania (Who's Affraid of Peer Review?). Szkoda, że Bohannon nie zastawił sideł na czasopisma udostępniane w tradycyjnym, płatnym modelu. Wytłumaczenie, że w ich przypadku czeka się znacznie dłużej na odpowiedź, co notabene sygnalizuje problem ślamazarności procesu wydawniczego, nie w pełni satysfakcjonuje.

Ciekawe jest, na co zwraca uwagę "Science", geograficzne rozmieszczenie redakcji. Indie i Środkowa Afryka to, jak się okazuje, centra gromadzące patologiczne czasopisma. Kraje rozwijające się jawią się jako otoczenie sprzyjające nie tylko niskim standardom, ale nawet oszustwom. Za przykład niech służy "American Journal of Medical and Dental Sciences". Wbrew nazwie wskazującej na amerykańską proweniencję, czasopismo to założone zostało w Pakistanie. Eksperyment potwierdził, że tzw. lista Jeffreya Bealla skutecznie wskazuje „pasożytnicze” czasopisma, które nie przestrzegają naukowych norm. Nie jest to jednak argument przeciwko otwartemu dostępowi, który daje szansę racjonalizacji wydatków na naukę i pozwala osobom spoza środowisk akademickich dowiadywać się z pierwszej ręki, czym zajmują się naukowcy i z jakim skutkiem.

Warto zwrócić uwagę na polski aspekt „śledztwa”. Bohannon wysłał swój tekst także do czasopism znad Wisły. Z ulgą możemy zauważyć, że wszystkie ominęły zastawioną pułapkę. Co prawda próbka czterech tytułów nie jest w pełni reprezentatywna, ale stawia nasz kraj w dobrym świetle. Mimo mniej lub bardziej uzasadnionego narzekania na chroniczny niedobór pieniędzy i mizerny poziom, polskie środowisko naukowe należy do zachodniej kultury akademickiej.

Eksperyment "Science" dobitnie pokazał, że proces recenzowania, na którym spoczywa ciężar utrzymywania wysokiej jakości pracy badawczej, jest często wadliwy. Przypisywanie winy otwartemu dostępowi jest jednak nieporozumieniem. Otwartość zwiększa transparentność. Źródłem problemów jest raczej tendencja do oceniania dorobku naukowców i przyznawania grantów na badania wyłącznie na podstawie statystyk, w których dwa różne artykuły opublikowane w tym samym czasopiśmie ważą tak samo. Ludzie zachowują się racjonalnie. Gdy sponsor badań, zazwyczaj państwo, oczekuje dużej liczby artykułów, a pytany o ich jakość odsyła do redakcji czasopism, to naturalną reakcją jest chęć zaspokojenia tych oczekiwań. „Pasożytnicze” czasopisma domykają ten system bazujący na fikcji.

Naszkicowanej wyżej karykaturalnej formie parametryzacji obojętne jest, w jaki sposób udostępniane jest czasopismo: w modelu płatnym lub otwartym. Kolejne numery „pasożytów” powstają przecież nie po to, aby je ktokolwiek czytał. Odhaczenie kolejnej publikacji po prostu pozwala doliczyć sobie punkty w tabelkach. "Science" pokazało patologiczną tendencję w procedurze recenzowania tekstów naukowych. Najprostszym lekarstwem, które pozwoli wyjść ze stanu chorobowego, jest lektura. Komu opłaca się jednak czytać, gdy wszyscy znajdujemy się pod nieustanną presją produkowania treści?

Michał Starczewski jest pracownikiem Centrum Otwartej Nauki i doktorantem na Wydziale Historycznym Uniwersytetu Warszawskiego.

 

Wiedza jako dobro publiczne — konsekwencje ekonomiczne

Agnieszka Witoń

Fakt, iż wiedza posiada właściwości dóbr publicznych, ma poważne implikacje dla procesu jej produkcji i dystrybucji. Rynek nie radzi sobie z dobrami publicznymi w sposób efektywny. Podstawowym problem są trudności, jaki napotyka producent lub dystrybutor danego dobra podczas prób kontrolowania jego wtórnej dystrybucji. Wtórna dystrybucja oznacza, że producent nie odnosi wyższych zysków pomimo większej liczby osób korzystających z dobra. Taka sytuacja sprawia, że zachęty ekonomiczne do produkcji tego dobra są niskie i przez to nieskuteczne. Może to powodować niewykształcenie się rynku tego dobra, wykształcenie się rynku nieefektywnego bądź też nawet konieczność zaangażowania się państwa w produkcję i dystrybucję danego dobra.

 

Na gruncie ekonomicznym wiedza bywa często rozpatrywana na dwa sposoby: jako informacje bądź jako aktywa. W pierwszym przypadku traktowana jest jako zbiór informacji – przetwarzanych a następnie wykorzystywanych w modelach ekonomicznych w celu podejmowania racjonalnych decyzji dotyczących procesów gospodarczych. W drugim ujęciu wiedza stanowi z kolei aktywa biorące udział w procesie produkcji. Nie wszyscy badacze zgadzają się z takim dość umownym podziałem, jednak świadome pomijam tutaj kwestie wzajemnego stosunku wiedzy, informacji i danych czy też samego podziału wiedzy. Warto natomiast podkreślić istotne w kontekście ekonomicznym cechy wiedzy, do których należą:

– dominujący charakter – na wiedzy opiera się przewaga konkurencyjna podmiotu gospodarczego, spełnia ona rolę nadrzędną w stosunku do innych zasobów;
– niewyczerpywalność – wiedza nie zużywa się, jej wartość wzrasta im bardziej jest ona wykorzystywana;
– niematerialność – sama w sobie wiedza nie ma postaci materialnej, materialny może być nośnik lub produkt wiedzy;
– symultaniczne występowanie – wiedza jest zasobem, który może być wykorzystywany jednocześnie w wielu miejscach lub przez wiele osób i organizacji;
– nieliniowy, nieciągły charakter – taka sama ilość wiedzy w różnych kontekstach może mieć różne efekty, nie zawsze występują efekty skali.

Powyższe cechy wiedzy sprawiają, że zalicza się ją do grupy dóbr publicznych. Noblista Joseph Stiglitz wśród globalnych dóbr tego rodzaju wymienia: międzynarodową stabilność gospodarczą, międzynarodowe bezpieczeństwo, środowisko globalne, międzynarodową pomoc humanitarną oraz właśnie wiedzę. Raz wytworzona wiedza nie zmniejsza swojej wartości, kiedy coraz to nowe osoby z niej korzystają: dzielenie się wiedzą nie sprawia, że przestajemy ją posiadać, jest więc ona dobrem niekonkurencyjnym. Na podobnej zasadzie nie da się wykluczyć kogoś z posiadania wiedzy – jeżeli dotarła ona do określonego podmiotu, to nie jest możliwe wykluczenie go z korzystania z tej wiedzy. Rolę dobra publicznego spełnia też informacja, nad którą rozważań nie sposób oddzielić od rozważań nad wiedzą.

Użyteczność wiedzy jako dobra wynika z jej wielu funkcji i charakterystyk. Oczywistą zaletą jest rola, jaką odgrywa ona we wzroście gospodarczym poprzez tworzenie nowych technologii, produktów czy sposobów produkcji. Kumulacja wiedzy w społeczeństwie zwiększa jego dobrobyt, między innymi poprzez podnoszenie standardu życia dzięki coraz to lepszym i tańszym urządzeniom, skuteczniejszej i powszechniejszej szeroko pojmowanej ochronie zdrowia oraz edukacji dostępnej -– dzięki metodom e-learningu – dla osób, które wcześniej nie miały takiej możliwości. Nie mniej ważny jest też fakt, iż wartość wiedzy nie tylko nie zmniejsza się podczas jej konsumpcji, ale także w wielu przypadkach wzrasta w miarę jej używania. Doskonałym przykładem są tu otwarte bazy danych. Dzięki temu, iż może korzystać z nich duża grupa ludzi, ich użyteczność stale rośnie: dane zawarte w bazie są sprawdzane, poprawiane, uaktualniane. Wartość tych danych zwiększa się poprzez dzielenie się nimi z innymi badaczami. Wiedza w sposób kumulatywny tworzy zatem nową wiedzę; bez badań podstawowych niemożliwe byłyby badania stosowane i prace rozwojowe, których owocem są innowacje. Z odkryć wynikają kolejne odkrycia, które otwierają przed naukowcami nowe możliwości wykorzystania dotychczas nabytej wiedzy.

Schemat kumulacji wiedzy
Schemat kumulacji wiedzy (opracowanie własne)

Wiedza, technologie i innowacje mają też charakter komplementarny – w połączeniu z innymi technologiami czy innowacjami ich wspólna wartość jest większa niż suma ich wartości z osobna.

Fakt, iż wiedza posiada właściwości dóbr publicznych, ma poważne implikacje dla procesu jej produkcji i dystrybucji. Rynek nie radzi sobie z dobrami publicznymi w sposób efektywny. Podstawowym problem są trudności, jaki napotyka producent lub dystrybutor danego dobra podczas prób kontrolowania jego wtórnej dystrybucji. Wtórna dystrybucja oznacza, że producent nie odnosi wyższych zysków pomimo większej liczby osób korzystających z dobra. Taka sytuacja sprawia, że zachęty ekonomiczne do produkcji tego dobra są niskie i przez to nieskuteczne. Może to powodować niewykształcenie się rynku tego dobra, wykształcenie się rynku nieefektywnego bądź też nawet konieczność zaangażowania się państwa w produkcję i dystrybucję danego dobra.

W celu rozwiązania problemu produkcji i dystrybucji tak specyficznego dobra, jakim jest wiedza, podejmowane są próby pozbawienia jej cech dobra publicznego, a przynajmniej ograniczenia ich na tyle, aby można jej było przypisać także część cech dóbr prywatnych. Szeroko stosowanym sposobem osiągnięcia tego celu jest ochrona własności niematerialnych, która nadaje produktom wiedzy możliwość wykluczenia z konsumpcji osób, które nie zapłaciły za jej nabycie.

Systemy ochrony wartości niematerialnych różnią się w poszczególnych krajach, jednak ogólnie można wymienić następujące metody:
– patenty,
– prawa autorskie,
– tajemnica handlowa,
– przewaga wynikająca z bycia pierwszym we wprowadzeniu produktu na rynek.

Patenty i prawa autorskie to prawne sposoby ochrony wartości niematerialnych. Tajemnica handlowa może mieć podstawy prawne, gdy przyjmuje formę klauzul w umowie, ale może też bazować na faktycznie niemożliwym do wyegzekwowania w sensie prawnym utrzymywaniu tajemnicy dotyczącej technologii czy know-how stosowanych w przedsiębiorstwie. Pozycja pierwszego producenta danego dobra jest ochroną wartości niematerialnych nie w sensie prawnym, a w sensie ekonomicznym. Taki przedsiębiorca osiąga przewagę innowatora, która pozwala mu osiągać nadzwyczajne zyski przez pewien okres czasu. Okres ten kończy się, gdy imitatorzy skopiują stosowaną technologię, przystosują swoje linie produkcyjne i wypuszczą na rynek konkurencyjne produkty. Długość tego okresu, a więc wielkość przewagi, zależy między innymi od branży, zaawansowania technologicznego produktu oraz zasobów dostępnych konkurentowi.

System ochrony wartości niematerialnych ma współcześnie charakter globalny, między innymi ze względu na działalność organizacji takich jak WTO, której częścią jest TRIPS (Porozumienie w Sprawie Handlowych Aspektów Praw Własności Intelektualnej) oraz WIPO (Światowa Organizacja Własności Intelektualnej) – jedna z organizacji wyspecjalizowanych ONZ. Ciągłe wzmacnianie tej ochrony może mieć jednak skutki negatywne, które najbardziej dotykają kraje rozwijające się, nie zawsze mogące sobie pozwolić na zakup drogiej, acz niezbędnej do rozwoju wiedzy. Warto też wspomnieć o obawach dotyczących tzw. karteli technologicznych, których lobbyści wywierają silny nacisk na podmioty tworzące regulacje. Z drugiej strony, wśród zalet silnej globalnej ochrony własności intelektualnej wymienia się możliwość intensywniejszych innowacji lokalnych oraz transfer technologii w postaci bezpośrednich inwestycji zagranicznych i licencji.

Najbardziej typowy sposób ochrony własności intelektualnej to patent. Jest on niczym innym jak nadanym przez władzę monopolem na wykorzystywanie w działalności gospodarczej określonej technologii. Z reguły na początku posiada go twórca technologii, ale może go on również sprzedać. Taka możliwość stwarza nowy rynek, jednak często nabywcami patentów są podmioty chcące czerpać z niego korzyści nie poprzez wykorzystywanie technologii w działalności gospodarczej, lecz poprzez sądowe egzekwowanie swoich praw, gdy inny podmiot narusza ich monopol. Powoduje to nieefektywność rynkową, gdyż dana technologia nie jest wykorzystywana czy rozwijana. Innym problemem związanym z patentami jest fakt nieuznawania przez niektóre innowacyjne przedsiębiorstwa tego rodzaju ochrony własnej technologii za wystarczającą. Zatrzymują więc część informacji dla siebie, co dodatkowo ogranicza dostępność wiedzy w ujęciu ogólnospołecznym. Patenty opóźniają też publikację wyników badań, które są ich podstawą   – proces patentowy trwa pewien okres czasu, a innowator nie chce ryzykować upubliczniania swojej wiedzy, zanim będzie ona chroniona. Z mikroekonomicznego punktu widzenia nieefektywność patentu jako monopolu wyraża się w niższej produkcji i wyższej cenie dobra w porównaniu z systemem wolnorynkowym. Utracony potencjał (wynikający z niezrealizowanej, ale możliwej produkcji) jest nazywany stratą społeczną.

Sytuacja taka występuje w przypadku patentów, ale można ją też rozciągnąć na wszystkie sposoby ochrony własności intelektualnej. Każdy z nich powoduje bowiem, że wiedza czy też jej produkt nie jest dostępny dla wszystkich zainteresowanych. W przypadku dobra o tak dużych pozytywnych efektach zewnętrznych strata ta jest szczególnie dotkliwa dla społeczeństwa, ponieważ znacząco obniża potencjalny dobrobyt. Wydawałoby się więc, że ochrona wartości niematerialnych jest niepotrzebna, a nawet niepożądana. Trzeba jednak pamiętać, że bez tej ochrony wiedza na powrót stałaby się czystym dobrem publicznym, a w rezultacie przedsiębiorcy mieliby bardzo niską motywację do jej produkcji. Ochrona własności intelektualnej stanowi zatem zachętę ekonomiczną, dając w niektórych przypadkach możliwość osiągnięcia nawet nadzwyczajnych zysków.

Powstaje tutaj dylemat: czy pozwolić raczej na zaistnienie straty społecznej, czy też ryzykować wycofanie się przedsiębiorców z sektora wiedzy? Właściwie w obu przypadkach grozi niewystarczająca podaż wiedzy. Aby rozwiązać ten dylemat, należy zadać sobie pytania o to, która sytuacja jest groźniejsza (tj. która bardziej wpływa na zmniejszenie podaży wiedzy), oraz o to, czy ochrona prawna własności intelektualnej to jedyny sposób na zachęcenie przedsiębiorstw do podejmowania działalności innowacyjnej.

Odpowiedź na pierwsze pytanie nie jest jednoznaczna, gdyż zależy od wielu zmiennych. Konieczne jest jednak podkreślenie, iż postępująca prywatyzacja wiedzy skutkująca ograniczeniami dostępu zarówno do niej samej, jak i informacji stawia na straconej pozycji instytucje nierynkowe, które tradycyjnie odgrywały istotną rolę w tworzeniu nowych produktów wiedzy. Ważnym elementem dyskusji jest też dwojaki charakter wiedzy – może ona być traktowana jako dobro finalne, konsumpcyjne, ale jednocześnie wiele z produktów wiedzy jest też dobrem pośrednim, produkcyjnym. Wiedza tworzy nową wiedzę, dlatego jej ograniczenie będzie miało podwójnie negatywne skutki.


Odpowiadając na drugie pytanie, należy zauważyć, że podejmowane są różne inicjatywy mające na celu optymalizację produkcji i dystrybucji wiedzy. Jedną z nich jest przejmowanie przez państwo produkcji mało opłacalnych z punktu widzenia przedsiębiorstw produktów wiedzy, jak dzieje się to czasami m.in. w przypadku leków na tzw. zapomniane choroby. Korzyści społeczne osiągane dzięki tym produktom są większe niż koszty, które musi w tym wypadku pokryć społeczeństwo w postaci podatków. Innym rozwiązaniem są porozumienia przedsiębiorstw w sprawie wymiany patentów, pozwalające na szerszy i bardziej dynamiczny rozwój technologii, ale które bywają niekiedy oskarżane o naruszanie praw antymonopolowych poprzez tworzenie quasi-karteli. Kolejną z proponowanych inicjatyw jest partnerstwo publiczno-prywatne. Ciekawym rozwiązaniem jest też system funduszy nagród. Polega on na nagradzaniu innowatora przez państwo i przekazaniu innowacji do domeny publicznej. W ten sposób zachowywana jest ekonomiczna zachęta dla przedsiębiorców do podejmowania działalności innowacyjnej – nagrody bywają na tyle atrakcyjne, że innowatorzy skłonni są zrezygnować z czerpania zysków z prywatyzacji wiedzy. Wysokość nagrody może zależeć przykładowo od poziomu sprzedaży danej innowacji; mogą one być przyznawane bezpośrednio przez państwo lub przez wyspecjalizowaną instytucję. Oczywiście system ten ma wady: problemem jest adekwatna wycena nagradzanej innowacji oraz zagrożenie, że polityka będzie wpływać na decyzje dotyczące przyznawania nagród, jednak jednoczesne zachowanie zachęt ekonomicznych i eliminacja straty społecznej powstającej przez istnienie w sektorze wiedzy monopoli wydaje się silnym argumentem przemawiającym za tym systemem. Szczególnie pozytywnie badacze wypowiadają się na temat rozwiązania pozwalającego na wybór preferowanej opcji –  prywatyzacji stworzonej wiedzy lub oddania jej do domeny publicznej w zamian za odpowiednią nagrodę.

Kolejny segment systemu ochrony własności intelektualnej (dotyczący m.in. nieporuszanych tu wcześniej publikacji naukowych), bazujący na prawach autorskich, podobnie jak system patentowy daleki jest od rozwiązania perfekcyjnego. Problem ekonomiczny (pomijamy tu problem praw osobowych i plagiatów) dotyczy autorskich praw majątkowych, a dokładniej rzecz ujmując – cedowania tych praw przez badaczy lub instytucje naukowe na komercyjnych wydawców. Właściwie cały świat akademicki opiera się na systemie publikacji wyników badań w czasopismach naukowych. Oprócz prezentacji osiągnięć badawczych czasopisma naukowe spełniają też funkcję oceniającą – często na bazie liczby artykułów opublikowanych w najbardziej prestiżowych periodykach oceniany jest dorobek badacza lub uczelni wyższej.

Podobnie jak patenty, także czasopisma naukowe są formą prywatyzacji wiedzy, a przynajmniej dotyczy to ich większości, która nie oferuje otwartego dostępu do treści. Z reguły działają one poprzez system subskrypcji, zarówno dla użytkowników indywidualnych, jak i instytucjonalnych. Ten model jest obecnie częstym przedmiotem krytyki w środowisku naukowym, głównie ze względu na wysoką cenę subskrypcji (zwłaszcza w porównaniu do kosztów ponoszonych przez wydawców). Rosnące szybciej niż inflacja koszty dostępu do czasopism naukowych w znaczący sposób obciążają budżety instytucji naukowych, jeżeli nie są one przynajmniej w części ponoszone przez państwo.

Innym często podejmowanym argumentem na rzecz otwartego dostępu do publikacji naukowych jest pochodzenie środków finansowych, dzięki którym przeprowadzane są badania. Skala publicznego fundowania badań naukowych różni się między krajami, jednak można pokusić się o generalne stwierdzenie, że rola publicznie finansowanych badań jest duża. Nasuwa się tu więc podstawowe pytanie: dlaczego wyniki takich badań nie są ogólnie dostępne? Społeczeństwo jest w ten sposób zmuszane do podwójnego płacenia za wiedzę – raz w formie podatków przeznaczanych na rozwój nauki, a drugi raz w postaci subskrypcji czasopism naukowych. Z ekonomicznego punktu widzenia sytuacja ta jest przykładem nieefektywnego wykorzystania zasobów, gdyż finanse te mogłyby zostać przeznaczone na dalsze badania.

Model zamknięty ma też inne wady. Wynika z niego większe ryzyko powtarzania tych samych badań w różnych ośrodkach, ponieważ brakuje odpowiedniej komunikacji i koordynacji. Ograniczenie dostępu do wyników badań przeprowadzonych już wcześniej w innych ośrodkach zwiększa koszty prowadzenia nowych badań. Czas publikowania wyników jest stosunkowo długi, przez co dyskusja nad danym zagadnieniem opóźnia się i przeciąga; podobnie jest z wdrażaniem wyników badań. Co więcej, informacja zawarta w artykule naukowym jest przetwarzana przez redaktora – pojawia się tu zagrożenie utraty części wartości poprzez nieadekwatną edycję, niezgodną z zamierzeniami autora.

Alternatywą dla modelu zamkniętych czasopism naukowych jest otwarty dostęp, czyli model wolnego, powszechnego i natychmiastowego dostępu do artykułów naukowych, monografii i innych produktów wiedzy za pomocą Internetu. Pod względem prawnym otwarty dostęp może przybierać różne formy. Materiały dostępne w modelu otwartym nie należą do domeny publicznej, ponieważ twórcy nie zrzekają się swoich praw autorskich; zazwyczaj publikacje w otwartym dostępie wykorzystują tzw. wolne licencje.

Otwarty model dostępu do artykułów naukowych jest uważany przez wielu za lepszy od modelu zamkniętego. Po pierwsze, daje on możliwość powiększenia grupy odbiorców wyników badań. Może to dotyczyć niezależnych badaczy, którzy mogą mieć problemy z dostępem do artykułów w zamkniętych czasopismach. Otwarty dostęp sprawia, iż nie znajdują się oni na peryferiach świata naukowego, a w przypadku niektórych dziedzin mogą wręcz stanowić jądro danej społeczności. Kolejną grupą, która może zyskać na otwarciu dostępu do wyników badań naukowych, a o której nie mówi się często w tym kontekście, są nauczyciele. Poszerzanie przez nich wiedzy będzie skutkować wyższą jakością edukacji, i co za tym idzie – kapitałem ludzkim o wyższych umiejętnościach i studentami lepiej przygotowanymi do późniejszej pracy zawodowej. Zresztą studenci również skorzystają z otwartych repozytoriów w sposób bezpośredni, gdyż nie zawsze biblioteka ich szkoły wyższej jest w stanie zapewnić dostęp do odpowiedniej liczby czasopism działających w systemie subskrypcji. Dostęp do wyników badań przyniesie też znaczne korzyści sektorowi małych i średnich przedsiębiorstw. Badania Komisji Europejskiej wykazały, że przedsiębiorstwa z tego sektora, które nie mają dostępu do najnowszych wyników badań, potrzebują nawet do dwóch lat więcej na wprowadzenie innowacji produktowych. Nie można też zapominać o korzyściach, jaki odniesie ogół społeczeństwa – otwarty dostęp to kamień milowy w tworzeniu społeczeństwa wiedzy.

Otwarty dostęp do wiedzy wpływa też na podwyższanie jej jakości. Jak już wspomniano wcześniej, wiedza ma tę właściwość, że wraz z jej używaniem wzrasta jej wartość. Wynika to między innymi z procesu oceny, recenzji, krytyki i analizy. Artykuły w modelu otwartym pozwalają w większym zakresie niż standardowe, zamknięte czasopisma na publiczną dyskusję nad opublikowanymi wynikami badań oraz samą organizacją tych badań. Dyskusja publiczna na większą skalę pozwala z kolei na wielopłaszczyznową i wieloaspektową analizę i interpretację wyników, co ma wpływ na dalszy rozwój nauki poprzez sformułowanie kolejnych obszarów wymagających uwagi badaczy. Ważne jest też skrócenie czasu, jaki upływa pomiędzy powstaniem artykułu, a jego upublicznieniem, cytowaniem i ewentualnym wdrożeniem wyników badań.

Warto też wspomnieć, że łatwiejszy dostęp do wyników badań oznacza szerszą rozpoznawalność autora danego artykułu naukowego, więc jest niejako sposobem prezentacji i promocji dorobku naukowego badacza. Promocja ta dotyczy również instytucji naukowej, z którą powiązany jest autor (lub autorzy) artykułu. Co więcej, efekt promocyjny oddziałuje też na przedmiot badań w tym sensie, że jego większa ekspozycja sugeruje aktualność problemu oraz jego relewantność. Otwarty dostęp do określonych obszarów wiedzy może więc być narzędziem popularyzacji obszarów badań uznanych za szczególnie istotne ze społecznego punktu wiedzenia. Trzeba przecież wziąć pod uwagę, że w grupie odbiorców artykułu może znaleźć się podmiot, który będzie zainteresowany finansowaniem dalszych badań w wyznaczonym przez artykuł kierunku; tak więc im szerszy krąg odbiorców, tym większe szanse zauważenia danego problemu i podjęcia kroków ku jego rozwiązaniu.

Zalety otwartego dostępu są niezaprzeczalne, ale wbrew pozorom model ten nie jest jeszcze tak popularny w środowisku naukowym, jak wynikałoby to z jego charakterystyki. Wolny dostęp do danych czy artykułów naukowych to wolny dostęp do produktów wiedzy, a żadne dobro, które jest wolne, nie może być sprzedawane. Jeśli przedsiębiorcy w sektorze wiedzy nie mogą czerpać korzyści ze sprzedaży produktów, to nie będą tych produktów dostarczać na rynek. Wracamy w tym momencie do zarysowanego już wcześniej problemu obecności dóbr publicznych na rynku. Ogólnospołeczne zalety otwartego dostępu do wiedzy w postaci artykułów naukowych i danych sprawiają, że oczy zwracają się ku silniejszym podmiotom, będącym w stanie zapewnić taki dostęp. Chodzi oczywiście o struktury państwowe, które według niektórych nie tyle mogą zapewnić dostęp do wiedzy, ile wręcz mają taki obowiązek.

Debata dotycząca modelu otwartego i roli państwa w zapewnianiu wolnego dostępu do produktów wiedzy toczona jest aktualnie w wielu krajach. W Stanach Zjednoczonych przygotowywane są projekty otwartego dostępu do wyników badań finansowanych z funduszy publicznych; problem ten znajduje się również w kręgu zainteresowań Unii Europejskiej. Postanowienia dotyczące modelu otwartego można znaleźć m.in. w programach: Europejska Agenda Cyfrowa, Unia Innowacji oraz Horyzont 2020. Inicjatywy te muszą być oceniane jako wartościowe, bo jest o co walczyć. Według badań Johna Houghtona i Petera Sheehana z 2006 roku, krajowe wydatki na prace badawczo-rozwojowe przynoszą zwrot społeczny na poziomie 50%, a otwarty dostęp zwiększa efektywność tych wydatków o dodatkowe 5%. Inne badania szacują zwrot społeczny krajowych wydatków na badania i rozwój jedynie na poziomie 25%, ale otwarty dostęp dla badań fundowanych ze środków publicznych nadal przynosi znacznie większe korzyści niż koszty – nawet 50 razy większe.

Rozważając współczesny świat naukowy trzeba zwrócić uwagę na dominujące w XXI wieku trendy. Zmieniają się treści naukowe – ich forma i sposoby udostępniania. Poza tradycyjnymi kanałami komunikacji naukowcy korzystają z blogów, forów, portali tematycznych i społecznościowych. Duża część współpracy, wymiany poglądów i koordynowania projektów odbywa się wirtualnie, za pomocą narzędzi sieciowych. Rola Internetu i technologii informacyjno-komunikacyjnej w ogóle w rozwoju i popularyzacji nauki jest nie do przeszacowania. Zwiększa się grupa odbiorców treści naukowych – można wręcz niekiedy mówić o nauce obywatelskiej, partycypacyjnej. W sytuacji ogromnej ilości danych czekających na analizę logiczne jest, że nauka wychodzi poza mury instytucji naukowych; kooperacja społeczna staje się sposobem na rozwiązywanie problemów, z którymi nie radzi sobie indywidualny badacz lub grupa badawcza. Zmieniające się środowisko wymaga zmiany modelu udostępniania treści naukowych. Modelem odpowiadającym współczesnym warunkom jest otwarty dostęp do zasobów sieciowych, który zwiększa efektywność i jakość procesów badawczych. Będzie to skutkować charakterystycznym dla gospodarki opartej na wiedzy przyspieszeniem procesów innowacyjnych i wdrażaniem produktów wiedzy w działalności gospodarczej, gdyż wydajny, skuteczny i konkurencyjny system innowacji nie może istnieć bez efektywnego zaplecza naukowego. Badania podstawowe i stosowane przeprowadzane w instytucjach naukowych są fundamentem prac rozwojowych podejmowanych w przedsiębiorstwach. Co więcej, otwarty dostęp do publikacji naukowych, wyników badań i danych pozwala na angażowanie społeczeństwa w procesy naukowe i innowacyjne. Społeczeństwo może aktywnie brać udział w procesach badawczych, może też pasywnie obserwować rozwój nauki, co sprzyja przejrzystości zwłaszcza w przypadku badań finansowanych z pieniędzy publicznych. Doskonale współgra to z koncepcją społeczeństwa wiedzy, które jest zarówno warunkiem rozwoju, jak i elementem gospodarki wiedzy, jej bliźniaczym konceptem.

 

WitonAgnieszka - Copy

Agnieszka Witoń - absolwentka Zarządzania oraz Ekonomii (spec. ekonomia międzynarodowa) na Uniwersytecie Jagiellońskim. Obecnie doktorantka na Wydziale Ekonomii i Stosunków Międzynarodowych na Uniwersytecie Ekonomicznym w Krakowie. Obszary zainteresowań: procesy innowacyjne w gospodarce, gospodarka oparta na wiedzy, racjonalność podmiotu gospodarującego, nierówności społeczno-ekonomiczne, teorie wzrostu gospodarczego oraz bezpośrednie inwestycje zagraniczne.

 

Otwartość — klucz, który nie pasuje do wszystkich drzwi

Michał Starczewski

Na pierwszy rzut oka może się wydawać, że prosty komunikat „więcej otwartości” jest dobrym rozwiązaniem przynajmniej z taktycznego punktu widzenia. Adresaci tego komunikatu, atakowani z wielu stron, zostaną w końcu przekonani, że należy wprowadzić otwartość w jak najszerszym zakresie. Niestety, ograniczanie się do prostego hasła nie tylko uniemożliwia pogłębioną diagnozę obecnej sytuacji, ale może okazać się nieskuteczne, ponieważ nie odpowiada na wątpliwości specyficznych grup. Dzisiaj abstrakcyjnie rozumiana otwartość przekonuje już tylko tych przekonanych.

 

Postulat otwartości mającej przekształcić całokształt życia kulturalnego, intelektualnego i publicznego bywa dziś nader często formułowany w odniesieniu do wielu różnych sfer w sposób sugerujący zarazem uniwersalność, jak i jednoznaczność tego pojęcia. Czy jednak jest ono rzeczywiście przydatne w debacie o otwartej nauce? Pojęcie otwartości bywa często  rozumiane w sposób wyabstrahowany, w oderwaniu od tego, czym faktycznie jest w poszczególnych obszarach. Czy jego abstrakcyjne pojmowanie nie powoduje utraty znaczenia otwartych modeli zastosowanych w kulturze, programowaniu lub nauce? Czy zatem warto odwoływać się  do tak rozumianej otwartości  w dyskusjach o otwartych modelach komunikacji naukowej?

Abstrakcyjnie rozumiana otwartość
Używajac ogólnego pojęcia „otwartość”, ma się na myśli pewien postulowany stan rzeczy przede wszystkim z punktu widzenia odbiorcy. Abstrakcyjny odbiorca chciałby mieć dostęp do różnych treści i nie musi interesować go, czy ma do czynienia z utworem artystycznym, naukowym, otwartym kodem źródłowym programu czy też jakimkolwiek innym utworem. Pragnienie to jest coraz łatwiejsze do zaspokojenia dzięki rozwojowi  technologii umożliwiającej niezwykle tanie, szybkie i proste wytwarzanie kolejnych kopii utworu, który już raz przybrał postać pliku elektronicznego.

Szeroko rozumiana otwartość przeciwstawiana jest tajności (por. „Openness”) jako praktyce ukrywania informacji. Otwartość jako szeroki dostęp do wiedzy i informacji miałaby być przejawem – skonceptualizowanego po raz pierwszy przez Henri Bergsona – „społeczeństwa otwartego”,  którego przeciwieństwem jest „społeczeństwo zamknięte”,  według Karla Poppera   będące społeczeństwem totalitarnym (por. Michael A. Peters, Open Education and Education for Openness). „Otwartość” staje się w takim ujęciu  bliska pojęciu „transparentności”, zwłaszcza jeśli rozpatruje się je z punktu widzenia teorii państwa i prawa [1].

W wymiarze bardziej konkretnym pojęcie otwartości łączy się z przekonaniem o osiąganiu zwielokrotnionej korzyści z wprowadzania otwartych modeli w wielu obszarach. Internet umożliwia funkcjonowanie tej samej treści w różnych kontekstach. Ten sam artykuł może być zarazem publikacją naukową, materiałem edukacyjnym i obiektem kultury; może odwoływać się do otwartych danych badawczych i rządowych; może być powiązany z otwartym oprogramowaniem, które powstało w ramach tego samego projektu. Przyjmując taką perspektywę, łatwo uznać, że podziały na obszary są przestarzałe, sztuczne i niepotrzebne. W każdym przypadku mowa jest przecież o wytworach intelektualnych lub artystycznych, które mogą być udostępniane za pośrednictwem Internetu. Czy nie wystarczy po prostu dążyć do tego, by jak najwięcej tego typu dóbr było otwartych?

W tym ujęciu szczególnego znaczenia nabiera łączący otwartość z różnych obszarów argument dotyczący finansowania publicznego, któremu poświęcam więcej uwagi dalej. Akcentowanie faktu, że treści mogą funkcjonować równocześnie w wielu kontekstach, odsuwa na dalszy plan pytanie o to, w jaki sposób rzeczywiście w nich funkcjonują. Perspektywa pojedynczego obszaru staje się zbyt partykularna, by stosować ją do pojęcia otwartości mającej powszechne zastosowanie.

Sens posługiwania się pojęciem abstrakcyjnej otwartości widzę przede wszystkim w wyznaczaniu ogólnego kierunku działań zmierzających ku wprowadzaniu modeli otwartych. Obraz uwzględniający wyidealizowany stan rzeczy przede wszystkim z punktu widzenia jednej tylko grupy, czyli odbiorców treści, musi być niepełny. W pewnych okolicznościach może nawet prowadzić do skutków przeciwnych do zamierzonych. Przedstawiciele innych grup mogą bowiem sprzeciwiać się zmianom, jeśli ich perspektywa nie zostanie uwzględniona. Co więcej, jeśli skonkretyzuje się hipotetycznego odbiorcę, to okaże się, że w zależności od obszaru jego zainteresowania różnorakie potrzeby wybijają się na plan pierwszy. Czegoś innego potrzebuje meloman, czegoś innego nauczyciel poszukujący treści edukacyjnych, a czegoś jeszcze innego naukowiec zbierający bibliografię do swoich badań. Abstrakcyjna otwartość nie będzie odpowiadała na ich potrzeby, choć mogą posługiwać się tym pojęciem, by przedstawić obrazowo ogólny stan rzeczy, który uznają za korzystny dla siebie. Odpowiedzią na konkretne potrzeby mogą być jednak tylko konkretne rozwiązania.

Otwartość jako cecha
Otwartość należy zatem rozumieć nie tyle jako abstrakcyjne pojęcie, ile przede wszystkim jako cechę, którą przypisuje się poszczególnym obszarom (bywa jednak wykorzystywana w wielu znaczeniach dalece odbiegających od zagadnień dostępu do treści; o ile postulat „otwartego rządu” jest zgodny z pojęciem otwartości, o której tu mowa, o tyle np. „otwarte miasto” jest zwrotem bardzo wieloznacznym, mogącym istotnie odbiegać od rozumienia przyjmowanego w dyskusji o otwartości). Znaczenie tej cechy zmienia się w zależności od obszaru, któremu jest przypisywana. Mimo ogólnych podobieństw, zachodzą wyraźne różnice między np. otwartością w nauce a otwartością w kulturze. Inne są motywacje i instytucjonalne zaplecze naukowców, a inne artystów.

Różne „otwartości” mogą spotkać się w jednym punkcie, na przykład w jednym projekcie z dziedziny humanistyki cyfrowej: otwarta nauka w postaci otwartego dostępu, otwartych danych badawczych i otwartego recenzowania, otwarte oprogramowanie w postaci otwartego kodu źródłowego do programów powstałych przy realizacji projektu, otwarte zasoby edukacyjne – gdy efekty projektu przedstawiane są również w formie edukacyjnej. Ostatecznie zaś mogą stać się częścią otwartej (wolnej) kultury, gdy zostaną udostępnione na wolnej licencji i zaczną funkcjonować poza środowiskiem naukowym.
 
Odpowiedzi na konkretne potrzeby
Na pierwszy rzut oka może się wydawać, że prosty komunikat „więcej otwartości” jest dobrym rozwiązaniem przynajmniej z taktycznego punktu widzenia. Adresaci tego komunikatu, atakowani z wielu stron, zostaną w końcu przekonani, że należy wprowadzić otwartość w jak najszerszym zakresie. Niestety, ograniczanie się do prostego hasła nie tylko uniemożliwia pogłębioną diagnozę obecnej sytuacji, ale może okazać się nieskuteczne, ponieważ nie odpowiada na wątpliwości specyficznych grup. Dzisiaj abstrakcyjnie rozumiana otwartość przekonuje już tylko tych przekonanych.

Podstawą dyskusji o otwartości w poszczególnych obszarach (nauce, kulturze, edukacji, itd.) powinno być dogłębne zrozumienie mechanizmów kierujących tymi obszarami. I tak dyskusja o otwartej nauce powinna koncentrować się na tym, czym jest nauka i jak funkcjonuje system komunikacji naukowej, jakie są potrzeby poszczególnych jego uczestników. Na tym gruncie argumenty za otwartością znajdują konkretne uzasadnienie. Podobnie należy konstruować argumentację dotyczącą kultury, edukacji, administracji państwowej i wszystkich obszarów, od których oczekuje się większej otwartości. Modele otwarte powinny oferować konkretne rozwiązania dopasowane do sposobów funkcjonowania poszczególnych systemów i motywacji grup interesariuszy.

Dogłębna analiza poszczególnych obszarów jest potrzebna, by przedstawić otwarte modele jako faktycznie atrakcyjną ofertę dla osób i instytucji związanych z wytwarzaniem treści. Idea, jeśli nie idzie za nią szczegółowa analiza rzeczywistości, łatwo staje się hasłem wypłukanym ze znaczenia. Richard Stallman, czołowa postać ruchu wolnego oprogramowania, zwraca uwagę na coraz większe rozmycie pojęcia otwartości i wykorzystywanie go jako marketingowego frazesu [2].

Wielość otwartości
Otwartość nabiera zróżnicowanych znaczeń, gdy wprowadza się ją w różnych obszarach i należy te różnice wyraźnie wskazać.W każdym z istniejących obszarów mamy do czynienia z inaczej skonstruowanymi systemami, z innymi interesariuszami i ich motywacjami. Argumenty, które w jednym obszarze są trafne i mają dużą siłę przekonywania, w innym okazują się znacznie słabsze. Podobnie argumenty przeciwników otwartości mają różną siłę w zależności od kontekstu, w jakim są używane. Przedstawianie otwartości jako jednego uniwersalnego postulatu odpowiedniego dla wszystkich obszarów może być przyczyną nieporozumień, uproszczeń i nieadekwatnego przenoszeania pewnych cech otwartości z jednego obszaru do drugiego. Może również skutkować tworzeniem przez przeciwników otwartości nieprawdziwego obrazu otwartych modeli. Taka wyobrażona uogólniona otwartość może kumulować w sobie negatywne z ich punktu widzenia cechy, choć w rzeczywistości mogą one w ogóle nie odnosić się do otwartych modeli w ich specjalizacji. Wyraźne podkreślanie, o czym się mówi, pozwola uniknąć wielu niepotrzebnych nieporozumień.

Pobieżne zestawienie celów i problemów otwartego oprogramowania, otwartej kultury i otwartego dostępu do treści naukowych (zestawienie to można poszerzyć o inne obszary) pokazuje, jak daleko sięgają różnice między nimi.

1. Celem otwartego oprogramowania jest, według mojej wiedzy, ulepszanie jakości tegoż oprogramowania (w przeciwieństwie do „wolnego oprogramowania”, którego nadrzędnym celem jest zapewnienie wolności użytkowników – por. R. Stallman). Jego bezpłatność nie jest konieczna, choć działalność biznesowa często wiąże się ze świadczeniem usług i pomocy użytkownikom. Zasadniczym zagadnieniem wydaje mi się fakt, że wiele oprogramowania powstaje w prywatnych firmach.

2. Celem otwartej kultury (pojęcie to bywa często stosowane zamiennie z określeniem „wolna kultura”) jest  – opieram się tu na poglądzie wyrażonym przez Lawrence'a Lessiga – zwiększenie kreatywności, a największym wyzwaniem odzyskanie równowagi między tym, co w kulturze wolne i niemające komercyjnego charakteru, a tym, co taki właśnie charakter posiada [3]. Charakterystyczne jest napięcie między tymi twórcami, którzy nie chcą zarabiać na twórczości, a tymi, którzy liczą na utrzymanie się dzięki pracy twórczej (a może nawet na spektakularną karierę w show-biznesie).

3. Celem otwartego dostępu do publikacji naukowych jest zapewnienie maksymalnej skuteczności systemowi komunikacji naukowej i sprawienie, by naukowcy mieli łatwy i szybki dostęp do całości literatury potrzebnej do badań. Najpoważniejszym problemem wydaje się zapewnienie powszechności modeli otwartych. Powszechność ta stanie się możliwa dzięki politykom instytucjonalnym. Specyfiką tego obszaru jest to, że działalność badawcza ma zasadniczo niekomercyjny charakter i jest na ogół finansowana z pieniędzy publicznych. Wokół niej funkcjonuje jednak szereg prywatnych podmiotów świadczących potrzebne jej usługi. Zajmując się otwartą nauką, należy pamiętać o patentach i tych efektach prac badawczych, które nadają się do komercjalizacji. W nauce wyjątkowe jest również istnienie korporacji uczonych, do której  przynależność określa się poprzez przyznawanie stopni naukowych i recenzowanie prac. W ten sposób wyznacza się krąg osób, do których kierowany jest strumień pieniędzy (w przeciwieństwie choćby do artystów, których oceniają odbiorcy lub bezpośrednio urzędnicy przyznający finansowanie).

 

Finansowanie publiczne
Ważnym argumentem wspierającym ideę otwartości jest publiczne finansowanie. Zgadzam się, że domaganie się otwartego dostępu do treści w ten sposób powstałych jest uzasadnione. W Polsce, gdzie publiczne pieniądze wspierają bardzo wiele przedsięwzięć, argument ten może być faktycznie skuteczny.

Opieranie na nim argumentacji byłoby jednak niebezpieczne, przynajmniej w obszarze nauki. O wiele ważniejsze od źródeł finansowania jest bowiem to, że otwarte modele komunikacji naukowej skuteczniej odpowiadają potrzebom naukowców niż inne. Sposób finansowania pozostaje sprawą drugorzędną. Gdyby bowiem badania naukowe były finansowane inaczej, to i tak udostępnianie ich efektów w sposób otwarty byłoby korzystne zarówno dla naukowców, jak i dla podmiotów dostarczających środki na ich przeprowadzenie. Również ci ostatni są zainteresowani tym, aby publikacje będące efektem badań przez nich finansowanych trafiały do jak najszerszego kręgu odbiorców i uczestniczyły w dalszym rozwoju wiedzy naukowej.

O sukcesie w nauce decyduje wpływ, jaki naukowiec i jego publikacje wywierają na środowisko akademickie i kolejne prace badawcze. Wpływ ten może być określany na wiele sposobów. Mogą to być mierzalne wskaźniki (np. popularny Impact Factor lub wskaźniki alternatywne), ale także trudne do zmierzenia szacunek i autorytet w środowisku. Niezależnie od tego, jak określa się ten wpływ, szerokie upowszechnienie pracy korzystnie na niego oddziałuje.

Publikacje, do których dostęp jest ograniczony barierami technicznymi, finansowymi lub prawnymi, znajdują się w gorszej pozycji wyjściowej. Co prawda, prestiż wydawnictwa budowany przez dziesięciolecia wciąż jeszcze stanowi rekompensatę – czytelnicy są gotowi pokonać przeszkody, by uzyskać dostęp do tych treści – ale zapewne z każdym rokiem kapitał ten będzie topniał.

Ta właśnie argumentacja za otwartym dostępem przekonała choćby prywatną brytyjską fundację Wellcome Trust [4], która wprowadziła politykę otwartości polegającą na uzależnieniu przyznania grantu od zobowiązania do udostępnienia w sposób otwarty publikacji powstałych dzięki niemu. Sukces fundatora badań naukowych jest ściśle związany z sukcesem finansowanego naukowca, niezależnie od tego, jaki jest status prawny tego pierwszego. Zwracanie nadmiernej uwagi na kwestię finansowania odwraca uwagę od istoty problemu otwartych modeli komunikacji naukowej.

Podobne argumenty mogą znajdować zastosowanie w obszarach innych niż nauka. Dzieła sztuki mogą powstawać za pieniądze pochodzące z różnych źródeł. Jeśli nadrzędnym celem artysty lub fundatora jest jak najszersze upowszechnienie dzieła, to model otwarty skuteczniej doprowadzi do jego osiągnięcia niż modele nastawione na wypracowanie zysku.

„Finansowanie publiczne” w różnych obszarach może oznaczać co innego. Mamy do czynienia z różnymi sytuacjami, gdy przedsięwzięcie finansowane jest całościowo z publicznych pieniędzy, i gdy wsparcie publiczne dotyczy tylko jego części. Podobnie inne mechanizmy funkcjonują w przypadku finansowania ze Skarbu Państwa, a inne, gdy wsparcia udzielają samorządy. Finansowanie publiczne może mieć różne cele, łącznie z inwestycyjnymi. W każdym z tych przypadków otwartość może przybierać różne formy, a nawet zmieniać swoje oblicze. Budując argumentację przekonującą do otwierania treści powstałych za publiczne pieniądze, należy najpierw starannie przeanalizować, na czym to finansowanie polega, jakie są jego cechy i jak wkomponowuje się ono w konkretny obszar. Sprowadzanie problemu do prostego hasła może prowadzić do prób wdrażania rozwiązań oderwanych od rzeczywistości.

 

Podsumowanie
Przynajmniej w dyskusji o otwartych modelach komunikacji naukowej otwartość należy traktować jako cechę, a nie  abstrakcyjne pojęcie. Rozumiana abstrakcyjnie, choć bywa pomocna w wyznaczeniu kierunku działań, może prowadzić do nieporozumień. Posługując się tylko takim pojęciem, trudno jest przedstawić konkretną ofertę dla naukowców szukających narzędzi wspomagających ich pracę i karierę, a niekoniecznie zainteresowanych ideą.

Traktowanie otwartości jako cechy pewnego typu komunikacji naukowej umożliwia lepsze rozpoznanie stanu rzeczy, zarówno obecnego, jak i oczekiwanego. Pozwala na gruntowną analizę systemu nauki i przedstawienie konkretnych, dobrze dopasowanych do rzeczywistości propozycji. Oferta uwzględniająca faktyczne korzyści dla wielu interesariuszy jest skuteczniejsza niż upraszczająca rzecz hasłowość.

Michał Starczewski jest pracownikiem Centrum Otwartej Nauki i doktorantem na Wydziale Historycznym Uniwersytetu Warszawskiego.

 

[1] Por. P. Birkinshaw, Freedom of Information and Openness: Fundamental Human Rights?, "Administrative Law Review" Winter 2006, Vol. 58 Issue 1, s. 177–218, punkt III.C, http://web.b.ebscohost.com/ehost/detail/detail?sid=4945bf04-a5e7-4dc7-b1c1-d6de46cf3bfb%40sessionmgr111&vid=0&hid=128&bdata=JnNpdGU9ZWhvc3QtbGl2ZQ%3d%3d#db=bth&AN=20477744.

[2] R. Stallman, Dlaczego otwartemu oprogramowaniu umyka idea Wolnego Oprogramowania, https://www.gnu.org/philosophy/open-source-misses-the-point.html.

[3] L. Lessig, Wolna kultura, Warszawa 2005, s. 34, http://otworzksiazke.pl/ksiazka/wolna_kultura.

[4] „The Wellcome Trust believes that maximising the distribution of these papers – by providing free, online access – is the most effective way of ensuring that the research we fund can be accessed, read and built upon. In turn, this will foster a richer research culture” – http://www.wellcome.ac.uk/About-us/Policy/Policy-and-position-statements/WTD002766.htm.