Repozytoria instytucjonalne a Wikipedia. Propozycja współpracy

Tomasz Lewandowski

Wikipedia miała, ma i jeszcze długo będzie mieć problemy z zaufaniem użytkowników. Ważną strategią poprawy zaufania jest uzupełnianie odniesień do źródeł. I choć w tym miejscu redaktorom Wikipedii nie chodzi przede wszystkim o literaturę naukową, w wielu przypadkach odniesienie do zasobu przechowywanego w otwartym repozytorium naukowym będzie bardzo pożądanym przez społeczność wikipedystów dodatkiem.

Wikipedia-logo-v2-en.svg

 

Spis treści

Wstęp
1. Niska widoczność repozytoriów instytucjonalnych w internecie
2. Dlaczego współpraca z Wikipedią może podnieść widoczność repozytoriów?
3. Wikipedia - próba charakterystyki ogólnej
     3.1. Pięć Filarów Wikipedii i inne zasady nią rządzące
     3.2. Zaufanie publiczne do Wikipedii
     3.3. Wandalizm wikipedystyczny
     3.4. Automatyczna detekcja wandalizmu: zalety i ograniczenia
     3.5. Inne inicjatywy mające na celu podniesienie poziomu Wikipedii
     3.6. Wikipedia: podsumowanie
4. Uwagi praktyczne
5. Zakończenie

Ilustracje
Przypisy dolne
Bibliografia

 

Wstęp (powrót)

Repozytoria naukowe nie od dziś mają problemy z widocznością w Internecie. Z kolei Wikipedia nie od dziś ma problemy z wiarygodnością. Materiały deponowane w repozytoriach to przede wszystkim recenzowana literatura naukowa, należąca do grupy najbardziej wiarygodnych tekstów dostępnych online. Wikipedia to natomiast siódma pod względem liczby odwiedzin strona internetową świata. Potrzeby i możliwości Wikipedii i repozytoriów naukowych wzajemnie się uzupełniają. Pomysł współpracy przynoszącej korzyści obu stronom nasuwa się w tym kontekście niemal automatycznie.

Nie jest to zresztą pomysł nowy. Już w 2007 roku Ann M. Lally i Carolyn E. Dunford w artykule Using Wikipedia to Extend Digital Collections raportowały o wynikach akcji współpracy cyfrowych kolekcji Uniwersytetu w Waszyngtonie z Wikipedią. W ramach projektu pracownicy biblioteki dodawali do artykułów w Wikipedii linki prowadzące do artykułów zdeponowanych w cyfrowych kolekcjach Washington Digital Initiatives Program. W kilku przypadkach, gdy w Wikipedii nie istniał artykuł streszczający tematykę danej publikacji, pracownicy go tworzyli1. Pomysł ten jest również tematem artykułu A.G. Smitha Wikipedia and institutional repositories: an academic symbiosis?

W niniejszym tekście chciałbym zarówno omówić powody, dla których podobna współpraca z Wikipedią byłaby korzystna dla akademickich repozytoriów instytucjonalnych w Polsce, jak i wskazać, dlaczego mogłaby ona – pomimo kilku dających się przewidzieć trudności – zostać przez Wikipedię przyjęta pozytywnie.

1. Niska widoczność repozytoriów instytucjonalnych w Internecie (powrót)

Jeśli wierzyć powtarzanym co jakiś czas badaniom, repozytoria – zarówno instytucjonalne, jak i naukowe – wciąż mają problem z widocznością w Internecie. Autorzy artykułu The dark side of Open Access in Google and Google Scholar: the case of Latin-American repositories badali w 2014 roku widoczność 137 repozytoriów założonych przez instytucje naukowe Ameryki Łacińskiej i uwzględnionych w organizowanym przez Webometrics „Ranking Web of Repositories”. Współczynniki indeksacji (rozumiane jako stosunek liczby rekordów widocznych w danej wyszukiwarce do liczby wszystkich zasobów w repozytorium) dla Google określili jako „niskie”, zaś dla Google Scholar jako „właściwie nieistniejące”. Rezultaty te korespondują z wcześniejszymi o dwa lata badaniami zaprezentowanymi przez Arlitscha i O'Briena w artykule Invisible institutional repositories: addressing the low indexing ratios of IRs in Google, w którym widoczność przynajmniej niektórych repozytoriów instytucjonalnych na terenie USA zdiagnozowana została jako niska. Jednocześnie autorzy opisują program pilotażowy, którego wdrożenie zaowocowało podwyższeniem współczynnika indeksacji repozytorium instytucjonalnego Uniwersytetu Utah z 18% do 98% w głównym indeksie Google2.

Widoczność repozytoriów w Polsce nigdy nie została metodycznie zbadana. Różne czynniki, takie jak ogólna trudność z indeksacją artykułów napisanych w językach innych niż angielski czy stosunkowo krótki czas istnienia większości repozytoriów w Polsce, mogą jednak sugerować, że pod tym względem blisko nam do repozytoriów Ameryki Łacińskiej. Opublikowane w serwisie Otwarta Nauka badania przeprowadzone przez autora niniejszego tekstu zdają się potwierdzać tę intuicję3.

Z rozwojem możliwości wyszukiwarek internetowych na przestrzeni ostatniego ćwierćwiecza skorelowany jest ich wciąż rosnący udział w kształtowaniu ruchu internetowego. Coraz większa liczba użytkowników używa wyszukiwarek do znajdowania coraz większej ilości zasobów. Odnajdywanie publikacji akademickich nie jest w tej sytuacji żadnym wyjątkiem. Dlatego jeśli repozytoria i biblioteki cyfrowe chcą w sposób skuteczny realizować swoją misję, muszą zadbać o to, by dostatecznie duża część ich zasobów była widoczna dla użytkowników wyszukiwarek4.

2. Dlaczego współpraca z Wikipedią może poprawić widoczność repozytoriów? (powrót)

Widoczność jakiejkolwiek strony w Internecie można podzielić na dwie główne składowe: ludzką i maszynową. Poprzez ludzką rozumiem liczbę użytkowników Internetu mających świadomość istnienia danego serwisu oraz sumę ich działalności w Internecie. Widocznością maszynową będę nazywał pozycję danej strony w rankingu prowadzonym przez algorytmy indeksujące wyszukiwarek internetowych. Jedna i druga składowa są ze sobą oczywiście związane: im wyższa widoczność danego serwisu w wyszukiwarkach, tym więcej użytkowników go odnajduje i wchodzi z nim w interakcje. Z kolei im więcej użytkowników korzysta z danego serwisu, tym więcej zostawia śladów do niego prowadzących. Chodzi tu przede wszystkim o linki, które pozytywnie wpływają na PageRank danego serwisu – ten zaś jest podstawą wszystkich algorytmów wyliczających rankingi stron w wyszukiwarkach.

Zależność jest więc obustronna: im więcej użytkowników, tym wyższy PageRank, a im wyższy PageRank, tym więcej użytkowników. Przypomina to błędne koło. Wyjście z sytuacji jest możliwe właśnie dzięki linkom z Wikipedii, które znacząco poprawiają ludzką widoczność repozytoriów.

PageRank Wikipedii jest bardzo wysoki i w dającej się przewidzieć przyszłości taki pozostanie5. Mimo to linki prowadzące z Wikipedii nie będą wpływały w sposób bezpośredni na PageRank repozytoriów. Od 2007 roku wszystkie linki zewnętrzne prowadzące z Wikipedii na inne domeny zawierają klauzulę „nofollow”, która sprawia, że robot indeksujący Google nie podąża za tym linkiem i nie wlicza go do rankingu strony, na którą prowadzi6. Taki stan rzeczy bierze się stąd, że linki z Wikipedii były masowo nadużywane przez specjalistów od SEO usiłujących na zlecenie zawyżać pozycje stron lub domen w rankingu Google. Dzięki decyzji administracji Wikipedii specjaliści od pozycjonowania stron nie jest już po prostu na tę pokusę wystawieni.

Linki na Wikipedii mogą więc jedynie pośrednio przyczynić się do zwiększenia rankingu Google, a co za tym idzie – maszynowej widoczności zasobów repozytoryjnych – poprzez zwrócenie na nie uwagi użytkowników Wikipedii. Poniżej jednak postaram się pokazać, że taka „ograniczona” do współczynnika ludzkiego widoczność i tak jest ogromną pomocą dla repozytoriów.

Z jednej więc strony, samo podwyższenie PageRanku repozytorium na niewiele się przyda. Treści repozytoriów akademickich mają być widoczne nie tylko w wyszukiwarkach ogólnego przeznaczenia (do czego jeszcze sam PageRank przydałby się w ograniczonym w stosunku do wcześniejszych lat zakresie), ale przede wszystkim w wyszukiwarkach akademickich. W nich zaś PageRank nie odgrywa praktycznie żadnej roli, w nich bowiem to artykuły są oceniane i szeregowane pod względem przewidywanej przydatności dla użytkownika wpisującego zapytanie - a nie cała strona repozytorium7. Sama "maszynowa" widoczność przydaje się tylko w sensie minimalnym - strona w ogóle musi być widoczna dla robotów wyszukiwarki, by artykuły trafiły do jej indeksu. (Co prawda, jak wskazują np. przywoływane wyżej badania [Arlitsch, O'Brien 2012], nawet to nie jest jednak takie oczywiste.) Potem decyduje już jakość pdf oraz inne współczynniki wymienione np. na stronie Google Scholar Help.

Z drugiej zaś strony, zyski z „ludzkiej” widoczności linków prowadzących z Wikipedii są bardzo wysokie. Jest tak z dwóch podstawowych powodów: bardzo korzystnego dla repozytoriów profilu użytkownika Wikipedii8 oraz długiej żywotności linków sprawiającej, że raz podjęty wysiłek zwraca się w długim okresie czasu.

Artykuły na Wikipedii, a więc także linki w nich umieszczone, cieszą się długą żywotnością. Usunięcia całych artykułów są względnie rzadkie i wiążą się przede wszystkim z próbami oszustwa bądź złamania regulaminu Wikipedii. Fikcyjne wpisy z oczywistych względów nie będą raczej zawierały odniesień do literatury naukowej9. O wiele częstsze są oczywiście kolejne edycje, jednak linki prowadzące do literatury naukowej dla podtrzymania głównych tez artykułu powinny przetrwać każdą taką zmianę. Przewidywanie to opiera się na dwóch przesłankach. Po pierwsze, z badań wynika, że statystycznie edycje utworzone przez użytkowników mających na koncie najmniej edycji trwają najdłużej10. Po drugie, nie mówimy tu o jakichkolwiek edycjach, ale o linkach do literatury źródłowej, a te – o ile oczywiście w ogóle są trafne – stanowią element przez społeczność Wikipedii bardzo pożądany. Jak zobaczymy niżej, strony nie posiadające przypisów źródłowych objęte są specjalnymi programami mającymi na celu poprawę jakości Wikipedii jako całości. Jedna z trzech fundamentalnych polityk Wikipedii, NOR („No Original Research”, w wersji polskiej z dodatkową interpretacją: „Nie przedstawiamy twórczości własnej”11), wprost podaje, że wszystkie informacje zawarte na stronach Wikipedii powinny pochodzić skądinąd, zaś autor ma obowiązek podać źródło swojej wiedzy. To jest oczywiście pożądany stan idealny, w praktyce bardzo często ktoś inny uzupełnia luki w przypisach pozostawione przez autora oryginalnego wpisu12. Z punktu widzenia Wikipedii najlepiej byłoby, gdyby repozytoria instytucjonalne uzupełniały przede wszystkim takie właśnie przypadki.

3. Wikipedia – próba charakterystyki ogólnej (powrót)

Wikipedia to najsłynniejsza encyklopedia internetowa. Jest też zdecydowanie największą encyklopedią w ogóle. Angielska Wikipedia zawiera aktualnie ponad 5 milionów artykułów. Dostęp do całości oferowanych przez nią treści jest darmowy. Opiera się na swoistym „crowdsourcingu” – każdy może ją edytować. Co prawda, nie wszystkie zmiany będą tak samo traktowane – Wikipedia dysponuje swoim własnym wewnętrznym systemem hierarchizacji redaktorów, oceny ich pracy i piętnowania nadużyć. Ogólna zasada jest jednak właśnie taka: nikt nie jest z założenia niedopuszczany do współtworzenia treści Wikipedii.

3.1. Pięć filarów Wikipedii i inne zasady nią rządzące (powrót)

Na Wikipedii poza zwykłymi artykułami znaleźć można wiele stron poświęconych wewnętrznym sprawom Wikipedii. Rozpoznać je można po prefiksie „Wikipedia:” przed tytułem. Niektóre z nich (oznaczone w odpowiedni sposób) są stronami przedstawiającymi jedną z obowiązujących na Wikipedii reguł. Stron takich jest bardzo wiele, podlegają nieustannym edycjom, nieustannie powstają też nowe. Reguły zorganizowane są hierarchicznie pod względem ogólności i ważności. Można też wyróżnić poszczególne grupy tematyczne. Pięć reguł zostało wyróżnionych jako szczególnie ważne i obowiązujące dla całej Wikipedii we wszystkich aspektach jej tworzenia. Nazywane są „pięcioma filarami Wikipedii”. Są to: „Wikipedia to Encyklopedia” („Wikipedia is an encyclopedia”, skracane do NOT), „Neutralny Punkt Widzenia” („Neutral Point of View”, skracane do NPOV), „Wikipedia działa na wolnych licencjach” (CC-BY-SA, jak to jest opisane w „Wikipedia:Copyrights”), „Bądź Uprzejmy” („Be Civil”, CIV) oraz chyba najciekawsza: „Ignoruj Wszelkie Zasady” („Ignore all Rules”, skracana do IAR), co zresztą wbrew paradoksalnemu brzmieniu jest rozumiane jako prymat ducha zasad Wikipedii nad ich literą czy też jako nakaz stosowania zdrowego rozsądku w odniesieniu do wszystkich zasad Wikipedii13. W ostatnim przytoczonym brzmieniu zasada ta wydaje się być samozwrotna14.

Pierwszy Filar (NOT) posiada dwa bardzo ważne uszczegółowienia będące praktyczną interpretacją tego, co w regule NOT rozumie się przede wszystkim poprzez „być encyklopedią”. Są to: „Żadnych Badań Własnych” („No Original Research”, skracane do NOR) oraz „Weryfikowalność” („Verifiability” skracane do VER). NOR i VER łącznie opisują obowiązującą redagujących Wikipedię użytkowników strategię opatrywania opisywanych faktów źródłami: żaden fakt nie powinien pozostać bez odnośnika do zewnętrznego źródła. NOR, VER i NPOV tworzą trójkę określaną mianem „kluczowych zasad dotyczących prezentowanych na Wikipedii treści” („Core Content Policies”).

Za zasadą NPOV kryje się pewne epistemologiczne założenie. Głosi ono, że jeśli odpowiednio duża grupa ludzi o zróżnicowanych poglądach wspólnie spiera się na temat opisu danego zjawiska, to po odpowiednio długiej serii starć, dyskusji, edycji i reedycji rezultat końcowy będzie opisem na tyle neutralnym, na ile to tylko możliwe.

Intuicja ta nigdy nie była bezpodstawna. Joi Ito, jeden z jurorów, którzy przyznali jeszcze w 2005 roku Wikipedii nagrodę Złotej Nike15 dał wyraz silnej wierze w tę zasadę pisząc: "Fakt, że strony w Wikipedii może edytować każdy wydaje się być powodem, dla którego ludzie tacy jak pan Fasoldt uznają, że Wikipedia nie ma żadnego autorytetu - ale jest to właśnie powód, dla którego Wikipedia go ma"16. W [Neus 2001] autor przewidywał pojawienie się tego rodzaju fenomenu w dziedzinie publicznie dostępnej informacji - na podstawie niezaprzeczalnego faktu istnienia oprogramowania open source (zwłaszcza będącego rezultatem tworzonego przez crowdsourcing na niespotykaną dotąd skalę Linuxa), które samym swym pojawieniem się wydawało się łamać zarówno prawo Brooksa17, jak i prawa ekonomicznej teorii dóbr wspólnych. De facto zaczątki podobnego procesu mógł obserwować na przykładzie wczesnych dokonań Public Library of Science.

Tę samą intuicję zdaje się dziś potwierdzać seria badań. Wilkinson i Huberman w 2007 roku wykazali istnienie „kluczowej korelacji między jakością artykułu a ilością jego edycji, co dowodzi, że Wikipedia jest przykładem sukcesu wysiłku zbiorowego”18. Jim Giles na podstawie badań przeprowadzonych przez swój zespół opublikował w 2005 roku raport Internet Encyclopaedias go head to head, w którym wykazywał, że Wikipedia jest porównywalna z Encyclopaedia Britannica pod względem dokładności artykułów. Rok później raport doczekał się polemiki ze strony zespołu Encyclopaedia Britannica, mimo to jednak porównywanie tych dwóch encyklopedii stało się powszechną praktyką. W 2014 roku Shane Greenstein i Feng Zhu przeprowadzili porównawczą analizę syntaktyczną haseł Wikipedii i Britanniki. Rezultaty wykazały, że artykuły w Wikipedii, ogólnie rzecz biorąc, cechuje mniej neutralny punkt widzenia (mierzony nieobecnością słownictwa wskazującego na preferencje polityczne) niż artykuły w Encyklopedia Britannica. Istniała jednak pozytywna korelacja między liczbą edycji danego artykułu na Wikipedii a wzrostem neutralności jego języka. Jeśli porówna się najczęściej edytowane wpisy w Wikipedii z artykułami z Encyclopaedia Britannica, różnica jest na granicy błędu statystycznego. Warto jednak zwrócić uwagę na fakt, że w przywoływanym badaniu uwzględniono wyłącznie artykuły dotyczące historii politycznej Stanów Zjednoczonych Ameryki i pochodzące tylko z angielskiej wersji Wikipedii. Rezultaty opisane przez Ewę S. Callahan oraz Susan C. Herring w Cultural Bias in Wikipedia Content of Famous Persons wskazywać mogą na to, że w innych wersjach językowych Wikipedii osiągnięcie NPOV jest dalsze od urzeczywistnienia.

W tym miejscu może powstać wrażenie, że reguły VER i NOR są nieco redundantne. Nie będzie ono bezpodstawne: obie rekomendują zasadniczo to samo, tj. opatrywanie wszelkich przytaczanych faktów literaturą źródłową. Pamiętać jednak należy, że reguły Wikipedii, podobnie jak cała reszta jej zawartości powstawały (i nadal powstają) w sposób oddolny. Oddolny oznacza również: niezorganizowany, przez co pewne redundancje i sprzeczności między poszczególnymi zasadami są nie do uniknięcia.

Niedawne badania przeprowadzone przez Haeberlina i DeDeo (The Evolution of Wikipedia's Norm Network) pozwalają poznać ten aspekt funkcjonowania Wikipedii. Autorzy wykazali istnienie 1976 stron Wikipedii opisujących jej normy19. Tworzą one silnie scentralizowaną sieć (gdzie krawędź grafu reprezentuje cytowanie jednej ze stron przez drugą). Wszystkie elementy centralne tej sieci powstały stosunkowo wcześnie w historii Wikipedii (spośród 20 stron najczęściej cytowanych większość powstała przed 2005 rokiem, a żadna nie później niż w 2006 r.), zaś stopień centralizacji sieci rośnie wraz z upływem czasu (nierówności pod tym względem pogłębiają się). Autorzy algorytmicznie wydzielili „sąsiedztwa” powiązanych ze sobą tematycznie stron20. W rankingu takich „sąsiedztw” pod względem ilości stron dwie interesujące nas najbardziej grupy tematyczne – Jakość Artykułów (Article Quality) i Polityki Dotyczące Zawartości (Content Policies) są odpowiednio na 1. i na 3. miejscu – odpowiednio 25,9% (512 stron) i 15,2% (300 stron). Te normy, wraz z IOR, będą naszym głównym obiektem zainteresowania, gdy będziemy rozważać zgodność proponowanych działań z obyczajami Wikipedii. Przedtem jednak popatrzmy, jakie korzyści repozytoria naukowe mogą Wikipedii zaproponować w ewentualnej współpracy.

3.2. Zaufanie publiczne do Wikipedii (powrót)

Kwestię publicznego zaufania do jakości artykułów w Wikipedii trudno uznać za zamkniętą. Część argumentacji przychylnej dla Wikipedii przywoływaliśmy już w poprzedniej części tekstu, oddajmy teraz na chwilę głos przeciwnikom Wikipedii. Całkiem reprezentatywne argumenty podaje np. Scott Jaschik w A Stand Against Wikipedia. Profesorowie akademiccy narzekają na brak dokładności i budzący zastrzeżenia stopień pokrycia materiału omawianego we wpisach Wikipedii, lecz studenci nadal chcą jej używać. Rosnąca ilość nieprawdziwych informacji pojawiających się w pracach studentów i opatrzonych odnośnikami do Wikipedii jako źródła zmusiła wydział historii na Middlebury College do wystosowania zarządzenia zabraniającego studentom jej cytowania. Zbiorowe (lub raczej masowo zbiorowe) autorstwo Wikipedii nie daje żadnej gwarancji, że artykuł będzie pozbawiony błędów. Niektóre strony wyglądają, jakby zostały stworzone przez ósmoklasistów. Nawiasem mówiąc, jeśli ten tekst z 2007 roku (złożony zresztą z wypowiedzi różnych pracowników naukowych i bibliotekarzy) adekwatnie oddaje sposób, w jaki studenci korzystają z Wikipedii, to można tylko podziwiać tempo i jakość zmian pod tym względem – już w 2010, jak podają A.J. Head i M.B. Eisenberg w How today's college students use Wikipedia for course-related research, sytuacja była diametralnie inna. Obawiać się jednak należy, że zachowanie studentów z 2010 roku nie różni się od zachowania studentów z roku 2007 roku tak bardzo, jak dane anegdotyczne mogą różnić się od metodycznych badań w jakiejkolwiek kwestii.

Co ciekawe, właściwie wszystkie „tradycyjne” obawy o jakość Wikipedii streszczone zostały już w 2005 roku przez Petera Denninga, Jima Horninga, Davida Parnasa i Lauren Weinstein w krótkim artykule Wikipedia Risks. A więc nieznana jest dokładność zamieszczanych na Wikipedii informacji; nieznane są motywy kierujące redaktorami (można spodziewać się dowcipów i wandalizmu); niektórzy redaktorzy będą pisali na podstawie plotek i innych niepotwierdzonych źródeł informacji; niestałość wersji sprawia, że niewygodnie jest cytować dany artykuł; zawartość artykułów Wikipedii i ich zakres tematyczny będą zapewne zdeformowane tak, by trafiać w gusta młodych i technicznie nastawionych redaktorów – w szczególności historia świata sprzed ery Internetu ustąpi najnowszym doniesieniom medialnym; wiele artykułów na Wikipedii nie posiada odniesień do niezależnej literatury źródłowej, zaś z istniejących odniesień tylko niewielka część będzie prowadziła do literatury niezdigitalizowanej21.

Z drugiej strony, całkiem oryginalne, bo wychodzące z filozoficznych podstaw epistemologii, argumenty przeciw Wikipedii znajdziemy w Wikipedia and The Meaning of Truth Simsona Garfinkela. Autor przyznaje, że Wikipedii udało się wykształcić system skutecznie przesiewający dobre treści i dostatecznie sprawnie odsiewający niedokładności. Główne zarzuty są jednak innej natury: chodzi mu o samą definicję prawdy, jaką przyjmują na użytek swych działań współautorzy Wikipedii. O ich epistemologię. Ta zaś nie jest oparta o spójność wewnętrzną (jak w naukach matematycznych), ani o obserwacje (jak w naukach fizycznych), ani nawet o zdrowy rozsądek czy naiwny empiryzm (jak w życiu codziennym). Okazuje się, że sama prawda nie obchodzi zbytnio wikipedystów. To weryfikowalność w oparciu o przytoczone źródła stanowi kryterium inkluzji. Źródła, dodaje autor, najlepiej napisane w języku angielskim i dostępne za darmo w Internecie. Ponieważ zaś brane pod uwagę są przede wszystkim źródła obdarzone jakimś stopniem autorytetu, cała w ten sposób pojęta weryfikowalność sprowadza się do odwołania do autorytetu. Dodatkowo, choć wpisy na temat rzeczy i osób osadzonych w fikcyjnej rzeczywistości łamią standardy Wikipedii tak samo, jak poprawianie wpisów biograficznych przez osoby będące w tych artykułach opisywane, to jednak wyjątki są robione dla tej pierwszej kategorii artykułów, lecz nie dla drugiej. Pisząc opracowanie o Tomie Bombadilu, łamiesz regułę „no original research”, a jednak wpis zostaje. Próbując poprawić oczywiste błędy w swojej własnej biografii, łamiesz regułę „neutral point of view” – i konsekwencje są egzekwowane z całą surowością. „Standard [prawdy] jest tu prosty: coś jest prawdą, jeśli zostało napisane w artykule zamieszczonym w gazecie, magazynie lub innym czasopiśmie. Lub jeśli pojawiło się w serialu Dr. Who”.

3.3. Wandalizm Wikipedystyczny (powrót)

Badania takie, jak opisane przez Lucy B. Holman-Rector w artykule Comparison of Wikipedia and Other Encyclopaedias for Accuracy, Bredth and Depth of Historical Articles, wciąż anegdotycznie wskazują na nieścisłości i przekłamania w pojedynczych artykułach na Wikipedii. Nawet o przypadkach plagiatu, tj. cytowania dłuższych fragmentów piśmiennictwa historycznego bez podania odniesienia. Znanym choć słabo opisanym zjawiskiem są przypadki rozmyślnego oszustwa. Użytkownicy dopuszczający się takich praktyk z czasem zostali nazwani „trollami”22. Fałszywe informacje wpisywane w artykuły o prawdziwych postaciach lub wręcz artykuły o tematyce od początku wyssanej z palca potrafiły, zanim zaczęto zwracać na te przypadki uwagę, pozostawać online nawet przez całe lata. Odkąd jednak sama społeczność Wikipedii stała się wyczulona na tego typu praktyki i ich średni „okres połowicznego rozkładu” znacznie zmalał, argumenty tego typu znacznie straciły na sile. Niewiele jest prób systematycznego opisania zarówno tego zjawiska, jak i w ogóle podobnych zjawisk w Internecie. Spekuluje się, że wysiłek włożony w wandalizm wikipedystyczny jest niewspółmiernie większy od wysiłku potrzebnego do jego usunięcia. Tak uważa np. Adrea Ciffolili (Phantom authority, self–selective recruitment and retention of members in virtual communities: The case of Wikipedia), jednak od 2003 roku dane empiryczne, jakimi dysponował, z pewnością się przedawniły. Wikipedia utrzymuje artykuł List of hoaxes on Wikipedia, w którym wymieniony jest każdy odkryty przypadek oszustwa utrzymującego się powyżej jednego miesiąca – wraz z informacją o dacie jego powstania i dacie jego wykrycia23. Nie sposób niestety ocenić proporcji ilości tak „długo żyjących” oszustw do ilości oszustw wykrywanych i korygowanych szybciej. Autorzy Wikipedii twierdzą, że większość oszustw jest zaznaczona do skasowania w przeciągu kilku godzin od powstania, trudno jednak utrzymywać, że w przypadku tego artykułu zachodzi jakakolwiek aproksymacja NPOV.

3.4. Automatyczna detekcja wandalizmu: zalety i ograniczenia (powrót)

Postarajmy się więc sami o taką aproksymację. Istnieją bowiem dobre powody, by wierzyć w to, że rzeczywiście ogromna większość aktów wandalizmu jest wykrywana bardzo szybko. Swego rodzaju rewolucją w tej dziedzinie było wprowadzenie w 2006 roku do powszechnego użytku botów pomocniczych (algorytmów sczytujących zawartość Wikipedii w poszukiwaniu prawdopodobnych nadużyć) przy wykrywaniu i likwidowaniu wandalizmu.

Pomyślne eksperymenty z botami na Wikipedii miały miejsce przynajmniej od 2002 roku, kiedy to Użytkownik Ram-Man uruchomił program RamBot tworzący artykuły o miejscowościach w USA na podstawie tabel z U.S. Census. W ciągu około miesiąca utworzył on 30 000 artykułów, mniej więcej 1000 dziennie. Co prawda pojedynczy błąd w bazie danych sprawił, że ok. 2000 z tych artykułów okazało zawierać błędne dane, jednak najwyraźniej nie zatrzymało to postępu. Botami zainteresowała się inicjatywa Wikipedystów o nazwie Administrator Intervention Against Vandalism. Jak każdy projekt Wikipedii, AIV ma swoją stronę, na której użytkownicy z pomocą edycji raportują dostrzeżone akty wandalizmu. W 2006 roku ilość maszynowo wspomaganych edycji na tej stronie sięgała 1%, a w rok po wprowadzeniu bota ARV ok. 15–20%. W 2007 roku, po wprowadzeniu zestawu narzędzi określanego zbiorczo mianem „AIV Helperbots” oraz bota Twinkle, ilość ta przekroczyła barierę 50%. W 2009 roku, w dobie narzędzia Huggle, procent wspomaganych maszynowo wpisów utrzymywał się na poziomie 75%. W tym samym czasie ilość maszynowo wspomaganych wpisów na całej Wikipedii szacowano na 12%24. Boty najlepiej sobie radzą z prostymi przekleństwami oraz innymi wulgarnymi wstawkami, błędami ortograficznymi, usunięciami dużej ilości tekstu na raz – słowem, ze wszystkim, co można ująć w proste reguły. Takie „oparte na sztywnych regułach” algorytmy (ang. rule-based) cechują się bardzo wysoką, sięgającą 100%, precyzją25 przy bardzo niskiej czułości26. Dlatego też w niektórych przypadkach pozwala im się na samodzielne cofanie edycji przy ewidentnych przypadkach wandalizmu – jak pokazuje przykład ClueBota27 – one same natomiast na pewno nie wystarczą.

Wang i McKeown dzielą akty wandalizmu na trzy kategorie: błędne leksykalnie, błędne syntaktycznie i błędne semantycznie. Oparte na sztywnych regułach algorytmy świetnie sobie radzą z usuwaniem wandalizmów pierwszej kategorii i to one w zasadzie sprawiają, że wandalizmy tego typu są praktycznie nieskuteczne – najczęściej zostają usunięte po kilku sekundach od wprowadzenia28. Najniebezpieczniejsze są jednak wandalizmy trzeciego typu – jak Czytelnik może zresztą łatwo zauważyć, wszystkie wandalizmy z przytaczanej listy oszustw cieszących się długą żywotnością należą właśnie do trzeciego typu wandalizmów29. Do ich wykrywania mogą służyć bardziej zaawansowane algorytmy. Propozycji jest wiele. Nie będziemy się tu zagłębiać w szczegóły, ale kilka propozycji dociekliwi Czytelnicy mogą poznać po lekturze np. M. Harpalani i in. Improving Wikipedia Vandalism Detection via Stylometric Analysis30, W.Y. Wand i K.R. McKeown, „Got You!”: Automatic Vandalism Detection in Wikipedia with Web-based Shallow Syntactic-Semantic Modelling31 czy M. Potthast, B. Stein, R. Gerling, Automatic Vandalism Detection in Wikipedia. Godną polecenie i nieco lżejszą (choć ostatecznie nie mniej techniczną) lekturą jest Ch. Kiddon, Y. Brun, That’s What She Said: Double Entendre Identification. Choć badania Kiddon i Brun nie były bezpośrednio związane z Wikipedią, jednak ich algorytm ma za zadanie automatyczne rozpoznawanie humoru. Co prawda do tej pory badania ograniczone są do jednego rodzaju żartu oraz znajdują się we wstępnej fazie, jednak przyznać należy, że dobre algorytmy rozpoznające humor czy też komizm byłyby bardzo przydatne do wykrywania wandalizmu w jego najbardziej wyrafinowanej postaci. Oczywiście nie każdy żart musi od razu być wandalizmem, pamiętajmy jednak, że stylem obowiązującym na Wikipedii jest styl encyklopedyczny. Jakikolwiek komizm, o ile nie świadczy o wandalizmie, i tak można traktować jako usterkę wymagającą usunięcia.

3.5. Inne inicjatywy mające na celu podniesienie poziomu Wikipedii (powrót)

Poza zwalczaniem wandalizmu (działalnością samą w sobie przecież reaktywną), społeczność Wikipedii angażuje się również w inne projekty mające na celu poprawienie jakości jej wpisów. Interesujące z punktu widzenia tematyki niniejszego artykułu jest to, że część tych projektów ma na celu uzupełnianie przypisów w artykułach, które są ich pozbawione. Na stronie "Articles needing more detailed references" wylistowano prawie 5,5 tys. artykułów wymagających opracowania przypisów. Zapewne większość z nich nie będzie mogła być uzupełniona przypisami do literatury naukowej, a z pozostałych tylko część będzie tematycznie pasowała do zbiorów danego repozytorium. Jednak nawet niewielki ułamek tak dużej liczby nadal będzie stanowił duże zadanie do wykonania.

Sama natura Wikipedii sprawia, że takich artykułów jeszcze przez długi czas będzie bardzo wiele, niezależnie od wysiłków osób uzupełniających przypisy. Z jednej strony osoby dokonujące wpisów lub ich edycji nie zawsze mogą mieć pod ręką fachową literaturę. Zwłaszcza jeśli redaktor jest typem „eksperta”, tzn. posiada wykształcenie w dziedzinie, której dotyczy dany artykuł, może podczas pisania używać wiedzy, dla której nie ma gotowego do podania źródła32. Z drugiej strony, opisywana wyżej polityka „no original research” jest bardzo restrykcyjnie przestrzegana. Jej wyrazem jest chociażby osławiony tag [citation needed] (pol. [potrzebny przypis]33 lub podobne), którego nieuzupełnienie może doprowadzić do cofnięcia edycji nawet, gdy nie ma ona innych wad34. W rezultacie oddziaływania tych dwóch przeciwstawnych trendów można się spodziewać, że w dającej się przewidzieć przyszłości na Wikipedii wciąż istniała będzie duża ilość informacji czekających na podanie źródła i oznaczonych jako takie35.

Wygląda na to, że podobne inicjatywy na Wikipedii przynoszą pożądane skutki. Jak podaje F.Å. Nielsen w Scientific citations in Wikipedia, już w 2007 roku mapa cytowań literatury naukowej przez Wikipedię nie różniła się zasadniczo od podobnej mapy cytowań dla samej literatury naukowej – dało się dostrzec jedynie lekką tendencję do nadreprezentacji czasopism o wysokim wskaźniku Impact Factor.

3.6. Wikipedia: podsumowanie (powrót)

Wikipedia miała, ma i jeszcze długo będzie mieć problemy z zaufaniem użytkowników, chociaż wiele zostało już zrobione w celu poprawy tego stanu rzeczy. Co więcej, ważną strategią poprawy zaufania jest uzupełnianie odniesień do źródeł. I choć w tym miejscu redaktorom Wikipedii nie chodzi przede wszystkim o literaturę naukową, w wielu przypadkach odniesienie do zasobu przechowywanego w otwartym repozytorium naukowym będzie bardzo pożądanym przez społeczność wikipedystów dodatkiem.

Chociaż w statystykach jakość artykułów na Wikipedii wypada zdecydowanie dobrze i choć zdołała ona wykształcić skuteczne i długoterminowo utrzymywane mechanizmy obrony przed wandalizmem, wśród internautów nadal krąży wiele anegdot stawiających Wikipedię w złym świetle. I chociaż są to dane anegdotyczne, to przyznać trzeba, że w swych największych pomyłkach Wikipedia rzeczywiście bywała o wiele bardziej widowiskowa od jakiejkolwiek innej encyklopedii. Być może najrozsądniejszym podejściem jest postrzeganie Wikipedii jako innego rodzaju narzędzia niż tradycyjne encyklopedie. Tak właśnie argumentuje Tom Cross w przywoływanym powyżej artykule Puppy Smoothies (...): „Wikipedia zamienia autorytet na dostępność artykułów, ich zakres tematyczny i prędkość aktualizacji informacji”. Również Don Fallis w Toward an Epistemology of Wikipedia przekonuje, że w naszych ocenach nie powinniśmy porównywać Wikipedii do jakichkolwiek źródeł encyklopedycznych, ale wyłącznie do takich, z których korzystaliby użytkownicy Wikipedii, gdyby nie było Wikipedii – czyli (najprawdopodobniej) źródeł dostępnych w internecie w sposób otwarty i względnie popularnych. Tak czy owak, Wikipedia przetrwała próbę czasu i przez cały okres jej istnienia użytkownicy nauczyli się jej zalet i wad na tyle, by świadomie z niej korzystać. Dotyczy to również – a może przede wszystkim – studentów; z badań Alison J. Head oraz Michaela B. Eisenberga opublikowanych w artykule How today's college students use Wikipedia for course-related research wynika, że około 52% studentów korzysta z Wikipedii często lub bardzo często (mniej niż 22% rzadko lub w ogóle), w ok. 70% przypadkach używana jest na początku lub „samym początku” badań (w 2% przypadków pod koniec, w 0% przypadków – na samym końcu).

Wikipedia dość ostrożnie traktuje „surową” literaturę naukową i w swej polityce na ogół preferuje bardziej popularne (lub raczej spopularyzowane) źródła. Mimo to istnieją dobre powody, by uważać, że współpraca – nawet instytucjonalna – repozytorium z Wikipedią nie będzie niemile widziana. Liczba wpisów, które trzeba poprzeć odniesieniem do źródeł, nadal jest ogromna, a ich lista względnie łatwa do przejrzenia z pomocą wewnętrznego narzędzia Wikipedii „WhatLinksHere”.

Na koniec spróbujmy przynajmniej częściowo odpowiedzieć na pytanie, jak to zrobić. Poniżej zamieszczono kilka uwag praktycznych przygotowanych w oparciu o literaturę przedmiotu oraz polityki Wikipedii.

4. Uwagi praktyczne (powrót)

Wiemy już, co zasadniczo można zrobić, by pomóc Wikipedii w podnoszeniu jakości jej wpisów. To samo działanie pomoże repozytoriom instytucjonalnym rozszerzyć bazę ich użytkowników oraz podnieść ich rozpoznawalność, przede wszystkim zaś – pomoże w wypełnianiu tej części ich misji, jaką stanowi rozpowszechnianie literatury naukowej w ramach Otwartego Dostępu. Poniżej podajemy kilka konkretnych wskazówek, które pomogą w podjęciu tych działań.

Wikipedia wymusza jednolity format cytowań bibliograficznych poprzez formularz wypełniany danymi bibliograficznymi przez redaktora36. Pozwala też śledzić liczbę linków prowadzących z Wikipedii do danej zewnętrznej domeny (np. odpowiedniego repozytorium) poprzez narzędzie Wikipedia:External links. Zainteresowanym Czytelnikom polecamy zapoznanie się z tekstami i filmami instruktażowymi odnotowanymi w przypisach. Ich dublowanie w niniejszym tekście mija się z celem, zwłaszcza że na odpowiednich stronach Pomocy Wikipedii zagadnienia te zostały przedstawione w sposób wyczerpujący.

Co prawda, podawanie w bibliografii przede wszystkim literatury źródłowej jest przez Wikipedię raczej odradzane – w tym sensie, że rekomendowane są przede wszystkim źródła podające interpretację faktów. Wynika to z obawy, że pozbawieni wiedzy eksperckiej czytelnicy opacznie zinterpretują dane naukowe37. Jak zauważa jednak Smith [Smith 2011], praktyka wskazuje na to, że literatura naukowa jest – z pewną ostrożnością – używana. Przyjęło się przede wszystkim, by z literatury źródłowej korzystać przy wsparciu raczej konkretnych przywoływanych faktów (65% wszystkich linków wychwyconych w badaniu) niż jako przypisy mające zapoznać czytelnika z szerszym kontekstem jakiegoś tematu (35%)38. Linki z drugiej grupy są zresztą często używane w sposób niestandardowy, np. artykuł o wyspie Tongan zawiera jako przypisy listę wszystkich artykułów naukowych napisanych przez mieszkańców wyspy, z których jeden, zdeponowany w repozytorium Uniwersytetu w Waikato, został podlinkowany39. Linki z grupy pierwszej używane są z kolei w sposób nieco bardziej dowolny niż standardowe cytowania akademickie40 – zdarzają się również linki bardzo luźno związane z tematem przywoływanego artykułu naukowego. Dla przykładu, wpis o brytyjskiej jednostce militarnej przywołuje naukowy artykuł o rozwoju historii Afryki jako oddzielnym przedmiocie badań historycznych w miejscu, w którym wspomniane jest, że ta jednostka stacjonowała niegdyś w pewnej szkole wyższej w Akrze41.

Ta ostatnia informacja jest z punktu widzenia repozytoriów szczególnie ważna. Oznacza to, że tolerancja na artykuły naukowe niezwiązane ściśle z głównym tematem jest na Wikipedii dość duża – tak długo, jak używane są one do ilustracji poszczególnych przywoływanych we wpisach faktów, a nie zostawiają czytelnika samego z tematem.

Wszelkie wątpliwości o liczbę cytowań literatury naukowej jako źródeł dla Wikipedii rozwiewa narzędzie "Wikipedia DOI citation lifestream". Wyświetla ono (na żywo) ostatnio dodane cytowania do literatury naukowej z wyszczególnieniem cytowanych artykułów oraz wpisów na Wikipedii, w których zostały użyte. Podaje też liczbę edycji zrobionych w całej Wikipedii w przeciągu ostatnich pięciu sekund (średnio ok. 50)42, w tym liczbę cytowań literatury naukowej w przeciągu ostatnich pięciu minut (średnio ok. 20–30).

Na podstawie tego narzędzia możemy też zilustrować dwie podstawowe strategie dodawania linków do Wikipedii. Są to: „jedno źródło – wiele wpisów” oraz „wiele źródeł – jeden wpis”. Przykład pierwszej strategii widoczny jest na Ilustracji 1: 31 marca 2016 roku przez szereg godzin do kolejnych wpisów na szwedzkiej Wikipedii o tematyce geograficznej były dodawane dane z jednego tylko (za to bogatego w dane) artykułu43. Prawdopodobnie była to zresztą praca zautomatyzowana lub półautomatyczna, ponieważ odnośników pojawiało się niekiedy 5–10 na minutę.
Druga strategia widoczna jest na Ilustracji 2: prawdopodobnie w ramach jednej edycji do jednego wpisu na anglojęzycznej Wikipedii44 dodany został szereg linków do poszczególnych artykułów naukowych.

Międzynarodowa społeczność Wikipedii zainicjowała szereg projektów mających promować współpracę z pracownikami naukowymi i bibliotekarzami. Do najważniejszych (i rzeczywiście działających) należą Wikipedia Visiting Scholars, 1Lib1Ref (czyli “jeden bibliotekarz, jedno cytowanie”) oraz GLAM-WIKI (gdzie GLAM to skrót od Galleries, Libraries, Archives, Museums). Żaden z tych projektów nie jest dokładnie tym, o co nam chodzi – pierwszy projekt polega na udostępnianiu zasobów bibliotecznych doświadczonym wikipedystom, drugi na zachęcaniu bibliotekarzy do okazjonalnego (lub nawet jednorazowego) edytowania Wikipedii, zaś wszystkie instytucje wyszczególnione w trzecim znajdują się w Polsce w obszarze kultury i dziedzictwa narodowego, a nie nauki i szkolnictwa wyższego. Dowodzą jednak, że współpraca, nawet bardziej oficjalna, jest pożądana i aktywnie pozyskiwana również ze strony Wikipedii. Zasoby repozytoryjne w ogromnej większości dostępne są w sposób otwarty, dlatego warto także rozważyć przyłączenie się do projektu Open Access / Signalling OA-ness – oznaczanie zasobów otwartych.

Stopniowo, i to na wolnych licencjach, powstają narzędzia mające ułatwić pracę z Wikipedią skonstruowane właśnie z myślą o bibliotekarzach. Jednym z najsłynniejszych jest RAMP (Remixing Archival Metadata Project) – narzędzie osadzone w przeglądarce (Firefox i Chrome, nie ma niestety wersji zgodnej z Internet Explorerem) służące do łatwego dodawania metadanych do tekstu w Wikipedii. Narzędzie to zostało opisane przez Timothy’ego A. Thompsona i in. w From Finding Aids to Wiki Pages: Remixing Archival Metadata with RAMP.

Należy w tym miejscu zaznaczyć, że nasze dotychczasowe rozważania dotyczyły przede wszystkim społeczności anglojęzycznej Wikipedii oraz jej norm. Ta bowiem społeczność jest w największym stopniu międzynarodowa ze wszystkich społeczności wikipedystów. Stanowi też najczęstszy (niemal wyłączny) obiekt badań w prezentowanej literaturze przedmiotu. Tymczasem Odbiorca niniejszego artykułu współpracował będzie przede wszystkim z polską społecznością wikipedystów. W tej sytuacji z jednej strony spodziewać się należy, że wszystkie normy centralne i ogromna większość pobocznych będzie bardzo zbliżona do międzynarodowego standardu, z drugiej zaś że interpretacja poszczególnych przypadków może być nieco inna.

Poszczególne społeczności wikipedystów wykształcają własne, specyficzne rozumienie norm ich obowiązujących. Z pewnością bardzo cenne informacje znaleźć można w artykule Zasady wstawiania linków zewnętrznych. Tomasz „Polimerek” Ganicz potwierdza, że poziom wyczulenia polskiej administracji Wikipedii na tzw. „link-spamowanie” jest wysoki. Nie są prowadzone też żadne akcje podobne do opisanych powyżej akcji anglojęzycznej Wikipedii. Z drugiej strony, jeśli podlinkowywane teksty będą w znaczący sposób uzupełniały informacje zawarte w treści artykułu, tym bardziej – jeśli nowym linkom towarzyszyć będą choćby minimalne edycje treści artykułu – działalność taka nie powinna zostać uznana za link-spamowanie45. Polska Wikipedia wykształciła też instytucję raczej nieznaną w anglojęzycznej społeczności: Przewodnicy po Wikipedii. Kontakt z jednym z nich powinien pomóc w rozgraniczeniu wątpliwych przypadków. Jak jednak wynika z formuły IAR – wątpliwe przypadki najlepiej rozstrzygać w praktyce i w tym właśnie celu została stworzona sekcja „dyskusji” przy każdej ze stron.

O regule IAR – „Ignore All Rules” – była już mowa wcześniej. Jest ona tym bardziej charakterystyczna, że została wyszczególniona jako jeden z pięciu filarów Wikipedii. Jej brzmienie jest w sposób zamierzony paradoksalne, lecz jej wykładnia już nie. Sprowadza się ona zasadniczo do dwóch daleko idących parafraz: „Jeśli jakaś zasada powstrzymuje cię przed ulepszeniem lub utrzymaniem Wikipedii, zignoruj ją”46 oraz „używaj zdrowego rozsądku”47. Po wszystkim, co zostało napisane, sądzę, że wystarczająco wyraźnie widać, że proponowane działania mają na celu ulepszenie standardu Wikipedii, i to zgodnie ze sposobami już wypracowanymi i praktykowanymi w międzynarodowej społeczności Wikipedystów. Sądzę, że zdrowy rozsądek wystarcza, by odróżnić link-spamowanie dla darmowej reklamy swojej firmy od umieszczania linków do zawartości repozytoriów naukowych do znajdujących się w nich publikacji uzupełniających lub potwierdzających wiadomości zawarte w artykule.

Warto w tym kontekście przywołać jeszcze jedną regułę Wikipedii: „Bądź odważnym” („Be bold”, WP:BOLD). Choć oczywiście reguła ta ma swój rewers w postaci zastrzeżenia „ale bądź ostrożny” (gdy dojść może do naruszenia długo wypracowywanego konsensusu), a także łączy się z radą, by nie brać do siebie sytuacji, w której odważne edycje zostaną cofnięte, widzimy jednak, że Wikipedia zasadniczo zachęca do eksperymentowania.

Pozostaje odpowiedzieć na pytanie, kto miałby zająć się wdrażaniem proponowanej strategii. Odpowiedź, że to obsługa repozytorium miałaby dokonywać selekcji materiałów możliwych do umieszczenia na Wikipedii oraz zamieszczać linki na odpowiednich, uprzednio zidentyfikowanych stronach, może nie być najtrafniejsza. Przywołany na początku tekstu przykład z Using Wikipedia to Extend Digital Collections niezbyt się zapewne sprawdza jako wzorzec do wiernego skopiowania – mało prawdopodobne, by w naszych realiach obsługa repozytoriów mogła wziąć na siebie kolejne obowiązki. Wydaje się jednak, że dość dobrym kandydatem byłyby biura promocji poszczególnych instytucji naukowych posiadających instytucjonalne repozytoria. Posiadanie jednego konta sprawia, że historia wprowadzania linków w ramach takiej akcji jest łatwa w rekonstrukcji, a bogata historia „udanych” edycji zwiększać też będzie wiarygodność tego konta w oczach administracji Wikipedii (oraz AIV).

Możliwe jest też scedowanie tych zadań na samych deponujących naukowców. Nie musimy się tym razem martwić o niskie zazwyczaj współczynniki partycypacji – możemy spokojnie założyć, że wśród mniejszościowej grupy naukowców deponujących swoje publikacje wskaźniki te będą znacząco wyższe niż dla ogółu pracowników naukowych. Ostatecznie można założyć, że naukowiec deponujący swoje artykuły w repozytorium dba o widoczność swoich prac w Internecie i rozumie wyzwania z tym związane – całkiem możliwe więc, że podejmie dodatkowy wysiłek, który może tę widoczność przecież znacznie powiększyć.

W ten sposób eliminuje się również pracę związaną z pozytywnym doborem materiału (doborem negatywnym zajmie się i tak Wikipedia). Samodzielne edytowanie Wikipedii przez zainteresowanych naukowców eliminowałoby jednak zalety związane z akumulacją wysiłków w ramach jednego konta na Wikipedii. Zapewne najpraktyczniejszym będzie jakiś model pośredni – chętni naukowcy zgłaszają swoje prace zdeponowane w repozytorium, ewentualnie wraz z proponowaną listą stron, na których można umieścić odniesienie do zdeponowanego w repozytorium artykułu.

5. Zakończenie (powrót)

Mieliśmy okazję zobaczyć, jak korzystna może okazać się współpraca Wikipedii i środowisk naukowych, a w szczególności - otwartych repozytoriów. Zielona droga otwartego dostępu stanowi zbiór bardzo dobrych źródłowych tekstów, których Wikipedia potrzebuje do tego, by jej treści pozostawały maksymalnie rzetelne. Z drugiej strony repozytoria potrzebują widoczności w Internecie, a linki z Wikipedii pomogą im być widocznymi zarówno dla ludzi, jak i dla wyszukiwarek internetowych. Użytkownicy Wikipedii, którzy po pierwsze dostrzegają przypisy do literatury źródłowej, po drugie czytają je, a po trzecie w nie klikają, stanowią dodatkowo bardzo dobrze sprofilowaną grupę użytkowników dla otwartych repozytoriów naukowych. Dodatkowo repozytoria instytucjonalne posiadają odpowiednie zaplecze do tego, by taką współpracę nawiązać w sposób długofalowy. Jej nawiązanie zaś warte jest rekomendacji.

Na początek dobór linków do istniejących już artykułów Wikipedii wydaje się doskonałym sposobem na nawiązanie współpracy, wejście w społeczność wikipedystów i odpowiednie poznanie możliwości technicznych Wikipedii. W dłuższej perspektywie można pomyśleć nawet o tworzeniu nowych wpisów na Wikipedii streszczających wybrane artykuły naukowe. Tu trzeba już jednak ostrożności i sporo wyczucia, tak by uniknąć błędów, które mogłyby się okazać szkodliwe w skutkach.

 

 

Ilustracje (powrót)

Ilustracja 1. Strategia #1: jeden artykuł naukowy - wiele wpisów na Wikipedii. (powrót)

Strategia #1: jeden artykuł naukowy - wiele wpisów na Wikipedii.

 

Ilustracja 2. Strategia #2: wiele artykułów naukowych - jeden wpis na Wikipedii. (powrót)

Strategia#2: wiele artykułów naukowych - jeden wpis na Wikipedii.

 

 

Przypisy (powrót)

1. W ten sposób na angielskiej Wikipedii powstał np. artykuł o Jamesie Willisie Sayre. Z historii edycji artykułu wynika, że został on utworzony przez użytkownika „UWDI_ced” będącego oficjalnym kontem University of Washington Digital Initiatives Program.
2. [Orduna-Malea, Lopez-Cozar 2012] s. 11
3. Por. [Lewandowski 2014].
4. Wśród wyszukiwarek możemy w tym kontekście wyróżnić wyszukiwarki ogólnego przeznaczenia i akademickie. Jak potwierdzają badania, użytkownicy korzystają z obu typów wyszukiwarek podczas poszukiwania treści naukowych w Internecie. Podstawowe zasady działania obu wymienionych typów wyszukiwarek są takie same, różnią się zakresem zbieranych informacji i sposobem oceny poszczególnych zasobów. W przypadku wyszukiwarek ogólnych oceniana jest strona internetowa i niejako dodatkowo plik PDF, który w poszczególnych przypadkach może okazać się publikacją naukową. W przypadku wyszukiwarek akademickich oceniane są przede wszystkim poszczególne artykuły naukowe (które wcześniej zostały zidentyfikowane jako treść naukowa na podstawie zewnętrznych kryteriów), zaś jakość strony repozytorium spełnia ważną acz drugorzędną z punktu widzenia oceny rolę – jej wysoka jakość jedynie umożliwia zaindeksowanie artykułu na niej się znajdującego, ale nie wpływa na „ocenę końcową” - ta bowiem zależy od ilości cytowań prowadzących do danego artykułu.
5. Por. [Mituzas 2012].
Z tej wypowiedzi pracownika Google'a i jednocześnie byłego administratora Wikipedii (o potwierdzonej przez resztę społeczności znajomości tematu) wynika, że Google, po pierwsze, uważa Wikipedię za wzorcową stronę pod względem przydatności dla użytkownika, którą algorytmy oceniające Google mają właśnie przybliżać, po drugie w związku z tym Google dopracowuje szczegóły tych algorytmów w ten sposób, by pasowały do zawartości Wikipedii. Zwłaszcza jedno zdanie wg autora wypowiedziane przez członka Google Search Quality team do reprezentantów Wikipedii na umówionym spotkaniu ws. indeksowania zawartości Wikipedii podsumowuje stosunek Google do Wikipedii: „Róbcie dalej to, co robicie – znalezienie was to zadanie zespołu ds. jakości [a nie wasze]” („Continue doing what you do now, it is search quality team's job to find you”).

6. Dokładniej rzecz ujmując, „nofollow” jest jedną z możliwych (przewidzianych w języku HTML) wartości atrybutu „rel” przynależącego do tagu typu „a” (oznaczającego link), np. <a rel="nofollow" href="/f.oo">bar</a>, por. http://www.w3schools.com/tags/att_a_rel.asp.
7. Nawet jeśli (tak jak aktualnie wszystkie repozytoria w Polsce) indeksowanie w Google Scholar odbywa się za pomocą robotów indeksujących podobnych do tych używanych przez wyszukiwarkę ogólną Google. W przypadku podobnym np. do zbiorów Biblioteki Nauki (tj. zbioru harvestowanego przez Google Scholar na specjalnych, wynikających z dwustronnego porozumienia prawach) PageRank w ogóle nie byłby brany pod uwagę.
Sprawę widoczności repozytoriów w Google Scholar poza wspomnianym już wyżej tekstem Google Scholar a repozytoria i bilioteki cyfrowe w Polsce warto w tym kontekście przywołać również Jak poprawić widoczność rekordów w Google Scholar, również z serwisu "Otwarta Nauka".

8. Należy pamiętać, że ten użytkownik nie tylko przeczytał właśnie tekst poszerzający jego wiedzę na temat związany z tematem artykułu naukowego, do którego go odsyłamy - on w dodatku ma w zwyczaju czytać przypisy i klikać w nie. Taki użytkownik z bardzo dużym prawdopodobieństwem będzie również zainteresowany ofertą repozytoriów naukowych.
9. Najczęściej zresztą w ogóle brak w nich jakichkolwiek odniesień zewnętrznych, jak widać na podstawie następujących przykładów:

  • artykuł o fikcyjnym programie dla dzieci pt. „Cudowny Kot Olimar” posiadał jeden odnośnik zewnętrzny prowadzący rzekomo do listy programów dla dzieci na BBC, w rzeczywistości zaś - donikąd.
  • artykuł o fikcyjnym bóstwie aborygeńskim Jar’Edo Wens, jedno z najżywotniejszych oszustw na Wikipedii (przetrwało prawie 10 lat), składał się z dwóch zdań i nie podawał żadnych cytowań ani linków zewnętrznych.
  • artykuł o fikcyjnym programie dla dzieci z lat 40-tych XX wieku, „Snappy and Friends”, przetrwał prawie dziewięć i pół lat na Wikipedii, mimo że nie podawał ani jednego linka zewnętrznego. W zamian wyróżniał się nadreprezentacją linków wewnętrznych, w tym do hasła “telewizja”.
  • artykuł o fikcyjnej szkole średniej w Stanach Zjednoczonych nie podawał ani jednego linka zewnętrznego. Przetrwał ponad 4 i pół roku. Autor oszustwa zmyślił m.in. motto szkoły oraz nazwisko dyrektora.
  • najsłynniejszy chyba artykuł-fałszywka na Wikipedii (rekordzista pod względem czasu istnienia: 10 lat i 1 miesiąc), biogram fikcyjnej postaci Jacka Robichaux zawierał odnośnik do książki zdigitalizowanej w ramach programu Google Books, w którym jednak nazwisko Jack (Jaques?) Robichaux nie występuje.

10. Por. A Schwartz, Who writes Wikipedia?
11. Por. Wikipedia:No_original_research, a także Wikipedia:Nie_przedstawiamy_twórczości_własnej.
12. Por. I. Huvilla, Where does the information come from? Information source use patterns in Wikipedia, zwł. „Introduction”.
13. „Perhaps the spirit of the rule could be said in an even better way: Use your common sense over anything else.” - Wikipedia, Wikipedia:Ignore all Rules – the beginner's guide (podkr. własne).
14. „Think of it like 'free speech'. It exists, but there are limitations. Use your common sense!” - tamże.
15. Prix Ars Electronica - jedna z najbardziej prestiżowych nagród dla przedstawicieli szeroko rozumianej branży elektronicznej, przyznawana rokrocznie od 1987 roku przez austriacki instytut Ars Electronica.
16. „The fact that anyone can edit the pages appears to be why people like Mr. Fasoldt question its authority, but that is that exact reason that it has authority.” - [Ito 2004], tłum. własne.
17. Prawo sformułowane przez Freda Brooksa w książce The Mythical Man-Month: Essays on Software Engineering. Mówi ono, że dodawanie siły roboczej do projektu informatycznego znajdującego się w późnej fazie wydłuża czas jego realizacji zamiast go skracać.
18. Por. [Wilkinson, Huberman 2007] - ocena jakości artykułów (a raczej dobór najlepszych pod pewnymi względami) opierała się na wynikach wewnętrznego systemu recenzowania artykułów i wybierania najlepszych z nich - tzw. “Featured Articles”.
19. [Haeberlin, DeDeo 2016], s.5.
20. Zostały one wydzielone na tej samej sieci cytowań, choć autorzy dla kontroli obliczyli również semantyczne powiązania pomiędzy poszczególnymi stronami. Nie od dziś jednak wiadomo, że cytowania są dobrą metryką dla powiązania tematycznego, zarówno w przypadku prac naukowych, jak i stron na Wikipedii. Ciekawym w tym kontekście faktem jest to, że gęstość sieci cytowań stron Wikipedii jest tego samego rzędu wielkości, co gęstość sieci cytowań literatury naukowej ([Haeberlin, DeDeo 2016], s. 5
21. Wszystkie te zarzuty doczekały się już oczywiście odpowiedzi lub zostały zwyczajnie sfalsyfikowane z upływem czasu. Część z tych odpowiedzi wyczytać można w niniejszym artykule.
22. Zdaniem autora takie użycie słowa „troll” jest zgodne z aktualnym, rozmytym jego znaczeniem, lecz nie z jego znaczeniem pierwotnym. Ob. jednak P. Shachaf, N. Hara, Beyond Vandalism: Wikipedia Trolls, gdzie autorzy przedstawiają cechy wspólne „wiki-trolli” i tradycyjnego rozumienia „trolli internetowych”; wg ich argumentacji wiki-trolle (1) maskują się pod pozorami szczerości dodając i edytując wpisy na Wikipedii, (2) używają „przynęty” („flame bait”) - tutaj przyjmowała ona postać świadomego i upartego łamania ustanowionych zasad oraz (3) usiłują wywołać jałowe dyskusje (głównie w gronie adminów Wikipedii).
Trzy powyższe charakterystyczne cechy trolli zostały opisane przez S.C. Herring i in., Searching for safet online: managing „trolling” in feminist forum. Praca ta, wg Schachaf i Hara, stanowi jak do tej pory jedyną obecną w literaturze naukowej próbą zdefiniowania terminu „troll internetowy”.

23. Por. List of hoaxes on Wikipedia.
24. Por. [Geiger, Ribes 2010], zwłaszcza s. 119 oraz rys. 1.
25. Nieformalnie rzecz ujmując, im większa precyzja, tym mniej przypadków fałszywie zidentyfikowanych jako posiadających daną cechę.
26. Nieformalnie rzecz ujmując, im większa czułość, tym mniej przypadków fałszywie zidentyfikowanych jako nie posiadających danej cechy.
27. Dalsze szczegóły patrz [Smets et al. 2008] Niestety, artykuł opisujący ClueBota autorstwa jednego z jego twórców, nigdy nie opublikowany, zaginął. Ostatnio cytowany był z tego miejsca. Pewne informacje można również odnaleźć tu.
28. Por. [Geiger, Reibes 2010], zwłaszcza wstęp oraz strony 121-123.
29. Por. List of hoaxes on Wikipedia.
30. Rozpoznawanie cech stylometrycznych związanych z wandalizmem za pomocą modeli statystycznych oraz dalsze rozpoznawanie wandalizmów z pomocą głębokich wzorców syntaktycznych opartych o probabilistyczne gramatyki bezkontekstowe.
31. Jak wskazuje sam tytuł, algorytm używa stron uzyskanych w wyniku wysyłania zapytań do wyszukiwarek internetowych wg odpowiednich słów kluczowych jako bazy tekstów do uzyskania odpowiednich modeli porównywanych następnie z tekstem wpisu na Wikipedii.
32. Por. [Huvila 2010]: „Although a large number of texts in Wikipedia cite external sources to meet the expectations of the verifiability policy, articles may temporarily lack references if an editor is unable to find an appropriate one at the time of writing. If there are no ethical concerns, individual facts can be marked temporarily as requiring reference. There are also several projects for referencing previously unreferenced articles. Even if the original contributors give references to their contributions at a later date, the original source of information and the cited reference need not to be the same. Therefore, it is not always altogether clear where the information presented in the articles actually originates.”
„Duża część tekstów na Wikipedii cytuje zewnętrzne źródła, by pozostać w zgodności z polityką weryfikowalności. Mimo to niektórym artykułom może tymczasowo brakować niezbędnych cytowań, jeśli użytkownik redagujący nie może znaleźć odpowiednich źródeł w chwili pisania tekstu. Jeśli nie ma żadnych przeciwwskazań natury etycznej, poszczególne fakty mogą zostać oznaczone jako potrzebujące zewnętrznego źródła. Nawet jeśli ten sam redaktor doda brakujące cytowania w jakimś późniejszym terminie, to źródła, któymi się posłużył nie muszą być tymi samymi, z których oryginalnie czerpał wiedzę. Z tego powodu nie zawsze jest jasne, skąd tak naprawdę pochodzą informacje, które posłużyły do napisania artykułu.” (tłum. autora)

33. Por. Wikipedia, Szablon:Fakt
W polskiej wersji, jak widać, podstawową wersją tego szablonu jest odpowiednik anglojęzycznego szablonu „Fact”, który aktualnie jest jedynie przekierowaniem do szablonu „Citation Needed” (podobnie jak np. szablon „Cn”)*. Przyczyny, dla których spośród pięćdziesięciu możliwych przekierowań** wybrano akurat „Fakt” pozostają nieznane. Być może zresztą brak tutaj przyczyny w klasycznym rozumieniu tego słowa.

* Por. Wikipedia, Category: Pages containing citation needed templates with deprecated parameters. „This category tracks pages using deprecated parameters of {{citation needed}} template and its redirects; in particular, {{fact}} and {{cn}} are frequent.”
„Ta kategoria śledzi strony, w których użyto przedawnionych parametrów szablonu {{citation needed}} oraz jego przekierowań. Częste są zwłaszcza szablony {{fakt}} oraz {{cn}}.” (tłum. autora)

** Por. Wikipedia, Template: Citation needed, sekcja „Tracking category”.

34. Por. niechętną takiemu stanowi rzeczy wypowiedź z A Stand Against Wikipedia, jak również np. ten słynny komentarz rysunkowy.
35. Przesadna liczba przypisów w tym akapicie jest zamierzonym zabiegiem autora [przyp. autora].
36. Te zagadnienia i dedykowane narzędzia w sposób wyczerpujący opisane są na następujących stronach: Wikipedia:Citing_sources, Help:Referencing_for_beginners, Help:Footnotes, Wikipedia:Inline citation, Wikipedia:RefToolbar/2.0.
37. Por. Wikipedia, Wikipedia:Identifying reliable sources, sekcja "Scholarship".
38. [Smith 2011], s. 797.
39. [Smith 2011], s. 798.
40. Z drugiej strony, przypomnijmy przywołany już tekst [Nielsen 2007] - mapa cytowań literatury naukowej na Wikipedii nie różni się zasadniczo od podobnej mapy dla literatury naukowej, z wyjątkiem lekkiej tendencji do nadreprezentacji cytowań do czasopism z wysokim Impact Factor. Wydaje się więc, że wszelkie wczesne obawy o to, że zakres tematyczny Wikipedii będzie zdeformowany przez gusta „młodych i technicznie nastawionych” (ang. „young and Internet-savvy”) redaktorów, wyrażone np. w [Denning et al. 2005] okazały się nietrafionymi proroctwami.
41. [Smith 2011], s. 798.
42. Dane te mają charakter wyłącznie anegdotyczny, powstały w wyniku niesystematycznej obserwacji wskaźników dnia 31 marca 2016 roku.
43. Był to M. Peel, B. Finlayson, T. McMahon, Updated world map of the Köppen - Geiger climate classification, “Hydrology and Earth System Science, 11, 1633-1644, 2007.
44. Corticosteroid.
45. Źródło: uwagi Tomasza „Polimerka” Ganicza do wstępnej wersji tekstu oraz korespondencja prywatna.
46. Por. Wikipedia:Ignoring all rules: a beginner's guide.
47. Tamże.

 

Bibliografia (powrót)

K. Arlitsch , P.S. O’Brien, Invisible institutional repositories: addressing the low indexing ratios of IRs in Google, „Library Hi Tech” 30(1), 60-81, 2012
preprint dostępny pod adresem:
http://scholarworks.montana.edu/xmlui/bitstream/handle/1/3193/Arlitsch-Obrien-LHT-GS-final-revised_2012-02-18.pdf
Powrót

Encyclopaedia Britannica, Fattaly Flawed: Refuting the recent study on encyclopaedic accuracy by the journal Nature. 2006
Artykuł dostępny pod adresem:
https://corporate.britannica.com/britannica_nature_response.pdf
Powrót

E.S. Callahan, S.C. Herring, Cultural Bias in Wikipedia content on famous persons, „Journal of the American society for information science and technology” 62.10, s. 1899-1915, 2011.
Artykuł dostępny pod adresem:
http://info.ils.indiana.edu/~herring/callahan.herring.2011.pdf
Powrót

A. Ciffolili, Phantom authority, self–selective recruitment and retention of members in virtual communities: The case of Wikipedia, „First Monday”, vol. 8 no. 12, 2003.
Artykuł dostępny pod adresem:
http://firstmonday.org/ojs/index.php/fm/article/view/1108/1028
Powrót

T. Cross, Puppy Smoothies: Improving the Reliability of Open, Collaborative Wikis, „First Monday” vol. 11 no. 9 (September), 2006
Artykuł dostępny pod adresem:
http://pear.accc.uic.edu/ojs/index.php/fm/article/viewArticle/1400/1318
Powrót

C. Cumbrowski, All Wikipedia links are now No-Follow, „SEJ - Search Engine Journal”, 21 stycznia 2007
tekst dostępny pod adresem:
https://www.searchenginejournal.com/all-wikipedia-links-are-now-nofollow/4288/
Powrót

P. Denning, J. Horning, D. Parnas, L. Weinstein, Wikipedia risks, „Communications of the ACM” 48, 152, 2005.
Tekst dostępny pod adresem:
http://www.csl.sri.com/users/neumann/insiderisks05.html#186
Powrót

D. Fallis, Toward an epistemology of Wikipedia, „Journal of the American Society for Information Science and Technology” 59.10: 1662-1674, 2008.
Artykuł dostępny pod adresem:
http://ce.uoregon.edu/aim/ElecInfoW10/EpistemologyWikipedia.pdf
Powrót

S. Garfinkel, Wikipedia and the Meaning of Truth, „MIT Technology Review”, 20 października 2008.
Tekst dostępny pod adresem:
http://www.technologyreview.com/review/411041/wikipedia-and-the-meaning-of-truth/
Powrót

R.S. Geiger, D. Ribes, The work of sustaining order in wikipedia: the banning of a vandal, [w:] „Proceedings of the 2010 ACM conference on Computer supported cooperative work” (s. 117-126). ACM, 2010.
Artykuł dostępny pod adresem:
http://www.pensivepuffin.com/dwmcphd/syllabi/info447_wi12/readings/wk05-ConflictInCollaborations/geiger.BanningAVandal.CSCW10.pdf
Powrót

J. Giles, Internet encyclopaedias go head to head: Jimmy Wales' Wikipedia comes close to Britannica in terms of the accuracy of its science entries. „Nature”, 438 (7070): 900-1, 2005.
[additional research by Declan Butler, Jenny Hogan, Michael Hopkins, Mark Peplow and Tom Simonite]
Raport dostępny pod adresem:
http://www2.stat.unibo.it/mazzocchi/macroeconomia/documenti/Nature%202006%20wikipedia.pdf
Powrót

S. Greenstein, F. Zhu, Do Experts or Collective Intelligence Write with More Bias? Evidence from Encyclopædia Britannica and Wikipedia, Harvard Business School Working Paper 2014, 15-023.
Artykuł dostępny pod adresem:
http://www.hbs.edu/faculty/Publication%20Files/15-023_145191c4-220f-4dd8-8d41-ee2d1f693716.pdf
Powrót

M. Harpalani, M. Hart, S. Singh, R. Johnson, Z. Choi, Language of vandalism: Improving Wikipedia vandalism detection via stylometric analysis, [w:] „Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies: short papers-Volume 2” (s. 83-88). Association for Computational Linguistics, 2011.
Artykuł dostępny pod adresem:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.221.8770&rep=rep1&type=pdf#page=123
Powrót

B. Heaberlin, S. DeDeo, The Evolution of Wikipedia's Norm Network, „Future Internet” vol. 8 no. 2, 2016
Artykuł dostępny pod adresem:
http://www.mdpi.com/1999-5903/8/2/14
Powrót

A.J. Head, M.B. Eisenberg, How today's college students use Wikipedia for course-related research, „First Monday", vol. 15 no.3 (March), 2010
Artykuł dostępny pod adresem:
http://uncommonculture.org/ojs/index.php/fm/article/view/2830/2476
Powrót

S.C. Herring, K. Job-Sluder, R. Scheckler, S. Barab, Searching for safety online: managing „trolling” in feminist forum, „The Information Society” 18(5), s. 371-383, 2002
Artykuł dostępny pod adresem:
http://www-bcf.usc.edu/~fulk/620overview_files/Herring.pdf
Powrót

L.B. Holman-Rector, Comparison of Wikipedia and Other Encyclopaedias for Accuracy, Bredth and Depth of Historical Articles, „References Services Review”, 36(1) 211-217, 2008.
Artykuł niedostępny w sposób otwarty.
Powrót

I. Huvila, Where does the information come from? Information source use patters in Wikipedia, „Information Research”, 15(3) 2010.
Artykuł dostępny pod adresem:
http://www.informationr.net/ir/15-3/paper433.html
Powrót

J. Ito, Wikipedia attacked by ignorant reporter, „Joi Ito Blog”, 29 sierpnia 2004.
Tekst dostępny pod adresem:
https://joi.ito.com/weblog/2004/08/29/wikipedia-attac.html
Powrót

S. Jaschik, A Stand Against Wikipedia, „Inside Higher Ed”, 26 stycznia 2007.
Artykuł dostępny pod adresem:
https://www.insidehighered.com/news/2007/01/26/wiki
Powrót

Ch. Kiddon, Y. Brun, That’s What She Said: Double Entendre Identification, [w:] „Proceedings of the 49th Annual Meeting of the Association for Computational Linguistics: Human Language Technologies: short papers-Volume 2”. Association for Computational Linguistics, 2011.
Artykuł dostępny pod adresem:
http://www.aclweb.org/anthology/P/P11/P11-2.pdf#page=129
Powrót

A.M. Lally, C.E. Dunford, Using Wikipedia to Extent Digital Collections, „D-Lib Magazine” vol. 13 no. 5/6, 2007
artykuł dostępny pod adresem:
http://www.dlib.org/dlib/may07/lally/05lally.html

Powrót

T. Lewandowski, Google Scholar a repozytoria i biblioteki cyfrowe w Polsce, „Otwarta Nauka” 26 sierpnia 2014.
Tekst dostępny pod adresem:
https://otwartanauka.pl/analysis/case-studies/google-scholar-a-repozytoria-i-biblioteki-cyfrowe-w-polsce?showall=1&limitstart=
Powrót

Nature, Encyclopaedia Britannica and Nature: a response, 23 marca 2006.
Tekst dostępny pod adresem:
http://www.nature.com/press_releases/Britannica_response.pdf
Powrót

A. Neus, Managing Information Quality in Virtual Communities of Practice, [w:] E. Pierce, R. Katz-Haas (ed.), „Proceedings of the Sixth International Conference on Information Quality at MIT, Boston: Sloan School of Management”. 2001.
artykuł dostępny pod adresem:
http://flosshub.org/31

Powrót

F.Å. Nielsen, Scientific Citations in Wikipedia, „First Monday” 12(8), 2007.
Artykuł dostępny pod adresem:
http://arxiv.org/pdf/0705.2106.pdf

Powrót

R. McHenry, The Faith-Based Encyclopedia, „TCS Daily”, 2004.
Artykuł aktualnie dostępny wyłącznie za pośrednictwem archiwum internetowego „The Wayback Machine”:
https://web.archive.org/web/20050302013007/http://www.techcentralstation.com/111504A.html
Powrót

D. Mituzas, Re: How did Wikipedia manage to get such a high Google PageRank?, Quora, ostatnio modyfikowany 2012-07-25/
Tekst dostępny pod adresem:
https://www.quora.com/How-did-Wikipedia-manage-to-get-such-a-high-Google-PageRank
Powrót

E. Orduna-Malea, E.D. López-Cózar, The dark side of Open Access in Google and Google Scholar: the case of Latin-American repositories, „Scientometrics” vol. 102, s. 829-846, 2015.
Preprint dostępny pod adresem:
http://arxiv.org/abs/1406.4331
Powrót

Platforma Otwartej Nauki, Jak poprawić widoczność rekordów w Google Scholar? Opracowanie na podstawie webinarium Darcy Dapra z Google Scholar pt. Indexing Repositories: Pittfalls and Best Practices, „Otwarta Nauka” 5 maja 2015.
Tekst dostępny pod adresem:
https://otwartanauka.pl/analysis/rozwiazania/jak-poprawic-widocznosc-rekordow-w-google-scholar
Powrót

M. Potthast, B. Stein, R. Gerling, Automatic Vandalism Detection in Wikipedia [w:] „Advances in Information Retrieval”, s. 663-668, Springer Berlin Heidelberg, 2008.
Artykuł dostępny pod adresem:
http://www.uni-weimar.de/medien/webis/publications/papers/stein_2008c.pdf
Powrót

A. Schwatz, Who writes Wikipedia?, „Raw Thought” (blog), 2006.
Tekst dostępny pod adresem:
http://www.aaronsw.com/weblog/whowriteswikipedia
Powrót

P. Shachaf, N. Hara, Beyond Vandalism: Wikipedia Trolls, „Journal of Information Science”, 36(3), 357-370, 2010.
Artykuł dostępny pod adresem:
http://jis.sagepub.com/content/36/3/357.full.pdf
Powrót

K. Smets, B. Goethals, B. Verdonk, Automatic Vandalism Detection in Wikipedia: Towards a Machine learning Approach, [w:] „AAAI workshop on Wikipedia and artificial intelligence: An Evolving Synergy”. 2008.
Artykuł dostępny pod adresem:
http://www.aaai.org/Papers/Workshops/2008/WS-08-15/WS08-15-008.pdf
Powrót

A.G. Smith, Linking to institutional repositories from the general Web, „Proceeding of ISSI 2009”, Rio de Janeiro, 14-17 lipca 2009.
Artykuł dostępny pod adresem:
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.545.9308&rep=rep1&type=pdf
Powrót

A.G. Smith, Wikipedia and institutional repositories: an academic symbiosis?, „International Society of Scientometrics & Infometrics 2011 Conference”, 2011.
Artykuł dostępny pod adresem:
http://researcharchive.vuw.ac.nz/xmlui/bitstream/handle/10063/1848/Conference_paper.pdf?sequence=1
Powrót

T.A. Thompson, J. Little, D. Gonzales, A. Darby, M. Carruthers, From Finding Aids to Wiki Pages: Remixing Archival Metadata with RAMP, „code{4}lib”, issue 22, 2013.
tekst dostępny pod adresem:
http://journal.code4lib.org/articles/8962
Powrót

W.Y. Wang, K.R. McKeown, „Got you!”: automatic vandalism detection in Wikipedia with web-based shallow syntactic-semantic modeling, [w:] „Proceedings of the 23rd International Conference on Computational Linguistics” (s. 1146-1154). Association for Computational Linguistics, 2010.
Artykuł dostępny pod adresem:
http://www.aclweb.org/website/old_anthology/C/C10/C10-1129.pdf
Powrót

Wikipedia, Wikipedia:What Wikipedia is not
https://en.wikipedia.org/wiki/Wikipedia:What_Wikipedia_is_not
Powrót

Wikipedia, Wikipedia:Neutral Point of View
https://en.wikipedia.org/wiki/Wikipedia:Nautral_point_of_view
Powrót

Wikipedia, Wikipedia:Copyrights
https://en.wikipedia.org/wiki/Wikipedia:Copyrights
Powrót

Wikipedia, Wikipedia:Civility
https://en.wikipedia.org/wiki/Wikipedia:Civility
Powrót

Wikipedia, Wikipedia:Verifiability
https://en.wikipedia.org/wiki/Wikipedia:Verifiablity
Powrót

Wikipedia, Wikipedia:No original research
https://en.wikipedia.org/wiki/Wikipedia:No_original_research
Powrót

Wikipedia, Wikipedia:Zasady_wstawiania_linków_zewnętrznych,
https://pl.wikipedia.org/wiki/Wikipedia:Zasady_wstawiania_link%C3%B3w_zewn%C4%99trznych
Powrót

Wikipedia, Pomoc:Przewodnicy,
https://pl.wikipedia.org/wiki/Pomoc:Przewodnicy
Powrót

Wikipedia, List of hoaxes on Wikipedia,
https://en.wikipedia.org/wiki/Wikipedia:List_of_hoaxes_on_Wikipedia
Powrót

Wikipedia, Verifiability,
http://en.wikipedia.org/wiki/Wikipedia:Verifiability

Wikipedia, External Peer Review / Nature December 2005,
http://en.wikipedia.org/wiki/Wikipedia:External_peer_review/Nature_December_2005
Powrót

Wikipedia, No original research,
https://en.wikipedia.org/wiki/Wikipedia:No_original_research
Powrót

Wikipedia, Category: Articles needing more detailed references,
https://en.wikipedia.org/wiki/Category:Articles_needing_more_detailed_references
Powrót

Wikipedia, WikiProject: Fact and Reference Check,
https://en.wikipedia.org/wiki/Wikipedia:WikiProject_Fact_and_Reference_Check
Powrót

Wikipedia, Wikipedia:Five pillars,
https://en.wikipedia.org/wiki/Wikipedia:Five_pillars
Powrót

Wikipedia, Wikipedia:Be bold,
https://en.wikipedia.org/wiki/Wikipedia:Be_bold
Powrót

Wikipedia, Wikipedia:Ignore all rules,
https://en.wikipedia.org/wiki/Wikipedia:Ignore_all_rules
Powrót

Wikipedia, Wikipedia:Ignoring all rules – a beginner's guide,
https://en.wikipedia.org/wiki/Wikipedia:Ignoring_all_rules_%E2%80%93_a_beginner%27s_guide
Powrót

Wikipedia, Wikipedia:Identifying reliable sources,
https://en.wikipedia.org/wiki/Wikipedia:Identifying_reliable_sources
Powrót

Wikipedia, Wikipedia:Citing sources,
https://en.wikipedia.org/wiki/Wikipedia:Citing_sources
Powrót

Wikipedia, Wikipedia:Inline citation,
https://en.wikipedia.org/wiki/Wikipedia:Inline_citation
Powrót

Wikipedia, Help:Referencing for beginners,
https://en.wikipedia.org/wiki/Help:Referencing_for_beginners
Powrót

Wikipedia, Help:Footnotes,
https://en.wikipedia.org/wiki/Help:Footnotes
Powrót

Wikipedia, Wikipedia:RefToolbar/2.0,
https://en.wikipedia.org/wiki/Wikipedia:RefToolbar/2.0
Powrót

Wikipedia, Wikipedia:Size comparisons,
https://en.wikipedia.org/wiki/Wikipedia:Size_comparisons
Powrót

D.M. Wilkinson, B.A. Huberman, Assesing the Value of Cooperation in Wikipedia, „First Monday” vol. 12 no. 4 (April), 2007.
Artykuł dostępny pod adresem:
http://arxiv.org/pdf/cs/0702140.pdf
Powrót

 

Otwartość — klucz, który nie pasuje do wszystkich drzwi

Michał Starczewski

Na pierwszy rzut oka może się wydawać, że prosty komunikat „więcej otwartości” jest dobrym rozwiązaniem przynajmniej z taktycznego punktu widzenia. Adresaci tego komunikatu, atakowani z wielu stron, zostaną w końcu przekonani, że należy wprowadzić otwartość w jak najszerszym zakresie. Niestety, ograniczanie się do prostego hasła nie tylko uniemożliwia pogłębioną diagnozę obecnej sytuacji, ale może okazać się nieskuteczne, ponieważ nie odpowiada na wątpliwości specyficznych grup. Dzisiaj abstrakcyjnie rozumiana otwartość przekonuje już tylko tych przekonanych.

 

Postulat otwartości mającej przekształcić całokształt życia kulturalnego, intelektualnego i publicznego bywa dziś nader często formułowany w odniesieniu do wielu różnych sfer w sposób sugerujący zarazem uniwersalność, jak i jednoznaczność tego pojęcia. Czy jednak jest ono rzeczywiście przydatne w debacie o otwartej nauce? Pojęcie otwartości bywa często  rozumiane w sposób wyabstrahowany, w oderwaniu od tego, czym faktycznie jest w poszczególnych obszarach. Czy jego abstrakcyjne pojmowanie nie powoduje utraty znaczenia otwartych modeli zastosowanych w kulturze, programowaniu lub nauce? Czy zatem warto odwoływać się  do tak rozumianej otwartości  w dyskusjach o otwartych modelach komunikacji naukowej?

Abstrakcyjnie rozumiana otwartość
Używajac ogólnego pojęcia „otwartość”, ma się na myśli pewien postulowany stan rzeczy przede wszystkim z punktu widzenia odbiorcy. Abstrakcyjny odbiorca chciałby mieć dostęp do różnych treści i nie musi interesować go, czy ma do czynienia z utworem artystycznym, naukowym, otwartym kodem źródłowym programu czy też jakimkolwiek innym utworem. Pragnienie to jest coraz łatwiejsze do zaspokojenia dzięki rozwojowi  technologii umożliwiającej niezwykle tanie, szybkie i proste wytwarzanie kolejnych kopii utworu, który już raz przybrał postać pliku elektronicznego.

Szeroko rozumiana otwartość przeciwstawiana jest tajności (por. „Openness”) jako praktyce ukrywania informacji. Otwartość jako szeroki dostęp do wiedzy i informacji miałaby być przejawem – skonceptualizowanego po raz pierwszy przez Henri Bergsona – „społeczeństwa otwartego”,  którego przeciwieństwem jest „społeczeństwo zamknięte”,  według Karla Poppera   będące społeczeństwem totalitarnym (por. Michael A. Peters, Open Education and Education for Openness). „Otwartość” staje się w takim ujęciu  bliska pojęciu „transparentności”, zwłaszcza jeśli rozpatruje się je z punktu widzenia teorii państwa i prawa [1].

W wymiarze bardziej konkretnym pojęcie otwartości łączy się z przekonaniem o osiąganiu zwielokrotnionej korzyści z wprowadzania otwartych modeli w wielu obszarach. Internet umożliwia funkcjonowanie tej samej treści w różnych kontekstach. Ten sam artykuł może być zarazem publikacją naukową, materiałem edukacyjnym i obiektem kultury; może odwoływać się do otwartych danych badawczych i rządowych; może być powiązany z otwartym oprogramowaniem, które powstało w ramach tego samego projektu. Przyjmując taką perspektywę, łatwo uznać, że podziały na obszary są przestarzałe, sztuczne i niepotrzebne. W każdym przypadku mowa jest przecież o wytworach intelektualnych lub artystycznych, które mogą być udostępniane za pośrednictwem Internetu. Czy nie wystarczy po prostu dążyć do tego, by jak najwięcej tego typu dóbr było otwartych?

W tym ujęciu szczególnego znaczenia nabiera łączący otwartość z różnych obszarów argument dotyczący finansowania publicznego, któremu poświęcam więcej uwagi dalej. Akcentowanie faktu, że treści mogą funkcjonować równocześnie w wielu kontekstach, odsuwa na dalszy plan pytanie o to, w jaki sposób rzeczywiście w nich funkcjonują. Perspektywa pojedynczego obszaru staje się zbyt partykularna, by stosować ją do pojęcia otwartości mającej powszechne zastosowanie.

Sens posługiwania się pojęciem abstrakcyjnej otwartości widzę przede wszystkim w wyznaczaniu ogólnego kierunku działań zmierzających ku wprowadzaniu modeli otwartych. Obraz uwzględniający wyidealizowany stan rzeczy przede wszystkim z punktu widzenia jednej tylko grupy, czyli odbiorców treści, musi być niepełny. W pewnych okolicznościach może nawet prowadzić do skutków przeciwnych do zamierzonych. Przedstawiciele innych grup mogą bowiem sprzeciwiać się zmianom, jeśli ich perspektywa nie zostanie uwzględniona. Co więcej, jeśli skonkretyzuje się hipotetycznego odbiorcę, to okaże się, że w zależności od obszaru jego zainteresowania różnorakie potrzeby wybijają się na plan pierwszy. Czegoś innego potrzebuje meloman, czegoś innego nauczyciel poszukujący treści edukacyjnych, a czegoś jeszcze innego naukowiec zbierający bibliografię do swoich badań. Abstrakcyjna otwartość nie będzie odpowiadała na ich potrzeby, choć mogą posługiwać się tym pojęciem, by przedstawić obrazowo ogólny stan rzeczy, który uznają za korzystny dla siebie. Odpowiedzią na konkretne potrzeby mogą być jednak tylko konkretne rozwiązania.

Otwartość jako cecha
Otwartość należy zatem rozumieć nie tyle jako abstrakcyjne pojęcie, ile przede wszystkim jako cechę, którą przypisuje się poszczególnym obszarom (bywa jednak wykorzystywana w wielu znaczeniach dalece odbiegających od zagadnień dostępu do treści; o ile postulat „otwartego rządu” jest zgodny z pojęciem otwartości, o której tu mowa, o tyle np. „otwarte miasto” jest zwrotem bardzo wieloznacznym, mogącym istotnie odbiegać od rozumienia przyjmowanego w dyskusji o otwartości). Znaczenie tej cechy zmienia się w zależności od obszaru, któremu jest przypisywana. Mimo ogólnych podobieństw, zachodzą wyraźne różnice między np. otwartością w nauce a otwartością w kulturze. Inne są motywacje i instytucjonalne zaplecze naukowców, a inne artystów.

Różne „otwartości” mogą spotkać się w jednym punkcie, na przykład w jednym projekcie z dziedziny humanistyki cyfrowej: otwarta nauka w postaci otwartego dostępu, otwartych danych badawczych i otwartego recenzowania, otwarte oprogramowanie w postaci otwartego kodu źródłowego do programów powstałych przy realizacji projektu, otwarte zasoby edukacyjne – gdy efekty projektu przedstawiane są również w formie edukacyjnej. Ostatecznie zaś mogą stać się częścią otwartej (wolnej) kultury, gdy zostaną udostępnione na wolnej licencji i zaczną funkcjonować poza środowiskiem naukowym.
 
Odpowiedzi na konkretne potrzeby
Na pierwszy rzut oka może się wydawać, że prosty komunikat „więcej otwartości” jest dobrym rozwiązaniem przynajmniej z taktycznego punktu widzenia. Adresaci tego komunikatu, atakowani z wielu stron, zostaną w końcu przekonani, że należy wprowadzić otwartość w jak najszerszym zakresie. Niestety, ograniczanie się do prostego hasła nie tylko uniemożliwia pogłębioną diagnozę obecnej sytuacji, ale może okazać się nieskuteczne, ponieważ nie odpowiada na wątpliwości specyficznych grup. Dzisiaj abstrakcyjnie rozumiana otwartość przekonuje już tylko tych przekonanych.

Podstawą dyskusji o otwartości w poszczególnych obszarach (nauce, kulturze, edukacji, itd.) powinno być dogłębne zrozumienie mechanizmów kierujących tymi obszarami. I tak dyskusja o otwartej nauce powinna koncentrować się na tym, czym jest nauka i jak funkcjonuje system komunikacji naukowej, jakie są potrzeby poszczególnych jego uczestników. Na tym gruncie argumenty za otwartością znajdują konkretne uzasadnienie. Podobnie należy konstruować argumentację dotyczącą kultury, edukacji, administracji państwowej i wszystkich obszarów, od których oczekuje się większej otwartości. Modele otwarte powinny oferować konkretne rozwiązania dopasowane do sposobów funkcjonowania poszczególnych systemów i motywacji grup interesariuszy.

Dogłębna analiza poszczególnych obszarów jest potrzebna, by przedstawić otwarte modele jako faktycznie atrakcyjną ofertę dla osób i instytucji związanych z wytwarzaniem treści. Idea, jeśli nie idzie za nią szczegółowa analiza rzeczywistości, łatwo staje się hasłem wypłukanym ze znaczenia. Richard Stallman, czołowa postać ruchu wolnego oprogramowania, zwraca uwagę na coraz większe rozmycie pojęcia otwartości i wykorzystywanie go jako marketingowego frazesu [2].

Wielość otwartości
Otwartość nabiera zróżnicowanych znaczeń, gdy wprowadza się ją w różnych obszarach i należy te różnice wyraźnie wskazać.W każdym z istniejących obszarów mamy do czynienia z inaczej skonstruowanymi systemami, z innymi interesariuszami i ich motywacjami. Argumenty, które w jednym obszarze są trafne i mają dużą siłę przekonywania, w innym okazują się znacznie słabsze. Podobnie argumenty przeciwników otwartości mają różną siłę w zależności od kontekstu, w jakim są używane. Przedstawianie otwartości jako jednego uniwersalnego postulatu odpowiedniego dla wszystkich obszarów może być przyczyną nieporozumień, uproszczeń i nieadekwatnego przenoszeania pewnych cech otwartości z jednego obszaru do drugiego. Może również skutkować tworzeniem przez przeciwników otwartości nieprawdziwego obrazu otwartych modeli. Taka wyobrażona uogólniona otwartość może kumulować w sobie negatywne z ich punktu widzenia cechy, choć w rzeczywistości mogą one w ogóle nie odnosić się do otwartych modeli w ich specjalizacji. Wyraźne podkreślanie, o czym się mówi, pozwola uniknąć wielu niepotrzebnych nieporozumień.

Pobieżne zestawienie celów i problemów otwartego oprogramowania, otwartej kultury i otwartego dostępu do treści naukowych (zestawienie to można poszerzyć o inne obszary) pokazuje, jak daleko sięgają różnice między nimi.

1. Celem otwartego oprogramowania jest, według mojej wiedzy, ulepszanie jakości tegoż oprogramowania (w przeciwieństwie do „wolnego oprogramowania”, którego nadrzędnym celem jest zapewnienie wolności użytkowników – por. R. Stallman). Jego bezpłatność nie jest konieczna, choć działalność biznesowa często wiąże się ze świadczeniem usług i pomocy użytkownikom. Zasadniczym zagadnieniem wydaje mi się fakt, że wiele oprogramowania powstaje w prywatnych firmach.

2. Celem otwartej kultury (pojęcie to bywa często stosowane zamiennie z określeniem „wolna kultura”) jest  – opieram się tu na poglądzie wyrażonym przez Lawrence'a Lessiga – zwiększenie kreatywności, a największym wyzwaniem odzyskanie równowagi między tym, co w kulturze wolne i niemające komercyjnego charakteru, a tym, co taki właśnie charakter posiada [3]. Charakterystyczne jest napięcie między tymi twórcami, którzy nie chcą zarabiać na twórczości, a tymi, którzy liczą na utrzymanie się dzięki pracy twórczej (a może nawet na spektakularną karierę w show-biznesie).

3. Celem otwartego dostępu do publikacji naukowych jest zapewnienie maksymalnej skuteczności systemowi komunikacji naukowej i sprawienie, by naukowcy mieli łatwy i szybki dostęp do całości literatury potrzebnej do badań. Najpoważniejszym problemem wydaje się zapewnienie powszechności modeli otwartych. Powszechność ta stanie się możliwa dzięki politykom instytucjonalnym. Specyfiką tego obszaru jest to, że działalność badawcza ma zasadniczo niekomercyjny charakter i jest na ogół finansowana z pieniędzy publicznych. Wokół niej funkcjonuje jednak szereg prywatnych podmiotów świadczących potrzebne jej usługi. Zajmując się otwartą nauką, należy pamiętać o patentach i tych efektach prac badawczych, które nadają się do komercjalizacji. W nauce wyjątkowe jest również istnienie korporacji uczonych, do której  przynależność określa się poprzez przyznawanie stopni naukowych i recenzowanie prac. W ten sposób wyznacza się krąg osób, do których kierowany jest strumień pieniędzy (w przeciwieństwie choćby do artystów, których oceniają odbiorcy lub bezpośrednio urzędnicy przyznający finansowanie).

 

Finansowanie publiczne
Ważnym argumentem wspierającym ideę otwartości jest publiczne finansowanie. Zgadzam się, że domaganie się otwartego dostępu do treści w ten sposób powstałych jest uzasadnione. W Polsce, gdzie publiczne pieniądze wspierają bardzo wiele przedsięwzięć, argument ten może być faktycznie skuteczny.

Opieranie na nim argumentacji byłoby jednak niebezpieczne, przynajmniej w obszarze nauki. O wiele ważniejsze od źródeł finansowania jest bowiem to, że otwarte modele komunikacji naukowej skuteczniej odpowiadają potrzebom naukowców niż inne. Sposób finansowania pozostaje sprawą drugorzędną. Gdyby bowiem badania naukowe były finansowane inaczej, to i tak udostępnianie ich efektów w sposób otwarty byłoby korzystne zarówno dla naukowców, jak i dla podmiotów dostarczających środki na ich przeprowadzenie. Również ci ostatni są zainteresowani tym, aby publikacje będące efektem badań przez nich finansowanych trafiały do jak najszerszego kręgu odbiorców i uczestniczyły w dalszym rozwoju wiedzy naukowej.

O sukcesie w nauce decyduje wpływ, jaki naukowiec i jego publikacje wywierają na środowisko akademickie i kolejne prace badawcze. Wpływ ten może być określany na wiele sposobów. Mogą to być mierzalne wskaźniki (np. popularny Impact Factor lub wskaźniki alternatywne), ale także trudne do zmierzenia szacunek i autorytet w środowisku. Niezależnie od tego, jak określa się ten wpływ, szerokie upowszechnienie pracy korzystnie na niego oddziałuje.

Publikacje, do których dostęp jest ograniczony barierami technicznymi, finansowymi lub prawnymi, znajdują się w gorszej pozycji wyjściowej. Co prawda, prestiż wydawnictwa budowany przez dziesięciolecia wciąż jeszcze stanowi rekompensatę – czytelnicy są gotowi pokonać przeszkody, by uzyskać dostęp do tych treści – ale zapewne z każdym rokiem kapitał ten będzie topniał.

Ta właśnie argumentacja za otwartym dostępem przekonała choćby prywatną brytyjską fundację Wellcome Trust [4], która wprowadziła politykę otwartości polegającą na uzależnieniu przyznania grantu od zobowiązania do udostępnienia w sposób otwarty publikacji powstałych dzięki niemu. Sukces fundatora badań naukowych jest ściśle związany z sukcesem finansowanego naukowca, niezależnie od tego, jaki jest status prawny tego pierwszego. Zwracanie nadmiernej uwagi na kwestię finansowania odwraca uwagę od istoty problemu otwartych modeli komunikacji naukowej.

Podobne argumenty mogą znajdować zastosowanie w obszarach innych niż nauka. Dzieła sztuki mogą powstawać za pieniądze pochodzące z różnych źródeł. Jeśli nadrzędnym celem artysty lub fundatora jest jak najszersze upowszechnienie dzieła, to model otwarty skuteczniej doprowadzi do jego osiągnięcia niż modele nastawione na wypracowanie zysku.

„Finansowanie publiczne” w różnych obszarach może oznaczać co innego. Mamy do czynienia z różnymi sytuacjami, gdy przedsięwzięcie finansowane jest całościowo z publicznych pieniędzy, i gdy wsparcie publiczne dotyczy tylko jego części. Podobnie inne mechanizmy funkcjonują w przypadku finansowania ze Skarbu Państwa, a inne, gdy wsparcia udzielają samorządy. Finansowanie publiczne może mieć różne cele, łącznie z inwestycyjnymi. W każdym z tych przypadków otwartość może przybierać różne formy, a nawet zmieniać swoje oblicze. Budując argumentację przekonującą do otwierania treści powstałych za publiczne pieniądze, należy najpierw starannie przeanalizować, na czym to finansowanie polega, jakie są jego cechy i jak wkomponowuje się ono w konkretny obszar. Sprowadzanie problemu do prostego hasła może prowadzić do prób wdrażania rozwiązań oderwanych od rzeczywistości.

 

Podsumowanie
Przynajmniej w dyskusji o otwartych modelach komunikacji naukowej otwartość należy traktować jako cechę, a nie  abstrakcyjne pojęcie. Rozumiana abstrakcyjnie, choć bywa pomocna w wyznaczeniu kierunku działań, może prowadzić do nieporozumień. Posługując się tylko takim pojęciem, trudno jest przedstawić konkretną ofertę dla naukowców szukających narzędzi wspomagających ich pracę i karierę, a niekoniecznie zainteresowanych ideą.

Traktowanie otwartości jako cechy pewnego typu komunikacji naukowej umożliwia lepsze rozpoznanie stanu rzeczy, zarówno obecnego, jak i oczekiwanego. Pozwala na gruntowną analizę systemu nauki i przedstawienie konkretnych, dobrze dopasowanych do rzeczywistości propozycji. Oferta uwzględniająca faktyczne korzyści dla wielu interesariuszy jest skuteczniejsza niż upraszczająca rzecz hasłowość.

Michał Starczewski jest pracownikiem Centrum Otwartej Nauki i doktorantem na Wydziale Historycznym Uniwersytetu Warszawskiego.

 

[1] Por. P. Birkinshaw, Freedom of Information and Openness: Fundamental Human Rights?, "Administrative Law Review" Winter 2006, Vol. 58 Issue 1, s. 177–218, punkt III.C, http://web.b.ebscohost.com/ehost/detail/detail?sid=4945bf04-a5e7-4dc7-b1c1-d6de46cf3bfb%40sessionmgr111&vid=0&hid=128&bdata=JnNpdGU9ZWhvc3QtbGl2ZQ%3d%3d#db=bth&AN=20477744.

[2] R. Stallman, Dlaczego otwartemu oprogramowaniu umyka idea Wolnego Oprogramowania, https://www.gnu.org/philosophy/open-source-misses-the-point.html.

[3] L. Lessig, Wolna kultura, Warszawa 2005, s. 34, http://otworzksiazke.pl/ksiazka/wolna_kultura.

[4] „The Wellcome Trust believes that maximising the distribution of these papers – by providing free, online access – is the most effective way of ensuring that the research we fund can be accessed, read and built upon. In turn, this will foster a richer research culture” – http://www.wellcome.ac.uk/About-us/Policy/Policy-and-position-statements/WTD002766.htm.

 

Otwarty dostęp jest dobry

Michał Starczewski

Eksperyment "Science" dobitnie pokazał, że proces recenzowania, na którym spoczywa ciężar utrzymywania wysokiej jakości pracy badawczej, jest często wadliwy. Przypisywanie winy otwartemu dostępowi jest jednak nieporozumieniem. Źródłem problemów jest raczej tendencja do oceniania dorobku naukowców i przyznawania grantów na badania wyłącznie na podstawie statystyk, w których dwa różne artykuły opublikowane w tym samym czasopiśmie ważą tak samo.

 

W ubiegłym tygodniu jedno z najbardziej prestiżowych czasopism naukowych na świecie, "Science", opublikowało numer specjalny poświęcony komunikacji naukowej. Największe poruszenie wywołał reportaż ze swoistego śledztwa dziennikarskiego, pokazujący nieprawidłowości przy akceptacji tekstów przez redakcje periodyków. Prowokacja redaktora "Science" zainteresowała Piotra Kościelniaka, który opublikował do niej komentarz Jak naukowcy nabrali ignorantów?. Jest to dobra okazja, aby zatrzymać się na chwilę przy zagadnieniu czasopism naukowych.

Wiążą się z nim dwa zagadnienia, które bywają ze sobą mylone. Czytelnicy komentarza Kościelniaka mogą wręcz odnieść wrażenie, że autor utożsamia je ze sobą. Pierwsze zagadnienie to ocena jakości pracy badawczej, a drugie to sposoby, w jakie jej efekty są prezentowane kolejnym naukowcom i, ewentualnie, innym zainteresowanym. W czasach, kiedy niewiele osób zajmowało się nauką, a informacje raczej nie wykraczały poza lokalne podwórko, akademicy mogli pozwolić sobie na śledzenie osiągnięć kolegów ze swojej dyscypliny. Dziś w praktyce jest to możliwe co najwyżej w zakresie bardzo wąskich specjalizacji ze względu na wykładniczy przyrost informacji, także naukowej. Instytucje zarządzające nauką na całym świecie szukają rozwiązania w parametryzacji. Bezpośrednio ocenia się więc liczbę publikacji i liczy się, ile razy zostały one zacytowane. Pośrednio uzyskane w ten sposób liczby mają oddawać jakość pracy: więcej znaczy przyjęcie tekstu przez prestiżowy periodyk i to jego redaktorzy mają stać na straży wysokiego poziomu i rzetelności. Podstawowym narzędziem jest recenzja naukowa. W wzorowej sytuacji recenzenci nie znają nawet nazwiska autora i jego powiązania instytucjonalnego.

Oddzielnym zagadnieniem jest sposób, w jaki publikacje są udostępniane. Przed rozwojem internetu wykształcił się model, w którym badania były finansowane za pieniądze publiczne. Ich efektem były publikacje, do których majątkowe prawa autorskie badacz przekazywał zazwyczaj nieodpłatnie wydawcom. Wydawcy zaś sprzedawali egzemplarze czasopisma głównie bibliotekom, działającym za publiczne pieniądze. W ten sposób podatnik płacił dwa razy. Elektroniczne środki komunikacji sprawiły, że zmieniła się pozycja wydawców w systemie. Mimo że proces wydawniczy stał się prostszy, wydawniczy giganci, tacy jak Elsevier czy Springer, drastycznie podwyższyli opłaty za dostęp do treści naukowych. Rezygnacja z wersji papierowej oznacza, że biblioteki płacą tylko za ograniczony w czasie dostęp. Jeśli zrezygnują z subskrypcji, czytelnicy stracą możliwość korzystania nie tylko z nowych numerów periodyków, ale również z tych treści, do których dostęp był do niedawna wykupiony.

Informacji naukowych jest coraz więcej i stają się one coraz droższe. Skutkiem tego komunikacja naukowa staje się coraz mniej wydolna. Nawet najbogatsze amerykańskie uczelnie nie są w stanie płacić kwot żądanych przez wydawców. Różnica między Uniwersytetem Harvarda, prenumerującym najwięcej czasopism (prawie 100 tys.), a następnym najlepiej zaopatrzonym Uniwersytetem Yale (75 tys. tytułów) wynosi 25%. Pojawia się luka dostępu, której doświadczył chyba każdy naukowiec: artykuły potrzebne do pracy są niedostępne. Oddziela od nich mur horrendalnie wysokich opłat.

Odpowiedzią na ten problem jest tzw. otwarty dostęp (ang. open access). Istotą tej idei jest wykorzystanie tych samych publicznych pieniędzy, które teraz przeznaczone są na kupowanie często ograniczonego w czasie dostępu, na opłacanie kosztów publikacji, które są następnie dostępne nieodpłatnie dla każdego internauty na zawsze. W przypadku badań o dużym potencjale komercyjnym dopuszczalne jest nawet dwunastomiesięczne embargo, pozwalające na gospodarczą eksploatację dorobku naukowego. Coraz więcej instytucji finansujących badania uzależnia przyznanie grantu od zobowiązania do umieszczenia efektów sfinansowanych w ten sposób badań w otwartym dostępie. Najczęściej wymienia się amerykański Narodowy Instytut Zdrowia (NIH). W Programie Ramowym Horyzont 2020, z którego będą finansowane badania w Unii Europejskiej w latach 2014-2020, zapowiadane jest przyjęcie analogicznych rozwiązań. Dzięki zaangażowaniu i znaczeniu CERN, za najbardziej otwartą dziedzinę uchodzi fizyka cząstek elementarnych. Ponad 90% prac z tej dyscypliny jest otwartych. Jedna z największych na świecie pozarządowych fundacji wspierających naukę, Wellcome Trust, wymaga od swoich beneficjentów umieszczania publikacji w otwartym dostępie. Podobne polityki otwartości przyjęło wiele najlepszych uczelni, na czele z Universytetem Harvarda i Massachusetts Institute of Technology. Podsumowując ten wątek: tradycyjnie opłaty ponoszone są „ze strony czytelnika” (za pośrednictwem bibliotek). Nowy model zakłada finansowanie zazwyczaj „ze strony autora”. Choć zdarza się, że autor płaci z własnej kieszeni, to zazwyczaj środki pochodzą od grantodawcy lub pracodawcy. Wiele otwartych czasopism w ogóle nie pobiera opłat. Utrzymywane są przez uczelnie.

Artykuł w "Science" dotyka obu opisanych wyżej zagadnień. Przypomnijmy: John Bohannon napisał pełen bzdur artykuł „naukowy” i wysłał go, zmieniając nieistotne szczegóły, do 304 redakcji otwartych czasopism. Podpisał go fikcyjnym nazwiskiem afrykańskiego naukowca pracującego w wymyślonym instytucie. 157 odpowiedzi było pozytywnych, a wiele nie nosiło śladów choćby najbardziej powierzchownej recenzji. Niewątpliwie taki wynik świadczy o szeroko rozprzestrzenionej patologii.

"Science" sugeruje, że to model otwartości czasopism jest skażony. „Opłaty ze strony autora” zniszczyły jakość. Sugestia ta nie jest jednak tak jednoznaczna, jakby chciał Piotr Kościelak. Nie mogłaby być, wszak samo "Science" otwiera wszystkie swoje artykuły po 12 miesiącach, a w pewnym zakresie pozwala na dostęp w przypadku takiego wymogu ze strony instytucji przyznającej grant. Sam tytuł artykułu mówi o recenzowaniu, a nie o sposobie udostępniania (Who's Affraid of Peer Review?). Szkoda, że Bohannon nie zastawił sideł na czasopisma udostępniane w tradycyjnym, płatnym modelu. Wytłumaczenie, że w ich przypadku czeka się znacznie dłużej na odpowiedź, co notabene sygnalizuje problem ślamazarności procesu wydawniczego, nie w pełni satysfakcjonuje.

Ciekawe jest, na co zwraca uwagę "Science", geograficzne rozmieszczenie redakcji. Indie i Środkowa Afryka to, jak się okazuje, centra gromadzące patologiczne czasopisma. Kraje rozwijające się jawią się jako otoczenie sprzyjające nie tylko niskim standardom, ale nawet oszustwom. Za przykład niech służy "American Journal of Medical and Dental Sciences". Wbrew nazwie wskazującej na amerykańską proweniencję, czasopismo to założone zostało w Pakistanie. Eksperyment potwierdził, że tzw. lista Jeffreya Bealla skutecznie wskazuje „pasożytnicze” czasopisma, które nie przestrzegają naukowych norm. Nie jest to jednak argument przeciwko otwartemu dostępowi, który daje szansę racjonalizacji wydatków na naukę i pozwala osobom spoza środowisk akademickich dowiadywać się z pierwszej ręki, czym zajmują się naukowcy i z jakim skutkiem.

Warto zwrócić uwagę na polski aspekt „śledztwa”. Bohannon wysłał swój tekst także do czasopism znad Wisły. Z ulgą możemy zauważyć, że wszystkie ominęły zastawioną pułapkę. Co prawda próbka czterech tytułów nie jest w pełni reprezentatywna, ale stawia nasz kraj w dobrym świetle. Mimo mniej lub bardziej uzasadnionego narzekania na chroniczny niedobór pieniędzy i mizerny poziom, polskie środowisko naukowe należy do zachodniej kultury akademickiej.

Eksperyment "Science" dobitnie pokazał, że proces recenzowania, na którym spoczywa ciężar utrzymywania wysokiej jakości pracy badawczej, jest często wadliwy. Przypisywanie winy otwartemu dostępowi jest jednak nieporozumieniem. Otwartość zwiększa transparentność. Źródłem problemów jest raczej tendencja do oceniania dorobku naukowców i przyznawania grantów na badania wyłącznie na podstawie statystyk, w których dwa różne artykuły opublikowane w tym samym czasopiśmie ważą tak samo. Ludzie zachowują się racjonalnie. Gdy sponsor badań, zazwyczaj państwo, oczekuje dużej liczby artykułów, a pytany o ich jakość odsyła do redakcji czasopism, to naturalną reakcją jest chęć zaspokojenia tych oczekiwań. „Pasożytnicze” czasopisma domykają ten system bazujący na fikcji.

Naszkicowanej wyżej karykaturalnej formie parametryzacji obojętne jest, w jaki sposób udostępniane jest czasopismo: w modelu płatnym lub otwartym. Kolejne numery „pasożytów” powstają przecież nie po to, aby je ktokolwiek czytał. Odhaczenie kolejnej publikacji po prostu pozwala doliczyć sobie punkty w tabelkach. "Science" pokazało patologiczną tendencję w procedurze recenzowania tekstów naukowych. Najprostszym lekarstwem, które pozwoli wyjść ze stanu chorobowego, jest lektura. Komu opłaca się jednak czytać, gdy wszyscy znajdujemy się pod nieustanną presją produkowania treści?

Michał Starczewski jest pracownikiem Centrum Otwartej Nauki i doktorantem na Wydziale Historycznym Uniwersytetu Warszawskiego.

 

Wiedza jako dobro publiczne — konsekwencje ekonomiczne

Agnieszka Witoń

Fakt, iż wiedza posiada właściwości dóbr publicznych, ma poważne implikacje dla procesu jej produkcji i dystrybucji. Rynek nie radzi sobie z dobrami publicznymi w sposób efektywny. Podstawowym problem są trudności, jaki napotyka producent lub dystrybutor danego dobra podczas prób kontrolowania jego wtórnej dystrybucji. Wtórna dystrybucja oznacza, że producent nie odnosi wyższych zysków pomimo większej liczby osób korzystających z dobra. Taka sytuacja sprawia, że zachęty ekonomiczne do produkcji tego dobra są niskie i przez to nieskuteczne. Może to powodować niewykształcenie się rynku tego dobra, wykształcenie się rynku nieefektywnego bądź też nawet konieczność zaangażowania się państwa w produkcję i dystrybucję danego dobra.

 

Na gruncie ekonomicznym wiedza bywa często rozpatrywana na dwa sposoby: jako informacje bądź jako aktywa. W pierwszym przypadku traktowana jest jako zbiór informacji – przetwarzanych a następnie wykorzystywanych w modelach ekonomicznych w celu podejmowania racjonalnych decyzji dotyczących procesów gospodarczych. W drugim ujęciu wiedza stanowi z kolei aktywa biorące udział w procesie produkcji. Nie wszyscy badacze zgadzają się z takim dość umownym podziałem, jednak świadome pomijam tutaj kwestie wzajemnego stosunku wiedzy, informacji i danych czy też samego podziału wiedzy. Warto natomiast podkreślić istotne w kontekście ekonomicznym cechy wiedzy, do których należą:

– dominujący charakter – na wiedzy opiera się przewaga konkurencyjna podmiotu gospodarczego, spełnia ona rolę nadrzędną w stosunku do innych zasobów;
– niewyczerpywalność – wiedza nie zużywa się, jej wartość wzrasta im bardziej jest ona wykorzystywana;
– niematerialność – sama w sobie wiedza nie ma postaci materialnej, materialny może być nośnik lub produkt wiedzy;
– symultaniczne występowanie – wiedza jest zasobem, który może być wykorzystywany jednocześnie w wielu miejscach lub przez wiele osób i organizacji;
– nieliniowy, nieciągły charakter – taka sama ilość wiedzy w różnych kontekstach może mieć różne efekty, nie zawsze występują efekty skali.

Powyższe cechy wiedzy sprawiają, że zalicza się ją do grupy dóbr publicznych. Noblista Joseph Stiglitz wśród globalnych dóbr tego rodzaju wymienia: międzynarodową stabilność gospodarczą, międzynarodowe bezpieczeństwo, środowisko globalne, międzynarodową pomoc humanitarną oraz właśnie wiedzę. Raz wytworzona wiedza nie zmniejsza swojej wartości, kiedy coraz to nowe osoby z niej korzystają: dzielenie się wiedzą nie sprawia, że przestajemy ją posiadać, jest więc ona dobrem niekonkurencyjnym. Na podobnej zasadzie nie da się wykluczyć kogoś z posiadania wiedzy – jeżeli dotarła ona do określonego podmiotu, to nie jest możliwe wykluczenie go z korzystania z tej wiedzy. Rolę dobra publicznego spełnia też informacja, nad którą rozważań nie sposób oddzielić od rozważań nad wiedzą.

Użyteczność wiedzy jako dobra wynika z jej wielu funkcji i charakterystyk. Oczywistą zaletą jest rola, jaką odgrywa ona we wzroście gospodarczym poprzez tworzenie nowych technologii, produktów czy sposobów produkcji. Kumulacja wiedzy w społeczeństwie zwiększa jego dobrobyt, między innymi poprzez podnoszenie standardu życia dzięki coraz to lepszym i tańszym urządzeniom, skuteczniejszej i powszechniejszej szeroko pojmowanej ochronie zdrowia oraz edukacji dostępnej -– dzięki metodom e-learningu – dla osób, które wcześniej nie miały takiej możliwości. Nie mniej ważny jest też fakt, iż wartość wiedzy nie tylko nie zmniejsza się podczas jej konsumpcji, ale także w wielu przypadkach wzrasta w miarę jej używania. Doskonałym przykładem są tu otwarte bazy danych. Dzięki temu, iż może korzystać z nich duża grupa ludzi, ich użyteczność stale rośnie: dane zawarte w bazie są sprawdzane, poprawiane, uaktualniane. Wartość tych danych zwiększa się poprzez dzielenie się nimi z innymi badaczami. Wiedza w sposób kumulatywny tworzy zatem nową wiedzę; bez badań podstawowych niemożliwe byłyby badania stosowane i prace rozwojowe, których owocem są innowacje. Z odkryć wynikają kolejne odkrycia, które otwierają przed naukowcami nowe możliwości wykorzystania dotychczas nabytej wiedzy.

Schemat kumulacji wiedzy
Schemat kumulacji wiedzy (opracowanie własne)

Wiedza, technologie i innowacje mają też charakter komplementarny – w połączeniu z innymi technologiami czy innowacjami ich wspólna wartość jest większa niż suma ich wartości z osobna.

Fakt, iż wiedza posiada właściwości dóbr publicznych, ma poważne implikacje dla procesu jej produkcji i dystrybucji. Rynek nie radzi sobie z dobrami publicznymi w sposób efektywny. Podstawowym problem są trudności, jaki napotyka producent lub dystrybutor danego dobra podczas prób kontrolowania jego wtórnej dystrybucji. Wtórna dystrybucja oznacza, że producent nie odnosi wyższych zysków pomimo większej liczby osób korzystających z dobra. Taka sytuacja sprawia, że zachęty ekonomiczne do produkcji tego dobra są niskie i przez to nieskuteczne. Może to powodować niewykształcenie się rynku tego dobra, wykształcenie się rynku nieefektywnego bądź też nawet konieczność zaangażowania się państwa w produkcję i dystrybucję danego dobra.

W celu rozwiązania problemu produkcji i dystrybucji tak specyficznego dobra, jakim jest wiedza, podejmowane są próby pozbawienia jej cech dobra publicznego, a przynajmniej ograniczenia ich na tyle, aby można jej było przypisać także część cech dóbr prywatnych. Szeroko stosowanym sposobem osiągnięcia tego celu jest ochrona własności niematerialnych, która nadaje produktom wiedzy możliwość wykluczenia z konsumpcji osób, które nie zapłaciły za jej nabycie.

Systemy ochrony wartości niematerialnych różnią się w poszczególnych krajach, jednak ogólnie można wymienić następujące metody:
– patenty,
– prawa autorskie,
– tajemnica handlowa,
– przewaga wynikająca z bycia pierwszym we wprowadzeniu produktu na rynek.

Patenty i prawa autorskie to prawne sposoby ochrony wartości niematerialnych. Tajemnica handlowa może mieć podstawy prawne, gdy przyjmuje formę klauzul w umowie, ale może też bazować na faktycznie niemożliwym do wyegzekwowania w sensie prawnym utrzymywaniu tajemnicy dotyczącej technologii czy know-how stosowanych w przedsiębiorstwie. Pozycja pierwszego producenta danego dobra jest ochroną wartości niematerialnych nie w sensie prawnym, a w sensie ekonomicznym. Taki przedsiębiorca osiąga przewagę innowatora, która pozwala mu osiągać nadzwyczajne zyski przez pewien okres czasu. Okres ten kończy się, gdy imitatorzy skopiują stosowaną technologię, przystosują swoje linie produkcyjne i wypuszczą na rynek konkurencyjne produkty. Długość tego okresu, a więc wielkość przewagi, zależy między innymi od branży, zaawansowania technologicznego produktu oraz zasobów dostępnych konkurentowi.

System ochrony wartości niematerialnych ma współcześnie charakter globalny, między innymi ze względu na działalność organizacji takich jak WTO, której częścią jest TRIPS (Porozumienie w Sprawie Handlowych Aspektów Praw Własności Intelektualnej) oraz WIPO (Światowa Organizacja Własności Intelektualnej) – jedna z organizacji wyspecjalizowanych ONZ. Ciągłe wzmacnianie tej ochrony może mieć jednak skutki negatywne, które najbardziej dotykają kraje rozwijające się, nie zawsze mogące sobie pozwolić na zakup drogiej, acz niezbędnej do rozwoju wiedzy. Warto też wspomnieć o obawach dotyczących tzw. karteli technologicznych, których lobbyści wywierają silny nacisk na podmioty tworzące regulacje. Z drugiej strony, wśród zalet silnej globalnej ochrony własności intelektualnej wymienia się możliwość intensywniejszych innowacji lokalnych oraz transfer technologii w postaci bezpośrednich inwestycji zagranicznych i licencji.

Najbardziej typowy sposób ochrony własności intelektualnej to patent. Jest on niczym innym jak nadanym przez władzę monopolem na wykorzystywanie w działalności gospodarczej określonej technologii. Z reguły na początku posiada go twórca technologii, ale może go on również sprzedać. Taka możliwość stwarza nowy rynek, jednak często nabywcami patentów są podmioty chcące czerpać z niego korzyści nie poprzez wykorzystywanie technologii w działalności gospodarczej, lecz poprzez sądowe egzekwowanie swoich praw, gdy inny podmiot narusza ich monopol. Powoduje to nieefektywność rynkową, gdyż dana technologia nie jest wykorzystywana czy rozwijana. Innym problemem związanym z patentami jest fakt nieuznawania przez niektóre innowacyjne przedsiębiorstwa tego rodzaju ochrony własnej technologii za wystarczającą. Zatrzymują więc część informacji dla siebie, co dodatkowo ogranicza dostępność wiedzy w ujęciu ogólnospołecznym. Patenty opóźniają też publikację wyników badań, które są ich podstawą   – proces patentowy trwa pewien okres czasu, a innowator nie chce ryzykować upubliczniania swojej wiedzy, zanim będzie ona chroniona. Z mikroekonomicznego punktu widzenia nieefektywność patentu jako monopolu wyraża się w niższej produkcji i wyższej cenie dobra w porównaniu z systemem wolnorynkowym. Utracony potencjał (wynikający z niezrealizowanej, ale możliwej produkcji) jest nazywany stratą społeczną.

Sytuacja taka występuje w przypadku patentów, ale można ją też rozciągnąć na wszystkie sposoby ochrony własności intelektualnej. Każdy z nich powoduje bowiem, że wiedza czy też jej produkt nie jest dostępny dla wszystkich zainteresowanych. W przypadku dobra o tak dużych pozytywnych efektach zewnętrznych strata ta jest szczególnie dotkliwa dla społeczeństwa, ponieważ znacząco obniża potencjalny dobrobyt. Wydawałoby się więc, że ochrona wartości niematerialnych jest niepotrzebna, a nawet niepożądana. Trzeba jednak pamiętać, że bez tej ochrony wiedza na powrót stałaby się czystym dobrem publicznym, a w rezultacie przedsiębiorcy mieliby bardzo niską motywację do jej produkcji. Ochrona własności intelektualnej stanowi zatem zachętę ekonomiczną, dając w niektórych przypadkach możliwość osiągnięcia nawet nadzwyczajnych zysków.

Powstaje tutaj dylemat: czy pozwolić raczej na zaistnienie straty społecznej, czy też ryzykować wycofanie się przedsiębiorców z sektora wiedzy? Właściwie w obu przypadkach grozi niewystarczająca podaż wiedzy. Aby rozwiązać ten dylemat, należy zadać sobie pytania o to, która sytuacja jest groźniejsza (tj. która bardziej wpływa na zmniejszenie podaży wiedzy), oraz o to, czy ochrona prawna własności intelektualnej to jedyny sposób na zachęcenie przedsiębiorstw do podejmowania działalności innowacyjnej.

Odpowiedź na pierwsze pytanie nie jest jednoznaczna, gdyż zależy od wielu zmiennych. Konieczne jest jednak podkreślenie, iż postępująca prywatyzacja wiedzy skutkująca ograniczeniami dostępu zarówno do niej samej, jak i informacji stawia na straconej pozycji instytucje nierynkowe, które tradycyjnie odgrywały istotną rolę w tworzeniu nowych produktów wiedzy. Ważnym elementem dyskusji jest też dwojaki charakter wiedzy – może ona być traktowana jako dobro finalne, konsumpcyjne, ale jednocześnie wiele z produktów wiedzy jest też dobrem pośrednim, produkcyjnym. Wiedza tworzy nową wiedzę, dlatego jej ograniczenie będzie miało podwójnie negatywne skutki.


Odpowiadając na drugie pytanie, należy zauważyć, że podejmowane są różne inicjatywy mające na celu optymalizację produkcji i dystrybucji wiedzy. Jedną z nich jest przejmowanie przez państwo produkcji mało opłacalnych z punktu widzenia przedsiębiorstw produktów wiedzy, jak dzieje się to czasami m.in. w przypadku leków na tzw. zapomniane choroby. Korzyści społeczne osiągane dzięki tym produktom są większe niż koszty, które musi w tym wypadku pokryć społeczeństwo w postaci podatków. Innym rozwiązaniem są porozumienia przedsiębiorstw w sprawie wymiany patentów, pozwalające na szerszy i bardziej dynamiczny rozwój technologii, ale które bywają niekiedy oskarżane o naruszanie praw antymonopolowych poprzez tworzenie quasi-karteli. Kolejną z proponowanych inicjatyw jest partnerstwo publiczno-prywatne. Ciekawym rozwiązaniem jest też system funduszy nagród. Polega on na nagradzaniu innowatora przez państwo i przekazaniu innowacji do domeny publicznej. W ten sposób zachowywana jest ekonomiczna zachęta dla przedsiębiorców do podejmowania działalności innowacyjnej – nagrody bywają na tyle atrakcyjne, że innowatorzy skłonni są zrezygnować z czerpania zysków z prywatyzacji wiedzy. Wysokość nagrody może zależeć przykładowo od poziomu sprzedaży danej innowacji; mogą one być przyznawane bezpośrednio przez państwo lub przez wyspecjalizowaną instytucję. Oczywiście system ten ma wady: problemem jest adekwatna wycena nagradzanej innowacji oraz zagrożenie, że polityka będzie wpływać na decyzje dotyczące przyznawania nagród, jednak jednoczesne zachowanie zachęt ekonomicznych i eliminacja straty społecznej powstającej przez istnienie w sektorze wiedzy monopoli wydaje się silnym argumentem przemawiającym za tym systemem. Szczególnie pozytywnie badacze wypowiadają się na temat rozwiązania pozwalającego na wybór preferowanej opcji –  prywatyzacji stworzonej wiedzy lub oddania jej do domeny publicznej w zamian za odpowiednią nagrodę.

Kolejny segment systemu ochrony własności intelektualnej (dotyczący m.in. nieporuszanych tu wcześniej publikacji naukowych), bazujący na prawach autorskich, podobnie jak system patentowy daleki jest od rozwiązania perfekcyjnego. Problem ekonomiczny (pomijamy tu problem praw osobowych i plagiatów) dotyczy autorskich praw majątkowych, a dokładniej rzecz ujmując – cedowania tych praw przez badaczy lub instytucje naukowe na komercyjnych wydawców. Właściwie cały świat akademicki opiera się na systemie publikacji wyników badań w czasopismach naukowych. Oprócz prezentacji osiągnięć badawczych czasopisma naukowe spełniają też funkcję oceniającą – często na bazie liczby artykułów opublikowanych w najbardziej prestiżowych periodykach oceniany jest dorobek badacza lub uczelni wyższej.

Podobnie jak patenty, także czasopisma naukowe są formą prywatyzacji wiedzy, a przynajmniej dotyczy to ich większości, która nie oferuje otwartego dostępu do treści. Z reguły działają one poprzez system subskrypcji, zarówno dla użytkowników indywidualnych, jak i instytucjonalnych. Ten model jest obecnie częstym przedmiotem krytyki w środowisku naukowym, głównie ze względu na wysoką cenę subskrypcji (zwłaszcza w porównaniu do kosztów ponoszonych przez wydawców). Rosnące szybciej niż inflacja koszty dostępu do czasopism naukowych w znaczący sposób obciążają budżety instytucji naukowych, jeżeli nie są one przynajmniej w części ponoszone przez państwo.

Innym często podejmowanym argumentem na rzecz otwartego dostępu do publikacji naukowych jest pochodzenie środków finansowych, dzięki którym przeprowadzane są badania. Skala publicznego fundowania badań naukowych różni się między krajami, jednak można pokusić się o generalne stwierdzenie, że rola publicznie finansowanych badań jest duża. Nasuwa się tu więc podstawowe pytanie: dlaczego wyniki takich badań nie są ogólnie dostępne? Społeczeństwo jest w ten sposób zmuszane do podwójnego płacenia za wiedzę – raz w formie podatków przeznaczanych na rozwój nauki, a drugi raz w postaci subskrypcji czasopism naukowych. Z ekonomicznego punktu widzenia sytuacja ta jest przykładem nieefektywnego wykorzystania zasobów, gdyż finanse te mogłyby zostać przeznaczone na dalsze badania.

Model zamknięty ma też inne wady. Wynika z niego większe ryzyko powtarzania tych samych badań w różnych ośrodkach, ponieważ brakuje odpowiedniej komunikacji i koordynacji. Ograniczenie dostępu do wyników badań przeprowadzonych już wcześniej w innych ośrodkach zwiększa koszty prowadzenia nowych badań. Czas publikowania wyników jest stosunkowo długi, przez co dyskusja nad danym zagadnieniem opóźnia się i przeciąga; podobnie jest z wdrażaniem wyników badań. Co więcej, informacja zawarta w artykule naukowym jest przetwarzana przez redaktora – pojawia się tu zagrożenie utraty części wartości poprzez nieadekwatną edycję, niezgodną z zamierzeniami autora.

Alternatywą dla modelu zamkniętych czasopism naukowych jest otwarty dostęp, czyli model wolnego, powszechnego i natychmiastowego dostępu do artykułów naukowych, monografii i innych produktów wiedzy za pomocą Internetu. Pod względem prawnym otwarty dostęp może przybierać różne formy. Materiały dostępne w modelu otwartym nie należą do domeny publicznej, ponieważ twórcy nie zrzekają się swoich praw autorskich; zazwyczaj publikacje w otwartym dostępie wykorzystują tzw. wolne licencje.

Otwarty model dostępu do artykułów naukowych jest uważany przez wielu za lepszy od modelu zamkniętego. Po pierwsze, daje on możliwość powiększenia grupy odbiorców wyników badań. Może to dotyczyć niezależnych badaczy, którzy mogą mieć problemy z dostępem do artykułów w zamkniętych czasopismach. Otwarty dostęp sprawia, iż nie znajdują się oni na peryferiach świata naukowego, a w przypadku niektórych dziedzin mogą wręcz stanowić jądro danej społeczności. Kolejną grupą, która może zyskać na otwarciu dostępu do wyników badań naukowych, a o której nie mówi się często w tym kontekście, są nauczyciele. Poszerzanie przez nich wiedzy będzie skutkować wyższą jakością edukacji, i co za tym idzie – kapitałem ludzkim o wyższych umiejętnościach i studentami lepiej przygotowanymi do późniejszej pracy zawodowej. Zresztą studenci również skorzystają z otwartych repozytoriów w sposób bezpośredni, gdyż nie zawsze biblioteka ich szkoły wyższej jest w stanie zapewnić dostęp do odpowiedniej liczby czasopism działających w systemie subskrypcji. Dostęp do wyników badań przyniesie też znaczne korzyści sektorowi małych i średnich przedsiębiorstw. Badania Komisji Europejskiej wykazały, że przedsiębiorstwa z tego sektora, które nie mają dostępu do najnowszych wyników badań, potrzebują nawet do dwóch lat więcej na wprowadzenie innowacji produktowych. Nie można też zapominać o korzyściach, jaki odniesie ogół społeczeństwa – otwarty dostęp to kamień milowy w tworzeniu społeczeństwa wiedzy.

Otwarty dostęp do wiedzy wpływa też na podwyższanie jej jakości. Jak już wspomniano wcześniej, wiedza ma tę właściwość, że wraz z jej używaniem wzrasta jej wartość. Wynika to między innymi z procesu oceny, recenzji, krytyki i analizy. Artykuły w modelu otwartym pozwalają w większym zakresie niż standardowe, zamknięte czasopisma na publiczną dyskusję nad opublikowanymi wynikami badań oraz samą organizacją tych badań. Dyskusja publiczna na większą skalę pozwala z kolei na wielopłaszczyznową i wieloaspektową analizę i interpretację wyników, co ma wpływ na dalszy rozwój nauki poprzez sformułowanie kolejnych obszarów wymagających uwagi badaczy. Ważne jest też skrócenie czasu, jaki upływa pomiędzy powstaniem artykułu, a jego upublicznieniem, cytowaniem i ewentualnym wdrożeniem wyników badań.

Warto też wspomnieć, że łatwiejszy dostęp do wyników badań oznacza szerszą rozpoznawalność autora danego artykułu naukowego, więc jest niejako sposobem prezentacji i promocji dorobku naukowego badacza. Promocja ta dotyczy również instytucji naukowej, z którą powiązany jest autor (lub autorzy) artykułu. Co więcej, efekt promocyjny oddziałuje też na przedmiot badań w tym sensie, że jego większa ekspozycja sugeruje aktualność problemu oraz jego relewantność. Otwarty dostęp do określonych obszarów wiedzy może więc być narzędziem popularyzacji obszarów badań uznanych za szczególnie istotne ze społecznego punktu wiedzenia. Trzeba przecież wziąć pod uwagę, że w grupie odbiorców artykułu może znaleźć się podmiot, który będzie zainteresowany finansowaniem dalszych badań w wyznaczonym przez artykuł kierunku; tak więc im szerszy krąg odbiorców, tym większe szanse zauważenia danego problemu i podjęcia kroków ku jego rozwiązaniu.

Zalety otwartego dostępu są niezaprzeczalne, ale wbrew pozorom model ten nie jest jeszcze tak popularny w środowisku naukowym, jak wynikałoby to z jego charakterystyki. Wolny dostęp do danych czy artykułów naukowych to wolny dostęp do produktów wiedzy, a żadne dobro, które jest wolne, nie może być sprzedawane. Jeśli przedsiębiorcy w sektorze wiedzy nie mogą czerpać korzyści ze sprzedaży produktów, to nie będą tych produktów dostarczać na rynek. Wracamy w tym momencie do zarysowanego już wcześniej problemu obecności dóbr publicznych na rynku. Ogólnospołeczne zalety otwartego dostępu do wiedzy w postaci artykułów naukowych i danych sprawiają, że oczy zwracają się ku silniejszym podmiotom, będącym w stanie zapewnić taki dostęp. Chodzi oczywiście o struktury państwowe, które według niektórych nie tyle mogą zapewnić dostęp do wiedzy, ile wręcz mają taki obowiązek.

Debata dotycząca modelu otwartego i roli państwa w zapewnianiu wolnego dostępu do produktów wiedzy toczona jest aktualnie w wielu krajach. W Stanach Zjednoczonych przygotowywane są projekty otwartego dostępu do wyników badań finansowanych z funduszy publicznych; problem ten znajduje się również w kręgu zainteresowań Unii Europejskiej. Postanowienia dotyczące modelu otwartego można znaleźć m.in. w programach: Europejska Agenda Cyfrowa, Unia Innowacji oraz Horyzont 2020. Inicjatywy te muszą być oceniane jako wartościowe, bo jest o co walczyć. Według badań Johna Houghtona i Petera Sheehana z 2006 roku, krajowe wydatki na prace badawczo-rozwojowe przynoszą zwrot społeczny na poziomie 50%, a otwarty dostęp zwiększa efektywność tych wydatków o dodatkowe 5%. Inne badania szacują zwrot społeczny krajowych wydatków na badania i rozwój jedynie na poziomie 25%, ale otwarty dostęp dla badań fundowanych ze środków publicznych nadal przynosi znacznie większe korzyści niż koszty – nawet 50 razy większe.

Rozważając współczesny świat naukowy trzeba zwrócić uwagę na dominujące w XXI wieku trendy. Zmieniają się treści naukowe – ich forma i sposoby udostępniania. Poza tradycyjnymi kanałami komunikacji naukowcy korzystają z blogów, forów, portali tematycznych i społecznościowych. Duża część współpracy, wymiany poglądów i koordynowania projektów odbywa się wirtualnie, za pomocą narzędzi sieciowych. Rola Internetu i technologii informacyjno-komunikacyjnej w ogóle w rozwoju i popularyzacji nauki jest nie do przeszacowania. Zwiększa się grupa odbiorców treści naukowych – można wręcz niekiedy mówić o nauce obywatelskiej, partycypacyjnej. W sytuacji ogromnej ilości danych czekających na analizę logiczne jest, że nauka wychodzi poza mury instytucji naukowych; kooperacja społeczna staje się sposobem na rozwiązywanie problemów, z którymi nie radzi sobie indywidualny badacz lub grupa badawcza. Zmieniające się środowisko wymaga zmiany modelu udostępniania treści naukowych. Modelem odpowiadającym współczesnym warunkom jest otwarty dostęp do zasobów sieciowych, który zwiększa efektywność i jakość procesów badawczych. Będzie to skutkować charakterystycznym dla gospodarki opartej na wiedzy przyspieszeniem procesów innowacyjnych i wdrażaniem produktów wiedzy w działalności gospodarczej, gdyż wydajny, skuteczny i konkurencyjny system innowacji nie może istnieć bez efektywnego zaplecza naukowego. Badania podstawowe i stosowane przeprowadzane w instytucjach naukowych są fundamentem prac rozwojowych podejmowanych w przedsiębiorstwach. Co więcej, otwarty dostęp do publikacji naukowych, wyników badań i danych pozwala na angażowanie społeczeństwa w procesy naukowe i innowacyjne. Społeczeństwo może aktywnie brać udział w procesach badawczych, może też pasywnie obserwować rozwój nauki, co sprzyja przejrzystości zwłaszcza w przypadku badań finansowanych z pieniędzy publicznych. Doskonale współgra to z koncepcją społeczeństwa wiedzy, które jest zarówno warunkiem rozwoju, jak i elementem gospodarki wiedzy, jej bliźniaczym konceptem.

 

WitonAgnieszka - Copy

Agnieszka Witoń - absolwentka Zarządzania oraz Ekonomii (spec. ekonomia międzynarodowa) na Uniwersytecie Jagiellońskim. Obecnie doktorantka na Wydziale Ekonomii i Stosunków Międzynarodowych na Uniwersytecie Ekonomicznym w Krakowie. Obszary zainteresowań: procesy innowacyjne w gospodarce, gospodarka oparta na wiedzy, racjonalność podmiotu gospodarującego, nierówności społeczno-ekonomiczne, teorie wzrostu gospodarczego oraz bezpośrednie inwestycje zagraniczne.

 

Additional information