Literatura naukowa jest pomostem od informacji do wiedzy

Wierzymy, że nowatorskie narzędzia i aplikacje służące do maszynowej analizy tekstu i danych (text and data mining) pozwolą nam wzbogacić udostępniane przez nas treści i zmienią sposób, w jaki czytelnicy korzystają z literatury naukowej. Z tego względu staramy się budować Europe PMC na zasadach otwartej platformy innowacyjnej, umożliwiając twórcom – na przykład osobom zajmującym się maszynową analizą tekstów albo rozwojem oprogramowania – by prezentowali efekty swoich prac.

Maria Levchenko odpowiada za komunikację Europe PubMed Central, ogólnoświatowej bazy publikacji naukowych dotyczących badań biomedycznych i nauk o życiu, partnera PubMed Central International.

 

Marta Hoffman-Sommer: Europe PubMed Central (Europe PMC) to repozytorium publikacji z obszaru nauk o życiu. Jakie są najważniejsze cele Europe PMC? Czym różni się to repozytorium od serwisów PubMed i PubMed Central? Czy z punktu widzenia europejskiego naukowca korzystanie z Europe PMC ma jakieś przewagi nad korzystaniem z innych serwisów?

Misją Europe PMC jest stworzenie otwartego, pełnotekstowego zasobu literatury naukowej i dostarczenie użytkownikom światowej klasy serwisu do jego obsługi. Wierzymy, że nowatorskie narzędzia i aplikacje służące do maszynowej analizy tekstu i danych (text and data mining) pozwolą nam wzbogacić udostępniane przez nas treści i zmienią sposób, w jaki czytelnicy korzystają z literatury naukowej. Z tego względu staramy się budować Europe PMC na zasadach otwartej platformy innowacyjnej, umożliwiając twórcom – na przykład osobom zajmującym się maszynową analizą tekstów albo rozwojem oprogramowania – by prezentowali efekty swoich prac.

Europe PMC należy do inicjatywy PubMed Central International (PMCI). Wspólnie z PMC USA i PMC Canada tworzymy sieć cyfrowych archiwów, których zadaniem jest zapewnienie wszystkim darmowego dostępu do opublikowanej, recenzowanej literatury naukowej z obszaru nauk o zdrowiu i nauk biomedycznych. W ramach tej sieci wymieniamy się zasobami – lokalnie deponowanymi tekstami artykułów – a jednocześnie każde archiwum oferuje swoim użytkownikom inne funkcjonalności. Europe PMC łączy w sobie zalety zarówno PubMed jak i PubMed Central, bo działamy w modelu one-stop shop, oferując dostęp zarówno do abstraktów, jak i do pełnych tekstów artykułów poprzez wspólny interfejs wyszukiwania. Poza tym Europe PMC udostępnia treści bardzo różnego rodzaju, takie jak na przykład książki, patenty, prace dyplomowe z nauk biomedycznych i zalecenia diagnostyczno-lecznicze. Oprócz 27 milionów abstraktów z PubMed, Europe PMC uwzględnia również dodatkowe źródła danych, takie jak Chinese Biological Abstracts oraz  Agricola records, dzięki czemu osiąga w sumie 32 miliony abstraktów. Europe PMC różni się od PubMed Central także tym, że oferuje kilka nowych funkcjonalności, w tym zaawansowane narzędzia do maszynowej analizy tekstu i danych, integrację identyfikatorów ORCID – unikalnych identyfikatorów nadawanych przez fundację ORCID, służących do jednoznacznej identyfikacji autorów naukowych, oraz funkcję Grant Finder, która pozwala dotrzeć do informacji dotyczących grantów przyznawanych przez 27 instytucji z całego świata finansujących badania z obszaru nauk o życiu, które wspierają Europe PMC. Informacje o nowych funkcjonalnościach są podawane na blogu Europe PMC.

Prezentowane w Europe PMC treści nie są w żaden sposób ograniczone geograficznie i zawierają literaturę naukową ze wszystkich części  globu. Mamy nadzieję, że naukowcy z całego świata będą korzystać z naszych usług.

Czy są jakieś związki pomiędzy Europe PMC i OpenAIRE (albo innymi e-infrastrukturami naukowymi w Europie)? Czy prowadzona jest wymiana danych i/lub metadanych?

Europe PMC jest największym dostarczycielem danych w infrastrukturze OpenAIRE, dostarczamy ponad 3.8 milionów dokumentów. OpenAIRE korzysta ponadto z otwartego API i innych publicznych narzędzi Europe PMC w celu identyfikowania wyników badań finansowanych z programów 7PR i Horyzont 2020, oraz żeby zbierać powiązane z nimi metadane. Poza tym prowadzony przez Europe PMC serwis External Links Service jest wykorzystywany przez OpenAIRE i inne podobne infrastruktury do linkowania rekordów z Europe PMC z innymi źródłami, na przykład z pełnymi tekstami artykułów, które OpenAIRE pobiera z innych repozytoriów.

W jaki sposób konkretne treści trafiają do Europe PMC? Czy każdy autor artykułu z obszaru nauk o życiu – który chciałby, aby jego prace były bardziej widoczne – może samodzielnie zdeponować swój artykuł w Europe PMC? Jeżeli nie, to jakie wymagania musiałby spełnić i dlaczego?

Jest kilka sposobów na to, by artykuł trafił do Europe PMC. Jeżeli wydawca czasopisma jest pełnoprawnym członkiem Europe PMC, to sam deponuje całą zawartość każdego numeru lub tomu, a w przypadku czasopism hybrydowych deponuje te artykuły, które są publikowane w otwartym dostępie.

Instytucje grantowe należące do grupy Europe PMC Funders' Group nakładają na swoich grantobiorców zobowiązanie, zgodnie z którym wszystkie opublikowane wyniki naukowe, uzyskane dzięki finansowaniu z ich grantów, muszą być dostępne w Europe PMC, zazwyczaj nie później niż 6 miesięcy po opublikowaniu. Tak więc każdy naukowiec, który uzyskał finansowanie od co najmniej jednej instytucji z grupy  Europe PMC Funders, może zdeponować ostateczną (po recenzjach) wersję swojego manuskryptu poprzez serwis Europe PMC plus. Niektórzy wydawcy sami deponują ostateczne, porecenzyjne wersje manuskryptów w imieniu swoich autorów, jeżeli w artykule jako źródło finansowania podane są środki od którejś z instytucji należących do grupy.

Jeżeli więc konkretny naukowiec chciałby, żeby jego artykuł był dobrze widoczny, to najprostszym rozwiązaniem jest wybranie otwartego czasopisma, które jest członkiem PMC – wtedy pełny tekst artykułu automatycznie trafi do Europe PMC. Lista czasopism, które mają podpisaną z PMC umowę członkowską, jest dostępna tutaj.

W jaki sposób Europe PMC wzbogaca prezentowaną literaturę naukową?

Uważamy, że literatura tworzy pomost dla szerszych infrastruktur naukowych, pomagając w łączeniu powiązanych informacji i ułatwiając przekształcanie ich w wiedzę. Aby zrealizować tę wizję, skupiamy się na trzech głównych kierunkach: usługach dla autorów, integracji danych i maszynowej analizie tekstu.

Blisko współpracujemy z fundacją ORCID aby zapewnić, że każdy artykuł jest poprawnie powiązany z właściwymi autorami. Nasze zasoby można przeszukiwać za pomocą identyfikatora ORCID, aby zidentyfikować wszystkie artykuły danego autora. Dostarczamy też narzędzie pozwalające naukowcom ręcznie przypisać konkretny artykuł do swojego konta ORCID – do chwili obecnej ponad 350 tysięcy naukowców skorzystało z tego narzędzia by przypisać prawie 3,5 miliona artykułów. Dla osób posiadających konta ORCID generujemy ponadto indywidualne profile z wykresami pokazującymi liczbę publikacji i cytowań oraz jak wiele artykułów zostało opublikowanych w otwartym dostępie. Dołączamy również linki do innych powiązanych zasobów – na przykład do serwisów prezentujących alternatywne wskaźniki bibliometryczne (alternative metrics), do popublikacyjnych recenzji eksperckich z serwisu Publon, czy do pisanych przez laików streszczeń w serwisie Kudos lub w Wikipedii. Dzięki temu każdy naukowiec może zaprezentować swoją pracę na wiele sposobów.

Tworzenie powiązań między danymi badawczymi a literaturą naukową to istotny aspekt naszej działalności. Publikacje znajdujące się w Europe PMC są automatycznie linkowane do rekordów w wielu bazach danych, na przykład w Uniprot, European Nucleotide Archive (ENA) czy Protein Data Bank Europe (PDBe); lista linkowanych baz stale rośnie. Aby ułatwić wyszukiwanie informacji, korzystamy z metod maszynowej analizy tekstu i tworzymy linki bezpośrednio łączące wspominane w tekście obiekty biologiczne lub cytowane zbiory danych z odpowiednimi rekordami w innych bazach.

Aby ułatwić naukowcom i kuratorom baz danych korzystanie z literatury, stworzyliśmy SciLite, narzędzie do maszynowej analizy tekstu. SciLite zaznacza w tekście zidentyfikowane obiekty biologiczne i prezentuje ich anotacje w postaci informacji nałożonej na artykuł naukowy w Europe PMC. Anotacje zawierają linki do odpowiednich baz danych, dzięki czemu użytkownik może z łatwością zlokalizować powiązane dane. SciLite ułatwia przeglądanie artykułów w poszukiwaniu najważniejszych punktów i pozwala szybko uchwycić najistotniejszy aspekt danego artykułu.

Europe PMC prezentuje literaturę naukową powiązaną z zasobami z wielu różnych medycznych i biologicznych baz danych, które opracowują dane (curated databases), ale również powiązaną poprzez numery DOI z cytowanymi w artykułach zbiorami danych. Te zbiory danych mogą być zlokalizowane w repozytoriach, które przechowują dane deponowane bezpośrednio przez autorów, bez etapu opracowania przez kuratora bazy (uncurated datasets), np. Zenodo, Dryad, Figshare. Jak często cytowane są zbiory tego typu? Jakie są Państwa przewidywania co do przyszłości repozytoriów danych udostępniających nieopracowywane zbiory danych – czy będą odgrywać znaczącą rolę w naukach o życiu?

Repozytoria udostępniające nieopracowywane zbiory danych są często tak skonstruowane, że nacisk jest położony na pochodzenie danych, w odróżnieniu od baz opracowujących dane, które kładą nacisk na strukturę danych, która jest tak skonstruowana, by jak najłatwiej było dane ponownie wykorzystać. Może to być przyczyną różnic we wskaźnikach cytowań dla danych opracowywanych i nieopracowywanych. Obecnie w Europe PMC jest znacznie więcej artykułów linkujących do rekordów z PDBe niż do rekordów z Dryad (98 000 vs 11 000). Dopiero z czasem okaże się, czy tempo cytowania nieopracowywanych danych wzrośnie.

Jednak repozytoria, które nie opracowują przyjmowanych danych, są niezbędne, gdyż pozwalają przechowywać dane w formatach, których nie da się łatwo włączyć w istniejące ustrukturyzowane archiwa danych. Brak struktury ma jednak swoją cenę: ilość zgromadzonych danych biologicznych rośnie wykładniczo, a jednocześnie dane te są coraz bardziej pofragmentowane i coraz silniej rozproszone w różnych miejscach. W EMBL-EBI działa nowy serwis, którego celem jest poradzenie sobie z tym problemem: jest to baza BioStudies, która oferuje rodzaj kontenera, zawierającego wszystkie dane z pojedynczego projektu badawczego, dzięki czemu dane te są łatwe do znalezienia i do ponownego wykorzystania. Są tam zarówno linki do zbiorów danych z uznanych repozytoriów, jak i nieustrukturyzowane zbiory danych. Takie podejście jest szczególnie korzystne w przypadku eksperymentów multi-omicznych (multi-omics), w których wytwarzanych jest wiele różnych rodzajów danych. W Europe PMC tworzymy linki prowadzące od artykułów naukowych do rekordów w bazie BioStudies, a także dołączamy identyfikatory rekordów oraz dostarczamy przeanalizowane maszynowo pliki dodatkowe (supplemental information). Wierzymy, że dzięki skupieniu się wyłącznie na naukach o życiu oraz dzięki swojej elastycznej strukturze baza BioStudies lepiej się dopasuje do potrzeb społeczności akademickiej niż repozytoria ogólne, służące wszystkim dziedzinom nauki.

Czy uważa Pani, że model działania PMC International sprawdziłby się również w innych obszarach nauki (np. w naukach humanistycznych lub społecznych), czy też każda społeczność naukowa powinna wypracować własny model działania baz literaturowych?

PMC International przyjęło system wypracowany pierwotnie przez dostawców danych genetycznych. Według tego modelu działa na przykład International Nucleotide Sequence Database Collaboration, w skład której wchodzą European Nucleotide Archive prowadzony przez European Molecular Biology Laboratory (EMBL), japoński DNA DataBank (DDBJ), oraz amerykański GenBank prowadzony przez NCBI. Wszystkie trzy bazy regularnie wymieniają się zdeponowanymi danymi, a jednocześnie swoim użytkownikom oferują różne interfejsy i różne funkcjonalności, dopasowane do oczekiwań lokalnych społeczności naukowych. System tego rodzaju zapewnia stabilność archiwów i bezpieczeństwo przechowywanych informacji, a jednocześnie umożliwia wzbogacanie zdeponowanych treści lokalnymi wskazówkami i dodatkowymi zasobami. Naszym zdaniem taki układ ma zalety dla  wszystkich osób zaangażowanych w proces badawczy, gdyż zapewnia swobodny wybór preferowanego źródła danych.

 

 

Jakość może przybrać różne rozmiary i kształty

Najbardziej wartościowe recenzowanie polega na, poza wszystkim innym, stosowaniu czytelnych kryteriów i wskazówek, umożliwiających dobry dialog między naukowcem, recenzentem i przedstawicielami społeczności akademickiej i, ostatecznie, prowadzi do udoskonalenia wyników badań, które mają zostać opublikowane (...). Każda forma otwartej inicjatywy propagującej system wspierający dialog jest dla mnie wartościowa.

 Ioana Galleron

Ioana Galleron jest wykładowcą językoznawstwa i literaturoznawstwa francuskiego na Université de Bretagne-Sud. Jest zaangażowana w projekty badawcze, których przedmiotem jest ewaluacja nauki, m.in. EvalHum. Od kwietnia 2016 r. kieruje COST Action CA15137.

Wersja angielojęzyczna 

 

Michał Starczewski: Czym różnią się systemy ewaluacji w naukach ścisłych i przyrodniczych (STEM) od tych w naukach humanistycznych i społecznych (SSH)? W jaki sposób Unia Europejska i państwa członkowskie mierzą się z zagadnieniem tych różnic? Czy możliwe jest znalezienie wspólnych kryteriów dla wszystkich dyscyplin i czy w ogóle powinniśmy próbować?

Ioana Galleron: Nie ma odrębnych systemów ewaluacji dyscyplin STEM i SSH, choć te systemy, które są, różnią się w swoich założeniach (ex-post/ex-ante, bazujące na wynikach / bazujące na wielkości). Nie jest to samo w sobie problemem, z wyjątkiem niektórych metod, ponieważ ani dyscypliny SSH, ani STEM nie tworzą jednorodnych grup. Różnice są ogromne, jeśli chodzi o nawyki publikacyjne, np. między biologią a matematyką z jednej strony, oraz między naukami społecznymi a humanistyką z drugiej, a także wewnątrz tych szerokich obszarów.

Są mocne dowody, że wskaźniki ilościowe, takie jak impact factor, index Hirscha i podobne, nie odzwierciedlają jakości, ani nawet nie pozwalają prawidłowo zaobserwować produktywności w dyscyplinach SSH. Dlatego takie wskaźniki nie powinny być wykorzystywane do ewaluacji tych dyscyplin, tym bardziej, że dane nie są ani kompletne, ani reprezentatywne. Takie metody są jednak wciąż wykorzystywane, po części dlatego, że krajowe systemy ewaluacji często znajdują się pod przemożnym wpływem naukowców reprezentujących dyscypliny STEM i są zaprojektowane przede wszystkim z myślą o nich, po części z powodu panujących przekonań, że konkurencja w publikowaniu w międzynarodowych czasopismach podniesie jakość badań, a wreszcie także dlatego, że te metody posługują się łatwymi do użycia liczbami. Znaczenie ma także fakt, że alternatywy jawią się jako niejasne i mało wiarygodne.

Istotnie, należy udoskonalić procedury ewaluacji badań SSH, które są czasami postrzegane przez wielu badaczy jako nieuczciwe, nieprzejrzyste i błędnie zaadaptowane do tych dyscyplin. Sprzeciw wobec podstawowych zasad ewaluacji o wiele częściej spotyka się w społecznościach SSH ze względów ideologicznych, albo z powodu tradycji współpracy. Sugerowano nawet, że z epistemologicznego punktu widzenia dyscypliny STEM i SSH całkowicie się różnią, ponieważ w obszarze STEM jest długa tradycja postępów związanych z dyskusjami i obalaniem ustaleń dokonywanych przez innych badaczy, podczas gdy ten paradygmat rzadziej ma miejsce w SSH. To wszystko prowadzi do tego, że nawet gdy dwie dyscypliny skłaniają się do stosowania jakichś wspólnych kryteriów, to tkwią w nich istotne różnice, które trzeba uwzględnić podczas ewaluacji jednych i drugich.

Krótko mówiąc, ewaluacja nauk społecznych i humanistycznych jest problematyczna tak dla ewaluujących, jak i dla ewaluowanych. Podczas gdy pewne państwa europejskie zauważyły już ten stan rzeczy i zaczęły szukać odpowiednich rozwiązań, w wielu innych nie widać takiej postawy. Z tego względu europejska inicjatywa dla SSH jest bardzo potrzebna. Trzeba stworzyć przestrzeń dyskusji między tymi, którzy eksperymentują z procedurami uczciwszymi i lepiej dostosowanymi do dyscyplin SSH, i trzeba też nadać temu zagadnieniu taki rozgłos, na jaki zasługuje.

Kieruje pani COST Action European Network for Research Evaluation in the Social Sciences and the Humanities (ENRESSH). Czy może pani opisać cele tego przedsięwzięcia?

“European Network for Research Evaluation in the Social Sciences and the Humanities” to Działanie COST, które zaczęło się w kwietniu 2016 r., a zakończy w kwietniu 2020 r. Naszym celem jest zaproponowanie przejrzystych dobrych praktyk w zakresie ewaluacji badań społecznych i humanistycznych. W ramach Działania współpracują ze sobą bardzo różni eksperci: badacze ewaluacji, decydenci, członkowie jednostek oceniających, jak również badacze reprezentujący humanistykę i nauki społeczne. Projekt porównuje rozproszone prace poświęcone ewaluacji badań SSH, powstające w różnych częściach Europy, w celu uniknięcia niepotrzebnego ich powielania oraz by upowszechnić ich rezultaty. Zaczęliśmy od wymiany doświadczeń, tak by uzyskać obraz stanu badań nad ewaluacją w Europie. W ciągu następnych lat zespół zorganizuje konferencje, warsztaty i spotkania, by zasypać przepaść między akademikami zajmującymi się ewaluacją badań SSH, menadżerami nauki i decydentami.

Skorzystam z okazji i wspomnę o EvalHum Initiative. Jest to szeroko zakrojone stowarzyszenie, które stara się zebrać razem wszystkich pracujących w obszarze ewaluacji nauki w naukach społecznych i humanistycznych. Brzmi to podobnie do opisu Działania ENRESSH, więc pewnie nikogo nie zaskoczy fakt, że to członkowie EvalHum zaproponowali Działanie COST. Obie inicjatywy są jednak ściśle oddzielone. Stowarzyszenie wznowi działalność, kiedy Działanie COST się zakończy. To także EvalHum organizuje serię konferencji RESSH, spośród których następna odbędzie się w Antwerpii w lipcu 2017 r.

Czasem pojęcia używane do opisu komunikacji naukowej w różnych krajach oznaczają bardzo różne rzeczy. Tak jest w przypadku np. „monografii”, „artykułu” i „recenzji”. W niektórych państwach monografia jest prawnie definiowana przez liczbę stron, a w innych przez liczbę autorów. Jak wiele zamieszania powoduje to na poziomie międzynarodowym? Czy sądzi pani, że część kontrowersji byłoby łatwiej rozwiązać, gdyby ludzie byli bardziej świadomi tych wieloznaczności?

Zbyt często procedury ewaluacyjne skupiają się na formalnych cechach publikacji. Nie uwzględnia się faktu, że cechy formalne mówią o jakości tylko bardzo zgrubnie, że za etykietami takimi jak: „recenzja (naukowa)”, „wydawnictwo uniwersyteckie”, czy „książka” mogą kryć się bardzo różne rzeczywistości, a liczby stron lub współtwórców same w sobie niewiele znaczą. Nie ma powodu, by postrzegać materiały konferencyjne jako z zasady „mniej dobre” niż jednoautorska książka. Nie ma też powodu, by przedkładać publikowanie artykułów nad książki – lub vice versa! – ponieważ wysoka jakość może przybierać różne rozmiary i kształty. Takie skróty lub tendencje miałyby sens wyłącznie wtedy, gdyby, po pierwsze, był jakiś konsensus, wewnątrz społeczności SSH, dotyczący najczęściej występujących typów publikacji w odniesieniu do pewnych typów wyników badań, i, po drugie, jeśli można byłoby mieć pewną dozę zaufania do kontroli jakości zapewnianej przez jakieś naukowe grono (choćby na poziomie czasopisma, konferencji, wydawnictwa, etc.). Niestety, kiedy przyglądamy się rzeczywistości kryjącej się za tymi słowami, zwłaszcza z ogólnoeuropejskiego punktu widzenia, widzimy, że te dwa warunki są dalekie od spełnienia.

Nie wiem więc, czy to pomoże rozwiązać kontrowersje, ale świadomość tego, jakie procesy zachodzą w trakcie publikacji książki naukowej w, dajmy na to, Rydze, a co się dzieje z książką w Wenecji, prawdopodobnie pomoże wypracować wspólne standardy, a także będzie skuteczniej wspierało lepszą naukę niż narzucanie akademikom ich (publikacyjnych) wyborów. 

Czy otwarta nauka sprawia, że ewaluacja staje się skuteczniejsza? W jaki sposób?

Otwarta nauka zmieni praktyki badawcze w humanistyce i naukach społecznych. Być może wpłynie na metody i procedury ewaluacji. Ale pojawia się kilka pytań, np. czy badacze społeczni i humaniści są w ogóle świadomi dyskusji o otwartym dostępie i jej skutków i czy ci badacze mają środki finansowe, by publikować w otwartym dostępie? Opłaty odautorskie (APC) za artykuły są problemem dla często i tak już niedoinwestowanych badań z obszaru SSH, przez co publikowanie książek okazuje się nieprzystępne. Jednakże, wracając do pytania, sam fakt, że niektórzy badacze decydują się udostępniać w sposób otwarty swoje publikacje, a nawet dane badawcze, powinien być uwzględniany w trakcie ewaluacji. Otwarta nauka jest też lepiej rozpowszechniona, dzięki czemu wyniki można łatwiej ponownie wykorzystać, a także łatwiej jest obalić błędne twierdzenia; to są dwa inne istotne aspekty, które powinny zostać docenione.

Co więcej, w pewnych państwach otwarta nauka pozwala naukowcom przyspieszyć, albo wyjść poza system publikacyjny, który całkiem często jest z wyżej wspomnianych powodów dysfunkcyjny w obszarze SSH.

W jaki sposób można oceniać udostępnianie danych badawczych? Który aspekt jest najważniejszy: natychmiastowy dostęp, licencje prawne czy pełne metadane?

Udostępnianie danych badawczych to sposób na zwiększenie transparentności procesu badawczego i ułatwienie pracy recenzentów. Równocześnie pozwala uniknąć niepotrzebnego powtarzania pracy, ponieważ badania mogą być powtórzone lub ponownie przeanalizowane z innej perspektywy. Opracowanie procedury ewaluacji udostępniania danych badawczych nie jest jednak łatwe i prawdopodobnie będziemy potrzebować trochę czasu, by przyjrzeć się, jak akademicy radzą sobie z tym zagadnieniem.

Metadane są kluczowe z punktu widzenia ewaluacji. Są też być może prostsze do udostępniania i chronienia. Żeby zbudować dojrzałe procedury ewaluacji, musimy wiedzieć, co dzieje się w danej dyscyplinie, a póki co ta wiedza w obszarze SSH jest bardzo niekompletna, zarówno na poziomie krajowym, jak i europejskim. Co więcej, sytuacja jest bardzo zróżnicowana zależnie od dyscypliny: o wiele lepsza jest obecność w międzynarodowych bazach danych psychologii czy ekonomii, podczas gdy badania językoznawcze i literaturoznawcze pozostają tu wyraźnie w tyle. Dostęp do metadanych – nie tylko dotyczących danych badawczych, ale też różnych publikacji – pozwoliłby nam uczynić postępy w stronę europejskiej bazy danych o osiągnięciach badań SSH, a także  obserwować zwyczaje publikacyjne, sposoby współpracy i trendy tematyczne na większą i pewniejszą skalę.

Narzędzia komunikacji zmieniają się bardzo szybko. Zmienia się także komunikacja naukowa. Czy pani zdaniem ewaluacja badań powinna dotrzymywać kroku tym zmianom, czy raczej powinna być trochę bardziej zachowawcza i ewoluować w swoim tempie?

Ewaluacja badań naukowych musi uwzględniać procesy badawcze i zwyczaje naukowców. Tak, ze względu na swoją wiarygodność musi nadążać za zmianami w komunikacji naukowej. W obecnych procedurach oceny jest mało miejsca na blogi naukowe, newslettery oraz, w większości państw, na liczne formy zaangażowania społecznego w szerokim znaczeniu, a to są tylko nieliczne przykłady. A przecież te wszystkie próby komunikowania się inaczej niż w tradycyjny sposób, zarówno wewnątrz świata akademickiego, jak i poza jego obrębem, stwarzają przestrzeń dla innowacji. W obszarze SSH jest ogromny potencjał pomijany przez decydentów, w wielu przypadkach z powodu zliczania wyłącznie wskaźników i wyników, które faktycznie nie odzwierciedlają tego, co realnie dzieje się w danej dyscyplinie.

Z drugiej strony, trzeba wciąż pamiętać, że wskaźniki, które są wykorzystywane w ewaluacji nauki potrzebują czasu, byśmy mogli przekonać się, jak działają. Usilne próby nadążania za każdym trendem nie pozwalają procedurom ewaluacji dojrzeć.

Jaka jest rola mediów społecznościowych w komunikacji naukowej? Czy instytucje akademickie powinny inwestować w narzędzia zliczające tweety lub posty na Facebooku, takie jak Altmetric?

Media społecznościowe zrobiły wiele dobrego dla nauk SSH, ponieważ umożliwiły porozumiewanie się z dużą publicznością i informowanie jej o naszych tematach i badaniach. To jest coś, co się nie zawsze udawało w mediach tradycyjnych, które są bardziej skoncentrowane na odkryciach „twardych” nauk. Jak wcześniej wspomniałam, „tradycyjne” wskaźniki nie sprawdzają się w naukach SSH. Badacz społeczny lub humanista z niskim indeksem H niekoniecznie jest nieproduktywny, co mogą pokazać liczby pobrań jej lub jego artykułów z repozytoriów. Trzeba jednak mieć świadomość, że wskaźniki alternatywne również mogą nie odzwierciedlać dokładnie tego, co się dzieje w dyscyplinie z powodu często spotykanej zachowawczości. Znakomite badania, które nie są rozpowszechniane za pośrednictwem Twittera, Facebooka lub akademickich mediów społecznościowych wciąż mogą być intensywnie czytane w bibliotekach.

Co więcej, dane z platform Sieci 2.0 nie są wystarczająco wiarygodne i, jak wszystkie dane, mogą być kształtowane przez potężne nauki (fizykę i medycynę), tak by liczyć to, w czym one są dobre (opowieści o odkryciach i leczeniu raka), niż nasze opowieści z obszaru SSH, które często są dla ludzi bardziej interesujące. W skrócie: instytucje powinny mieć świadomość, jak naukowcy posługują się mediami społecznościowymi w komunikacji naukowej, ale jednocześnie powinny zachować ostrożność w interpretowaniu uzyskanych stąd informacji i uważać, by nie narzucać nienaturalnych zachowań

Mówi się czasem o przepaści pomiędzy nauką a społeczeństwem. „Zwykli ludzie” nie wiedzą, czego właściwie dotyczy nauka i nie mogą uczestniczyć w jej rozwoju. W tym samym czasie naukowcy są często postrzegani jako zamknięci w wieży z kości słoniowej i ignorujący prawdziwe problemy życia codziennego. Projekty „nauki obywatelskiej” mają na celu zbudowanie mostu i połączenie obu stron. Czy pani zdaniem nauka staje się coraz bardziej egalitarna?

Zawsze jestem zdumiona, gdy słyszę o “przepaści” między nauką a społeczeństwem. A jeszcze bardziej zdumiewają mnie ludzie skupiający się raczej na naszej (suponowanej) wieży z kości słoniowej, niż na, powiedzmy, złotej wieży bankierów… Bądź co bądź, czy to jest nowe zjawisko i czy w związku z nim powinniśmy się czegoś obawiać? „Zwykli ludzie” żyjący w XVI w. byli jeszcze mniej świadomi, czym jest nauka, ponieważ zdecydowana większość nie potrafiła czytać, a naukowcy byli przez wielu postrzegani jako zagrożenie. Nauka jest lepiej postrzegana i rozumiana w naszych nowoczesnych, dobrze wyedukowanych społeczeństwach – i być może poczucie, że naukowcy nie otwierają się wystarczająco na społeczeństwo jest związane z tą większą zdolnością zrozumienia przez „laicką publiczność”, czym jest nauka, przez co ludzie stają się bardziej zainteresowani uczestniczeniem w niej. Nauka nie odrzuca ludzi, ale pyta ich, zgodnie ze swoją istotą, jaką mają wiedzę i umiejętności, by przyłączyć się. Wiele jest wspaniałych historii społecznego zaangażowania naukowców ze wszystkich obszarów, zwłaszcza SSH, które pokazują, jak niewiele jest prawdy w tradycyjnych przekonaniach o wyniosłym pozostawaniu naukowców ponad tłumem.

Z kolei z socjologicznego punktu widzenia jesteśmy świadkami stałej i ciągłej zmiany społeczności uczonych, których pochodzenie jest coraz bardziej zróżnicowane, także więc w tym znaczeniu nauka staje się coraz bardziej „egalitarna”.

Pojawia się wiele pomysłów na udoskonalenie procesu recenzowania naukowego i uczynienie go bardziej transparentnym. Jakie rodzaje otwartego recenzowania uważa pani za najbardziej wartościowe?

Pomimo znanych ograniczeń, tradycyjne recenzowanie zostało sprawdzone jako użyteczne narzędzie sprzyjające lepszej nauce i zapewniające, że jest ona uprawiana prawidłowo. Niektóre wydawnictwa lub czasopisma humanistyczne i społeczne pojęciem recenzowania określają niezwykle zwięzły proces, którego rezultatem jest jeden wers (lub nawet jedno słowo!) akceptujące kawałek badań. Nie mówię tego, by podważać bardzo dobrą pracę wykonywaną przez liczne redakcje lub wydawnictwa, ale w wielu innych przypadkach to, kto zostanie opublikowany, zależy w mniejszym stopniu od jakości pracy, a większe znaczenie mają osobiste związki między badaczami i redaktorami, albo, co gorsza, zdolność zapłacenia za publikację.

Uważam, że najbardziej wartościowe, prawdziwe (w przeciwieństwie do „szyderczego” lub „pozornego”) recenzowanie polega na, poza wszystkim innym, stosowaniu czytelnych kryteriów i wskazówek, umożliwiających dobry dialog między naukowcem, recenzentem i przedstawicielami społeczności akademickiej i, ostatecznie, prowadzi do udoskonalenia wyników badań, które mają zostać opublikowane. Ostatnie propozycje biologicznego czasopisma eLife otwierają interesujące perspektywy poprzez umożliwienie dialogu przed publikacją między anonimowymi recenzentami a badaczem, jak również na rozbudowane formy recenzji, w której interesariusze uczestniczą w ocenie badań z misją społeczną. Uogólniając, każda forma otwartej inicjatywy propagującej system wspierający dialog jest dla mnie wartościowa.

 

 

Dyskursy akademickie zostały ukształtowane przez materialne formy upowszechniania wiedzy

Kiedy humaniści mówią do mnie: wy po prostu zmuszacie nas do zmienienia naszej praktyki z powodu zmiany technologii, irytuję się z dwóch powodów. Po pierwsze, nowa technologia pozwalająca na otwarte, nie-rywalizacyjne rozpowszechnianie wiedzy, jest o wiele bardziej zgodna z tym, co robimy z publikacjami akademickimi niż formy rywalizacyjne. Po drugie, taki argument zakłada, że papier, książki, kodeks i inne formy materialne same nie są rodzajem technologii, który determinuje nasze praktyki. W ogóle nie mówi się, a przynajmniej o wiele za mało, o tym, w jaki sposób dyskurs akademicki został ukształtowany przez materialne formy rozpowszechniania wiedzy.

 

Martin Eve jest profesorem na Uniwersytecie Birkbeck w Londynie. Zajmuje się literaturą i wykorzystaniem nowych technologii w działalności wydawniczej. Założył Open Library of Humanities, organizację non-profit mającą na celu publikowanie w otwartym dostępie prac naukowych. Jest członkiem grupy kierującej projektem OAPEN-UK, badającej otwarte modele wydawnicze monografii w humanistyce i naukach społecznych. Prowadzi kilka projektów z zakresu humanistyki cyfrowej.

 

Michał Starczewski: Jest pan autorem książki “Otwarty dostęp a humanistyka” (Open Access and the Humanities). Czym różni się rewolucja otwartego dostępu w humanistyce i w naukach ścisłych?

Martin Eve: Zazwyczaj mówi się, że OD w humanistyce „odstaje” od nauk ścisłych, ale takie stawianie sprawy stwarza pewną liczbę nowych problemów. Niektórzy humaniści pytają, dlaczego mają po prostu podążać we wszystkim za naukami przyrodniczymi? Inni pytają, dlaczego zmiany technologiczne mają kierować praktyką akademicką? Jeszcze inni wyrażają obawy dotyczące wpływu otwartego licencjonowania na wzrost zjawiska plagiatowania (nie podzielam tej obawy). Pojawia się też problem ekonomiczny: w humanistyce o wiele mniej prac otrzymuje finansowanie, tak więc opłaty odautorskie (APC) nie są łatwo dostępne. Wreszcie, są i tacy, którzy wskazują, że w rzeczywistości w zakresie OD nie ma oczywistego podziału pomiędzy „humanistyką” a „naukami ścisłymi”. Istotnie, nauki chemiczne są w bardzo małym stopniu otwarte, podczas gdy filozofia wypracowała już jakiś czas temu kulturę preprintów.

Są więc różnice między tym, co humaniści robią, a tym, co się o tym mówi. Często mam jednak wrażenie, że się przesadza. Wszyscy piszemy, ponieważ chcemy, by nas czytano i wiemy, że bariery finansowe ograniczają dotarcie do szerszego grona czytelników. Mając to na uwadze trzeba jednak powiedzieć, że w humanistyce mamy kulturę monografii, w której jest istotnie trudniej wdrożyć modele otwarte niż w przypadku artykułów i czasopism.

Zarówno dyskurs, jak i praktyki ruchu otwartego dostępu koncentrują się na artykułach i czasopismach. Tymczasem dla badaczy z obszaru humanistyki monografie są często o wiele ważniejsze niż artykuły. Można powiedzieć, że najważniejszym wnioskiem z raportu Jisc OAPEN-UK poświęconego otwartym monografiom, jest to, że wciąż jest jeszcze za wcześnie na rekomendowanie jakiegokolwiek konkretnego modelu. Jakie są przeszkody?

Nie mam tu dość miejsca, by zagłębiać się we wszystkie niuanse. Powiem więc tylko, że wokół monografii jest cały zestaw społecznych i ekonomicznych wyzwań, które zostały znakomicie opisane w ostatnim raporcie Geoffa Crossicka, opracowanego dla HEFCE w Wielkiej Brytanii. Centralnym wyzwaniem jest ekonomia. Inny raport ostatnio ogłosiła w USA Fundacja Andrew W. Mellona. Wynika z niego, że koszt wydania monografii zawiera się w przedziale od 30.000$ za książkę w grupie najmniejszych wydawnictw uniwersyteckich, do więcej niż 49.000$ za książkę wśród największych wydawnictw. Przy tym poziomie kosztów bardzo trudno jest uzyskać wsparcie dla modelu takiego jak BPC (Book Processing Charges – opłata za wydanie książki, analogiczna do opłaty odautorskiej APC), ponoszona przez autora/instytucję/agencję finansującą. Drażliwym tematem są też książki o potencjalne komercyjnym, a sposoby wykorzystywania otwartych książek (w porównaniu do drukowanych) pozostaje zagadnieniem zbyt słabo przeanalizowanym, podobnie jak wstrzemięźliwość niektórych gremiów decydujących o awansach naukowych w zakresie uznawania manuskryptów istniejących wyłącznie w formie cyfrowej.

Założył pan Open Library of Humanities, organizację mającą na celu publikowanie prac akademickich w otwartym dostępie bez pobierania opłat odautorskich (APC). Czy mógłby pan wyjaśnić, jak ona działa? Czy może stanowić wzór dla innych instytucji na świecie? Czy jest w planach wydawanie także monografii w tym modelu?

OLH bazuje na modelu rozproszonych dotacji bibliotecznych. Zamiast pobierać opłatę od autora w wysokości ok. 600$ po przyjęciu artykułu do publikacji, uzyskujemy wsparcie z bibliotek z całego świata, co trochę przypomina model subskrypcyjny, ale nim nie jest. Aktualnie biblioteki płacą ok. 1000$ rocznie, co pozwala na wsparcie 15 naszych czasopism. Wszystko, co publikujemy, jest otwarte, dlatego błędem byłoby mówienie, że biblioteki „kupują dostęp”, subskrypcję, albo coś w tym rodzaju. One wspierają platformę, która inaczej by w ogóle nie istniała. To nie jest klasyczny model ekonomiczny, ale wydaje się, że on działa, skoro przyłączyło się już około 200 bibliotek, a po pierwszym roku wszystkie zdecydowały się na kontynuację. Mamy zamiar przejść także do monografii, ale odłożyliśmy je na potem. Teraz najważniejsze dla nas jest przekształcenie czasopism płatnych na nasz model. Czasopisma mogą to osiągnąć zarówno porzucając swoich dotychczasowych wydawców, jak i poprzez pokrywanie przez nas opłat odautorskich dla tego tytułu w przyszłości. W ten sposób obchodzimy problem finansowania otwartego dostępu w humanistyce.

Po “Raporcie Finch” Wielka Brytania zwróciła się w stronę złotej drogi OD. Wyniki ewaluacji tej polityki są następujące: większość artykułów została opublikowana w czasopismach hybrydowych, które okazały się najdroższe. Z kolei fundacja Wellcome Trust poinformowała, że 30% artykułów, za które zapłaciła opłaty odautorskie, nie były dostępne w czasie przeprowadzonej kontroli. Co poszło nie tak z polityką OD w Wielkiej Brytanii?

Doprawdy nie uważam, by ocenianie już na tym etapie, że polityka „poszła nie tak”, było w porządku. Ocena zależy od tego, co było założonym celem. Jeśli celem był otwarty dostęp tańszy niż model subskrypcyjny, to rzeczywiście, pojawiają się pewne problemy. Ale jeśli celem jest otwarty dostęp, choćby miał okazać się droższy, to polityka jest skuteczna. Osobiście uważam, że w długiej perspektywie potrzebujemy systemu, który byłby bardziej wrażliwy na budżety bibliotek akademickich (uważam, że wydawnictwa akademickie nie powinny być nastawione na zysk). Różne polityki w Wielkiej Brytanii: złota polityka RCUK i zielona polityka HEFCE, razem tworzą kulturę, w której OD jest normą. Mówienie, że te polityki nie działają, jest po czterech latach (w przypadku RCUK) i po sześciu miesiącach (w przypadku HEFCE), przedwczesne.

Jak widzi pan przyszłą rolę wydawców naukowych w kontekście OD? Czy naukowcy potrzebują wydawców do organizowania procesu recenzyjnego i zapewnienia wysokiej jakości?

Proces wydawniczy postrzegam w kategoriach pracy, którą trzeba wykonać. Nie podzielam koncepcji, że w kapitalizmie ludzie powinni pracować za darmo. Jeśli ludzie świadczą usługi, zasługują, na wynagradzenie. Praca przy wydawaniu jest zaś taką samą pracą jak każda inna. Wydawcy wykonują całą paletę zadań, których dyskredytowanie byłoby nieroztropne. I to wymaga zapłaty. Organizacja procesu recenzyjnego, skład, redakcja, korekta, cyfrowe zabezpieczenia, utrzymanie platform, marketing, doradztwo prawne, identyfikacja, zachowanie,… Lista na tym wcale się nie kończy. Przy tym nie jestem wcale pewien „zapewnienia wysokiej jakości”. Do systemu recenzyjnego podchodzę z daleko idącym sceptycyzmem. Uważam, że jest częściej traktowany jako panaceum, niż jako rygorystyczna metoda filtrowania dobrych treści. W rzeczy samej, ostatnio z kilkoma osobami pisałem o problemach predyktywnej doskonałości.

Czy uważa pan, że kwestia otwartych danych jest w humanistyce tak samo istotna, jak w innych dyscyplinach? Czy to możliwy scenariusz, że humanistyka będzie oparta na danych cyfrowych? Czy jesteśmy świadkami „zwrotu cyfrowego”?

Interesujące jest tu moim zdaniem to, że pojęcie danych nie jest w humanistyce dobrze rozumiane. Z tego wynika obcy dla większości humanistów sposób działania z materiałem ilościowym. Jednocześnie wszyscy pracujemy z artefaktami, które można nazwać „danymi”. Kiedy więc rozmawiam o tym z kolegami, staram się używać słowa „dowód” lub „paratekst” na określenie danych. Mówię: jeśli piszesz o XIX-wiecznej powieści i robisz na ten temat notatki, to zarówno sama powieść, jak i notatki mogą być postrzegane jako dane i mogą mieć wartość dla kogoś innego. To powiedziawszy mogę stwierdzić, że dzielenie się danymi w wielu dyscyplinach wywołuje kontrowersje, więc fakt, że humanistyka jeszcze tego nie przetrawiła, nie jest powodem do wszczynania alarmu.

Czy otwartość jest konieczną cechą cyfrowego środowiska w humanistyce?

Niestety, nie. Jak dowodzi fakt stawiania barier finansowych [ang. paywalls] wokół materiałów badawczych online, działanie w zamkniętym środowisku cyfrowym w humanistyce jest całkowicie możliwe. Jest w tym coś ciekawego, co zawsze rzuca mi się w oczy (nawiązuję tu do przenikliwych spostrzeżeń Petera Subera w książke Otwarty dostęp, wydanej przez MIT Press [przetłumaczonej na język polski – przyp. tłum.]). Wiedza, idee i słowa są nieskończenie kopiowalne bez żadnej straty dla pierwotnego posiadacza. Jeśli powiem ci coś, o czym wiem, to i ty to wiesz, i ja; obaj jesteśmy bogatsi. Technologia cyfrowa, która pozwala na kopiowanie bez ograniczeń, jest bezpośrednio zgodna z tym sposobem rozumowania. Kiedy humaniści mówią do mnie: wy po prostu zmuszacie nas do zmienienia naszej praktyki z powodu zmiany technologii, irytuję się z dwóch powodów. Po pierwsze, nowa technologia pozwalająca na otwarte, nie-rywalizacyjne rozpowszechnianie wiedzy, jest o wiele bardziej zgodna z tym, co robimy z publikacjami akademickimi niż formy rywalizacyjne. Po drugie, taki argument zakłada, że papier, książki, kodeks i inne formy materialne same nie są rodzajem technologii, który determinuje nasze praktyki. W ogóle nie mówi się, a przynajmniej o wiele za mało, o tym, w jaki sposób dyskurs akademicki został ukształtowany przez materialne formy rozpowszechniania wiedzy.

e-Infrastruktura nie zawsze jest interoperacyjna. Informacja często nie może być wymieniana między różnymi narzędziami. Problem jest szczególnie poważny, gdy naukowcy pracują z zasobami instytucji kultury, jak muzea, biblioteki czy galerie. Czy jest możliwe wykorzystanie wspólnych standardów, dzięki którym e-infrastruktura stanie się interoperacyjna? Jakie są najpoważniejsze przeszkody uniemożliwiające wykorzystanie takich standardów?

Oczywiście, można stworzyć wspólne standardy dla e-infrastruktury. Wyzwaniem jest jednak to, że mamy wyjątkowo rozproszoną grupę aktorów, którzy mają całkiem odmienne cele końcowe. Czy Elsevier postrzega swoje korzyści z pracy w otwarty, interoperacyjny sposób tak samo jak jakieś małe wydawnictwo publikujące książki w otwartym dostępie? Czy Wiley uzyskuje takie same korzyści z interoperacyjności, jak repozytorium instytucjonalne? Będę przekonywał, że różne potrzeby interesariuszy warunkują stopień interoperacyjności niemniej niż każdy inny aspekt technologiczny.

Pracuje pan nad trzema nowymi książkami. Czy mógłby pan przybliżyć, na czym polegają te projekty?

Oczywiście. Pierwsza książka, która jest już na etapie ostatecznego szkicu, nosi tytuł The Anxiety of Academia i dotyczy sposobów, w jakie koncepcje krytyki, legitymacji i dyscypliny zostały wykorzystane w grupie współczesnych powieści w celu antycypacji tego, jak badacze będą te powieści czytać. Druga książka ma tytuł The Aesthetics of Metadata i jest gotowa w ok. 50%. Poświęcona jest serii współczesnych powieści z punktu widzenia występujących w nich struktur przypominających metadane. Przyglądam się w niej m.in. książce Marka Blacklocka o oszuście podszywającym się pod Rozpruwacza z Yorkshire i znaczeniu, jakie w pościgu mają: akcenty, pisanie i lokalizacja. Przyglądam się także fałszywym przypisom w House of Leaves Marka Z. Danielewskiego,  obok przedmiotów ze zniszczonej przyszłości w Emily St. Mandel’s Station Eleven. Wreszcie, ostatnia książka nad którą pracuję ma roboczy tytuł Close-Reading with Computers i jest również gotowa w ok. 50%. Analizuję w niej, jak różne metody z obszaru komputerowej stylometrii mogą zostać wykorzystane do rozwoju badań hermeneutycznych współczesnej fikcji, a koncentruję się na Cloud Atlas Davida Mitchella. Staram się opublikować wszystkie te trzy książki w otwartym dostępie.

 

Wyjdziemy poza podział na złoty i zielony OD

Osobiście uważam, że dyskusja przeciwstawiająca sobie złotą i zieloną drogę jest raczej ograniczająca, ponieważ operuje wyobrażeniami przyszłości jako składającej się wyłącznie ze znanych nam już od dekad formatów i ścieżek na mapie dzielenia się wynikami badań. A naukowcy wciąż przecierają zupełnie nowe szlaki i znajdują nowe sposoby dzielenia się wiedzą i swoimi wynikami. I wcale nie wszystkie te sposoby mieszczą się w paradygmatach tradycyjnego publikowania.

Dr Jennifer Edmond jest jednym z dyrektorów Trinity Centre for Digital Humanities. Reprezentuje DARIAH w Open Science Policy Platform, grupie doradczej Komisji Europejskiej. W swoich badaniach zajmuje się wpływem technologii na nauki humanistyczne.

 

27 maja Komisja Europejska powołała Open Science Policy Platform, grupę ekspercką mającą za zadanie „doradzać w zakresie rozwoju i wdrożenia polityki otwartej nauki w Europie”. Pani reprezentuje w niej DARIAH (Digital Research Infrastructure for Arts and Humanities). Jakie cele chciałaby pani osiągnąć w OSPP?

Wierzę, że uczynienie nauki bardziej otwartą przyniesie wiele korzyści naukowcom, gospodarce i w ogóle społeczeństwu. Jednocześnie jestem bardzo zaniepokojona faktem, że rozumienie tego, czym jest „otwarta nauka” ukształtowało się przede wszystkim z uwzględnieniem perspektywy nauk ścisłych i przyrodniczych. Humanistyka i nauki o sztuce również mają tu wiele do zaoferowania, ale te dyscypliny rozpoczynają z zupełnie innego punktu, ponieważ nasze „dane surowe” (w takim stopniu, w jakim można je tak nazwać) są często przechowywane w instytucjach kultury i dziedzictwa. Mamy także mocno zakorzenioną tradycję argumentowania i badań indywidualnych, prowadzących do specyficznego rodzaju wyników. Aby otwarta nauka naprawdę odniosła sukces, musi ona objąć te metody tak samo, jak obejmuje metody nauk ścisłych. DARIAH ma szansę odegrać rolę aktywnego moderatora, i to właśnie jest moim głównym celem: reprezentowanie tradycji humanistycznych w OSPP i odnajdywanie sposobów, w jaki DARIAH może wspierać otwartość, unikając przy tym lekceważenia lub bagatelizowania siły humanistycznych strategii poznawczych.

Dokument Amsterdam Call for Action on Open Science wyznacza dwa cele do osiągnięcia przez Europę do 2020 r.: pełen otwarty dostęp do wszystkich publikacji naukowych oraz wypracowanie całkowicie nowego podejścia do ponownego wykorzystania danych badawczych. Czy OSPP będzie zaangażowane w szukanie sposobu osiągnięcia tego?

Tak, to są dwa spośród dużych zadań postawionych przed OSPP. Ale mamy w OSPP świadomość, że włączenie tych polityk do kultur badawczych Europy będzie wymagało szeroko zakrojonej zmiany systemowej. Zadaniem OSPP jest także obmyślenie struktur wspierających „oddolne” problemy, które z pewnością będą się pojawiały wraz z powiększającą się otwartością, takie jak potrzeba nowych kompetencji, integracja nauki obywatelskiej, nowe sposoby ewaluacji rezultatów pracy badawczej, a także uczciwość badawcza w zmieniającym się krajobrazie (by podać tylko niektóre przykłady). Wszystkie te zagadnienia są ściśle powiązane z tym, jak, kiedy i gdzie dzielimy się wynikami badań.

Ten sam dokument zupełnie pomija zieloną drogę otwartego dostępu. Czy uważa pani, że jest możliwe znalezienie równowagi między złotą i zieloną drogą OD? W jaki sposób?

Myślę, że nie da się uniknąć zróżnicowanego podejścia przy zapewnianiu szerokiego dostępu do wyników badań naukowych. Wydawniczy ekosystem jest zbyt różnorodny i szeroki, a przy tym nieustająco powiększa się i zmienia. Osobiście uważam, że dyskusja przeciwstawiająca sobie złotą i zieloną drogę jest raczej ograniczająca, ponieważ operuje wyobrażeniami przyszłości jako składającej się wyłącznie ze znanych nam już od dekad formatów i ścieżek na mapie dzielenia się wynikami badań. A naukowcy wciąż przecierają zupełnie nowe szlaki i znajdują nowe sposoby dzielenia się wiedzą i swoimi wynikami. I wcale nie wszystkie te sposoby mieszczą się w paradygmatach tradycyjnego publikowania. Myślę, że z czasem wyjdziemy poza prosty podział na złoty i zielony OD i sięgniemy po więcej kolorów tęczy, a naukowcy będą mieć większy wybór spośród opcji dopasowanych do różnego rodzaju wyników. Zaczniemy bardziej precyzyjnie rozumieć użyteczność narzędzi, które dziś wspierają otwarty dostęp, od otwartych repozytoriów zaczynając, a na opłatach odautorskich (APC) kończąc.

Czy uważa pani, że polityki otwartości pozostaną kompetencjami państw członkowskich UE, czy UE zharmonizuje ten obszar za pomocą rozporządzenia lub dyrektywy?

Horyzont 2020 długo wywierał duży wpływ na rozwój krajowych polityk w zakresie prowadzenia badań, ale należy pamiętać, że polityka H2020 została ukształtowana w procesie politycznym, uwzględniającym opinie i doświadczenie państw członkowskich. Przewiduję raczej kontynuację tego trendu zmierzającego do harmonizacji między politykami europejską i krajowymi, ale tylko w taki sposób, by zachować równowagę między wkładem oddolnym a odgórnymi zachętami.

DARIAH jest Europejskim Konsorcjum Infrastruktury Badawczej (ERIC) rozwijającym infrastrukturę dla humanistyki cyfrowej. W jaki sposób naukowcy z Europy mogą uczestniczyć w tym przedsięwzięciu?

DARIAH jest dużą i żywą społecznością, która wciąż rośnie i podejmuje nowe inicjatywy. Państwa, które już są członkami DARIAH, mają komitety krajowe lub nawet zorganizowane struktury. Naukowcy, którzy chcą zaangażować się w DARIAH, powinni skontaktować się z nimi, dowiedzieć się więcej, czym jest DARIAH i jak wspiera badania i ostatecznie zaangażować się. Jeśli państwo nie jest jeszcze członkiem DARIAH, to organy centralne DARIAH służą radą, w jaki sposób lobbować w swoim kraju za przyłączeniem. Ewentualnie wskażą, z jakich serwisów mogą korzystać wszyscy, niezależnie od członkostwa.

Humaniści cyfrowi często deklarują, że otwartość jest dla nich ważną wartością. Jakie są korzyści z otwartości w humanistyce cyfrowej?

Przede wszystkim, jesteśmy coraz bardziej świadomi znaczenia swobodnego przepływu danych, ponieważ nasze metody i źródła mogą w środowisku cyfrowym coraz ściślej wiązać się ze sobą. Tradycyjne projekty badawcze mogą opierać się na zapisach, które są zamknięte i dosłownie ukryte w archiwum – ale cyfrowe projekty już nie mogą. Po drugie, inwestujemy na tyle dużo w nasze projekty i platformy, na których je udostępniamy, że musimy myśleć o ich trwałości. Różni ludzie różnie rozumieją trwałość. Dla mnie oznacza ona w pierwszej kolejności ponowne wykorzystanie, co z kolei wiąże się z otwartością – w zakresie technicznych standardów, praw, przystosowalności, organizacji wiedzy oraz w wielu innych płaszczyznach. Wreszcie, cyfrowi humaniści często pracują w przestrzeni bardziej publicznej, co z pewnością sprzyja interakcjom z innymi dyscyplinami i bardzo często umożliwia dotarcie z badaniami bezpośrednio do publiczności. Ta otwartość stała się zupełnie szeroko akceptowaną częścią humanistyki cyfrowej dzięki bogactwu, które z sobą niesie oraz wpływowi, który ułatwia.

Text-and-Data Mining jest obecnie zagadnieniem żywo dyskutowanym na poziomie europejskim. Jakie regulacje w tym zakresie są pożądane z punktu widzenia otwartej nauki i humanistyki cyfrowej?

Tutaj potrzebna jest przejrzystość: obecnie największą barierą jest dojmujący brak jasności, co jest dopuszczalne, a co już nie. Nie ma jakichś konkretnych przeszkód powstrzymujących rozwój TDM. Gdybyśmy potrafili najpierw uzgodnić, jakie warunki są związane z prawem do maszynowej analizy (right to mine); gdybyśmy mieli 100% pewności, gdzie jesteśmy z jakimś zestawem danych lub podejściem badawczym, wtedy moglibyśmy zacząć budować w zrównoważony i odpowiedzialny sposób, wychodząc z tego punktu. Kiedy to już uzyskamy, będziemy potrzebować więcej dobrej jakości otwartych treści, co, jak sądzę, będzie możliwe dzięki infrastrukturze. Najpierw jednak potrzebne jest bardziej przejrzyste prawo.

Jak wiele zmienia w humanistyce “zwrot cyfrowy”? Czy dotyka podstawowych zasad prowadzenia badań?

Zwrot cyfrowy jest w pewnym sensie głębszy, niż jesteśmy gotowi przyznać: tylko nieliczni badacze pracowaliby dziś bez narzędzi takich jak JSTOR lub hybrydowe, analogowo-cyfrowe notatki i zapiski ze swoich badań. Ale odpowiedź na to pytanie zależy w dużej mierze od tego, czego oczekuje się od cyfrowości. Niektórzy oczekują całkowitej przemiany swojej pracy – to jest wciąż mniejszość i, jak każde podejście metodologiczne, nie spodziewam się, by wszyscy aż tak głęboko je sobie przyswoili. Raczej spodziewam się osiągnięcia powszechnej akceptacji i uznania znaczenia tych metod. Moją odpowiedź komplikuje również sama natura dostępnych narzędzi. Obecnie wiele cyfrowych narzędzi zostało zaadoptowanych z ekosystemów obcych badaniom humanistycznym. Czasem działają, ale w wielu wypadkach nie uwzględniają całego bogactwa humanistycznych badań. Uważam więc, że w humanistyce zwrot cyfrowy nie ujawnił jeszcze wszystkich swoich możliwości. Zwrot cyfrowy w humanistyce będzie niekompletny, dopóki nie stworzymy środowiska badawczego, które naprawdę obejmie mocno zakorzenione, utrwalone i nieoczekiwane aspekty badań humanistycznych.

Jakie są pani zdaniem możliwości szerszej współpracy w środowisku cyfrowym między naukowcami z obszaru humanistyki i nauk ścisłych? Które narzędzia z zakresu otwartej nauki mogą stymulować taką współpracę?

Według mnie ekscytacja humanistyką cyfrową bierze się z tego, że oferuje ona badaniom humanistycznym podejście translatorskie, pozwala zastosować to, co zasadniczo nie wykracza poza bardzo podstawowe badania. Umożliwia jednak pracę we współpracy z innymi użytkownikami, dyscyplinami i metodami. Jeśli jesteśmy w stanie znaleźć skuteczniejsze sposoby dzielenia się wiedzą i potwierdzaniem jej wartości „na żywo”, to ten potencjał będzie rosnąć. Otwarte dane będą odgrywały tu rolę kluczową, o ile nie zostaną zostawione same sobie. Ważniejsze będzie na przykład rozwinięcie w Europie możliwości odkrywania nowych zawodowych ścieżek łączących bibliotekarzy, badaczy i pracowników nienaukowych z kompetencjami technicznymi. Potrzebujemy tych hybrydowych ludzi; oni są jak mosty zawiązujące dialog i zbierające razem różne dyscypliny. Są dobrzy ludzie, którzy ad hoc wchodzą w te przestrzenie, ale jest ich za mało. Często zderzają się ze sztucznymi przeszkodami, które powstrzymują ich przed przechodzeniem między obszarami specjalizacji i nie pozwalają im uzyskać sprawczości. Gdybyśmy potrafili zoptymalizować cały system, tak by tacy pośrednicy mogli być skuteczni, współpraca znacząco by wzrosła.

 

Archiwangelista otwartego dostępu. Ostatni wywiad?

Na pytania Otwartej Nauki zgodził się odpowiedzieć Stevan Harnad, wybitny przedstawiciel ruchu na rzecz otwartego dostępu. Jest autorem słynnej Przewrotnej propozycji, założycielem czasopism „Psycoloquy” oraz „Behavioral and Brain Sciences”, twórcą i administratorem AmSciForum, jednym z głównych koordynatorów CogPrints Initiative (żeby wymienić tylko niektóre z jego zasług). Nie trzeba przedstawiać go nikomu, kto choćby pobieżnie zna historię ruchu otwartego dostępu. Jest profesorem kognitywistyki na Université du Québec à Montréal oraz University of Southhampton, a także członkiem zewnętrznym Węgierskiej Akademii Nauk, doktorem honoris causa Uniwersytetu w Liège. Jako kognitywista specjalizuje się w zagadnieniach kategoryzacji, komunikowania się i świadomości. Jednak nawet jego polemika z Johnem Searlem na temat „Chińskiego Pokoju” nie przysporzyła mu tyle rozgłosu, co działalność na rzecz otwartego dostępu.

Archiwangelista1

Często przyjmuje się, że ruch otwartego dostępu rozpoczął się wraz z „Przewrotną propozycją”: apelem do kolegów naukowców, by udostępniali swoje już wcześniej opublikowane w czasopismach naukowych artykuły za pośrednictwem otwartych repozytoriów tak, by każdy, kto ma dostęp do Internetu, mógł je przeczytać. Przygoda Stevana Harnada z otwartymi wydawnictwami naukowymi zaczęła się jednak jeszcze wcześniej. De facto zaczęła się ona już w 1978 roku, gdy założył czasopismo „Behavioral and Brain Sciences”, które stosowało system otwartych komentarzy recenzenckich. Właśnie ten sposób uzupełnienia tradycyjnego peer review wyróżniał czasopismo spośród innych. Kopie każdego przyjętego do publikacji artykułu były rozsyłane do około 100 ekspertów w danej dziedzinie na całym świecie. Ich krótkie komentarze wraz z odpowiedziami autora były publikowane razem z samym artykułem. Stevan Harnad w wywiadzie z Richardem Poynderem z 2007 roku dał do zrozumienia, że to właśnie praca w tym czasopiśmie sprawiła, że zaczął się zastanawiać nad sposobami na to, by więcej ludzi mogło skorzystać z dobrodziejstw otwartego komentowania - chociaż czasopismo było publikowane w „erze papierowej” i technologicznie nie było w stanie nawet zbliżyć się do czegoś, co możnaby nazwać otwartym dostępem. Gdy w latach osiemdziesiątych Harnad zetknął się ze zdobywającym właśnie popularność Usenetem, jego dojrzewające idee nareszcie spotkały technologię, która umożliwiała ich urzeczywistnienie. Harnad nazwał nowopowstałą ideę "pisaniem na niebie" („skywriting”). Otwarty dostęp do literatury naukowej wydawał się wtedy po prostu logicznie niezbędnym rozwiązaniem - jako warunek konieczny do urzeczywistnienia „skywritingu”.

Stevan Harnad był w ruchu otwartego dostępu od samego początku jego istnienia, a nawet o wiele dłużej niż istnieje sam termin „otwarty dostęp”. Termin powstał przecież dopiero w 2002 roku wraz z BOAI, Budapeszteńską Inicjatywą na rzecz Otwartego Dostępu. Przez szereg lat Harnad wyrażał swoje opinie o komunikacji i wydawnictwach naukowych w ogólności oraz o stanie otwartego dostępu w szczególności zarówno za pośrednictem American Scientist Open Access Forum (aktualnie „Globalna lista na temat otwartego dostępu”, „Global Open Access List”, GOAL), jak i na blogu „Open Access Archivangelism”.

100% Zielonego OD Gratis
Harnad przez wiele lat argumentował na rzecz zielonej drogi OD. Według niego, priorytetem OD jest wypełnienie artykułami naukowymi przez społeczność akademicka instytucjonalnych repozytoriów naukowych. Gdy już wszystkie opublikowane artykuły zostaną w ten sposób udostępnione bez żadnego opóźnienia, wydawcy czasopism naukowych, by przetrwać, będą musieli zmienić swój model biznesowy. Samorzutnie powstanie wtedy model, który Harnad nazywa „prawdziwym złotem” („Fair Gold”), a w którym wszystkie czasopisma naukowe są dostępne w sposób otwarty, zaś rola wydawców ogranicza się do koordynacji procesu peer review. Nawiązuje tu do tzw. złotej drogi OD, czyli takiego modelu, w którym sami wydawcy udostępniają za darmo publikacje. Często wiąże się to z obowiązkiem poniesienia opłaty przez autora lub jego instytucję, tzw. Article Processing Charges (APC).  Duży wysiłek i koszty, które przeznaczane są na uzyskanie OD libre (szczególnie w oparciu o licencje Creative Commons w wersji CC-BY), są wg Harnada przedwczesne, dopóki literatura naukowa nie będzie w 100% otwarta w tanim modelu zielonej drogi gratis (OD gratis, w przeciwieństwie do OD libre, nie przyznaje czytelnikom szerszych uprawnień niż wynikające z przepisów prawa autorskiego o dozowlonym użytku). Te przedwczesne wysiłki mogą nawet opóźnić osiągnięcie pożądanego stanu, ponieważ duża część środków trafia w ręce komercyjnych wydawnictw naukowych, których celem jest opóźnianie przejścia na „prawdziwe złoto” OD tak bardzo, jak to tylko możliwe.

„Emerytura”
Wygląda jednak na to, że długa era „archiwangelizacji” Harnada zbliża się do końca. Niemal 22 lata po opublikowaniu „Przewrotnej propozycji”, podczas dyskusji na Twitterze Harnad dał do zrozumienia, że zamierza porzucić rolę adwokata otwartego dostępu.

Tomasz Lewandowski skontaktował się ze Stevanem i zapytał go o szczegóły dotyczące decyzji, kontekst, w jakim została podjęta oraz plany na przyszłość. Stevan okazał się na tyle uprzejmy , że z tego pytania narodził się cały wywiad. Podsumowuje on karierę Stevana Harnada jako Archiwangelisty.

 

WYWIAD

Tomasz Lewandowski: Czy mógłby Pan opowiedzieć o tym, czym się Pan zajmuje naukowo?

Stevan Harnad: W moich badaniach koncentruję się na tym, jak mózg przyswaja nowe kategorie i w jaki sposób wpływa to na nasze postrzeganie, jak również na problemie nabierania znaczenia przez symbole (symbol grounding problem; jak powstaje znaczenie słowa?) oraz na pochodzeniu języka i na jego znaczeniu adaptacyjnym. Zajmuję się też Testem Turinga (jak i dlaczego organizmy potrafią robić wszystko to, co potrafią? jaki mechanizm im to umożliwia?) i świadomością (kwestia tego, jak i dlaczego organizmy czują). Ponadto zajmuję się również naukometrią otwartego dostępu (jak OD wpływa na siłę oddziaływania badań naukowych i jak polityki OD wpływają na sam OD). Jestem też redaktorem czasopisma Animal Sentience: An Interdisciplinary Journal on Animal Feeling i rozpoczynam badania nad odczuwaniem przez zwierzęta oraz nad ludzką empatią.

Teraz chciałbym się odnieść do Pańskiego tweeta - obecnie już dość znanego - o rezygnacji z dalszej aktywności w roli Archiwangelisty otwartego dostępu. Jaki był kontekst tej decyzji? I co dalej?

W samej konwersacji na Twitterze kontekst był taki, że Mike Eisen (jeden ze współzałożycieli PLoS) sugerował, że w opinii prawników i w świetle prawa autorskiego rozsyłanie kopii lub preprintów publikacji naukowych na prośbę pojedynczych osób jest nielegalne. Uważam, że to stwierdzenie jest pod każdym względem nonsensowne. Nie jest to działalność nielegalna, nie jest uważana za nielegalną, a nawet gdyby była formalnie nielegalna, to i tak przecież wszyscy to robią. Wyegzekwowanie zakazu rozsyłania kopii byłoby zupełnie nierealne. Poza tym przez ponad pół wieku nikt nie zakwestionował tej praktyki!
Więc odpowiedziałem Mike’owi, że jest to z jego strony myślenie życzeniowe. (Mike jest orędownikiem otwartego dostępu, ale jest również jednym ze współzałożycieli oraz członkiem zarządu PLoS - odnoszącego sukcesy wydawnictwa publikującego w złotym OD. Między wydawcami a zwolennikami zielonej drogi otwartego dostępu (oraz rozsyłania kopii elektronicznych) zawsze istnieje konflikt interesów, niezależnie od tego, czy są to wydawcy publikujący w modelu płatnego dostępu czy otwartego dostępu. Więc chodziło mi o to, że Mike’owi zależy na tym, żeby rozsyłanie kopii było w jakiś sposób nielegalne i nie miało miejsca, bo stoi ono w sprzeczności z interesami tych, którzy chcą, by naukowcy płacili za publikowanie w czasopismach złotej drogi zamiast publikować w czasopismach z płatnym dostępem i samemu archiwizować i udostępniać swoje artykuły (jeżeli zależy im na otwartym dostępie).

Mike odpowiedział na to (równie ironicznie), że to ja jestem mistrzem myślenia życzeniowego. W pierwszej chwili chciałem znów odpowiedzieć w tym samym stylu, dowcipnie. Ale potem uznałem, że nie, przecież to prawda: od dawna chciałem, by cała recenzowana literatura naukowa została udostępniona w zielonym otwartym dostępie, i to moje życzenie się nie spełniło. Więc po prostu stwierdziłem fakt: Mike ma rację, ja przegrałem i rezygnuję z dalszej działalności.

Jeżeli jednak kiedyś okaże się, że moje życzenie ostatecznie się spełni, to tym lepiej. A jeżeli zamiast tego będziemy wszyscy przepłacać za złotą drogę otwartego dostępu („Fałszywe Złoto”, Fool’s Gold2), to też trudno, niech tak będzie. W końcu to też jest otwarty dostęp. Wielokrotnie już opisywałem mój własny scenariusz racjonalnego przejścia od modelu tradycyjnego do otwartego dostępu w wersji „prawdziwego złota” (Fair Gold), poprzez zieloną drogę, i ten scenariusz może jeszcze zostać zrealizowany. Ale zauważyłem, że w ostatnich kilku latach jedyne, co robię, to powtarzam w kółko to, co już wiele razy powiedziałem.

Uznałem więc, że cierpiące zwierzęta potrzebują mnie dużo bardziej niż społeczność naukowa. Nie oznacza to, że nie będzie mnie pod ręką wtedy, gdy zajdzie potrzeba, by coś dla otwartego dostępu zrobić lub powiedzieć - o ile będzie cokolwiek nowego do powiedzenia lub zrobienia. Ale powtarzanie tego samego w kółko pozostawiam innym. Swoją pracę już wykonałem.

Bekoff, M., & Harnad, S. (2015). Doing the Right Thing: An Interview With Stevan Harnad. Psychology Today.

Czy w czasie swojej działalności jako orędownik otwartego dostępu miał Pan takie momenty, kiedy czuł Pan, że wszystko idzie w dobrym kierunku i Pańska wizja wkrótce się ziści?

Wielokrotnie. Po raz pierwszy w roku 1994, gdy po raz pierwszy sformułowałem swoją „Przewrotną propozycję” (subversive proposal); myślałem wtedy, że za rok, najwyżej dwa, samoarchiwizacja stanie się powszechna. Potem sądziłem, że uruchomienie [repozytorium] CogPrints będzie punktem zwrotnym. Potem, że włączenie protokołu OAI w CogPrints. Potem stworzenie oprogramowania EPrints; wykazanie, że prace w otwartym dostępie są częściej cytowane; pojawienie się polityk instytucjonalnych zobowiązujących naukowców do korzystania z zielonej drogi OD; powstanie guzika copy-request3; pokazanie, co trzeba zrobić, by polityka zielonej drogi była skuteczna; i wreszcie zdemaskowanie „Fałszywego Złota” i Raportu Finch.

Ale teraz rozumiem już, że jak doskonały, nieunikniony i bezsprzeczny nie byłby rezultat, to umysł ludzki i ręka są po prostu zbyt niemrawe. Dlatego uznałem, że są sprawy o wiele, wiele ważniejsze, którym powinienem teraz poświęcić swój czas. Powiedziałem i zrobiłem tyle, ile byłem w stanie. Gdybym dalej zajmował się OD, tylko powtarzałbym to, co już wiele razy zostało powiedziane i zrobione.

Carr, L., Swan, A. & Harnad, S. (2011) Creating and Curating the Cognitive Commons: Southampton’s Contribution. In, Simons, Maarten, Decuypere, Mathias, Vlieghe, Joris and Masschelein, Jan (eds.) Curating the European University. Universitaire Pers Leuven 193-199.

W wywiadzie, którego udzielił Pan Richardowi Poynderowi w 2007 roku, nakreślił Pan wizję, ktorą można by określić mianem wewnętrznej historii idei ruchu otwartego dostępu. W początkowej fazie ruchu OD występowały - zgodnie z Pana koncepcją - dwa główne nurty ideowe. Jeden z nich zajmował się dostępnością literatury naukowej, drugi - jej przystępnością cenową. W pierwszym nurcie można ulokować Pańskie czasopismo BBS, a także arXiv i inne wczesne inicjatywy OD. W drugim nurcie znalazłaby się Ann Okerson, której wysiłki zmierzały do tego, by literatura naukowa była bardziej przystępna cenowo dla uniwersytetów (choć niekoniecznie dla szerokiej publiczności). I choć ten drugi nurt nie koncentrował się na dostępności literatury, to właśnie ich próby znalezienia modelu finansowego, który byłby do udźwignięcia dla środowisk naukowych, doprowadziły do powstania modelu APC (płatnej wersji złotej drogi OD). I z czasem nurt zajmujący się dostępnością literatury przekształcił się w orędowników zielonej drogi OD, a nurt zajmujący się kwestiami cenowymi w orędowników złotej drogi. I kiedy w ten sposób spojrzeć na ruch OD, jasno widzimy zawarte w nim wewnętrzne napięcie. Pojawia się myśl, że może oba nurty były niekompatybilne. Czy chciałby Pan jakoś to skomentować? Czy patrząc na ruch otwartego dostępu jako na pochodną dwóch odrębnych problemów: problemu dostępności literatury naukowej i problemu jej przystępności cenowej, sądzi Pan, że to w ogóle był kiedykolwiek jeden spójny ruch?

Po pierwsze, dwie drobne uwagi: (1) model odzyskania kosztów poprzez APC (płatna złota droga) pojawił się już wprost w 1994 roku w “Przewrotnej propozycji”, wraz z założeniem, że powszechna samoarchiwizacja w zielonym modelu jest niezbędna jako etap wstępny. (2) Ann Okerson nie była specjalną rzeczniczką opłat APC jako rozwiązania problemu przystępności; opowiadała się przede wszystkim za licencjonowaniem.

Przystępność cenowa jest tylko jednym z aspektów dostępności: gdyby nie było problemu z dostępnością - gdyby dostęp nie był badaczom potrzebny albo byłby już w jakiś sposób zapewniony - wtedy kwestia ceny nie byłaby problemem, albo byłaby bardzo drobnym problemem. I też odwrotnie: gdyby nie było problemu z przystępnością, wtedy dostęp również nie byłby problemem. Ale przystępność cenowa zawsze była problemem, z którym bezpośrednio stykali się bibliotekarze akademiccy („kryzys wydawnictw seryjnych”; ang. „serials crisis”), zaś kwestia dostępności dotykała samych naukowców. Wydawało się, że rozwiązaniem problemu przystępności powinno być obniżenie cen czasopism, podczas gdy rozwiązaniem problemu dostępności byłoby otwarte udostępnienie przez samych badaczy ostatecznych, zrecenzowanych wersji autorskich wszystkich artykułów - w taki sposób, jaki umożliwiła nam epoka cyfrowa, czyli poprzez ich samoarchiwizację w repozytoriach instytucjonalnych (co z czasem zaczęto nazywać „zieloną drogą OD”).

Ostateczne rozwiązanie obydwu problemów byłoby, oczywiście, następujące: (1) powszechna samo-archiwizacja w zielonym modelu OD, potem (2) powszechna rezygnacja z prenumerat czasopism przez instytucje naukowe, (3) cięcie kosztów przez wydawców poprzez likwidację wszystkich niepotrzebnych, przestarzałych usług i produktów, i wreszcie (4) przejście na model, w którym instytucje zatrudniające autorów płacą z góry za rzeczywiste, niezbędne usługi - czyli za obsługę procesu recenzyjnego (model, który z czasem zaczęto określać mianem „złotej drogi OD”).

Ale ta optymalna wersja złotej drogi byłaby możliwa (i zostało to jasno powiedziane już w 1994 r. w „Przewrotnej Propozycji”) tylko, gdyby najpierw nastąpił etap wstępny, polegający na powszechnym dostępie publikacji w zielonym modelu, który zapewniłby wszystkim dostęp i umożliwiłby rezygnację z prenumerat, a w konsekwencji doprowadziłby do ograniczenia działalności wydawców i zmusiłby ich do przestawienia się na złotą drogę. Natomiast gdy pomijamy wstępny etap zielonej drogi, jedynym sposobem osiągnięcia otwartego dostępu w złotej wersji jest zapłacenie rozdętych opłat za „fałszywe złoto”, co wcale nie rozwiązuje problemu przystępności cenowej, bo wszystkie niepotrzebne i przestarzałe usługi są wliczone w koszt pojedynczego artykułu. Również pomysł globalnego „przeskoku” wszystkich czasopism świata do modelu „fałszywego złota” jest niespójny, co jest jasne dla każdego, kto się nad tym zastanawia.

W poszukiwaniu przedwczesnych rozwiązań problemu przystępności cenowej, daliśmy się zatem ponieść „gorączce fałszywego złota”. Realne, stabilne przejście do OD w modelu „prawdziwego złota”, który byłby przystępny cenowo, skalowalny i możliwy do utrzymania w długiej perspektywie, będzie możliwe tylko wtedy, gdy najpierw instytucje prowadzące i finansujące badania naukowe zaczną wymagać zielonej drogi OD.

Harnad, S (2014) The only way to make inflated journal subscriptions unsustainable: Mandate Green Open Access. LSE Impact of Social Sciences Blog 4/28.

Kiedyś zdefiniował Pan otwarty dostęp jako dostęp stuprocentowy - czyli albo mamy 100% otwartego dostępu, albo nie mamy go wcale, bo dopiero 100% doprowadzi tradycyjnych wydawców do upadku. Jest to całkiem uczciwa definicja, jednak w świetle naszej dotychczasowej rozmowy sądzę, że przydatna byłaby również definicja operacyjna. Pozwolę więc sobie zapytać: co musiałoby się wydarzyć, żeby powiedział Pan „O, teraz mamy już otwarty dostęp w świecie akademickim”?

Proszę spojrzeć na moją powyższą wypowiedź: „Realne, stabilne przejście do OD w modelu „prawdziwego złota”, który byłby przystępny cenowo, skalowalny i możliwy do utrzymania w długiej perspektywie, będzie możliwe tylko wtedy, gdy najpierw instytucje prowadzące i finansujące badania zaczną wymagać zielonego OD”. Dopóki nie ma 100% zielonego OD, nie można zrezygnować z prenumerat czasopism.

Fragmentaryczne, lokalne przejścia do „fałszywego złotego OD” - obejmujące pojedynczy kraj, instytucję, agencję finansującą naukę, dziedzinę naukową, czy pojedynczego wydawcę - nie tylko podnoszą sumaryczne koszty dostępu do literatury, skoro prenumeraty nadal funkcjonują wszędzie wokół, ale również odciągają uwagę od tego, co jest naprawdę konieczne, czyli przyjęcia zasad zielonego OD przez wszystkie instytucje prowadzące i finansujące badania. Chodzi tu o zielony OD w postaci następującej: deponowanie prac naukowych natychmiast po przyjęciu do publikacji plus albo natychmiastowy OD, albo guzik copy-request. Zielony OD - w przeciwieństwie do „fałszywego złota” - może być sensownie wprowadzany po kawałku (przez pojedynczy kraj lub instytucję).

Oczywiście wydawcy doskonale to wszystko wiedzą, dlatego wkładają tyle wysiłku we wprowadzenie zasady embargo dla zielonego OD, tak by ci, którym zależy na otwartym dostępie, musieli płacić za „fałszywe złoto”, zamiast korzystać z zielonej drogi.

Sale, A., Couture, M., Rodrigues, E., Carr, L. and Harnad, S. (2014) Open Access Mandates and the 'Fair Dealing' Button. In: Dynamic Fair Dealing: Creating Canadian Culture Online (Rosemary J. Coombe & Darren Wershler, Eds.).

A jak będzie wyglądać świat komunikacji naukowej, gdy już uda się osiągnąć 100% otwartego dostępu? Czy wpłynie to jakoś na całokształt modelu komunikacji naukowej?

Z chwilą gdy zielony OD będzie obowiązywać wszystkich nastąpi przejście do „prawdziwego” złotego OD, w którym proces recenzyjny pozostanie jedyną usługą zapewnianą przez wydawców; będzie on finansowany przez instytucje naukowe, co pochłonie jedynie część pieniędzy zaoszczędzonych dzięki rezygnacji z prenumerat. A kiedy wszystkie artykuły naukowe będą już otwarte i będzie można je przeszukiwać maszynowo, wkrótce pojawią się także otwarte dane, a wraz z nimi otwarta nauka. Postęp i współpraca w nauce wtedy bardzo przyspieszą, a my będziemy dysponować bogatym repertuarem  (otwartych) wskaźników, które pozwolą nam oceniać postęp naukowy oraz produktywność i wpływ nauki.

Harnad, Stevan (2013) The Postgutenberg Open Access Journal (revised). In, Cope, B and Phillips, A (eds.) The Future of the Academic Journal (2nd edition). 2nd edition of book Chandos.

Pańska wypowiedź, że w sprawie otwartego dostępu wydawnictwo Elsevier jest „po stronie aniołów”, zaczęła żyć własnym życiem. Wypowiedział się Pan w ten sposób w 2007 r., po tym jak Elsevier określił swoją politykę wobec zielonej drogi OD. Podtrzymywał Pan ten pogląd również wtedy, gdy bojkot Elseviera „Cost of Knowledge” był w swojej szczytowej fazie. Nawet w 2013 r., gdy Elsevier wyłączył ze swojej polityki naukowców objętych wymaganiami instytucjonalnymi, nadal trzymał się Pan swego poglądu. Jeszcze w 2015 r. Michael Eisen miał to Panu za złe. Czy mógłby Pan przypomnieć, w jakim kontekście padło to zdanie i co dokładnie miało znaczyć? Czy nadal podtrzymuje Pan ten pogląd?

Sformułowanie „strona aniołów” zawsze było takim chwytem, służącym powstrzymaniu Elsevier’a przed wprowadzaniem coraz dłuższych okresów embargo; było udzieleniem swoistego kredytu, z którego mógłby korzystać w celach PR-owych, w walce ze spadającym na niego odium ze strony bibliotekarzy i autorów. Elsevier to rozumiał, ja to rozumiałem, i rozumiał to również każdy, kto patrzył na sprawy realistycznie i wiedział, o co toczy się gra.

Poza tym nigdy nie wierzyłem w bojkoty (wszystkie dotychczasowe bojkoty były nieudane, co potwierdza słusznąć mojej niewiary), tylko wierzyłem w nakładane zobowiązania (choć nie zdominowały one krajobrazu w stopniu, w jakim się spodziewałem).

Ale trzeba tu zwrócić uwagę na rzecz mniej trywialną. Mianowicie nie należy postrzegać wydawców jako głównej przeszkody na drodze do OD, choć jest zupełnie pewne i nieuniknione (tak jak pewny i nieunikniony jest sam otwarty dostęp), że będą korzystać ze wszystkich możliwych sztuczek, by odwlekać zieloną drogę OD tak długo, jak tylko się da. Główną przeszkodą są ci, którzy na otwartym dostępie bezpośrednio najbardziej  skorzystają: sami naukowcy. (Najwięcej korzyści niebezpośrednich odniosą oczywiście podatnicy, którzy finansują naukę i naukowców).

Gdyby naukowcy na całym świecie byli mniej niemrawi i potulni, i gdyby z własnej inicjatywy udostępniali swoje prace w zielonym OD już w 1994 r. (już wtedy robili tak od ponad dekady informatycy i fizycy, korzystając z każdej nowej technologii i zupełnie nie przejmując się opinią wydawców), wtedy już dawno osiągnęlibyśmy optymalny stan rzeczy.

Ale większość naukowców tego nie zrobiła. Dlatego wciąż zajmujemy się wprowadzaniem polityk otwartego dostępu (przy czym wiele z nich jest słabych, więc nie przynoszą efektów) i rozważaniami, jak dokładnie takie polityki powinny wyglądać.

Vincent-Lamarre, P, Boivin, J, Gargouri, Y, Larivière, V & Harnad, S (2016) Estimating open access mandate effectiveness: The MELIBEA Score. Journal of the Association for Information Science and Technology (JASIST), 67.

Z jednej strony, wielcy tradycyjni wydawcy coraz bardziej angażują się w otwarty dostęp, wprowadzają polityki samoarchiwizacji i opcje OD do swoich starych czasopism, a także zakładająa nowe otwarte czasopisma. Obserwujemy to odkąd Elsevier kupił BioMed Central w 2008 r. Z drugiej strony, ich przychody pozostają tak samo duże, a może nawet jeszcze wzrosły. Wielokrotnie pisał Pan o zjawisku „podwójnych zysków” (double-dipping). Nawiązując do Pańskiej odpowiedzi na poprzednie pytanie: czy mógłby Pan rozwinąć wątek wielkich komercyjnych wydawców naukowych i ich stosunku do otwartego dostępu? Czy może podzielić się Pan swoimi przewidywaniami, jak w najbliższej przyszłości będzie wyglądał ten biznes? 

Wciąż uważam, że w zasadzie bez znaczenia jest to, co wydawcy mówią lub robią. To wyłącznie naukowcy opóźniają proces. To ich instytucje i agencje finansujące mogą zapewnić, że naukowcy będą robić, co do nich należy (to, co jest optymalne, a zarazem nieuniknione). Ale jest już za późno, by zrobili to tak szybko, jak to było możliwe.

Oferowane przez wydawców „fałszywe złoto” służy wyłącznie rozpraszaniu uwagi, zostało zaprojektowane w celu odwlekania optymalnego i nieuniknionego rezultatu (i wydawcy doskonale o tym wiedzą).

Tak więc wszystko zależy od tego, jak szybko instytucje i wydawcy przyjmą w skali globalnej skuteczne zobowiązania do zielonego OD. Jedynym sposobem, by można było przestać prenumerować czasopisma, jest powszechna dostępność zielonej drogi OD. Dopóki nie będzie można zaprzestać prenumerowania czasopism, dopóty wydawcy nie zostaną przymuszeni do zrezygnowania ze swoich przestarzałych produktów i usług, pochodzących z ery Gutenberga (np. wydania drukowane, wydania online, archiwizowanie i pobieranie opłat za dostęp), zmniejszenia kosztów, ograniczenia swojej działalności do jedynej istotnej usługi, jaka w erze post-gutenbergowskiej pozostała wydawcom czasopism recenzowanych (czyli do zarządzania procesem recenzyjnym, w którym naukowcy bezpłatnie dostarczają swoje badania i recenzje). W ten sposób wydawcy osiągną drogę „prawdziwego” złotego OD i będą pobierać opłaty adekwatne do ponoszonych przez nich minimalnych kosztów.

Harnad, S. (2010) No-Fault Peer Review Charges: The Price of Selectivity Need Not Be Access Denied or Delayed. D-Lib Magazine 16 (7/8).

Powiedział Pan, że nawet jeśli zwycięży przepłacone “fałszywe złoto”, to nadal będzie to otwarty dostęp. W takim razie (nawiązując do dwóch nurtów ruchu OD), czy według Pana dostępność jest ważniejsza od przystępności cenowej? Dostępność bez oglądania się na koszty?

Jeśli cała Ziemia wybierze „fałszywe złoto” jako powszechne rozwiązanie, zamiast wdrażać zobowiązania do zielonej drogi OD i uzyskać w ten sposób otwarty dostęp plus „prawdziwy” złoty model - będę zadowolony. Głupcy zawsze będą niepotrzebnie tracić pieniądze, a moim jedynym, prawdziwym celem od samego początku jest powszechny OD, najszybciej jak to możliwe.

Opisałem już, dlaczego zwalczam „gorączkę złota” i drwię z niej. „Fałszywy” złoty OD jest rozdmuchany, za drogi, nie skaluje się i nie da się go utrzymać – stąd, jak wnoszę, jest też nieosiągalny. To jest odciąganie uwagi i energii od jedynej drogi do powszechnego OD, która - jak uważam - będzie działać, a tą drogą jest zielony OD i samoarchiwizacja, wdrożona w skali globalnej za pomocą zobowiązań nakładanych przez instytucje uprawiające i finansujące naukę.

Na świecie jest wiele polityk otwartego dostępu, wprowadzonych tak przez instytucje naukowe i agencje finansujące, jak i przez różnych innych interesariuszy. ROARMAP obecnie uwzględnia ponad 700 polityk. Wydaje się, że uważał Pan w 2007 r., że otwarte mandaty wystarczą do osiągnięcia 100% publikacji udostępnionych poprzez zieloną drogę OD. Dziś mamy prawne zobowiązania do otwartego dostępu wprowadzone i sprawdzone w praktyce – jest ich obecnie o ponad 500 więcej niż w 2007 r. Czemu uważa Pan, że mimo wszystko wciąż nie jesteśmy ani o krok bliżej celu?

Jesteśmy bliżej, ale nie tak blisko, jak moglibyśmy i powinniśmy być, ponieważ wciąż polityk OD jest za mało, a wiele z tych, które obowiązują, są niepotrzebnie słabe i nieskuteczne.

Jak powinno zostać sformułowane idealne, mocne i skuteczne zobowiązanie do OD? Czy takie zobowiązanie zostało gdziekolwiek wdrożone?

Oto najważniejsze cechy skutecznego zobowiązania do zielonej drogi OD:

(1) musi wymagać zdeponowania publikacji w repozytorium niezwłocznie po przyjęciu jej przez redakcję (a nie po okresie embargo);
(2) musi wymagać zdeponowania ostatecznej, zrecenzowanej wersji autorskiej (a nie PDF wydawcy);
(3) musi wymagać zdeponowania w instytucjonalnym repozytorium autora (a nie w repozytorium zewnętrznym wobec instytucji);
(4) niezwłoczne zdeponowanie musi być warunkiem wstępnym wymaganym przy ewaluacji pracy badacza;
(5) repozytorium musi mieć opcję guzika copy-request;
(6) niezwłoczne zdeponowanie nie musi koniecznie oznaczać niezwłocznego OD (o ile funkcjonuje przycisk).

Harnad, Stevan (2015) Open Access: What, Where, When, How and Why. In: Ethics, Science, Technology, and Engineering: An International Resource eds. J. Britt Holbrook & Carl Mitcham, (2nd edition of Encyclopedia of Science, Technology, and Ethics, Farmington Hills MI: MacMillan Reference).

Już 10 lat temu uważał Pan, że postęp w samoarchiwizacji odbywa się zbyt powoli. W artykule „Opening Access by Overcoming Zeno's Paralysis” opisał Pan społeczność akademicką jako przytłoczoną tym, co nazwał Pan „paraliżem Zenona”. Stąd można sądzić, utrzymuje Pan, że problem jest natury psychologicznej. Inni widzą problem raczej jako systemowy. Cały system komunikacji naukowej, który w ostatnich latach rozwijał się zgodnie z zasadą „publikuj albo zgiń”, wykształcił zbyt wiele bodźców popychających naukowców w błędną stronę, a zbyt mało zachęt nakierowujących ich w kierunku OD. Czy z perspektywy lat stawia Pan taką samą diagnozę? Kto jest winien: naukowcy, czy system, w którym przyszło im pracować?

Winni są: (1) sami naukowcy, ponieważ nie zapewniają zielonego OD z własnej woli, bez formalnego zobowiązania; (2) instytucje naukowe i agencje finansujące, ponieważ ślamazarnie wprowadzają zobowiązania i są tak powolne w ich optymalizacji.

Kwestie systemowe, związane z finansowaniem badań, z publikowaniem i ocenianiem (recenzje, długi czas między wysłaniem tekstu a publikacją, zasada „publikuj albo zgiń”, współczynnik wpływu, ewaluacja, data-mining, licencje pozwalające na ponowne wykorzystanie, etc.), to są realne problemy, ale one nie wiążą się z dostępem. Sprowadzanie ich do wspólnego mianownika ze znacznie prostszym problemem zapewnienia natychmiastowego, bezpłatnego dostępu on-line do recenzowanych wyników badań, dla wszystkich potencjalnych użytkowników, było i jest ogromnym błędem.

Ma Pan na myśli naukowców jako naukowców, czy naukowców jako istoty ludzkie? Jeśli to pierwsze, to co czyni tę konkretną grupę tak ślamazarną, jak to Pan opisuje? Wcześniej wspomniał Pan o „umyśle ludzkim”.

Wcześniej mówiłem „umysł ludzki”, ale teraz mówię o umyśle „akademickim” (choć pewnie można pokusić się o sąd bardziej generalny, jako że akademik jest przecież istotą ludzką wykonującą pewien zawód…). Muszę wyznać, że nie rozumiem, dlaczego zajmuje to tak wiele czasu akademikom. Niektórzy mówią, że to skutek przepracowania, ale moim zdaniem to wyraz samousprawiedliwiania się, prawdopodobnie nieuzasadnionego w przypadku większości pracowników naukowych. Poza tym, samoarchiwizacja artykułu w zasadzie nie zabiera w ogóle czasu (nawet naukowcy postępujący według zasady „publikuj albo zgiń” nie publikują rocznie aż tak wielu artykułów!).

W sekcji pomocy w dziale samoarchiwizacji na stronie BOAI próbowałem zdiagnozować i skatalogować wiele przyczyn „paraliżu Zenona”. Ostatnio było ich nie mniej niż 38. Dwie najważniejsze to lenistwo i strach przed wydawcami.

Harnad, S. (2006) Opening Access by Overcoming Zeno's Paralysis, in Jacobs, N., Eds. Open Access: Key Strategic, Technical and Economic Aspects, Chapter 8. Chandos.

Obecnie nie mówi się już tak często o zwykłym OD. Pojęcie jest oczywiście często używane i jest rozpoznawalne. Często jednak zamiast niego używa się zwrotów: „dostęp publiczny” (Public Access), zwłaszcza, gdy chodzi o OD gratis, albo „otwarta nauka” (Open Science), kiedy myśli się o OD libre. Czy według Pana OD jest nieodłączną częścią otwartej nauki (a może otwartych danych)? Czy też jest to raczej niezależny cel, możliwy do osiągnięcia odrębnymi środkami, który został wrzucony do dużego, luźnego worka z napisem „otwarta nauka” ze względów czysto retorycznych?

Powszechny, bezpłatny dostęp online do recenzowanych wyników badań (OD) – chodzi o OD gratis, w zielonym modelu – jest nie tylko pierwszym i najważniejszym celem, ale też od dawna był i nadal jest celem całkowicie i natychmiastowo osiągalnym dla wspólnoty naukowej. Po prostu nikt tego nie zrozumiał. Nie możemy mieć OD libre i licencji CC-BY, dopóki nie będziemy mieć wcześniej OD gratis. I nie będziemy mieć otwartej nauki bez OD libre i CC-BY. A z otwartych danych, nawet na licencji CC-BY, jest niewielki pożytek, jeśli opierające się na nich recenzowane artykuły nie są otwarte.

Tak jak optymalny i nieunikniony rezultat OD został opóźniony przez przedwczesną „gorączkę złota”, tak też został opóźniony przez próby zdobycia przedwcześnie OD libre, CC-BY i otwartej nauki, bez uprzedniego zadbania o powszechne zobowiązania do zielonego OD gratis. (Nazwałem to „zachwytem nad prawami”)4.

Harnad, S. (2013). Worldwide open access: UK leadership? Insights, 26(1).

Zostawiając na boku otwarty dostęp, czym zajmuje się Pan jako naukowiec?

Moje badania dotyczą tego, jak ludzie postrzegają kategorie. Kategoryzowanie to robienie właściwych rzeczy z właściwym rodzajem rzeczy: podejść do tego, unikać, zjeść to, zakolegować się, coś z tym robić, jakoś to nazwać, opisać to. Kategorie są rodzajami i, abyśmy przetrwali i odnieśli sukces, nasze mózgi muszą znaleźć cechy, które odróżniają elementy należące do danej kategorii od elementów nie należących do niej.

Mówię, że „nasze mózgi” to robią, ponieważ często kategoryzujemy nie mając w ogóle świadomości, jak to robimy. Moja dziedzina, kognitywistyka, jest poświęcona „odwrotnej inżynierii” tych mechanizmów w naszym mózgu, które umożliwiają nam robić to wszystko, co robimy. Ostatecznym celem jest stworzenie modelu, który zdałby Test Turinga, czyli byłby w stanie robić wszystko to, co my robimy.

W laboratorium badani uczą się nowych kategorii (np. nowych rodzajów kształtów) metodą prób i błędów, przy czym otrzymują informację zwrotną, czy mają rację czy nie. Obserwujemy, co się dzieje w ich mózgach podczas nauki, a także modelujemy ten proces za pomocą symulacji komputerowych w sieciach neuronowych, które staramy się „nauczyć” tych samych kategorii.

Umiejętność uczenia się kategorii z bezpośredniego doświadczenia prób i błędów jest wspólna dla wielu gatunków, ale to nie jest jedyna metoda uczenia się kategorii. Nasz gatunek wyróżnia się tym, że potrafimy uczyć się kategorii także werbalnie: ktoś, kto wie, jakie cechy odróżniają elementy należące do danej kategorii od elementów do niej nienależących, może nam to wyjaśnić. Prawie wszystkie słowa w słowniku są nazwami kategorii, a każde zostało zdefiniowane. Jeśli więc trafisz na słowo, którego znaczenia nie znasz, możesz sprawdzić jego definicję. A co jeśli nie znasz znaczenia słów składających się na tę definicję? Je także możesz sprawdzić! Nie może to jednak ciągnąć się w nieskończoność. W przeciwnym razie można by było przejść przez cały słownik niczego się nie ucząc. Nazywa się to problemem nabierania znaczeń przez symbole (symbol grounding problem). Znaczenie przynajmniej niektórych słów musi zostać poznane starym sposobem, wspólnym dla różnych gatunków: poprzez bezpośrednie doświadczenie bazujące na metodzie prób i błędów, które właśnie badamy w laboratorium. Dopiero mając podstawowy zasób słów możemy poznawać znaczenie nowych kategorii wyłącznie poprzez werbalne definicje.

Ile słów trzeba poznać doświadczalnie – i które? – by móc nauczyć się pozostałych wyłącznie posługując się werbalnymi definicjami? Pracujemy również nad tym problemem, analizując słowniki z wykorzystaniem teorii grafów. Ta liczba jest zaskakująco mała, poniżej 1500 słów dla największych przeanalizowanych dotąd słowników. Wydaje się, że słowa bazowe zazwyczaj są poznawane wcześniej, występują częściej i są bardziej konkretne, niż pozostałe. Spodziewamy się, że nasze badania przyniosą także kilka wskazówek co do początków i rozwoju języka, jak również co do jego funkcji adaptacyjnej: to język jest tym, co pozwala naszemu gatunkowi poznać nieskończenie więcej nowych kategorii niż jakiemukolwiek innemu gatunkowi. Co więcej, robimy to o wiele szybciej i bezpieczniej, łącząc nazwy już poznane w nowe kategorie. To właśnie to sprawia, że nauka jest w ogóle możliwa, i to właśnie doprowadziło do otwartego dostępu. Gdybyśmy 300,000 lat temu „kasowali” się nawzajem za uzyskanie płatnego dostępu do informacji o nowych kategoriach, język mógłby nigdy się nie rozwinąć (podobnie jak pieniądze!).

Związki między moimi badaniami nad dwoma sposobami poznawania kategorii i potrzebą otwartego dostępu zostały nakreślone przed dekadą w wywiadzie z Richardem Poynderem.

Poynder, R. & Harnad S. (2007) From Glottogenesis to the Category Commons. The Basement Interviews.
Blondin-Massé, A., Harnad, S., Picard, O. & St-Louis, B. (2013) Symbol Grounding and the Origin of Language: From Show to Tell. In: Lefebvre C, Comrie B & Cohen H (Eds.) Current Perspective on the Origins of Language, Benjamin.

Test Turinga: skuteczny czy nie? Czy pisemne porozumiewanie się na nieokreślony temat musi pociągać za sobą procesy, które możemy bezpiecznie nazwać poznawczymi, czy też chatboty pozostaną tym, czym są dziś? A dziś wydają się być znacznie bardziej podobne do algorytmów szachowych: w istocie są to zestawy sprytnych reguł heurystycznych połączone z obszernymi bibliotekami optymalnych sekwencji posunięć. ELIZA nie była nawet tym (tzn. nie miała biblioteki, a zasady heurystyczne nie były takie sprytne), a mimo to przechytrzyła całkiem sporą grupę ludzkich testerów.

Test Turinga nie jest 10-minutową pogawędką z chatbotem. Nie polega też na przechytrzeniu kogokolwiek. To jest naukowa próba przeprowadzenia odwrotnej inżynierii poznania, w której chodzi o odkrycie fundamentalnych mechanizmów przyczynowych. Turing stosuje kryterium zdolności do działania. Model musi być zdolny zrobić wszystko to, co potrafi zrobić zwykły człowiek, i to w sposób nieodróżnialny od człowieka (nawet przez całe życie). Turing sądził, że jeśli mechanizm będzie potrafił zrobić wszystko to, co my, a przy tym nie da się go odróżnić od wielu z nas, wtedy nie będziemy mieć lepszego powodu, by uznawać, że taki model ma umysł lub go nie ma, niż mamy powód, by uznawać, że ktokolwiek z nas ma umysł lub nie.

Ale z testem Turinga spotykamy się na kilku poziomach. Najbardziej znana jest wersja T2, w której sprawdzana jest tylko nieodróżnialność zdolności językowych (i to tylko przez e-mail). Ale mamy jeszcze wiele innych zdolności, i nasze zdolności werbalne są prawie zawsze zakorzenione w innych zdolnościach, jak to już wcześniej opisałem: T3 wymaga nieodróżnialności nie tylko w warstwie werbalnej, ale również w zdolnościach interakcji ze światem rzeczy, do których słowa się odnoszą. Stąd T3 jest nieodróżnialnością zdolności robotycznych (sensomotorycznych). (Można też wymagać T4, czyli nieodróżnialności aktywności neuronów wewnątrz głowy, ale to prawdopodobnie jest tylko niepotrzebne podwyższanie poprzeczki).

Harnad, S. (1992) The Turing Test Is Not A Trick: Turing Indistinguishability Is A Scientific Criterion. SIGART Bulletin 3(4) (October 1992) pp. 9 - 10.
Harnad, S. (2014) Turing Testing and the Game of Life: Cognitive science is about designing lifelong performance capacity not short-term fooling. LSE Impact Blog 6/10 June 10 2014.

Zgodził się Pan ze stwierdzeniem Turinga, że T2 i T3 są dokładnie tym, co robimy z innymi istotami ludzkimi w celu sprawdzenia, czy mają umysł. Dodał Pan, że test trwa całe życie, jeśli jest taka potrzeba. Czy to oznacza, że nie możemy być do końca pewni, czy inni ludzie mają umysły? Czy założenie, że racjonalność jest cechą drugiej osoby, jest jedynie konwencją wynikającą z uprzejmości?

Nie. Zasada, że zdolności mają być nieodróżnialne przez całe życie, ma na celu tylko wyeliminowanie krótkotrwałych sztuczek, które rzeczywiście służą wyłącznie wystrychnięciu kogoś na dudka. Test Turinga sprawdza dwa kryteria: po pierwsze, model musi posiadać naszą pełną zdolność działania; po drugie, nie jesteśmy w stanie odróżnić modelu od rzeczywistego człowieka. Można oszukać ludzi na krótką metę, dlatego jest ważne, aby ani test, ani zdolność nie ograniczały się do krótkiego czasu. W praktyce jednak uważam, że każdy robot, który mógłby wejść w interakcję z nami (i z całym światem) tak skutecznie, że nie dałoby się go rozpoznać przez kilka dni, prawdopodobnie byłby w stanie robić to również przez całe życie (tzn. miałby prawdopodobnie wszystkie nasze zdolności).

Stanisław Lew w jednym z epizodów „Powrotu z gwiazd” szkicuje obraz cmentarzyska robotów. Zepsute „automaty” oczekują w gigantycznym hangarze na stopienie i poddanie recyklingowi. Proces jest w pełni zautomatyzowany i nadzorują go wyłącznie inne roboty. Kiedy bohater powieści (astronauta, który wraca po 10-letniej podróży do Fomalhaut i, w związku ze zjawiskiem dylatacji czasu, wraca na Ziemię starszą o 127 lat) trafia do hali, obserwuje całe spektrum zachowań zepsutych robotów. Jeden wydaje się całkiem pomysłowy i, by uniknąć stopienia, udaje człowieka omyłkowo wziętego za robota. Inny najwyraźniej modli się.
Pan, jako kognitywista, wiele uwagi w swoich badań poświęca problemowi sztucznej inteligencji (AI). Gdyby AI zachowywała się w sposób przedstawiony przez Lema, to czy walczyłby Pan o prawa robotów tak samo jak walczy Pan o prawa zwierząt? Nawet gdyby okazało się, że Searle miał rację, i wszystkie roboty okazałyby się tylko searle’owskim Chińskim Pokojem?

Tak, jeśli tylko roboty będą nieodróżnialne od nas na poziomie T3, uznam, że potrafią one odczuwać, podobnie jak my. I walczyłbym o ich prawo do wolności od niepotrzebnego, spowodowanego przez człowieka cierpienia.

Ale czy nie dostrzega Pan ironii w oddawaniu się spekulacjom na temat literatury s-f, podczas gdy twarda rzeczywistość, bardzo zbliżona do tego, o czym Pan mówi, trwa niepowstrzymana, wszędzie i w każdej chwili, w tym samym czasie, gdy my rozmawiamy, a dotyka ona nie roboty, ale żywych, czujących członków gatunków innych niż nasz własny?

Harnad, S. (2014) Animal pain and human pleasure: ethical dilemmas outside the classroom. LSE Impact Blog 6/13 June 13 2014.

W Deklaracji o Świadomości z Cambridge (Cambridge Declaration on Consciousness) test lustra został wskazany jako istotny sposób rozróżniania różnych klas zwierząt ze względu na inteligencję. Co może Pan jako kognitywista powiedzieć laikowi na temat tych zwierząt, które „zdają” test lustra?

Zaprojektowanie robota, który potrafi zdać test lustra (czyli przemieszcza części swojego ciała posługując się lustrem), jest właściwie banalnie proste. I z całą pewnością nie oznacza to, że robot ma świadomość. Na marginesie: „być świadomym” oznacza „odczuwać”. Dotyczy to także zwierząt, które nie rozpoznają się w lustrze. Tak więc uważam test lustra po prostu za test pewnych wyższych zdolności poznawczych. Prawdziwe pytanie dotyczy tego, czy dany byt odczuwa. Jest bardzo wiele dowodów na to, że inne ssaki i inne wyższe kręgowce odczuwają podobnie jak odczuwają dzieci w przedwerbalnej fazie rozwoju. I prawie tak samo wiele dowodów na to, że odczuwają też niższe kręgowce i bezkręgowce.

Harnad, Stevan (2016) Animal sentience: The other-minds problem, Animal Sentience 2016.001.

Czy AI odgrywa znaczącą role w otwartej nauce? Albo czy mogłaby taką rolę odgrywać?

Odgrywałaby, gdybyśmy mieli otwartą naukę (ale nie mamy!). AI i uczenie maszynowe zostało już zastosowane do maszynowej analizy (data-mining) malutkiego fragmencika korpusu naukowego, który jest otwarty i dostępny online, ale możemy spodziewać się o wiele więcej – jeśli w końcu będziemy mieć otwarty dostęp.

Dror, I. and Harnad, S. (2009) Offloading Cognition onto Cognitive Technology. In Dror, I. and Harnad, S. (Eds) (2009): Cognition Distributed: How Cognitive Technology Extends Our Minds. Amsterdam: John Benjamins.

A teraz od drugiej strony: czy otwarta nauka (lub choćby jakiś jej aspekt, jak na przykład otwarte dane) mogłaby odgrywać znaczącą rolę w rozwoju AI?

Oczywiście, że mogłaby – tak jak mogłaby odgrywać znaczącą rolę w rozwoju każdej innej dziedziny nauki. Ale do tego potrzebna jest otwarta nauka. A do otwartej nauki potrzebny jest najpierw OD…

Zamiast więc marzyć o potencjalnych korzyściach z otwartej nauki, powinniśmy najpierw chwycić OD gratis, który od tak dawna jest w naszym zasięgu.

Nie wchodząc tutaj w szczegóły, można powiedzieć, że jesteśmy świadkami ogólnoświatowego trendu polegającego na odchodzeniu od liberalnej demokracji. Możemy nawet mówić o kryzysie modelu liberalno-demokratycznego. Czy ta sytuacja może wpłynąć na sposób, w jaki obecnie działa system nauki? A jeśli tak, to do jakiego stopnia?

Najjaskrawszym tego przykładem wśród liberalnych zachodnich demokracji jest ten, który ma miejsce teraz w sercu UE, w kraju mojego urodzenia, na Węgrzech. (Pański kraj, Polska, niestety wygląda tak, jakby miał zaraz dołączyć).
Pierwszy zamach obecnego węgierskiego reżimu na naukę miał miejsce w 2011 r. i okazał się, na szczęście, nieskuteczny. To jest jednak znaczący zwiastun tego, co czeka naukę i naukowców, jeśli antydemokratyczne zamachy reżimów na demokrację i prawa człowieka nie zostaną powstrzymane.

W każdym razie, nie porzuca Pan ostatecznie otwartego dostępu. Aktualnie jest Pan zaangażowany w badania naukometryczne nad otwartymi publikacjami. Czy mógłby Pan przybliżyć naszym czytelnikom tę gałąź wiedzy? Czy dowiedział się Pan z tych badań czegoś, co może zmienić pańskie poglądy na OD?

Naukometria ma swoich zwolenników i krytyków. Jeśli przemyśli Pan to, co Bradley powiedział o metafizyce - że „człowiek, który jest gotów udowadniać, że metafizyka jest w ogóle niemożliwa (…) jest dla metafizyka bratem mającym konkurencyjną teorię” - jest to tak samo słuszne w odniesieniu do naukometrii: to są po prostu wskaźniki. Akademicy nie lubią, gdy ich działalność jest oceniana na podstawie wskaźników takich jak liczba publikacji czy liczba cytowań (w ogóle nie lubią być oceniani), ale jeśli wzbogacimy nasz repertuar wskaźników, jak również jeśli zweryfikujemy ich wartość predykcyjną, zamiast opierać się na „trafności fasadowej” - która w przypadku ewaluacji badań może przybrać formę rankingów koleżeńskich [peer rankings] (kolejny wskaźnik!) - możemy tylko zyskać.

Korpus prac udostępnionych w OD oferuje materiał, na którym można zmierzyć różne nowe rzeczy i zweryfikować wiele nowych wskaźników, w różnych dziedzinach nauki. Należą do nich: (1) liczba pobrań, (2) wskaźniki chronometryczne (współczynniki wzrostu i rozpadu dla przyrostu cytowań i pobrań), (3) rekurencyjne, ważone zliczenia cytowań wzorowane na algorytmie Google PageRank (cytowanie w wysoko-cytowanym artykule lub przez wysoko-cytowanego autora waży więcej), (4) analizy współcytowań, (5) wskaźniki węzłów/autorytetów, (6) wskaźniki endo- i egzogamiczności (odzwierciedlające cytowanie przez wąskie lub szerokie grono współautorów, autorów i dziedzin), (7) stopień nakładania się tekstu i inne miary semiometryczne, (8) dotychczasowy poziom finansowania badań, liczba doktorantów, etc.

Ale do tego wszystkiego potrzebujemy najpierw jednej rzeczy: powszechnego zielonego OD.
Powiedzmy, że nie porzuciłem OD. Po prostu powiedziałem, co miałem do powiedzenia, i to już wielokrotnie, a teraz cierpliwie czekam, aż światowa społeczność naukowa zacznie wreszcie działać.

Harnad, S. (2008) Validating Research Performance Metrics Against Peer Rankings. Ethics in Science and Environmental Politics 8 (11) doi:10.3354/esep00088 The Use And Misuse Of Bibliometric Indices In Evaluating Scholarly Performance.

Ostatnio poświęcił się Pan walce o prawa zwierząt. Czy mogę zapytać o filozoficzno-etyczne podłoże tej części Pańskiej aktywności? Jaki jest Pańskim zdaniem najważniejszy argument za prawami zwierząt?

Jedynym „prawem” zwierząt, o które walczę, jest prawo odczuwających organizmów do wolności od niepotrzebnego cierpienia spowodowanego przez człowieka. I nie jest to abstrakcyjna kwestia filozoficzna, ale największa zbrodnia ludzkości. (Największą zbrodnią ludzkości przeciwko ludzkości był Holokaust, ale największą zbrodnią tout court jest Wieczna Treblinka, którą sprawiamy nie-ludzkim zwierzętom).

Dlaczego to jest największa zbrodnia? Ponieważ dopuszczamy się tych okropności na zwierzętach nie z potrzeby (przynajmniej w świecie rozwiniętym nie ma dziś takiej potrzeby), ani po to, by przetrwać, ani nawet dla zdrowia. I to są naprawdę okropności: niewysłowione, nie dające się opisać, niewybaczalne okropności.

Nie ma takiej okropności, której dopuszczamy się na nie-ludzkich zwierzętach, której nie dopuścilibyśmy się również na ludziach. Fundamentalna różnica polega na tym, że zdecydowaliśmy się uznać, że dopuszczanie się takich okropności na ludziach jest niewłaściwe, zdelegalizowaliśmy je i z wyjątkiem socjopatów i sadystów nikt nie marzy o zadawaniu takich cierpień ludziom – tymczasem zadawanie ich zwierzętom nie dość, że jest legalne, to jeszcze większa część ludzkości przyzwala na to, a nawet przykłada rękę do tych cierpień, poprzez utrzymywanie popytu na wysokim poziomie.

Jedyną nadzieją dla niezliczonych ofiar tej zbrodni nad zbrodniami jest to, że kiedy tylko przyzwoita większość zda sobie sprawę z dwóch podstawowych faktów: (1) z rzeczywistych rozmiarów okrucieństwa; (2) z tego, że jest ono zupełnie niepotrzebne, to wtedy zrozumie, że jest to złe, podobnie jak uznała za złe gwałty, morderstwa, przemoc i niewolnictwo, i zrezygnuje z tego, jak zrezygnowała z gwałtów, morderstw, przemocy i niewolnictwa.

Zamiast więc tokować w kółko o OD (którego wprowadzenie jest w każdym razie przesądzone i jest już tylko kwestią czasu), wolę poświęcić się o wiele pilniejszej sprawie zakończenia tej monstrualnej zwierzęcej agonii, niepotrzebnie wywoływanej przez ludzi. Paradoksalnie, wydaje się, że również tutaj otwarty dostęp może przynieść częściowe rozwiązanie sprawy: kamery CCTV, nagrywanie okrucieństw mających miejsce w rzeźniach i streamingowanie dowodów online w sposób otwarty, tak by możliwa była publiczna kontrola na zasadach crowd-sourcingu.

Harnad, S (2015a) To Close Slaughterhouses We Must Open People's Hearts. HuffPost Impact Canada July 2 2015.
Harnad, S. (2015). Taste and Torment: Why I Am Not a Carnivore. Québec Humaniste.
Patterson, C. (2002). Eternal Treblinka: Our treatment of animals and the Holocaust. Lantern Books.

 

Tłumaczenie: Tomasz Lewandowski, Marta Hoffman-Sommer, Michał Starczewski

 

Przypisy

1. Ang. „Archivangelist”. Jest to neologizm Stevana Harnada. Oznacza on ewangelistę (samo)archiwizacji. “Samoarchiwizacja” (ang. „self-archiving”) to termin oznaczający umieszczanie własnej publikacji naukowej w repozytorium akademickim. Dziś mówimy raczej o „deponowaniu” bez specyfikacji, czy ma to robić sam naukowiec, czy może ktoś inny w jego imieniu. Harnad, jako zwolennik i „ewangelista” samoarchiwizacji jest więc „archiwangelistą”. Dobra nowina („ewangelia”), jaką głosi (lub raczej głosił), jak się okaże poniżej, sprowadza się do tego, że samoarchiwizacja wszystkich naukowców jest warunkiem koniecznym i wystarczającym do tego, by nastała era otwartego dostępu i komercyjni wydawcy czasopism naukowych zmienili model działania [przyp. tłum.].

2. „Fool’s Gold” znaczy dosłownie „Złoto Głupców” i niekiedy bywa po prostu tak tłumaczone. Ponieważ jednak „Fool’s Gold” jest jednocześnie w języku angielskim potoczną nazwą pirytu zdecydowaliśmy się tłumaczyć ten harnadowski termin jako „fałszywe złoto”. Gra słów Harnada polega na tym, że przeciwieństwem „Fool’s Gold” jest „Fair Gold”, przy czym „Fair” można rozumieć albo dosłownie („złoto prawdziwe” - pozostaniemy przy tym tłumaczeniu) albo jako moralną ocenę („uczciwe złoto” - czy raczej w tym kontekście: uczciwa złota droga OD) [przyp. tłum.].

3. Por. również guzik RequestCopy z dokumentacji DSpace. To rozwiązanie opiera się na przepisach prawnych obowiązujących w USA i Kanadzie, zgodnie z którymi udostępnienie przez autora tekstu obcej osobie, która zwróciła się o to w ten na wpół zautomatyzowany sposób, pozostaje w granicach dozwolonego użytku (ang. fair use). W Polsce, podobnie jak w przypadku większości państw Europy, takie rozwiązanie nie jest możliwe.

4. Por. np. wywiad z Richardem Poynderem z 2012 roku, gdzie Harnad szczegółowo wyjaśnia pojęcie „zachwytu nad prawami” (ang. „Rights Rapture”) [przyp. tłum.].

 

 

Additional information