Jakość może przybrać różne rozmiary i kształty

Najbardziej wartościowe recenzowanie polega na, poza wszystkim innym, stosowaniu czytelnych kryteriów i wskazówek, umożliwiających dobry dialog między naukowcem, recenzentem i przedstawicielami społeczności akademickiej i, ostatecznie, prowadzi do udoskonalenia wyników badań, które mają zostać opublikowane (...). Każda forma otwartej inicjatywy propagującej system wspierający dialog jest dla mnie wartościowa.

 Ioana Galleron

Ioana Galleron jest wykładowcą językoznawstwa i literaturoznawstwa francuskiego na Université de Bretagne-Sud. Jest zaangażowana w projekty badawcze, których przedmiotem jest ewaluacja nauki, m.in. EvalHum. Od kwietnia 2016 r. kieruje COST Action CA15137.

Wersja angielojęzyczna 

 

Michał Starczewski: Czym różnią się systemy ewaluacji w naukach ścisłych i przyrodniczych (STEM) od tych w naukach humanistycznych i społecznych (SSH)? W jaki sposób Unia Europejska i państwa członkowskie mierzą się z zagadnieniem tych różnic? Czy możliwe jest znalezienie wspólnych kryteriów dla wszystkich dyscyplin i czy w ogóle powinniśmy próbować?

Ioana Galleron: Nie ma odrębnych systemów ewaluacji dyscyplin STEM i SSH, choć te systemy, które są, różnią się w swoich założeniach (ex-post/ex-ante, bazujące na wynikach / bazujące na wielkości). Nie jest to samo w sobie problemem, z wyjątkiem niektórych metod, ponieważ ani dyscypliny SSH, ani STEM nie tworzą jednorodnych grup. Różnice są ogromne, jeśli chodzi o nawyki publikacyjne, np. między biologią a matematyką z jednej strony, oraz między naukami społecznymi a humanistyką z drugiej, a także wewnątrz tych szerokich obszarów.

Są mocne dowody, że wskaźniki ilościowe, takie jak impact factor, index Hirscha i podobne, nie odzwierciedlają jakości, ani nawet nie pozwalają prawidłowo zaobserwować produktywności w dyscyplinach SSH. Dlatego takie wskaźniki nie powinny być wykorzystywane do ewaluacji tych dyscyplin, tym bardziej, że dane nie są ani kompletne, ani reprezentatywne. Takie metody są jednak wciąż wykorzystywane, po części dlatego, że krajowe systemy ewaluacji często znajdują się pod przemożnym wpływem naukowców reprezentujących dyscypliny STEM i są zaprojektowane przede wszystkim z myślą o nich, po części z powodu panujących przekonań, że konkurencja w publikowaniu w międzynarodowych czasopismach podniesie jakość badań, a wreszcie także dlatego, że te metody posługują się łatwymi do użycia liczbami. Znaczenie ma także fakt, że alternatywy jawią się jako niejasne i mało wiarygodne.

Istotnie, należy udoskonalić procedury ewaluacji badań SSH, które są czasami postrzegane przez wielu badaczy jako nieuczciwe, nieprzejrzyste i błędnie zaadaptowane do tych dyscyplin. Sprzeciw wobec podstawowych zasad ewaluacji o wiele częściej spotyka się w społecznościach SSH ze względów ideologicznych, albo z powodu tradycji współpracy. Sugerowano nawet, że z epistemologicznego punktu widzenia dyscypliny STEM i SSH całkowicie się różnią, ponieważ w obszarze STEM jest długa tradycja postępów związanych z dyskusjami i obalaniem ustaleń dokonywanych przez innych badaczy, podczas gdy ten paradygmat rzadziej ma miejsce w SSH. To wszystko prowadzi do tego, że nawet gdy dwie dyscypliny skłaniają się do stosowania jakichś wspólnych kryteriów, to tkwią w nich istotne różnice, które trzeba uwzględnić podczas ewaluacji jednych i drugich.

Krótko mówiąc, ewaluacja nauk społecznych i humanistycznych jest problematyczna tak dla ewaluujących, jak i dla ewaluowanych. Podczas gdy pewne państwa europejskie zauważyły już ten stan rzeczy i zaczęły szukać odpowiednich rozwiązań, w wielu innych nie widać takiej postawy. Z tego względu europejska inicjatywa dla SSH jest bardzo potrzebna. Trzeba stworzyć przestrzeń dyskusji między tymi, którzy eksperymentują z procedurami uczciwszymi i lepiej dostosowanymi do dyscyplin SSH, i trzeba też nadać temu zagadnieniu taki rozgłos, na jaki zasługuje.

Kieruje pani COST Action European Network for Research Evaluation in the Social Sciences and the Humanities (ENRESSH). Czy może pani opisać cele tego przedsięwzięcia?

“European Network for Research Evaluation in the Social Sciences and the Humanities” to Działanie COST, które zaczęło się w kwietniu 2016 r., a zakończy w kwietniu 2020 r. Naszym celem jest zaproponowanie przejrzystych dobrych praktyk w zakresie ewaluacji badań społecznych i humanistycznych. W ramach Działania współpracują ze sobą bardzo różni eksperci: badacze ewaluacji, decydenci, członkowie jednostek oceniających, jak również badacze reprezentujący humanistykę i nauki społeczne. Projekt porównuje rozproszone prace poświęcone ewaluacji badań SSH, powstające w różnych częściach Europy, w celu uniknięcia niepotrzebnego ich powielania oraz by upowszechnić ich rezultaty. Zaczęliśmy od wymiany doświadczeń, tak by uzyskać obraz stanu badań nad ewaluacją w Europie. W ciągu następnych lat zespół zorganizuje konferencje, warsztaty i spotkania, by zasypać przepaść między akademikami zajmującymi się ewaluacją badań SSH, menadżerami nauki i decydentami.

Skorzystam z okazji i wspomnę o EvalHum Initiative. Jest to szeroko zakrojone stowarzyszenie, które stara się zebrać razem wszystkich pracujących w obszarze ewaluacji nauki w naukach społecznych i humanistycznych. Brzmi to podobnie do opisu Działania ENRESSH, więc pewnie nikogo nie zaskoczy fakt, że to członkowie EvalHum zaproponowali Działanie COST. Obie inicjatywy są jednak ściśle oddzielone. Stowarzyszenie wznowi działalność, kiedy Działanie COST się zakończy. To także EvalHum organizuje serię konferencji RESSH, spośród których następna odbędzie się w Antwerpii w lipcu 2017 r.

Czasem pojęcia używane do opisu komunikacji naukowej w różnych krajach oznaczają bardzo różne rzeczy. Tak jest w przypadku np. „monografii”, „artykułu” i „recenzji”. W niektórych państwach monografia jest prawnie definiowana przez liczbę stron, a w innych przez liczbę autorów. Jak wiele zamieszania powoduje to na poziomie międzynarodowym? Czy sądzi pani, że część kontrowersji byłoby łatwiej rozwiązać, gdyby ludzie byli bardziej świadomi tych wieloznaczności?

Zbyt często procedury ewaluacyjne skupiają się na formalnych cechach publikacji. Nie uwzględnia się faktu, że cechy formalne mówią o jakości tylko bardzo zgrubnie, że za etykietami takimi jak: „recenzja (naukowa)”, „wydawnictwo uniwersyteckie”, czy „książka” mogą kryć się bardzo różne rzeczywistości, a liczby stron lub współtwórców same w sobie niewiele znaczą. Nie ma powodu, by postrzegać materiały konferencyjne jako z zasady „mniej dobre” niż jednoautorska książka. Nie ma też powodu, by przedkładać publikowanie artykułów nad książki – lub vice versa! – ponieważ wysoka jakość może przybierać różne rozmiary i kształty. Takie skróty lub tendencje miałyby sens wyłącznie wtedy, gdyby, po pierwsze, był jakiś konsensus, wewnątrz społeczności SSH, dotyczący najczęściej występujących typów publikacji w odniesieniu do pewnych typów wyników badań, i, po drugie, jeśli można byłoby mieć pewną dozę zaufania do kontroli jakości zapewnianej przez jakieś naukowe grono (choćby na poziomie czasopisma, konferencji, wydawnictwa, etc.). Niestety, kiedy przyglądamy się rzeczywistości kryjącej się za tymi słowami, zwłaszcza z ogólnoeuropejskiego punktu widzenia, widzimy, że te dwa warunki są dalekie od spełnienia.

Nie wiem więc, czy to pomoże rozwiązać kontrowersje, ale świadomość tego, jakie procesy zachodzą w trakcie publikacji książki naukowej w, dajmy na to, Rydze, a co się dzieje z książką w Wenecji, prawdopodobnie pomoże wypracować wspólne standardy, a także będzie skuteczniej wspierało lepszą naukę niż narzucanie akademikom ich (publikacyjnych) wyborów. 

Czy otwarta nauka sprawia, że ewaluacja staje się skuteczniejsza? W jaki sposób?

Otwarta nauka zmieni praktyki badawcze w humanistyce i naukach społecznych. Być może wpłynie na metody i procedury ewaluacji. Ale pojawia się kilka pytań, np. czy badacze społeczni i humaniści są w ogóle świadomi dyskusji o otwartym dostępie i jej skutków i czy ci badacze mają środki finansowe, by publikować w otwartym dostępie? Opłaty odautorskie (APC) za artykuły są problemem dla często i tak już niedoinwestowanych badań z obszaru SSH, przez co publikowanie książek okazuje się nieprzystępne. Jednakże, wracając do pytania, sam fakt, że niektórzy badacze decydują się udostępniać w sposób otwarty swoje publikacje, a nawet dane badawcze, powinien być uwzględniany w trakcie ewaluacji. Otwarta nauka jest też lepiej rozpowszechniona, dzięki czemu wyniki można łatwiej ponownie wykorzystać, a także łatwiej jest obalić błędne twierdzenia; to są dwa inne istotne aspekty, które powinny zostać docenione.

Co więcej, w pewnych państwach otwarta nauka pozwala naukowcom przyspieszyć, albo wyjść poza system publikacyjny, który całkiem często jest z wyżej wspomnianych powodów dysfunkcyjny w obszarze SSH.

W jaki sposób można oceniać udostępnianie danych badawczych? Który aspekt jest najważniejszy: natychmiastowy dostęp, licencje prawne czy pełne metadane?

Udostępnianie danych badawczych to sposób na zwiększenie transparentności procesu badawczego i ułatwienie pracy recenzentów. Równocześnie pozwala uniknąć niepotrzebnego powtarzania pracy, ponieważ badania mogą być powtórzone lub ponownie przeanalizowane z innej perspektywy. Opracowanie procedury ewaluacji udostępniania danych badawczych nie jest jednak łatwe i prawdopodobnie będziemy potrzebować trochę czasu, by przyjrzeć się, jak akademicy radzą sobie z tym zagadnieniem.

Metadane są kluczowe z punktu widzenia ewaluacji. Są też być może prostsze do udostępniania i chronienia. Żeby zbudować dojrzałe procedury ewaluacji, musimy wiedzieć, co dzieje się w danej dyscyplinie, a póki co ta wiedza w obszarze SSH jest bardzo niekompletna, zarówno na poziomie krajowym, jak i europejskim. Co więcej, sytuacja jest bardzo zróżnicowana zależnie od dyscypliny: o wiele lepsza jest obecność w międzynarodowych bazach danych psychologii czy ekonomii, podczas gdy badania językoznawcze i literaturoznawcze pozostają tu wyraźnie w tyle. Dostęp do metadanych – nie tylko dotyczących danych badawczych, ale też różnych publikacji – pozwoliłby nam uczynić postępy w stronę europejskiej bazy danych o osiągnięciach badań SSH, a także  obserwować zwyczaje publikacyjne, sposoby współpracy i trendy tematyczne na większą i pewniejszą skalę.

Narzędzia komunikacji zmieniają się bardzo szybko. Zmienia się także komunikacja naukowa. Czy pani zdaniem ewaluacja badań powinna dotrzymywać kroku tym zmianom, czy raczej powinna być trochę bardziej zachowawcza i ewoluować w swoim tempie?

Ewaluacja badań naukowych musi uwzględniać procesy badawcze i zwyczaje naukowców. Tak, ze względu na swoją wiarygodność musi nadążać za zmianami w komunikacji naukowej. W obecnych procedurach oceny jest mało miejsca na blogi naukowe, newslettery oraz, w większości państw, na liczne formy zaangażowania społecznego w szerokim znaczeniu, a to są tylko nieliczne przykłady. A przecież te wszystkie próby komunikowania się inaczej niż w tradycyjny sposób, zarówno wewnątrz świata akademickiego, jak i poza jego obrębem, stwarzają przestrzeń dla innowacji. W obszarze SSH jest ogromny potencjał pomijany przez decydentów, w wielu przypadkach z powodu zliczania wyłącznie wskaźników i wyników, które faktycznie nie odzwierciedlają tego, co realnie dzieje się w danej dyscyplinie.

Z drugiej strony, trzeba wciąż pamiętać, że wskaźniki, które są wykorzystywane w ewaluacji nauki potrzebują czasu, byśmy mogli przekonać się, jak działają. Usilne próby nadążania za każdym trendem nie pozwalają procedurom ewaluacji dojrzeć.

Jaka jest rola mediów społecznościowych w komunikacji naukowej? Czy instytucje akademickie powinny inwestować w narzędzia zliczające tweety lub posty na Facebooku, takie jak Altmetric?

Media społecznościowe zrobiły wiele dobrego dla nauk SSH, ponieważ umożliwiły porozumiewanie się z dużą publicznością i informowanie jej o naszych tematach i badaniach. To jest coś, co się nie zawsze udawało w mediach tradycyjnych, które są bardziej skoncentrowane na odkryciach „twardych” nauk. Jak wcześniej wspomniałam, „tradycyjne” wskaźniki nie sprawdzają się w naukach SSH. Badacz społeczny lub humanista z niskim indeksem H niekoniecznie jest nieproduktywny, co mogą pokazać liczby pobrań jej lub jego artykułów z repozytoriów. Trzeba jednak mieć świadomość, że wskaźniki alternatywne również mogą nie odzwierciedlać dokładnie tego, co się dzieje w dyscyplinie z powodu często spotykanej zachowawczości. Znakomite badania, które nie są rozpowszechniane za pośrednictwem Twittera, Facebooka lub akademickich mediów społecznościowych wciąż mogą być intensywnie czytane w bibliotekach.

Co więcej, dane z platform Sieci 2.0 nie są wystarczająco wiarygodne i, jak wszystkie dane, mogą być kształtowane przez potężne nauki (fizykę i medycynę), tak by liczyć to, w czym one są dobre (opowieści o odkryciach i leczeniu raka), niż nasze opowieści z obszaru SSH, które często są dla ludzi bardziej interesujące. W skrócie: instytucje powinny mieć świadomość, jak naukowcy posługują się mediami społecznościowymi w komunikacji naukowej, ale jednocześnie powinny zachować ostrożność w interpretowaniu uzyskanych stąd informacji i uważać, by nie narzucać nienaturalnych zachowań

Mówi się czasem o przepaści pomiędzy nauką a społeczeństwem. „Zwykli ludzie” nie wiedzą, czego właściwie dotyczy nauka i nie mogą uczestniczyć w jej rozwoju. W tym samym czasie naukowcy są często postrzegani jako zamknięci w wieży z kości słoniowej i ignorujący prawdziwe problemy życia codziennego. Projekty „nauki obywatelskiej” mają na celu zbudowanie mostu i połączenie obu stron. Czy pani zdaniem nauka staje się coraz bardziej egalitarna?

Zawsze jestem zdumiona, gdy słyszę o “przepaści” między nauką a społeczeństwem. A jeszcze bardziej zdumiewają mnie ludzie skupiający się raczej na naszej (suponowanej) wieży z kości słoniowej, niż na, powiedzmy, złotej wieży bankierów… Bądź co bądź, czy to jest nowe zjawisko i czy w związku z nim powinniśmy się czegoś obawiać? „Zwykli ludzie” żyjący w XVI w. byli jeszcze mniej świadomi, czym jest nauka, ponieważ zdecydowana większość nie potrafiła czytać, a naukowcy byli przez wielu postrzegani jako zagrożenie. Nauka jest lepiej postrzegana i rozumiana w naszych nowoczesnych, dobrze wyedukowanych społeczeństwach – i być może poczucie, że naukowcy nie otwierają się wystarczająco na społeczeństwo jest związane z tą większą zdolnością zrozumienia przez „laicką publiczność”, czym jest nauka, przez co ludzie stają się bardziej zainteresowani uczestniczeniem w niej. Nauka nie odrzuca ludzi, ale pyta ich, zgodnie ze swoją istotą, jaką mają wiedzę i umiejętności, by przyłączyć się. Wiele jest wspaniałych historii społecznego zaangażowania naukowców ze wszystkich obszarów, zwłaszcza SSH, które pokazują, jak niewiele jest prawdy w tradycyjnych przekonaniach o wyniosłym pozostawaniu naukowców ponad tłumem.

Z kolei z socjologicznego punktu widzenia jesteśmy świadkami stałej i ciągłej zmiany społeczności uczonych, których pochodzenie jest coraz bardziej zróżnicowane, także więc w tym znaczeniu nauka staje się coraz bardziej „egalitarna”.

Pojawia się wiele pomysłów na udoskonalenie procesu recenzowania naukowego i uczynienie go bardziej transparentnym. Jakie rodzaje otwartego recenzowania uważa pani za najbardziej wartościowe?

Pomimo znanych ograniczeń, tradycyjne recenzowanie zostało sprawdzone jako użyteczne narzędzie sprzyjające lepszej nauce i zapewniające, że jest ona uprawiana prawidłowo. Niektóre wydawnictwa lub czasopisma humanistyczne i społeczne pojęciem recenzowania określają niezwykle zwięzły proces, którego rezultatem jest jeden wers (lub nawet jedno słowo!) akceptujące kawałek badań. Nie mówię tego, by podważać bardzo dobrą pracę wykonywaną przez liczne redakcje lub wydawnictwa, ale w wielu innych przypadkach to, kto zostanie opublikowany, zależy w mniejszym stopniu od jakości pracy, a większe znaczenie mają osobiste związki między badaczami i redaktorami, albo, co gorsza, zdolność zapłacenia za publikację.

Uważam, że najbardziej wartościowe, prawdziwe (w przeciwieństwie do „szyderczego” lub „pozornego”) recenzowanie polega na, poza wszystkim innym, stosowaniu czytelnych kryteriów i wskazówek, umożliwiających dobry dialog między naukowcem, recenzentem i przedstawicielami społeczności akademickiej i, ostatecznie, prowadzi do udoskonalenia wyników badań, które mają zostać opublikowane. Ostatnie propozycje biologicznego czasopisma eLife otwierają interesujące perspektywy poprzez umożliwienie dialogu przed publikacją między anonimowymi recenzentami a badaczem, jak również na rozbudowane formy recenzji, w której interesariusze uczestniczą w ocenie badań z misją społeczną. Uogólniając, każda forma otwartej inicjatywy propagującej system wspierający dialog jest dla mnie wartościowa.

 

 

Wyjdziemy poza podział na złoty i zielony OD

Osobiście uważam, że dyskusja przeciwstawiająca sobie złotą i zieloną drogę jest raczej ograniczająca, ponieważ operuje wyobrażeniami przyszłości jako składającej się wyłącznie ze znanych nam już od dekad formatów i ścieżek na mapie dzielenia się wynikami badań. A naukowcy wciąż przecierają zupełnie nowe szlaki i znajdują nowe sposoby dzielenia się wiedzą i swoimi wynikami. I wcale nie wszystkie te sposoby mieszczą się w paradygmatach tradycyjnego publikowania.

Dr Jennifer Edmond jest jednym z dyrektorów Trinity Centre for Digital Humanities. Reprezentuje DARIAH w Open Science Policy Platform, grupie doradczej Komisji Europejskiej. W swoich badaniach zajmuje się wpływem technologii na nauki humanistyczne.

 

27 maja Komisja Europejska powołała Open Science Policy Platform, grupę ekspercką mającą za zadanie „doradzać w zakresie rozwoju i wdrożenia polityki otwartej nauki w Europie”. Pani reprezentuje w niej DARIAH (Digital Research Infrastructure for Arts and Humanities). Jakie cele chciałaby pani osiągnąć w OSPP?

Wierzę, że uczynienie nauki bardziej otwartą przyniesie wiele korzyści naukowcom, gospodarce i w ogóle społeczeństwu. Jednocześnie jestem bardzo zaniepokojona faktem, że rozumienie tego, czym jest „otwarta nauka” ukształtowało się przede wszystkim z uwzględnieniem perspektywy nauk ścisłych i przyrodniczych. Humanistyka i nauki o sztuce również mają tu wiele do zaoferowania, ale te dyscypliny rozpoczynają z zupełnie innego punktu, ponieważ nasze „dane surowe” (w takim stopniu, w jakim można je tak nazwać) są często przechowywane w instytucjach kultury i dziedzictwa. Mamy także mocno zakorzenioną tradycję argumentowania i badań indywidualnych, prowadzących do specyficznego rodzaju wyników. Aby otwarta nauka naprawdę odniosła sukces, musi ona objąć te metody tak samo, jak obejmuje metody nauk ścisłych. DARIAH ma szansę odegrać rolę aktywnego moderatora, i to właśnie jest moim głównym celem: reprezentowanie tradycji humanistycznych w OSPP i odnajdywanie sposobów, w jaki DARIAH może wspierać otwartość, unikając przy tym lekceważenia lub bagatelizowania siły humanistycznych strategii poznawczych.

Dokument Amsterdam Call for Action on Open Science wyznacza dwa cele do osiągnięcia przez Europę do 2020 r.: pełen otwarty dostęp do wszystkich publikacji naukowych oraz wypracowanie całkowicie nowego podejścia do ponownego wykorzystania danych badawczych. Czy OSPP będzie zaangażowane w szukanie sposobu osiągnięcia tego?

Tak, to są dwa spośród dużych zadań postawionych przed OSPP. Ale mamy w OSPP świadomość, że włączenie tych polityk do kultur badawczych Europy będzie wymagało szeroko zakrojonej zmiany systemowej. Zadaniem OSPP jest także obmyślenie struktur wspierających „oddolne” problemy, które z pewnością będą się pojawiały wraz z powiększającą się otwartością, takie jak potrzeba nowych kompetencji, integracja nauki obywatelskiej, nowe sposoby ewaluacji rezultatów pracy badawczej, a także uczciwość badawcza w zmieniającym się krajobrazie (by podać tylko niektóre przykłady). Wszystkie te zagadnienia są ściśle powiązane z tym, jak, kiedy i gdzie dzielimy się wynikami badań.

Ten sam dokument zupełnie pomija zieloną drogę otwartego dostępu. Czy uważa pani, że jest możliwe znalezienie równowagi między złotą i zieloną drogą OD? W jaki sposób?

Myślę, że nie da się uniknąć zróżnicowanego podejścia przy zapewnianiu szerokiego dostępu do wyników badań naukowych. Wydawniczy ekosystem jest zbyt różnorodny i szeroki, a przy tym nieustająco powiększa się i zmienia. Osobiście uważam, że dyskusja przeciwstawiająca sobie złotą i zieloną drogę jest raczej ograniczająca, ponieważ operuje wyobrażeniami przyszłości jako składającej się wyłącznie ze znanych nam już od dekad formatów i ścieżek na mapie dzielenia się wynikami badań. A naukowcy wciąż przecierają zupełnie nowe szlaki i znajdują nowe sposoby dzielenia się wiedzą i swoimi wynikami. I wcale nie wszystkie te sposoby mieszczą się w paradygmatach tradycyjnego publikowania. Myślę, że z czasem wyjdziemy poza prosty podział na złoty i zielony OD i sięgniemy po więcej kolorów tęczy, a naukowcy będą mieć większy wybór spośród opcji dopasowanych do różnego rodzaju wyników. Zaczniemy bardziej precyzyjnie rozumieć użyteczność narzędzi, które dziś wspierają otwarty dostęp, od otwartych repozytoriów zaczynając, a na opłatach odautorskich (APC) kończąc.

Czy uważa pani, że polityki otwartości pozostaną kompetencjami państw członkowskich UE, czy UE zharmonizuje ten obszar za pomocą rozporządzenia lub dyrektywy?

Horyzont 2020 długo wywierał duży wpływ na rozwój krajowych polityk w zakresie prowadzenia badań, ale należy pamiętać, że polityka H2020 została ukształtowana w procesie politycznym, uwzględniającym opinie i doświadczenie państw członkowskich. Przewiduję raczej kontynuację tego trendu zmierzającego do harmonizacji między politykami europejską i krajowymi, ale tylko w taki sposób, by zachować równowagę między wkładem oddolnym a odgórnymi zachętami.

DARIAH jest Europejskim Konsorcjum Infrastruktury Badawczej (ERIC) rozwijającym infrastrukturę dla humanistyki cyfrowej. W jaki sposób naukowcy z Europy mogą uczestniczyć w tym przedsięwzięciu?

DARIAH jest dużą i żywą społecznością, która wciąż rośnie i podejmuje nowe inicjatywy. Państwa, które już są członkami DARIAH, mają komitety krajowe lub nawet zorganizowane struktury. Naukowcy, którzy chcą zaangażować się w DARIAH, powinni skontaktować się z nimi, dowiedzieć się więcej, czym jest DARIAH i jak wspiera badania i ostatecznie zaangażować się. Jeśli państwo nie jest jeszcze członkiem DARIAH, to organy centralne DARIAH służą radą, w jaki sposób lobbować w swoim kraju za przyłączeniem. Ewentualnie wskażą, z jakich serwisów mogą korzystać wszyscy, niezależnie od członkostwa.

Humaniści cyfrowi często deklarują, że otwartość jest dla nich ważną wartością. Jakie są korzyści z otwartości w humanistyce cyfrowej?

Przede wszystkim, jesteśmy coraz bardziej świadomi znaczenia swobodnego przepływu danych, ponieważ nasze metody i źródła mogą w środowisku cyfrowym coraz ściślej wiązać się ze sobą. Tradycyjne projekty badawcze mogą opierać się na zapisach, które są zamknięte i dosłownie ukryte w archiwum – ale cyfrowe projekty już nie mogą. Po drugie, inwestujemy na tyle dużo w nasze projekty i platformy, na których je udostępniamy, że musimy myśleć o ich trwałości. Różni ludzie różnie rozumieją trwałość. Dla mnie oznacza ona w pierwszej kolejności ponowne wykorzystanie, co z kolei wiąże się z otwartością – w zakresie technicznych standardów, praw, przystosowalności, organizacji wiedzy oraz w wielu innych płaszczyznach. Wreszcie, cyfrowi humaniści często pracują w przestrzeni bardziej publicznej, co z pewnością sprzyja interakcjom z innymi dyscyplinami i bardzo często umożliwia dotarcie z badaniami bezpośrednio do publiczności. Ta otwartość stała się zupełnie szeroko akceptowaną częścią humanistyki cyfrowej dzięki bogactwu, które z sobą niesie oraz wpływowi, który ułatwia.

Text-and-Data Mining jest obecnie zagadnieniem żywo dyskutowanym na poziomie europejskim. Jakie regulacje w tym zakresie są pożądane z punktu widzenia otwartej nauki i humanistyki cyfrowej?

Tutaj potrzebna jest przejrzystość: obecnie największą barierą jest dojmujący brak jasności, co jest dopuszczalne, a co już nie. Nie ma jakichś konkretnych przeszkód powstrzymujących rozwój TDM. Gdybyśmy potrafili najpierw uzgodnić, jakie warunki są związane z prawem do maszynowej analizy (right to mine); gdybyśmy mieli 100% pewności, gdzie jesteśmy z jakimś zestawem danych lub podejściem badawczym, wtedy moglibyśmy zacząć budować w zrównoważony i odpowiedzialny sposób, wychodząc z tego punktu. Kiedy to już uzyskamy, będziemy potrzebować więcej dobrej jakości otwartych treści, co, jak sądzę, będzie możliwe dzięki infrastrukturze. Najpierw jednak potrzebne jest bardziej przejrzyste prawo.

Jak wiele zmienia w humanistyce “zwrot cyfrowy”? Czy dotyka podstawowych zasad prowadzenia badań?

Zwrot cyfrowy jest w pewnym sensie głębszy, niż jesteśmy gotowi przyznać: tylko nieliczni badacze pracowaliby dziś bez narzędzi takich jak JSTOR lub hybrydowe, analogowo-cyfrowe notatki i zapiski ze swoich badań. Ale odpowiedź na to pytanie zależy w dużej mierze od tego, czego oczekuje się od cyfrowości. Niektórzy oczekują całkowitej przemiany swojej pracy – to jest wciąż mniejszość i, jak każde podejście metodologiczne, nie spodziewam się, by wszyscy aż tak głęboko je sobie przyswoili. Raczej spodziewam się osiągnięcia powszechnej akceptacji i uznania znaczenia tych metod. Moją odpowiedź komplikuje również sama natura dostępnych narzędzi. Obecnie wiele cyfrowych narzędzi zostało zaadoptowanych z ekosystemów obcych badaniom humanistycznym. Czasem działają, ale w wielu wypadkach nie uwzględniają całego bogactwa humanistycznych badań. Uważam więc, że w humanistyce zwrot cyfrowy nie ujawnił jeszcze wszystkich swoich możliwości. Zwrot cyfrowy w humanistyce będzie niekompletny, dopóki nie stworzymy środowiska badawczego, które naprawdę obejmie mocno zakorzenione, utrwalone i nieoczekiwane aspekty badań humanistycznych.

Jakie są pani zdaniem możliwości szerszej współpracy w środowisku cyfrowym między naukowcami z obszaru humanistyki i nauk ścisłych? Które narzędzia z zakresu otwartej nauki mogą stymulować taką współpracę?

Według mnie ekscytacja humanistyką cyfrową bierze się z tego, że oferuje ona badaniom humanistycznym podejście translatorskie, pozwala zastosować to, co zasadniczo nie wykracza poza bardzo podstawowe badania. Umożliwia jednak pracę we współpracy z innymi użytkownikami, dyscyplinami i metodami. Jeśli jesteśmy w stanie znaleźć skuteczniejsze sposoby dzielenia się wiedzą i potwierdzaniem jej wartości „na żywo”, to ten potencjał będzie rosnąć. Otwarte dane będą odgrywały tu rolę kluczową, o ile nie zostaną zostawione same sobie. Ważniejsze będzie na przykład rozwinięcie w Europie możliwości odkrywania nowych zawodowych ścieżek łączących bibliotekarzy, badaczy i pracowników nienaukowych z kompetencjami technicznymi. Potrzebujemy tych hybrydowych ludzi; oni są jak mosty zawiązujące dialog i zbierające razem różne dyscypliny. Są dobrzy ludzie, którzy ad hoc wchodzą w te przestrzenie, ale jest ich za mało. Często zderzają się ze sztucznymi przeszkodami, które powstrzymują ich przed przechodzeniem między obszarami specjalizacji i nie pozwalają im uzyskać sprawczości. Gdybyśmy potrafili zoptymalizować cały system, tak by tacy pośrednicy mogli być skuteczni, współpraca znacząco by wzrosła.

 

Archiwangelista otwartego dostępu. Ostatni wywiad?

Na pytania Otwartej Nauki zgodził się odpowiedzieć Stevan Harnad, wybitny przedstawiciel ruchu na rzecz otwartego dostępu. Jest autorem słynnej Przewrotnej propozycji, założycielem czasopism „Psycoloquy” oraz „Behavioral and Brain Sciences”, twórcą i administratorem AmSciForum, jednym z głównych koordynatorów CogPrints Initiative (żeby wymienić tylko niektóre z jego zasług). Nie trzeba przedstawiać go nikomu, kto choćby pobieżnie zna historię ruchu otwartego dostępu. Jest profesorem kognitywistyki na Université du Québec à Montréal oraz University of Southhampton, a także członkiem zewnętrznym Węgierskiej Akademii Nauk, doktorem honoris causa Uniwersytetu w Liège. Jako kognitywista specjalizuje się w zagadnieniach kategoryzacji, komunikowania się i świadomości. Jednak nawet jego polemika z Johnem Searlem na temat „Chińskiego Pokoju” nie przysporzyła mu tyle rozgłosu, co działalność na rzecz otwartego dostępu.

Archiwangelista1

Często przyjmuje się, że ruch otwartego dostępu rozpoczął się wraz z „Przewrotną propozycją”: apelem do kolegów naukowców, by udostępniali swoje już wcześniej opublikowane w czasopismach naukowych artykuły za pośrednictwem otwartych repozytoriów tak, by każdy, kto ma dostęp do Internetu, mógł je przeczytać. Przygoda Stevana Harnada z otwartymi wydawnictwami naukowymi zaczęła się jednak jeszcze wcześniej. De facto zaczęła się ona już w 1978 roku, gdy założył czasopismo „Behavioral and Brain Sciences”, które stosowało system otwartych komentarzy recenzenckich. Właśnie ten sposób uzupełnienia tradycyjnego peer review wyróżniał czasopismo spośród innych. Kopie każdego przyjętego do publikacji artykułu były rozsyłane do około 100 ekspertów w danej dziedzinie na całym świecie. Ich krótkie komentarze wraz z odpowiedziami autora były publikowane razem z samym artykułem. Stevan Harnad w wywiadzie z Richardem Poynderem z 2007 roku dał do zrozumienia, że to właśnie praca w tym czasopiśmie sprawiła, że zaczął się zastanawiać nad sposobami na to, by więcej ludzi mogło skorzystać z dobrodziejstw otwartego komentowania - chociaż czasopismo było publikowane w „erze papierowej” i technologicznie nie było w stanie nawet zbliżyć się do czegoś, co możnaby nazwać otwartym dostępem. Gdy w latach osiemdziesiątych Harnad zetknął się ze zdobywającym właśnie popularność Usenetem, jego dojrzewające idee nareszcie spotkały technologię, która umożliwiała ich urzeczywistnienie. Harnad nazwał nowopowstałą ideę "pisaniem na niebie" („skywriting”). Otwarty dostęp do literatury naukowej wydawał się wtedy po prostu logicznie niezbędnym rozwiązaniem - jako warunek konieczny do urzeczywistnienia „skywritingu”.

Stevan Harnad był w ruchu otwartego dostępu od samego początku jego istnienia, a nawet o wiele dłużej niż istnieje sam termin „otwarty dostęp”. Termin powstał przecież dopiero w 2002 roku wraz z BOAI, Budapeszteńską Inicjatywą na rzecz Otwartego Dostępu. Przez szereg lat Harnad wyrażał swoje opinie o komunikacji i wydawnictwach naukowych w ogólności oraz o stanie otwartego dostępu w szczególności zarówno za pośrednictem American Scientist Open Access Forum (aktualnie „Globalna lista na temat otwartego dostępu”, „Global Open Access List”, GOAL), jak i na blogu „Open Access Archivangelism”.

100% Zielonego OD Gratis
Harnad przez wiele lat argumentował na rzecz zielonej drogi OD. Według niego, priorytetem OD jest wypełnienie artykułami naukowymi przez społeczność akademicka instytucjonalnych repozytoriów naukowych. Gdy już wszystkie opublikowane artykuły zostaną w ten sposób udostępnione bez żadnego opóźnienia, wydawcy czasopism naukowych, by przetrwać, będą musieli zmienić swój model biznesowy. Samorzutnie powstanie wtedy model, który Harnad nazywa „prawdziwym złotem” („Fair Gold”), a w którym wszystkie czasopisma naukowe są dostępne w sposób otwarty, zaś rola wydawców ogranicza się do koordynacji procesu peer review. Nawiązuje tu do tzw. złotej drogi OD, czyli takiego modelu, w którym sami wydawcy udostępniają za darmo publikacje. Często wiąże się to z obowiązkiem poniesienia opłaty przez autora lub jego instytucję, tzw. Article Processing Charges (APC).  Duży wysiłek i koszty, które przeznaczane są na uzyskanie OD libre (szczególnie w oparciu o licencje Creative Commons w wersji CC-BY), są wg Harnada przedwczesne, dopóki literatura naukowa nie będzie w 100% otwarta w tanim modelu zielonej drogi gratis (OD gratis, w przeciwieństwie do OD libre, nie przyznaje czytelnikom szerszych uprawnień niż wynikające z przepisów prawa autorskiego o dozowlonym użytku). Te przedwczesne wysiłki mogą nawet opóźnić osiągnięcie pożądanego stanu, ponieważ duża część środków trafia w ręce komercyjnych wydawnictw naukowych, których celem jest opóźnianie przejścia na „prawdziwe złoto” OD tak bardzo, jak to tylko możliwe.

„Emerytura”
Wygląda jednak na to, że długa era „archiwangelizacji” Harnada zbliża się do końca. Niemal 22 lata po opublikowaniu „Przewrotnej propozycji”, podczas dyskusji na Twitterze Harnad dał do zrozumienia, że zamierza porzucić rolę adwokata otwartego dostępu.

Tomasz Lewandowski skontaktował się ze Stevanem i zapytał go o szczegóły dotyczące decyzji, kontekst, w jakim została podjęta oraz plany na przyszłość. Stevan okazał się na tyle uprzejmy , że z tego pytania narodził się cały wywiad. Podsumowuje on karierę Stevana Harnada jako Archiwangelisty.

 

WYWIAD

Tomasz Lewandowski: Czy mógłby Pan opowiedzieć o tym, czym się Pan zajmuje naukowo?

Stevan Harnad: W moich badaniach koncentruję się na tym, jak mózg przyswaja nowe kategorie i w jaki sposób wpływa to na nasze postrzeganie, jak również na problemie nabierania znaczenia przez symbole (symbol grounding problem; jak powstaje znaczenie słowa?) oraz na pochodzeniu języka i na jego znaczeniu adaptacyjnym. Zajmuję się też Testem Turinga (jak i dlaczego organizmy potrafią robić wszystko to, co potrafią? jaki mechanizm im to umożliwia?) i świadomością (kwestia tego, jak i dlaczego organizmy czują). Ponadto zajmuję się również naukometrią otwartego dostępu (jak OD wpływa na siłę oddziaływania badań naukowych i jak polityki OD wpływają na sam OD). Jestem też redaktorem czasopisma Animal Sentience: An Interdisciplinary Journal on Animal Feeling i rozpoczynam badania nad odczuwaniem przez zwierzęta oraz nad ludzką empatią.

Teraz chciałbym się odnieść do Pańskiego tweeta - obecnie już dość znanego - o rezygnacji z dalszej aktywności w roli Archiwangelisty otwartego dostępu. Jaki był kontekst tej decyzji? I co dalej?

W samej konwersacji na Twitterze kontekst był taki, że Mike Eisen (jeden ze współzałożycieli PLoS) sugerował, że w opinii prawników i w świetle prawa autorskiego rozsyłanie kopii lub preprintów publikacji naukowych na prośbę pojedynczych osób jest nielegalne. Uważam, że to stwierdzenie jest pod każdym względem nonsensowne. Nie jest to działalność nielegalna, nie jest uważana za nielegalną, a nawet gdyby była formalnie nielegalna, to i tak przecież wszyscy to robią. Wyegzekwowanie zakazu rozsyłania kopii byłoby zupełnie nierealne. Poza tym przez ponad pół wieku nikt nie zakwestionował tej praktyki!
Więc odpowiedziałem Mike’owi, że jest to z jego strony myślenie życzeniowe. (Mike jest orędownikiem otwartego dostępu, ale jest również jednym ze współzałożycieli oraz członkiem zarządu PLoS - odnoszącego sukcesy wydawnictwa publikującego w złotym OD. Między wydawcami a zwolennikami zielonej drogi otwartego dostępu (oraz rozsyłania kopii elektronicznych) zawsze istnieje konflikt interesów, niezależnie od tego, czy są to wydawcy publikujący w modelu płatnego dostępu czy otwartego dostępu. Więc chodziło mi o to, że Mike’owi zależy na tym, żeby rozsyłanie kopii było w jakiś sposób nielegalne i nie miało miejsca, bo stoi ono w sprzeczności z interesami tych, którzy chcą, by naukowcy płacili za publikowanie w czasopismach złotej drogi zamiast publikować w czasopismach z płatnym dostępem i samemu archiwizować i udostępniać swoje artykuły (jeżeli zależy im na otwartym dostępie).

Mike odpowiedział na to (równie ironicznie), że to ja jestem mistrzem myślenia życzeniowego. W pierwszej chwili chciałem znów odpowiedzieć w tym samym stylu, dowcipnie. Ale potem uznałem, że nie, przecież to prawda: od dawna chciałem, by cała recenzowana literatura naukowa została udostępniona w zielonym otwartym dostępie, i to moje życzenie się nie spełniło. Więc po prostu stwierdziłem fakt: Mike ma rację, ja przegrałem i rezygnuję z dalszej działalności.

Jeżeli jednak kiedyś okaże się, że moje życzenie ostatecznie się spełni, to tym lepiej. A jeżeli zamiast tego będziemy wszyscy przepłacać za złotą drogę otwartego dostępu („Fałszywe Złoto”, Fool’s Gold2), to też trudno, niech tak będzie. W końcu to też jest otwarty dostęp. Wielokrotnie już opisywałem mój własny scenariusz racjonalnego przejścia od modelu tradycyjnego do otwartego dostępu w wersji „prawdziwego złota” (Fair Gold), poprzez zieloną drogę, i ten scenariusz może jeszcze zostać zrealizowany. Ale zauważyłem, że w ostatnich kilku latach jedyne, co robię, to powtarzam w kółko to, co już wiele razy powiedziałem.

Uznałem więc, że cierpiące zwierzęta potrzebują mnie dużo bardziej niż społeczność naukowa. Nie oznacza to, że nie będzie mnie pod ręką wtedy, gdy zajdzie potrzeba, by coś dla otwartego dostępu zrobić lub powiedzieć - o ile będzie cokolwiek nowego do powiedzenia lub zrobienia. Ale powtarzanie tego samego w kółko pozostawiam innym. Swoją pracę już wykonałem.

Bekoff, M., & Harnad, S. (2015). Doing the Right Thing: An Interview With Stevan Harnad. Psychology Today.

Czy w czasie swojej działalności jako orędownik otwartego dostępu miał Pan takie momenty, kiedy czuł Pan, że wszystko idzie w dobrym kierunku i Pańska wizja wkrótce się ziści?

Wielokrotnie. Po raz pierwszy w roku 1994, gdy po raz pierwszy sformułowałem swoją „Przewrotną propozycję” (subversive proposal); myślałem wtedy, że za rok, najwyżej dwa, samoarchiwizacja stanie się powszechna. Potem sądziłem, że uruchomienie [repozytorium] CogPrints będzie punktem zwrotnym. Potem, że włączenie protokołu OAI w CogPrints. Potem stworzenie oprogramowania EPrints; wykazanie, że prace w otwartym dostępie są częściej cytowane; pojawienie się polityk instytucjonalnych zobowiązujących naukowców do korzystania z zielonej drogi OD; powstanie guzika copy-request3; pokazanie, co trzeba zrobić, by polityka zielonej drogi była skuteczna; i wreszcie zdemaskowanie „Fałszywego Złota” i Raportu Finch.

Ale teraz rozumiem już, że jak doskonały, nieunikniony i bezsprzeczny nie byłby rezultat, to umysł ludzki i ręka są po prostu zbyt niemrawe. Dlatego uznałem, że są sprawy o wiele, wiele ważniejsze, którym powinienem teraz poświęcić swój czas. Powiedziałem i zrobiłem tyle, ile byłem w stanie. Gdybym dalej zajmował się OD, tylko powtarzałbym to, co już wiele razy zostało powiedziane i zrobione.

Carr, L., Swan, A. & Harnad, S. (2011) Creating and Curating the Cognitive Commons: Southampton’s Contribution. In, Simons, Maarten, Decuypere, Mathias, Vlieghe, Joris and Masschelein, Jan (eds.) Curating the European University. Universitaire Pers Leuven 193-199.

W wywiadzie, którego udzielił Pan Richardowi Poynderowi w 2007 roku, nakreślił Pan wizję, ktorą można by określić mianem wewnętrznej historii idei ruchu otwartego dostępu. W początkowej fazie ruchu OD występowały - zgodnie z Pana koncepcją - dwa główne nurty ideowe. Jeden z nich zajmował się dostępnością literatury naukowej, drugi - jej przystępnością cenową. W pierwszym nurcie można ulokować Pańskie czasopismo BBS, a także arXiv i inne wczesne inicjatywy OD. W drugim nurcie znalazłaby się Ann Okerson, której wysiłki zmierzały do tego, by literatura naukowa była bardziej przystępna cenowo dla uniwersytetów (choć niekoniecznie dla szerokiej publiczności). I choć ten drugi nurt nie koncentrował się na dostępności literatury, to właśnie ich próby znalezienia modelu finansowego, który byłby do udźwignięcia dla środowisk naukowych, doprowadziły do powstania modelu APC (płatnej wersji złotej drogi OD). I z czasem nurt zajmujący się dostępnością literatury przekształcił się w orędowników zielonej drogi OD, a nurt zajmujący się kwestiami cenowymi w orędowników złotej drogi. I kiedy w ten sposób spojrzeć na ruch OD, jasno widzimy zawarte w nim wewnętrzne napięcie. Pojawia się myśl, że może oba nurty były niekompatybilne. Czy chciałby Pan jakoś to skomentować? Czy patrząc na ruch otwartego dostępu jako na pochodną dwóch odrębnych problemów: problemu dostępności literatury naukowej i problemu jej przystępności cenowej, sądzi Pan, że to w ogóle był kiedykolwiek jeden spójny ruch?

Po pierwsze, dwie drobne uwagi: (1) model odzyskania kosztów poprzez APC (płatna złota droga) pojawił się już wprost w 1994 roku w “Przewrotnej propozycji”, wraz z założeniem, że powszechna samoarchiwizacja w zielonym modelu jest niezbędna jako etap wstępny. (2) Ann Okerson nie była specjalną rzeczniczką opłat APC jako rozwiązania problemu przystępności; opowiadała się przede wszystkim za licencjonowaniem.

Przystępność cenowa jest tylko jednym z aspektów dostępności: gdyby nie było problemu z dostępnością - gdyby dostęp nie był badaczom potrzebny albo byłby już w jakiś sposób zapewniony - wtedy kwestia ceny nie byłaby problemem, albo byłaby bardzo drobnym problemem. I też odwrotnie: gdyby nie było problemu z przystępnością, wtedy dostęp również nie byłby problemem. Ale przystępność cenowa zawsze była problemem, z którym bezpośrednio stykali się bibliotekarze akademiccy („kryzys wydawnictw seryjnych”; ang. „serials crisis”), zaś kwestia dostępności dotykała samych naukowców. Wydawało się, że rozwiązaniem problemu przystępności powinno być obniżenie cen czasopism, podczas gdy rozwiązaniem problemu dostępności byłoby otwarte udostępnienie przez samych badaczy ostatecznych, zrecenzowanych wersji autorskich wszystkich artykułów - w taki sposób, jaki umożliwiła nam epoka cyfrowa, czyli poprzez ich samoarchiwizację w repozytoriach instytucjonalnych (co z czasem zaczęto nazywać „zieloną drogą OD”).

Ostateczne rozwiązanie obydwu problemów byłoby, oczywiście, następujące: (1) powszechna samo-archiwizacja w zielonym modelu OD, potem (2) powszechna rezygnacja z prenumerat czasopism przez instytucje naukowe, (3) cięcie kosztów przez wydawców poprzez likwidację wszystkich niepotrzebnych, przestarzałych usług i produktów, i wreszcie (4) przejście na model, w którym instytucje zatrudniające autorów płacą z góry za rzeczywiste, niezbędne usługi - czyli za obsługę procesu recenzyjnego (model, który z czasem zaczęto określać mianem „złotej drogi OD”).

Ale ta optymalna wersja złotej drogi byłaby możliwa (i zostało to jasno powiedziane już w 1994 r. w „Przewrotnej Propozycji”) tylko, gdyby najpierw nastąpił etap wstępny, polegający na powszechnym dostępie publikacji w zielonym modelu, który zapewniłby wszystkim dostęp i umożliwiłby rezygnację z prenumerat, a w konsekwencji doprowadziłby do ograniczenia działalności wydawców i zmusiłby ich do przestawienia się na złotą drogę. Natomiast gdy pomijamy wstępny etap zielonej drogi, jedynym sposobem osiągnięcia otwartego dostępu w złotej wersji jest zapłacenie rozdętych opłat za „fałszywe złoto”, co wcale nie rozwiązuje problemu przystępności cenowej, bo wszystkie niepotrzebne i przestarzałe usługi są wliczone w koszt pojedynczego artykułu. Również pomysł globalnego „przeskoku” wszystkich czasopism świata do modelu „fałszywego złota” jest niespójny, co jest jasne dla każdego, kto się nad tym zastanawia.

W poszukiwaniu przedwczesnych rozwiązań problemu przystępności cenowej, daliśmy się zatem ponieść „gorączce fałszywego złota”. Realne, stabilne przejście do OD w modelu „prawdziwego złota”, który byłby przystępny cenowo, skalowalny i możliwy do utrzymania w długiej perspektywie, będzie możliwe tylko wtedy, gdy najpierw instytucje prowadzące i finansujące badania naukowe zaczną wymagać zielonej drogi OD.

Harnad, S (2014) The only way to make inflated journal subscriptions unsustainable: Mandate Green Open Access. LSE Impact of Social Sciences Blog 4/28.

Kiedyś zdefiniował Pan otwarty dostęp jako dostęp stuprocentowy - czyli albo mamy 100% otwartego dostępu, albo nie mamy go wcale, bo dopiero 100% doprowadzi tradycyjnych wydawców do upadku. Jest to całkiem uczciwa definicja, jednak w świetle naszej dotychczasowej rozmowy sądzę, że przydatna byłaby również definicja operacyjna. Pozwolę więc sobie zapytać: co musiałoby się wydarzyć, żeby powiedział Pan „O, teraz mamy już otwarty dostęp w świecie akademickim”?

Proszę spojrzeć na moją powyższą wypowiedź: „Realne, stabilne przejście do OD w modelu „prawdziwego złota”, który byłby przystępny cenowo, skalowalny i możliwy do utrzymania w długiej perspektywie, będzie możliwe tylko wtedy, gdy najpierw instytucje prowadzące i finansujące badania zaczną wymagać zielonego OD”. Dopóki nie ma 100% zielonego OD, nie można zrezygnować z prenumerat czasopism.

Fragmentaryczne, lokalne przejścia do „fałszywego złotego OD” - obejmujące pojedynczy kraj, instytucję, agencję finansującą naukę, dziedzinę naukową, czy pojedynczego wydawcę - nie tylko podnoszą sumaryczne koszty dostępu do literatury, skoro prenumeraty nadal funkcjonują wszędzie wokół, ale również odciągają uwagę od tego, co jest naprawdę konieczne, czyli przyjęcia zasad zielonego OD przez wszystkie instytucje prowadzące i finansujące badania. Chodzi tu o zielony OD w postaci następującej: deponowanie prac naukowych natychmiast po przyjęciu do publikacji plus albo natychmiastowy OD, albo guzik copy-request. Zielony OD - w przeciwieństwie do „fałszywego złota” - może być sensownie wprowadzany po kawałku (przez pojedynczy kraj lub instytucję).

Oczywiście wydawcy doskonale to wszystko wiedzą, dlatego wkładają tyle wysiłku we wprowadzenie zasady embargo dla zielonego OD, tak by ci, którym zależy na otwartym dostępie, musieli płacić za „fałszywe złoto”, zamiast korzystać z zielonej drogi.

Sale, A., Couture, M., Rodrigues, E., Carr, L. and Harnad, S. (2014) Open Access Mandates and the 'Fair Dealing' Button. In: Dynamic Fair Dealing: Creating Canadian Culture Online (Rosemary J. Coombe & Darren Wershler, Eds.).

A jak będzie wyglądać świat komunikacji naukowej, gdy już uda się osiągnąć 100% otwartego dostępu? Czy wpłynie to jakoś na całokształt modelu komunikacji naukowej?

Z chwilą gdy zielony OD będzie obowiązywać wszystkich nastąpi przejście do „prawdziwego” złotego OD, w którym proces recenzyjny pozostanie jedyną usługą zapewnianą przez wydawców; będzie on finansowany przez instytucje naukowe, co pochłonie jedynie część pieniędzy zaoszczędzonych dzięki rezygnacji z prenumerat. A kiedy wszystkie artykuły naukowe będą już otwarte i będzie można je przeszukiwać maszynowo, wkrótce pojawią się także otwarte dane, a wraz z nimi otwarta nauka. Postęp i współpraca w nauce wtedy bardzo przyspieszą, a my będziemy dysponować bogatym repertuarem  (otwartych) wskaźników, które pozwolą nam oceniać postęp naukowy oraz produktywność i wpływ nauki.

Harnad, Stevan (2013) The Postgutenberg Open Access Journal (revised). In, Cope, B and Phillips, A (eds.) The Future of the Academic Journal (2nd edition). 2nd edition of book Chandos.

Pańska wypowiedź, że w sprawie otwartego dostępu wydawnictwo Elsevier jest „po stronie aniołów”, zaczęła żyć własnym życiem. Wypowiedział się Pan w ten sposób w 2007 r., po tym jak Elsevier określił swoją politykę wobec zielonej drogi OD. Podtrzymywał Pan ten pogląd również wtedy, gdy bojkot Elseviera „Cost of Knowledge” był w swojej szczytowej fazie. Nawet w 2013 r., gdy Elsevier wyłączył ze swojej polityki naukowców objętych wymaganiami instytucjonalnymi, nadal trzymał się Pan swego poglądu. Jeszcze w 2015 r. Michael Eisen miał to Panu za złe. Czy mógłby Pan przypomnieć, w jakim kontekście padło to zdanie i co dokładnie miało znaczyć? Czy nadal podtrzymuje Pan ten pogląd?

Sformułowanie „strona aniołów” zawsze było takim chwytem, służącym powstrzymaniu Elsevier’a przed wprowadzaniem coraz dłuższych okresów embargo; było udzieleniem swoistego kredytu, z którego mógłby korzystać w celach PR-owych, w walce ze spadającym na niego odium ze strony bibliotekarzy i autorów. Elsevier to rozumiał, ja to rozumiałem, i rozumiał to również każdy, kto patrzył na sprawy realistycznie i wiedział, o co toczy się gra.

Poza tym nigdy nie wierzyłem w bojkoty (wszystkie dotychczasowe bojkoty były nieudane, co potwierdza słusznąć mojej niewiary), tylko wierzyłem w nakładane zobowiązania (choć nie zdominowały one krajobrazu w stopniu, w jakim się spodziewałem).

Ale trzeba tu zwrócić uwagę na rzecz mniej trywialną. Mianowicie nie należy postrzegać wydawców jako głównej przeszkody na drodze do OD, choć jest zupełnie pewne i nieuniknione (tak jak pewny i nieunikniony jest sam otwarty dostęp), że będą korzystać ze wszystkich możliwych sztuczek, by odwlekać zieloną drogę OD tak długo, jak tylko się da. Główną przeszkodą są ci, którzy na otwartym dostępie bezpośrednio najbardziej  skorzystają: sami naukowcy. (Najwięcej korzyści niebezpośrednich odniosą oczywiście podatnicy, którzy finansują naukę i naukowców).

Gdyby naukowcy na całym świecie byli mniej niemrawi i potulni, i gdyby z własnej inicjatywy udostępniali swoje prace w zielonym OD już w 1994 r. (już wtedy robili tak od ponad dekady informatycy i fizycy, korzystając z każdej nowej technologii i zupełnie nie przejmując się opinią wydawców), wtedy już dawno osiągnęlibyśmy optymalny stan rzeczy.

Ale większość naukowców tego nie zrobiła. Dlatego wciąż zajmujemy się wprowadzaniem polityk otwartego dostępu (przy czym wiele z nich jest słabych, więc nie przynoszą efektów) i rozważaniami, jak dokładnie takie polityki powinny wyglądać.

Vincent-Lamarre, P, Boivin, J, Gargouri, Y, Larivière, V & Harnad, S (2016) Estimating open access mandate effectiveness: The MELIBEA Score. Journal of the Association for Information Science and Technology (JASIST), 67.

Z jednej strony, wielcy tradycyjni wydawcy coraz bardziej angażują się w otwarty dostęp, wprowadzają polityki samoarchiwizacji i opcje OD do swoich starych czasopism, a także zakładająa nowe otwarte czasopisma. Obserwujemy to odkąd Elsevier kupił BioMed Central w 2008 r. Z drugiej strony, ich przychody pozostają tak samo duże, a może nawet jeszcze wzrosły. Wielokrotnie pisał Pan o zjawisku „podwójnych zysków” (double-dipping). Nawiązując do Pańskiej odpowiedzi na poprzednie pytanie: czy mógłby Pan rozwinąć wątek wielkich komercyjnych wydawców naukowych i ich stosunku do otwartego dostępu? Czy może podzielić się Pan swoimi przewidywaniami, jak w najbliższej przyszłości będzie wyglądał ten biznes? 

Wciąż uważam, że w zasadzie bez znaczenia jest to, co wydawcy mówią lub robią. To wyłącznie naukowcy opóźniają proces. To ich instytucje i agencje finansujące mogą zapewnić, że naukowcy będą robić, co do nich należy (to, co jest optymalne, a zarazem nieuniknione). Ale jest już za późno, by zrobili to tak szybko, jak to było możliwe.

Oferowane przez wydawców „fałszywe złoto” służy wyłącznie rozpraszaniu uwagi, zostało zaprojektowane w celu odwlekania optymalnego i nieuniknionego rezultatu (i wydawcy doskonale o tym wiedzą).

Tak więc wszystko zależy od tego, jak szybko instytucje i wydawcy przyjmą w skali globalnej skuteczne zobowiązania do zielonego OD. Jedynym sposobem, by można było przestać prenumerować czasopisma, jest powszechna dostępność zielonej drogi OD. Dopóki nie będzie można zaprzestać prenumerowania czasopism, dopóty wydawcy nie zostaną przymuszeni do zrezygnowania ze swoich przestarzałych produktów i usług, pochodzących z ery Gutenberga (np. wydania drukowane, wydania online, archiwizowanie i pobieranie opłat za dostęp), zmniejszenia kosztów, ograniczenia swojej działalności do jedynej istotnej usługi, jaka w erze post-gutenbergowskiej pozostała wydawcom czasopism recenzowanych (czyli do zarządzania procesem recenzyjnym, w którym naukowcy bezpłatnie dostarczają swoje badania i recenzje). W ten sposób wydawcy osiągną drogę „prawdziwego” złotego OD i będą pobierać opłaty adekwatne do ponoszonych przez nich minimalnych kosztów.

Harnad, S. (2010) No-Fault Peer Review Charges: The Price of Selectivity Need Not Be Access Denied or Delayed. D-Lib Magazine 16 (7/8).

Powiedział Pan, że nawet jeśli zwycięży przepłacone “fałszywe złoto”, to nadal będzie to otwarty dostęp. W takim razie (nawiązując do dwóch nurtów ruchu OD), czy według Pana dostępność jest ważniejsza od przystępności cenowej? Dostępność bez oglądania się na koszty?

Jeśli cała Ziemia wybierze „fałszywe złoto” jako powszechne rozwiązanie, zamiast wdrażać zobowiązania do zielonej drogi OD i uzyskać w ten sposób otwarty dostęp plus „prawdziwy” złoty model - będę zadowolony. Głupcy zawsze będą niepotrzebnie tracić pieniądze, a moim jedynym, prawdziwym celem od samego początku jest powszechny OD, najszybciej jak to możliwe.

Opisałem już, dlaczego zwalczam „gorączkę złota” i drwię z niej. „Fałszywy” złoty OD jest rozdmuchany, za drogi, nie skaluje się i nie da się go utrzymać – stąd, jak wnoszę, jest też nieosiągalny. To jest odciąganie uwagi i energii od jedynej drogi do powszechnego OD, która - jak uważam - będzie działać, a tą drogą jest zielony OD i samoarchiwizacja, wdrożona w skali globalnej za pomocą zobowiązań nakładanych przez instytucje uprawiające i finansujące naukę.

Na świecie jest wiele polityk otwartego dostępu, wprowadzonych tak przez instytucje naukowe i agencje finansujące, jak i przez różnych innych interesariuszy. ROARMAP obecnie uwzględnia ponad 700 polityk. Wydaje się, że uważał Pan w 2007 r., że otwarte mandaty wystarczą do osiągnięcia 100% publikacji udostępnionych poprzez zieloną drogę OD. Dziś mamy prawne zobowiązania do otwartego dostępu wprowadzone i sprawdzone w praktyce – jest ich obecnie o ponad 500 więcej niż w 2007 r. Czemu uważa Pan, że mimo wszystko wciąż nie jesteśmy ani o krok bliżej celu?

Jesteśmy bliżej, ale nie tak blisko, jak moglibyśmy i powinniśmy być, ponieważ wciąż polityk OD jest za mało, a wiele z tych, które obowiązują, są niepotrzebnie słabe i nieskuteczne.

Jak powinno zostać sformułowane idealne, mocne i skuteczne zobowiązanie do OD? Czy takie zobowiązanie zostało gdziekolwiek wdrożone?

Oto najważniejsze cechy skutecznego zobowiązania do zielonej drogi OD:

(1) musi wymagać zdeponowania publikacji w repozytorium niezwłocznie po przyjęciu jej przez redakcję (a nie po okresie embargo);
(2) musi wymagać zdeponowania ostatecznej, zrecenzowanej wersji autorskiej (a nie PDF wydawcy);
(3) musi wymagać zdeponowania w instytucjonalnym repozytorium autora (a nie w repozytorium zewnętrznym wobec instytucji);
(4) niezwłoczne zdeponowanie musi być warunkiem wstępnym wymaganym przy ewaluacji pracy badacza;
(5) repozytorium musi mieć opcję guzika copy-request;
(6) niezwłoczne zdeponowanie nie musi koniecznie oznaczać niezwłocznego OD (o ile funkcjonuje przycisk).

Harnad, Stevan (2015) Open Access: What, Where, When, How and Why. In: Ethics, Science, Technology, and Engineering: An International Resource eds. J. Britt Holbrook & Carl Mitcham, (2nd edition of Encyclopedia of Science, Technology, and Ethics, Farmington Hills MI: MacMillan Reference).

Już 10 lat temu uważał Pan, że postęp w samoarchiwizacji odbywa się zbyt powoli. W artykule „Opening Access by Overcoming Zeno's Paralysis” opisał Pan społeczność akademicką jako przytłoczoną tym, co nazwał Pan „paraliżem Zenona”. Stąd można sądzić, utrzymuje Pan, że problem jest natury psychologicznej. Inni widzą problem raczej jako systemowy. Cały system komunikacji naukowej, który w ostatnich latach rozwijał się zgodnie z zasadą „publikuj albo zgiń”, wykształcił zbyt wiele bodźców popychających naukowców w błędną stronę, a zbyt mało zachęt nakierowujących ich w kierunku OD. Czy z perspektywy lat stawia Pan taką samą diagnozę? Kto jest winien: naukowcy, czy system, w którym przyszło im pracować?

Winni są: (1) sami naukowcy, ponieważ nie zapewniają zielonego OD z własnej woli, bez formalnego zobowiązania; (2) instytucje naukowe i agencje finansujące, ponieważ ślamazarnie wprowadzają zobowiązania i są tak powolne w ich optymalizacji.

Kwestie systemowe, związane z finansowaniem badań, z publikowaniem i ocenianiem (recenzje, długi czas między wysłaniem tekstu a publikacją, zasada „publikuj albo zgiń”, współczynnik wpływu, ewaluacja, data-mining, licencje pozwalające na ponowne wykorzystanie, etc.), to są realne problemy, ale one nie wiążą się z dostępem. Sprowadzanie ich do wspólnego mianownika ze znacznie prostszym problemem zapewnienia natychmiastowego, bezpłatnego dostępu on-line do recenzowanych wyników badań, dla wszystkich potencjalnych użytkowników, było i jest ogromnym błędem.

Ma Pan na myśli naukowców jako naukowców, czy naukowców jako istoty ludzkie? Jeśli to pierwsze, to co czyni tę konkretną grupę tak ślamazarną, jak to Pan opisuje? Wcześniej wspomniał Pan o „umyśle ludzkim”.

Wcześniej mówiłem „umysł ludzki”, ale teraz mówię o umyśle „akademickim” (choć pewnie można pokusić się o sąd bardziej generalny, jako że akademik jest przecież istotą ludzką wykonującą pewien zawód…). Muszę wyznać, że nie rozumiem, dlaczego zajmuje to tak wiele czasu akademikom. Niektórzy mówią, że to skutek przepracowania, ale moim zdaniem to wyraz samousprawiedliwiania się, prawdopodobnie nieuzasadnionego w przypadku większości pracowników naukowych. Poza tym, samoarchiwizacja artykułu w zasadzie nie zabiera w ogóle czasu (nawet naukowcy postępujący według zasady „publikuj albo zgiń” nie publikują rocznie aż tak wielu artykułów!).

W sekcji pomocy w dziale samoarchiwizacji na stronie BOAI próbowałem zdiagnozować i skatalogować wiele przyczyn „paraliżu Zenona”. Ostatnio było ich nie mniej niż 38. Dwie najważniejsze to lenistwo i strach przed wydawcami.

Harnad, S. (2006) Opening Access by Overcoming Zeno's Paralysis, in Jacobs, N., Eds. Open Access: Key Strategic, Technical and Economic Aspects, Chapter 8. Chandos.

Obecnie nie mówi się już tak często o zwykłym OD. Pojęcie jest oczywiście często używane i jest rozpoznawalne. Często jednak zamiast niego używa się zwrotów: „dostęp publiczny” (Public Access), zwłaszcza, gdy chodzi o OD gratis, albo „otwarta nauka” (Open Science), kiedy myśli się o OD libre. Czy według Pana OD jest nieodłączną częścią otwartej nauki (a może otwartych danych)? Czy też jest to raczej niezależny cel, możliwy do osiągnięcia odrębnymi środkami, który został wrzucony do dużego, luźnego worka z napisem „otwarta nauka” ze względów czysto retorycznych?

Powszechny, bezpłatny dostęp online do recenzowanych wyników badań (OD) – chodzi o OD gratis, w zielonym modelu – jest nie tylko pierwszym i najważniejszym celem, ale też od dawna był i nadal jest celem całkowicie i natychmiastowo osiągalnym dla wspólnoty naukowej. Po prostu nikt tego nie zrozumiał. Nie możemy mieć OD libre i licencji CC-BY, dopóki nie będziemy mieć wcześniej OD gratis. I nie będziemy mieć otwartej nauki bez OD libre i CC-BY. A z otwartych danych, nawet na licencji CC-BY, jest niewielki pożytek, jeśli opierające się na nich recenzowane artykuły nie są otwarte.

Tak jak optymalny i nieunikniony rezultat OD został opóźniony przez przedwczesną „gorączkę złota”, tak też został opóźniony przez próby zdobycia przedwcześnie OD libre, CC-BY i otwartej nauki, bez uprzedniego zadbania o powszechne zobowiązania do zielonego OD gratis. (Nazwałem to „zachwytem nad prawami”)4.

Harnad, S. (2013). Worldwide open access: UK leadership? Insights, 26(1).

Zostawiając na boku otwarty dostęp, czym zajmuje się Pan jako naukowiec?

Moje badania dotyczą tego, jak ludzie postrzegają kategorie. Kategoryzowanie to robienie właściwych rzeczy z właściwym rodzajem rzeczy: podejść do tego, unikać, zjeść to, zakolegować się, coś z tym robić, jakoś to nazwać, opisać to. Kategorie są rodzajami i, abyśmy przetrwali i odnieśli sukces, nasze mózgi muszą znaleźć cechy, które odróżniają elementy należące do danej kategorii od elementów nie należących do niej.

Mówię, że „nasze mózgi” to robią, ponieważ często kategoryzujemy nie mając w ogóle świadomości, jak to robimy. Moja dziedzina, kognitywistyka, jest poświęcona „odwrotnej inżynierii” tych mechanizmów w naszym mózgu, które umożliwiają nam robić to wszystko, co robimy. Ostatecznym celem jest stworzenie modelu, który zdałby Test Turinga, czyli byłby w stanie robić wszystko to, co my robimy.

W laboratorium badani uczą się nowych kategorii (np. nowych rodzajów kształtów) metodą prób i błędów, przy czym otrzymują informację zwrotną, czy mają rację czy nie. Obserwujemy, co się dzieje w ich mózgach podczas nauki, a także modelujemy ten proces za pomocą symulacji komputerowych w sieciach neuronowych, które staramy się „nauczyć” tych samych kategorii.

Umiejętność uczenia się kategorii z bezpośredniego doświadczenia prób i błędów jest wspólna dla wielu gatunków, ale to nie jest jedyna metoda uczenia się kategorii. Nasz gatunek wyróżnia się tym, że potrafimy uczyć się kategorii także werbalnie: ktoś, kto wie, jakie cechy odróżniają elementy należące do danej kategorii od elementów do niej nienależących, może nam to wyjaśnić. Prawie wszystkie słowa w słowniku są nazwami kategorii, a każde zostało zdefiniowane. Jeśli więc trafisz na słowo, którego znaczenia nie znasz, możesz sprawdzić jego definicję. A co jeśli nie znasz znaczenia słów składających się na tę definicję? Je także możesz sprawdzić! Nie może to jednak ciągnąć się w nieskończoność. W przeciwnym razie można by było przejść przez cały słownik niczego się nie ucząc. Nazywa się to problemem nabierania znaczeń przez symbole (symbol grounding problem). Znaczenie przynajmniej niektórych słów musi zostać poznane starym sposobem, wspólnym dla różnych gatunków: poprzez bezpośrednie doświadczenie bazujące na metodzie prób i błędów, które właśnie badamy w laboratorium. Dopiero mając podstawowy zasób słów możemy poznawać znaczenie nowych kategorii wyłącznie poprzez werbalne definicje.

Ile słów trzeba poznać doświadczalnie – i które? – by móc nauczyć się pozostałych wyłącznie posługując się werbalnymi definicjami? Pracujemy również nad tym problemem, analizując słowniki z wykorzystaniem teorii grafów. Ta liczba jest zaskakująco mała, poniżej 1500 słów dla największych przeanalizowanych dotąd słowników. Wydaje się, że słowa bazowe zazwyczaj są poznawane wcześniej, występują częściej i są bardziej konkretne, niż pozostałe. Spodziewamy się, że nasze badania przyniosą także kilka wskazówek co do początków i rozwoju języka, jak również co do jego funkcji adaptacyjnej: to język jest tym, co pozwala naszemu gatunkowi poznać nieskończenie więcej nowych kategorii niż jakiemukolwiek innemu gatunkowi. Co więcej, robimy to o wiele szybciej i bezpieczniej, łącząc nazwy już poznane w nowe kategorie. To właśnie to sprawia, że nauka jest w ogóle możliwa, i to właśnie doprowadziło do otwartego dostępu. Gdybyśmy 300,000 lat temu „kasowali” się nawzajem za uzyskanie płatnego dostępu do informacji o nowych kategoriach, język mógłby nigdy się nie rozwinąć (podobnie jak pieniądze!).

Związki między moimi badaniami nad dwoma sposobami poznawania kategorii i potrzebą otwartego dostępu zostały nakreślone przed dekadą w wywiadzie z Richardem Poynderem.

Poynder, R. & Harnad S. (2007) From Glottogenesis to the Category Commons. The Basement Interviews.
Blondin-Massé, A., Harnad, S., Picard, O. & St-Louis, B. (2013) Symbol Grounding and the Origin of Language: From Show to Tell. In: Lefebvre C, Comrie B & Cohen H (Eds.) Current Perspective on the Origins of Language, Benjamin.

Test Turinga: skuteczny czy nie? Czy pisemne porozumiewanie się na nieokreślony temat musi pociągać za sobą procesy, które możemy bezpiecznie nazwać poznawczymi, czy też chatboty pozostaną tym, czym są dziś? A dziś wydają się być znacznie bardziej podobne do algorytmów szachowych: w istocie są to zestawy sprytnych reguł heurystycznych połączone z obszernymi bibliotekami optymalnych sekwencji posunięć. ELIZA nie była nawet tym (tzn. nie miała biblioteki, a zasady heurystyczne nie były takie sprytne), a mimo to przechytrzyła całkiem sporą grupę ludzkich testerów.

Test Turinga nie jest 10-minutową pogawędką z chatbotem. Nie polega też na przechytrzeniu kogokolwiek. To jest naukowa próba przeprowadzenia odwrotnej inżynierii poznania, w której chodzi o odkrycie fundamentalnych mechanizmów przyczynowych. Turing stosuje kryterium zdolności do działania. Model musi być zdolny zrobić wszystko to, co potrafi zrobić zwykły człowiek, i to w sposób nieodróżnialny od człowieka (nawet przez całe życie). Turing sądził, że jeśli mechanizm będzie potrafił zrobić wszystko to, co my, a przy tym nie da się go odróżnić od wielu z nas, wtedy nie będziemy mieć lepszego powodu, by uznawać, że taki model ma umysł lub go nie ma, niż mamy powód, by uznawać, że ktokolwiek z nas ma umysł lub nie.

Ale z testem Turinga spotykamy się na kilku poziomach. Najbardziej znana jest wersja T2, w której sprawdzana jest tylko nieodróżnialność zdolności językowych (i to tylko przez e-mail). Ale mamy jeszcze wiele innych zdolności, i nasze zdolności werbalne są prawie zawsze zakorzenione w innych zdolnościach, jak to już wcześniej opisałem: T3 wymaga nieodróżnialności nie tylko w warstwie werbalnej, ale również w zdolnościach interakcji ze światem rzeczy, do których słowa się odnoszą. Stąd T3 jest nieodróżnialnością zdolności robotycznych (sensomotorycznych). (Można też wymagać T4, czyli nieodróżnialności aktywności neuronów wewnątrz głowy, ale to prawdopodobnie jest tylko niepotrzebne podwyższanie poprzeczki).

Harnad, S. (1992) The Turing Test Is Not A Trick: Turing Indistinguishability Is A Scientific Criterion. SIGART Bulletin 3(4) (October 1992) pp. 9 - 10.
Harnad, S. (2014) Turing Testing and the Game of Life: Cognitive science is about designing lifelong performance capacity not short-term fooling. LSE Impact Blog 6/10 June 10 2014.

Zgodził się Pan ze stwierdzeniem Turinga, że T2 i T3 są dokładnie tym, co robimy z innymi istotami ludzkimi w celu sprawdzenia, czy mają umysł. Dodał Pan, że test trwa całe życie, jeśli jest taka potrzeba. Czy to oznacza, że nie możemy być do końca pewni, czy inni ludzie mają umysły? Czy założenie, że racjonalność jest cechą drugiej osoby, jest jedynie konwencją wynikającą z uprzejmości?

Nie. Zasada, że zdolności mają być nieodróżnialne przez całe życie, ma na celu tylko wyeliminowanie krótkotrwałych sztuczek, które rzeczywiście służą wyłącznie wystrychnięciu kogoś na dudka. Test Turinga sprawdza dwa kryteria: po pierwsze, model musi posiadać naszą pełną zdolność działania; po drugie, nie jesteśmy w stanie odróżnić modelu od rzeczywistego człowieka. Można oszukać ludzi na krótką metę, dlatego jest ważne, aby ani test, ani zdolność nie ograniczały się do krótkiego czasu. W praktyce jednak uważam, że każdy robot, który mógłby wejść w interakcję z nami (i z całym światem) tak skutecznie, że nie dałoby się go rozpoznać przez kilka dni, prawdopodobnie byłby w stanie robić to również przez całe życie (tzn. miałby prawdopodobnie wszystkie nasze zdolności).

Stanisław Lew w jednym z epizodów „Powrotu z gwiazd” szkicuje obraz cmentarzyska robotów. Zepsute „automaty” oczekują w gigantycznym hangarze na stopienie i poddanie recyklingowi. Proces jest w pełni zautomatyzowany i nadzorują go wyłącznie inne roboty. Kiedy bohater powieści (astronauta, który wraca po 10-letniej podróży do Fomalhaut i, w związku ze zjawiskiem dylatacji czasu, wraca na Ziemię starszą o 127 lat) trafia do hali, obserwuje całe spektrum zachowań zepsutych robotów. Jeden wydaje się całkiem pomysłowy i, by uniknąć stopienia, udaje człowieka omyłkowo wziętego za robota. Inny najwyraźniej modli się.
Pan, jako kognitywista, wiele uwagi w swoich badań poświęca problemowi sztucznej inteligencji (AI). Gdyby AI zachowywała się w sposób przedstawiony przez Lema, to czy walczyłby Pan o prawa robotów tak samo jak walczy Pan o prawa zwierząt? Nawet gdyby okazało się, że Searle miał rację, i wszystkie roboty okazałyby się tylko searle’owskim Chińskim Pokojem?

Tak, jeśli tylko roboty będą nieodróżnialne od nas na poziomie T3, uznam, że potrafią one odczuwać, podobnie jak my. I walczyłbym o ich prawo do wolności od niepotrzebnego, spowodowanego przez człowieka cierpienia.

Ale czy nie dostrzega Pan ironii w oddawaniu się spekulacjom na temat literatury s-f, podczas gdy twarda rzeczywistość, bardzo zbliżona do tego, o czym Pan mówi, trwa niepowstrzymana, wszędzie i w każdej chwili, w tym samym czasie, gdy my rozmawiamy, a dotyka ona nie roboty, ale żywych, czujących członków gatunków innych niż nasz własny?

Harnad, S. (2014) Animal pain and human pleasure: ethical dilemmas outside the classroom. LSE Impact Blog 6/13 June 13 2014.

W Deklaracji o Świadomości z Cambridge (Cambridge Declaration on Consciousness) test lustra został wskazany jako istotny sposób rozróżniania różnych klas zwierząt ze względu na inteligencję. Co może Pan jako kognitywista powiedzieć laikowi na temat tych zwierząt, które „zdają” test lustra?

Zaprojektowanie robota, który potrafi zdać test lustra (czyli przemieszcza części swojego ciała posługując się lustrem), jest właściwie banalnie proste. I z całą pewnością nie oznacza to, że robot ma świadomość. Na marginesie: „być świadomym” oznacza „odczuwać”. Dotyczy to także zwierząt, które nie rozpoznają się w lustrze. Tak więc uważam test lustra po prostu za test pewnych wyższych zdolności poznawczych. Prawdziwe pytanie dotyczy tego, czy dany byt odczuwa. Jest bardzo wiele dowodów na to, że inne ssaki i inne wyższe kręgowce odczuwają podobnie jak odczuwają dzieci w przedwerbalnej fazie rozwoju. I prawie tak samo wiele dowodów na to, że odczuwają też niższe kręgowce i bezkręgowce.

Harnad, Stevan (2016) Animal sentience: The other-minds problem, Animal Sentience 2016.001.

Czy AI odgrywa znaczącą role w otwartej nauce? Albo czy mogłaby taką rolę odgrywać?

Odgrywałaby, gdybyśmy mieli otwartą naukę (ale nie mamy!). AI i uczenie maszynowe zostało już zastosowane do maszynowej analizy (data-mining) malutkiego fragmencika korpusu naukowego, który jest otwarty i dostępny online, ale możemy spodziewać się o wiele więcej – jeśli w końcu będziemy mieć otwarty dostęp.

Dror, I. and Harnad, S. (2009) Offloading Cognition onto Cognitive Technology. In Dror, I. and Harnad, S. (Eds) (2009): Cognition Distributed: How Cognitive Technology Extends Our Minds. Amsterdam: John Benjamins.

A teraz od drugiej strony: czy otwarta nauka (lub choćby jakiś jej aspekt, jak na przykład otwarte dane) mogłaby odgrywać znaczącą rolę w rozwoju AI?

Oczywiście, że mogłaby – tak jak mogłaby odgrywać znaczącą rolę w rozwoju każdej innej dziedziny nauki. Ale do tego potrzebna jest otwarta nauka. A do otwartej nauki potrzebny jest najpierw OD…

Zamiast więc marzyć o potencjalnych korzyściach z otwartej nauki, powinniśmy najpierw chwycić OD gratis, który od tak dawna jest w naszym zasięgu.

Nie wchodząc tutaj w szczegóły, można powiedzieć, że jesteśmy świadkami ogólnoświatowego trendu polegającego na odchodzeniu od liberalnej demokracji. Możemy nawet mówić o kryzysie modelu liberalno-demokratycznego. Czy ta sytuacja może wpłynąć na sposób, w jaki obecnie działa system nauki? A jeśli tak, to do jakiego stopnia?

Najjaskrawszym tego przykładem wśród liberalnych zachodnich demokracji jest ten, który ma miejsce teraz w sercu UE, w kraju mojego urodzenia, na Węgrzech. (Pański kraj, Polska, niestety wygląda tak, jakby miał zaraz dołączyć).
Pierwszy zamach obecnego węgierskiego reżimu na naukę miał miejsce w 2011 r. i okazał się, na szczęście, nieskuteczny. To jest jednak znaczący zwiastun tego, co czeka naukę i naukowców, jeśli antydemokratyczne zamachy reżimów na demokrację i prawa człowieka nie zostaną powstrzymane.

W każdym razie, nie porzuca Pan ostatecznie otwartego dostępu. Aktualnie jest Pan zaangażowany w badania naukometryczne nad otwartymi publikacjami. Czy mógłby Pan przybliżyć naszym czytelnikom tę gałąź wiedzy? Czy dowiedział się Pan z tych badań czegoś, co może zmienić pańskie poglądy na OD?

Naukometria ma swoich zwolenników i krytyków. Jeśli przemyśli Pan to, co Bradley powiedział o metafizyce - że „człowiek, który jest gotów udowadniać, że metafizyka jest w ogóle niemożliwa (…) jest dla metafizyka bratem mającym konkurencyjną teorię” - jest to tak samo słuszne w odniesieniu do naukometrii: to są po prostu wskaźniki. Akademicy nie lubią, gdy ich działalność jest oceniana na podstawie wskaźników takich jak liczba publikacji czy liczba cytowań (w ogóle nie lubią być oceniani), ale jeśli wzbogacimy nasz repertuar wskaźników, jak również jeśli zweryfikujemy ich wartość predykcyjną, zamiast opierać się na „trafności fasadowej” - która w przypadku ewaluacji badań może przybrać formę rankingów koleżeńskich [peer rankings] (kolejny wskaźnik!) - możemy tylko zyskać.

Korpus prac udostępnionych w OD oferuje materiał, na którym można zmierzyć różne nowe rzeczy i zweryfikować wiele nowych wskaźników, w różnych dziedzinach nauki. Należą do nich: (1) liczba pobrań, (2) wskaźniki chronometryczne (współczynniki wzrostu i rozpadu dla przyrostu cytowań i pobrań), (3) rekurencyjne, ważone zliczenia cytowań wzorowane na algorytmie Google PageRank (cytowanie w wysoko-cytowanym artykule lub przez wysoko-cytowanego autora waży więcej), (4) analizy współcytowań, (5) wskaźniki węzłów/autorytetów, (6) wskaźniki endo- i egzogamiczności (odzwierciedlające cytowanie przez wąskie lub szerokie grono współautorów, autorów i dziedzin), (7) stopień nakładania się tekstu i inne miary semiometryczne, (8) dotychczasowy poziom finansowania badań, liczba doktorantów, etc.

Ale do tego wszystkiego potrzebujemy najpierw jednej rzeczy: powszechnego zielonego OD.
Powiedzmy, że nie porzuciłem OD. Po prostu powiedziałem, co miałem do powiedzenia, i to już wielokrotnie, a teraz cierpliwie czekam, aż światowa społeczność naukowa zacznie wreszcie działać.

Harnad, S. (2008) Validating Research Performance Metrics Against Peer Rankings. Ethics in Science and Environmental Politics 8 (11) doi:10.3354/esep00088 The Use And Misuse Of Bibliometric Indices In Evaluating Scholarly Performance.

Ostatnio poświęcił się Pan walce o prawa zwierząt. Czy mogę zapytać o filozoficzno-etyczne podłoże tej części Pańskiej aktywności? Jaki jest Pańskim zdaniem najważniejszy argument za prawami zwierząt?

Jedynym „prawem” zwierząt, o które walczę, jest prawo odczuwających organizmów do wolności od niepotrzebnego cierpienia spowodowanego przez człowieka. I nie jest to abstrakcyjna kwestia filozoficzna, ale największa zbrodnia ludzkości. (Największą zbrodnią ludzkości przeciwko ludzkości był Holokaust, ale największą zbrodnią tout court jest Wieczna Treblinka, którą sprawiamy nie-ludzkim zwierzętom).

Dlaczego to jest największa zbrodnia? Ponieważ dopuszczamy się tych okropności na zwierzętach nie z potrzeby (przynajmniej w świecie rozwiniętym nie ma dziś takiej potrzeby), ani po to, by przetrwać, ani nawet dla zdrowia. I to są naprawdę okropności: niewysłowione, nie dające się opisać, niewybaczalne okropności.

Nie ma takiej okropności, której dopuszczamy się na nie-ludzkich zwierzętach, której nie dopuścilibyśmy się również na ludziach. Fundamentalna różnica polega na tym, że zdecydowaliśmy się uznać, że dopuszczanie się takich okropności na ludziach jest niewłaściwe, zdelegalizowaliśmy je i z wyjątkiem socjopatów i sadystów nikt nie marzy o zadawaniu takich cierpień ludziom – tymczasem zadawanie ich zwierzętom nie dość, że jest legalne, to jeszcze większa część ludzkości przyzwala na to, a nawet przykłada rękę do tych cierpień, poprzez utrzymywanie popytu na wysokim poziomie.

Jedyną nadzieją dla niezliczonych ofiar tej zbrodni nad zbrodniami jest to, że kiedy tylko przyzwoita większość zda sobie sprawę z dwóch podstawowych faktów: (1) z rzeczywistych rozmiarów okrucieństwa; (2) z tego, że jest ono zupełnie niepotrzebne, to wtedy zrozumie, że jest to złe, podobnie jak uznała za złe gwałty, morderstwa, przemoc i niewolnictwo, i zrezygnuje z tego, jak zrezygnowała z gwałtów, morderstw, przemocy i niewolnictwa.

Zamiast więc tokować w kółko o OD (którego wprowadzenie jest w każdym razie przesądzone i jest już tylko kwestią czasu), wolę poświęcić się o wiele pilniejszej sprawie zakończenia tej monstrualnej zwierzęcej agonii, niepotrzebnie wywoływanej przez ludzi. Paradoksalnie, wydaje się, że również tutaj otwarty dostęp może przynieść częściowe rozwiązanie sprawy: kamery CCTV, nagrywanie okrucieństw mających miejsce w rzeźniach i streamingowanie dowodów online w sposób otwarty, tak by możliwa była publiczna kontrola na zasadach crowd-sourcingu.

Harnad, S (2015a) To Close Slaughterhouses We Must Open People's Hearts. HuffPost Impact Canada July 2 2015.
Harnad, S. (2015). Taste and Torment: Why I Am Not a Carnivore. Québec Humaniste.
Patterson, C. (2002). Eternal Treblinka: Our treatment of animals and the Holocaust. Lantern Books.

 

Tłumaczenie: Tomasz Lewandowski, Marta Hoffman-Sommer, Michał Starczewski

 

Przypisy

1. Ang. „Archivangelist”. Jest to neologizm Stevana Harnada. Oznacza on ewangelistę (samo)archiwizacji. “Samoarchiwizacja” (ang. „self-archiving”) to termin oznaczający umieszczanie własnej publikacji naukowej w repozytorium akademickim. Dziś mówimy raczej o „deponowaniu” bez specyfikacji, czy ma to robić sam naukowiec, czy może ktoś inny w jego imieniu. Harnad, jako zwolennik i „ewangelista” samoarchiwizacji jest więc „archiwangelistą”. Dobra nowina („ewangelia”), jaką głosi (lub raczej głosił), jak się okaże poniżej, sprowadza się do tego, że samoarchiwizacja wszystkich naukowców jest warunkiem koniecznym i wystarczającym do tego, by nastała era otwartego dostępu i komercyjni wydawcy czasopism naukowych zmienili model działania [przyp. tłum.].

2. „Fool’s Gold” znaczy dosłownie „Złoto Głupców” i niekiedy bywa po prostu tak tłumaczone. Ponieważ jednak „Fool’s Gold” jest jednocześnie w języku angielskim potoczną nazwą pirytu zdecydowaliśmy się tłumaczyć ten harnadowski termin jako „fałszywe złoto”. Gra słów Harnada polega na tym, że przeciwieństwem „Fool’s Gold” jest „Fair Gold”, przy czym „Fair” można rozumieć albo dosłownie („złoto prawdziwe” - pozostaniemy przy tym tłumaczeniu) albo jako moralną ocenę („uczciwe złoto” - czy raczej w tym kontekście: uczciwa złota droga OD) [przyp. tłum.].

3. Por. również guzik RequestCopy z dokumentacji DSpace. To rozwiązanie opiera się na przepisach prawnych obowiązujących w USA i Kanadzie, zgodnie z którymi udostępnienie przez autora tekstu obcej osobie, która zwróciła się o to w ten na wpół zautomatyzowany sposób, pozostaje w granicach dozwolonego użytku (ang. fair use). W Polsce, podobnie jak w przypadku większości państw Europy, takie rozwiązanie nie jest możliwe.

4. Por. np. wywiad z Richardem Poynderem z 2012 roku, gdzie Harnad szczegółowo wyjaśnia pojęcie „zachwytu nad prawami” (ang. „Rights Rapture”) [przyp. tłum.].

 

 

Dyskursy akademickie zostały ukształtowane przez materialne formy upowszechniania wiedzy

Kiedy humaniści mówią do mnie: wy po prostu zmuszacie nas do zmienienia naszej praktyki z powodu zmiany technologii, irytuję się z dwóch powodów. Po pierwsze, nowa technologia pozwalająca na otwarte, nie-rywalizacyjne rozpowszechnianie wiedzy, jest o wiele bardziej zgodna z tym, co robimy z publikacjami akademickimi niż formy rywalizacyjne. Po drugie, taki argument zakłada, że papier, książki, kodeks i inne formy materialne same nie są rodzajem technologii, który determinuje nasze praktyki. W ogóle nie mówi się, a przynajmniej o wiele za mało, o tym, w jaki sposób dyskurs akademicki został ukształtowany przez materialne formy rozpowszechniania wiedzy.

 

Martin Eve jest profesorem na Uniwersytecie Birkbeck w Londynie. Zajmuje się literaturą i wykorzystaniem nowych technologii w działalności wydawniczej. Założył Open Library of Humanities, organizację non-profit mającą na celu publikowanie w otwartym dostępie prac naukowych. Jest członkiem grupy kierującej projektem OAPEN-UK, badającej otwarte modele wydawnicze monografii w humanistyce i naukach społecznych. Prowadzi kilka projektów z zakresu humanistyki cyfrowej.

 

Michał Starczewski: Jest pan autorem książki “Otwarty dostęp a humanistyka” (Open Access and the Humanities). Czym różni się rewolucja otwartego dostępu w humanistyce i w naukach ścisłych?

Martin Eve: Zazwyczaj mówi się, że OD w humanistyce „odstaje” od nauk ścisłych, ale takie stawianie sprawy stwarza pewną liczbę nowych problemów. Niektórzy humaniści pytają, dlaczego mają po prostu podążać we wszystkim za naukami przyrodniczymi? Inni pytają, dlaczego zmiany technologiczne mają kierować praktyką akademicką? Jeszcze inni wyrażają obawy dotyczące wpływu otwartego licencjonowania na wzrost zjawiska plagiatowania (nie podzielam tej obawy). Pojawia się też problem ekonomiczny: w humanistyce o wiele mniej prac otrzymuje finansowanie, tak więc opłaty odautorskie (APC) nie są łatwo dostępne. Wreszcie, są i tacy, którzy wskazują, że w rzeczywistości w zakresie OD nie ma oczywistego podziału pomiędzy „humanistyką” a „naukami ścisłymi”. Istotnie, nauki chemiczne są w bardzo małym stopniu otwarte, podczas gdy filozofia wypracowała już jakiś czas temu kulturę preprintów.

Są więc różnice między tym, co humaniści robią, a tym, co się o tym mówi. Często mam jednak wrażenie, że się przesadza. Wszyscy piszemy, ponieważ chcemy, by nas czytano i wiemy, że bariery finansowe ograniczają dotarcie do szerszego grona czytelników. Mając to na uwadze trzeba jednak powiedzieć, że w humanistyce mamy kulturę monografii, w której jest istotnie trudniej wdrożyć modele otwarte niż w przypadku artykułów i czasopism.

Zarówno dyskurs, jak i praktyki ruchu otwartego dostępu koncentrują się na artykułach i czasopismach. Tymczasem dla badaczy z obszaru humanistyki monografie są często o wiele ważniejsze niż artykuły. Można powiedzieć, że najważniejszym wnioskiem z raportu Jisc OAPEN-UK poświęconego otwartym monografiom, jest to, że wciąż jest jeszcze za wcześnie na rekomendowanie jakiegokolwiek konkretnego modelu. Jakie są przeszkody?

Nie mam tu dość miejsca, by zagłębiać się we wszystkie niuanse. Powiem więc tylko, że wokół monografii jest cały zestaw społecznych i ekonomicznych wyzwań, które zostały znakomicie opisane w ostatnim raporcie Geoffa Crossicka, opracowanego dla HEFCE w Wielkiej Brytanii. Centralnym wyzwaniem jest ekonomia. Inny raport ostatnio ogłosiła w USA Fundacja Andrew W. Mellona. Wynika z niego, że koszt wydania monografii zawiera się w przedziale od 30.000$ za książkę w grupie najmniejszych wydawnictw uniwersyteckich, do więcej niż 49.000$ za książkę wśród największych wydawnictw. Przy tym poziomie kosztów bardzo trudno jest uzyskać wsparcie dla modelu takiego jak BPC (Book Processing Charges – opłata za wydanie książki, analogiczna do opłaty odautorskiej APC), ponoszona przez autora/instytucję/agencję finansującą. Drażliwym tematem są też książki o potencjalne komercyjnym, a sposoby wykorzystywania otwartych książek (w porównaniu do drukowanych) pozostaje zagadnieniem zbyt słabo przeanalizowanym, podobnie jak wstrzemięźliwość niektórych gremiów decydujących o awansach naukowych w zakresie uznawania manuskryptów istniejących wyłącznie w formie cyfrowej.

Założył pan Open Library of Humanities, organizację mającą na celu publikowanie prac akademickich w otwartym dostępie bez pobierania opłat odautorskich (APC). Czy mógłby pan wyjaśnić, jak ona działa? Czy może stanowić wzór dla innych instytucji na świecie? Czy jest w planach wydawanie także monografii w tym modelu?

OLH bazuje na modelu rozproszonych dotacji bibliotecznych. Zamiast pobierać opłatę od autora w wysokości ok. 600$ po przyjęciu artykułu do publikacji, uzyskujemy wsparcie z bibliotek z całego świata, co trochę przypomina model subskrypcyjny, ale nim nie jest. Aktualnie biblioteki płacą ok. 1000$ rocznie, co pozwala na wsparcie 15 naszych czasopism. Wszystko, co publikujemy, jest otwarte, dlatego błędem byłoby mówienie, że biblioteki „kupują dostęp”, subskrypcję, albo coś w tym rodzaju. One wspierają platformę, która inaczej by w ogóle nie istniała. To nie jest klasyczny model ekonomiczny, ale wydaje się, że on działa, skoro przyłączyło się już około 200 bibliotek, a po pierwszym roku wszystkie zdecydowały się na kontynuację. Mamy zamiar przejść także do monografii, ale odłożyliśmy je na potem. Teraz najważniejsze dla nas jest przekształcenie czasopism płatnych na nasz model. Czasopisma mogą to osiągnąć zarówno porzucając swoich dotychczasowych wydawców, jak i poprzez pokrywanie przez nas opłat odautorskich dla tego tytułu w przyszłości. W ten sposób obchodzimy problem finansowania otwartego dostępu w humanistyce.

Po “Raporcie Finch” Wielka Brytania zwróciła się w stronę złotej drogi OD. Wyniki ewaluacji tej polityki są następujące: większość artykułów została opublikowana w czasopismach hybrydowych, które okazały się najdroższe. Z kolei fundacja Wellcome Trust poinformowała, że 30% artykułów, za które zapłaciła opłaty odautorskie, nie były dostępne w czasie przeprowadzonej kontroli. Co poszło nie tak z polityką OD w Wielkiej Brytanii?

Doprawdy nie uważam, by ocenianie już na tym etapie, że polityka „poszła nie tak”, było w porządku. Ocena zależy od tego, co było założonym celem. Jeśli celem był otwarty dostęp tańszy niż model subskrypcyjny, to rzeczywiście, pojawiają się pewne problemy. Ale jeśli celem jest otwarty dostęp, choćby miał okazać się droższy, to polityka jest skuteczna. Osobiście uważam, że w długiej perspektywie potrzebujemy systemu, który byłby bardziej wrażliwy na budżety bibliotek akademickich (uważam, że wydawnictwa akademickie nie powinny być nastawione na zysk). Różne polityki w Wielkiej Brytanii: złota polityka RCUK i zielona polityka HEFCE, razem tworzą kulturę, w której OD jest normą. Mówienie, że te polityki nie działają, jest po czterech latach (w przypadku RCUK) i po sześciu miesiącach (w przypadku HEFCE), przedwczesne.

Jak widzi pan przyszłą rolę wydawców naukowych w kontekście OD? Czy naukowcy potrzebują wydawców do organizowania procesu recenzyjnego i zapewnienia wysokiej jakości?

Proces wydawniczy postrzegam w kategoriach pracy, którą trzeba wykonać. Nie podzielam koncepcji, że w kapitalizmie ludzie powinni pracować za darmo. Jeśli ludzie świadczą usługi, zasługują, na wynagradzenie. Praca przy wydawaniu jest zaś taką samą pracą jak każda inna. Wydawcy wykonują całą paletę zadań, których dyskredytowanie byłoby nieroztropne. I to wymaga zapłaty. Organizacja procesu recenzyjnego, skład, redakcja, korekta, cyfrowe zabezpieczenia, utrzymanie platform, marketing, doradztwo prawne, identyfikacja, zachowanie,… Lista na tym wcale się nie kończy. Przy tym nie jestem wcale pewien „zapewnienia wysokiej jakości”. Do systemu recenzyjnego podchodzę z daleko idącym sceptycyzmem. Uważam, że jest częściej traktowany jako panaceum, niż jako rygorystyczna metoda filtrowania dobrych treści. W rzeczy samej, ostatnio z kilkoma osobami pisałem o problemach predyktywnej doskonałości.

Czy uważa pan, że kwestia otwartych danych jest w humanistyce tak samo istotna, jak w innych dyscyplinach? Czy to możliwy scenariusz, że humanistyka będzie oparta na danych cyfrowych? Czy jesteśmy świadkami „zwrotu cyfrowego”?

Interesujące jest tu moim zdaniem to, że pojęcie danych nie jest w humanistyce dobrze rozumiane. Z tego wynika obcy dla większości humanistów sposób działania z materiałem ilościowym. Jednocześnie wszyscy pracujemy z artefaktami, które można nazwać „danymi”. Kiedy więc rozmawiam o tym z kolegami, staram się używać słowa „dowód” lub „paratekst” na określenie danych. Mówię: jeśli piszesz o XIX-wiecznej powieści i robisz na ten temat notatki, to zarówno sama powieść, jak i notatki mogą być postrzegane jako dane i mogą mieć wartość dla kogoś innego. To powiedziawszy mogę stwierdzić, że dzielenie się danymi w wielu dyscyplinach wywołuje kontrowersje, więc fakt, że humanistyka jeszcze tego nie przetrawiła, nie jest powodem do wszczynania alarmu.

Czy otwartość jest konieczną cechą cyfrowego środowiska w humanistyce?

Niestety, nie. Jak dowodzi fakt stawiania barier finansowych [ang. paywalls] wokół materiałów badawczych online, działanie w zamkniętym środowisku cyfrowym w humanistyce jest całkowicie możliwe. Jest w tym coś ciekawego, co zawsze rzuca mi się w oczy (nawiązuję tu do przenikliwych spostrzeżeń Petera Subera w książke Otwarty dostęp, wydanej przez MIT Press [przetłumaczonej na język polski – przyp. tłum.]). Wiedza, idee i słowa są nieskończenie kopiowalne bez żadnej straty dla pierwotnego posiadacza. Jeśli powiem ci coś, o czym wiem, to i ty to wiesz, i ja; obaj jesteśmy bogatsi. Technologia cyfrowa, która pozwala na kopiowanie bez ograniczeń, jest bezpośrednio zgodna z tym sposobem rozumowania. Kiedy humaniści mówią do mnie: wy po prostu zmuszacie nas do zmienienia naszej praktyki z powodu zmiany technologii, irytuję się z dwóch powodów. Po pierwsze, nowa technologia pozwalająca na otwarte, nie-rywalizacyjne rozpowszechnianie wiedzy, jest o wiele bardziej zgodna z tym, co robimy z publikacjami akademickimi niż formy rywalizacyjne. Po drugie, taki argument zakłada, że papier, książki, kodeks i inne formy materialne same nie są rodzajem technologii, który determinuje nasze praktyki. W ogóle nie mówi się, a przynajmniej o wiele za mało, o tym, w jaki sposób dyskurs akademicki został ukształtowany przez materialne formy rozpowszechniania wiedzy.

e-Infrastruktura nie zawsze jest interoperacyjna. Informacja często nie może być wymieniana między różnymi narzędziami. Problem jest szczególnie poważny, gdy naukowcy pracują z zasobami instytucji kultury, jak muzea, biblioteki czy galerie. Czy jest możliwe wykorzystanie wspólnych standardów, dzięki którym e-infrastruktura stanie się interoperacyjna? Jakie są najpoważniejsze przeszkody uniemożliwiające wykorzystanie takich standardów?

Oczywiście, można stworzyć wspólne standardy dla e-infrastruktury. Wyzwaniem jest jednak to, że mamy wyjątkowo rozproszoną grupę aktorów, którzy mają całkiem odmienne cele końcowe. Czy Elsevier postrzega swoje korzyści z pracy w otwarty, interoperacyjny sposób tak samo jak jakieś małe wydawnictwo publikujące książki w otwartym dostępie? Czy Wiley uzyskuje takie same korzyści z interoperacyjności, jak repozytorium instytucjonalne? Będę przekonywał, że różne potrzeby interesariuszy warunkują stopień interoperacyjności niemniej niż każdy inny aspekt technologiczny.

Pracuje pan nad trzema nowymi książkami. Czy mógłby pan przybliżyć, na czym polegają te projekty?

Oczywiście. Pierwsza książka, która jest już na etapie ostatecznego szkicu, nosi tytuł The Anxiety of Academia i dotyczy sposobów, w jakie koncepcje krytyki, legitymacji i dyscypliny zostały wykorzystane w grupie współczesnych powieści w celu antycypacji tego, jak badacze będą te powieści czytać. Druga książka ma tytuł The Aesthetics of Metadata i jest gotowa w ok. 50%. Poświęcona jest serii współczesnych powieści z punktu widzenia występujących w nich struktur przypominających metadane. Przyglądam się w niej m.in. książce Marka Blacklocka o oszuście podszywającym się pod Rozpruwacza z Yorkshire i znaczeniu, jakie w pościgu mają: akcenty, pisanie i lokalizacja. Przyglądam się także fałszywym przypisom w House of Leaves Marka Z. Danielewskiego,  obok przedmiotów ze zniszczonej przyszłości w Emily St. Mandel’s Station Eleven. Wreszcie, ostatnia książka nad którą pracuję ma roboczy tytuł Close-Reading with Computers i jest również gotowa w ok. 50%. Analizuję w niej, jak różne metody z obszaru komputerowej stylometrii mogą zostać wykorzystane do rozwoju badań hermeneutycznych współczesnej fikcji, a koncentruję się na Cloud Atlas Davida Mitchella. Staram się opublikować wszystkie te trzy książki w otwartym dostępie.

 

Nastawiamy się na konsekwentne działania

Trzeba nastawić się na systematyczne i konsekwentne działania zmierzające do stopniowego wprowadzania otwartego dostępu. Aktualnie MNiSW prowadzi działania edukacyjne i szkoleniowe w zakresie otwartego dostępu dla jednostek naukowych i uczelni. Wkrótce udostępnimy na naszej stronie internetowej materiały i informacje dotyczące otwartego dostępu, w tym także treść przykładowej instytucjonalnej polityki - mówi dr hab. Teresa Czerwińska, podsekretarz stanu w Ministerstwie Nauki i Szkolnictwa Wyższego, w wywiadzie udzielonym serwisowi Otwarta Nauka.

 

 

Michał Starczewski: Jednym z priorytetów prezydencji holenderskiej w Radzie UE w pierwszym półroczu 2016 r. jest otwarta nauka. W dniach 4-5 kwietnia br. odbyła się w Amsterdamie konferencja mająca ukierunkować europejską dyskusję o otwartości na najbliższe lata. Jej efektem była deklaracja "Amsterdam Call for Action on Open Science". Zgodnie z tym dokumentem, jednym z dwóch podstawowych celów do zrealizowania przed 2020 r. jest sprawienie, by wszystkie publikacje naukowe były dostępne w sposób otwarty. Jakie działania są Pani zdaniem potrzebne, żeby osiągnąć ten cel na poziomie europejskim i krajowym?

Dr hab. Teresa Czerwińska, podsekretarz stanu w MNiSW: Na szczeblu europejskim ważnym instrumentem służącym wprowadzaniu otwartego dostępu do publikacji naukowych jest wymóg publikowania w otwartym dostępie artykułów powstających w wyniku realizacji projektów finansowanych z Programu Horyzont 2020. Natomiast rozwiązania stosowane w systemach krajowych są uzależnione od decyzji poszczególnych krajów, więc w każdym państwie UE polityka otwartego dostępu wygląda trochę inaczej. Jeśli chodzi o Polskę, to kluczową rolę dla sukcesu inicjatyw związanych z otwartym dostępem będzie mieć konsekwentne stosowanie zasad publikowania w otwartym dostępie przez naukowców, wprowadzanie polityk otwartego dostępu w instytucjach naukowych i na uczelniach oraz współpraca instytucji finansujących badania, czyli MNiSW, NCN i NCBR, służąca temu, by wdrażać zalecenia wynikające z “Amsterdam Call for Action on Open Science” oraz z polskich „Kierunków rozwoju otwartego dostępu do publikacji i wyników badań naukowych”.

W tym samym dokumencie “Amsterdam Call for Action on Open Science” jako drugi cel do osiągnięcia przed 2020 r. zostało wskazane wypracowanie fundamentalnie nowego podejścia do ponownego wykorzystania danych badawczych, co ma pomóc zintensyfikować współpracę nauki i biznesu. Jaki dostrzega Pani potencjał w szerszym udostępnianiu danych badawczych?

Problematyka danych badawczych i ich otwartości jest bardzo złożona i wciąż jest stosunkowo mało sprawdzonych rozwiązań w tym zakresie na świecie. Wszyscy dopiero uczą się jak współdzielić dane. Komisja Europejska prowadzi pilotaż w zakresie otwartych danych w ramach Programu Horyzont 2020. Z jednej strony dane posiadają olbrzymi potencjał wielokrotnego wykorzystywania przez innych naukowców czy firmy. Może to służyć zarówno innowacjom, jak i weryfikowaniu przeprowadzonych badań czy osiąganiu szybszego postępu w nauce dzięki wykorzystaniu wyników badań już istniejących. Z drugiej strony jednak należy pamiętać, że dane badawcze mogą obejmować np. dane medyczne czy dane osobowe lub stanowić tajemnicę określonej instytucji ze względu na ich potencjał innowacyjny. Nie zawsze zatem jest możliwe dzielenie się wszystkimi danymi naukowymi. Tematyka otwartych danych badawczych wymaga niewątpliwie dalszej analizy i wymiany dobrych praktyk pomiędzy kluczowymi interesariuszami. Na pewno warto udostępniać te dane, które nie powodują problemów prawnych czy etycznych i warto otwierać się na współpracę w zakresie współdzielenia i wykorzystania danych.

Czy MNiSW uczestniczy na szczeblu międzyrządowym w dyskusjach o otwartości w systemie nauki?

MNiSW bierze udział w tego rodzaju pracach. W czerwcu br. Komitet ds. Europejskiej Przestrzeni Badawczej i Innowacji (ERAC) powołał stałą grupę roboczą ds. otwartej nauki i innowacji. Bierze w niej udział przedstawiciel MNiSW. Grupa ma przygotować do połowy 2017 r. wstępny raport z rekomendacjami działań w zakresie otwartej nauki i otwartych innowacji. Natomiast musimy pamiętać, że niezależnie od postulatów czy rekomendacji przyjętych przez gremia międzynarodowe kluczowe dla rozwoju otwartego dostępu w Polsce będą rozwiązania przyjęte przez nas w kraju.

23 października 2015 r. MNiSW przyjęło - po wielomiesięcznych konsultacjach - "Kierunki rozwoju otwartego dostępu do publikacji i wyników badań naukowych w Polsce", w których zaleca podmiotom finansującym badania, jednostkom naukowym, uczelniom i wydawcom wdrożenie otwartego dostępu. Jakich kolejnych kroków ze strony MNiSW należy się spodziewać, jeżeli chodzi o realizację tej polityki?

Realizacja polityki otwartego dostępu jest procesem długofalowym. Jej efekty nie będą natychmiastowe. Trzeba raczej nastawić się na systematyczne i konsekwentne działania zmierzające do stopniowego wprowadzania otwartego dostępu. Aktualnie MNiSW prowadzi działania edukacyjne i szkoleniowe w zakresie otwartego dostępu dla jednostek naukowych i uczelni. Wkrótce udostępnimy na naszej stronie internetowej materiały i informacje dotyczące otwartego dostępu, w tym także treść przykładowej instytucjonalnej polityki otwartego dostępu, którą będą mogły zaadaptować do swoich potrzeb jednostki naukowe i uczelnie. Planujemy też przeprowadzenie jesienią 2016 r. badania nt. efektów realizacji polityki otwartego dostępu przez agencje finansujące badania, uczelnie, instytuty badawcze i instytuty PAN. W zależności od wyników tego badania będziemy planować dalsze prace. Niewątpliwie potrzebna i ważna będzie współpraca z NCN i NCBR oraz wsparcie przez te agencje działań dotyczących otwartego dostępu. Rozważamy też poinformowanie zagranicznych wydawców naukowych o tym, że Polska wprowadziła politykę otwartego dostępu i oczekuje uwzględnienia jej przez wydawców.

Niezależnie od modelu otwartego dostępu - czy będą to otwarte czasopisma, czy otwarte repozytoria - pełne uczestnictwo polskich naukowców w przemianach komunikacji naukowej wymaga udostępnienia im zgodnej ze światowymi standardami i na bieżąco rozwijanej infrastruktury. Czy MNiSW przewiduje strukturalne wsparcie - w tym finansowe - dla tworzenia i rozwoju takiej infrastruktury?

Infrastruktura otwartego dostępu jest potrzebna i powinna być rozwijana. Należy przy tym podkreślić, że w Polsce wiele w tym zakresie już zrobiono. Warto wspomnieć m.in. o Repozytorium Cyfrowym Instytutów Naukowych (RCIN), projektach INFONA i SYNAT czy o Federacji Bibliotek Cyfrowych. Warto zastanowić się, jak zmaksymalizować efekty zrealizowanych dotąd przedsięwzięć infrastrukturalnych, jak zapewnić ich synergię i współpracę. Nowe inicjatywy powinny umożliwić integrację lub wykorzystanie infrastruktur i zasobów już istniejących. To jest duże wyzwanie dla otwartej nauki. Wsparcie infrastruktury na rzecz otwartej nauki oferuje też Program Operacyjny Polska Cyfrowa, w ramach Poddziałania 2.3.1 „Cyfrowe udostępnienie informacji sektora publicznego ze źródeł administracyjnych i zasobów nauki”. Można myśleć również o tym, jak wykorzystać infrastrukturę Polskiej Bibliografii Naukowej (PBN) na potrzeby otwartego repozytorium publikacji naukowych. W mojej opinii najważniejsze jest to, by dążyć do tworzenia rozwiązań systemowych i infrastruktur otwartego dostępu, które będą ze sobą współpracować.

Punktem wyjścia do zmian w obszarze dystrybucji wiedzy naukowej powinna być rzetelna diagnoza obecnej sytuacji. W Polsce problemem jest brak precyzyjnych danych dotyczących finansowania działalności wydawniczej instytucji naukowych. Środki publiczne na ten cel kierowane są różnymi strumieniami, duża ich część zawiera się w pojemnej kategorii środków na finansowanie działalności statutowej. Czy MNiSW prowadzi kompleksową analizę działalności wydawniczej jednostek naukowych od strony finansowej? Na jakiej podstawie podejmowane są decyzje dotyczące alokacji środków w tym zakresie?

W świetle obowiązujących przepisów finansowanie kosztów publikacji naukowych możliwe jest ze środków, jakie podmioty działające na rzecz nauki mogą otrzymać realizując projekty badawcze w programach Ministra, a w przypadku jednostek naukowych, również w ramach dotacji statutowej. W ramach tej dotacji przyznano w 2015 r. jednostkom naukowym ponad 1 mld 740 mln złotych. Środki na dotację statutową w ciągu ostatnich 2 lat wzrosły o 160 mln zł. Przyznawana dotacja statutowa ma jednak charakter dotacji podmiotowej i to kierownik jednostki określa, na jakie zadania przeznaczy otrzymane środki.

Innym ważnym instrumentem finansowania publikacji, monografii oraz dzieł edytorskich i słownikowych z budżetu nauki jest Narodowy Program Rozwoju Humanistyki. Służy on m.in. upowszechnianiu osiągnięcia humanistyki polskiej w świecie. Na ten cel ministerstwo przeznaczyło 8 173 394 zł. Ponadto publikacje są pośrednio finansowane w ramach części instrumentów wsparcia funkcjonujących w NCBiR, a także – w formie monografii – w ramach projektów wspieranych przez Narodowe Centrum Nauki.

Natomiast zgodnie ze znowelizowaną ustawą o zasadach finansowania nauki (art. 25 ust. 4a) w ramach działalności upowszechniającej naukę Minister przyznaje środki na zadania mające na celu podniesienie poziomu naukowego i poziomu umiędzynarodowienia czasopism naukowych oraz upowszechniania wyników badań naukowych. Dotacje mogą uzyskać wyłącznie wydawcy czasopism, w tym uczelnie i jednostki naukowe, którzy zapewniają otwarty dostęp do publikowanych czasopism. W ramach działalności upowszechniającej naukę jednostkom naukowym przyznano środki na 2016 rok w wysokości 3 936 457 zł.

Coraz więcej instytucji finansujących i prowadzących badania naukowe z wykorzystaniem środków publicznych przyjmuje polityki otwartości, zobowiązujące naukowców do udostępniania wyników tych badań w sposób otwarty. Ma to miejsce zarówno wśród światowych liderów (NIH, Harvard, MIT, Politechnika w Zurychu, CERN), jak i w państwach znajdujących się w podobnej co Polska sytuacji (np. węgierska agencja finansująca badania - OTKA). Czy pani zdaniem polskie instytucje finansujące badania oraz jednostki naukowe i uczelnie powinny pójść ich śladem i przyjąć podobne polityki? Jaką rolę widzi Pani w tym obszarze dla MNiSW?

W mojej opinii instytucjonalne polityki otwartego dostępu są bardzo ważne, ponieważ wyrażają one poparcie danej instytucji dla idei otwartego dostępu oraz zobowiązują pracowników naukowych czy na przykład beneficjentów grantów do publikowania w otwartym dostępie. Polityki powinny również wspierać dążenie do zachowywania praw autorskich przez naukowców. Wbrew pozorom często naukowcy zrzekają się praw autorskich do własnych artykułów, bo uważają, że to bezwzględny wymóg wydawców. Tymczasem gdy polityka instytucjonalna obliguje pracowników danej jednostki do publikowania w otwartym dostępie, nawet z zachowaniem okresu embargo, i zaleca, by autorzy nie zrzekali się praw autorskich, nierzadko okazuje się, że wydawcy jednak dostosowują się do tych wymogów. Oczywiście nie zawsze wszystko idzie gładko, ale warto pamiętać, że jeśli my sami nie będziemy określać preferowanych przez nas warunków regulowania praw autorskich czy publikowania w otwartym dostępie, to inni będą to robić za nas i niekoniecznie będzie to dla nas korzystne. Podsumowując można więc powiedzieć, że polityka otwartego dostępu służy zabezpieczeniu interesów i praw własności intelektualnej danej uczelni czy instytutu badawczego oraz przyczynia się do lepszego zarządzania procesem obiegu treści naukowych i wyników badań.

 

Additional information