Wiedza oswobodzona

Michał Starczewski

 

Wiedza od zawsze była dobrem publicznym. Potrzebuje jednak pewnego nośnika, np. książki. Materialne nośniki wiedzy stanowią już zasób ograniczony, w związku z czym są przedmiotem rywalizacji. Ten sam egzemplarz książki w twardej oprawie może w danym momencie stać tylko na jednej półce. Znaczenie rewolucji cyfrowej polega przede wszystkim na tym, że umożliwia uczynienie także z niektórych nośników wiedzy dóbr publicznych, korzystanie z których przez jednych nie umniejsza możliwości korzystania przez innych.

 

Peter Suber jest ikoną ruchu otwartego dostępu. Był jednym z sygnatariuszy Budapesztańskiej Deklaracji Otwartego Dostępu, w której po raz pierwszy zdefiniowano otwarty dostęp. W konferencji w Budapeszcie w 2001 r. brał udział jako profesor filozofii, specjalizujący się w myśli Sørena Kierkegaarda (z wykształcenia jest także prawnikiem, ale nigdy jako prawnik nie praktykował). Szanse, jakie dostrzegał w wykorzystaniu powstających na jego oczach nowych technologii w komunikacji naukowej, pociągnęły go do aktywności na rzecz poszerzania dostępu do wiedzy. Zaczął rozsyłać newsletter dotyczący otwartego dostępu, który z czasem przekształcił w blog Open Access News. Obecnie Suber pełni funkcję dyrektora Harvard Office for Scholarly Communication.

W 2012 r. opublikował kompendium Otwarty dostęp (wyd. polskie 2014 r.). W 2016 r. ukazała się jego kolejna książka, Knowledge Unbound. Selected writings on open access, 2002-2011 (Wiedza oswobodzona. Pisma wybrane o otwartym dostępie z lat 2002-2011). Jest to wybór 44 esejów publikowanych we wspomnianych newsletterze i blogu. Słowo wstępne napisał Robert Darnton, dyrektor Biblioteki Harvarda, który zyskał sławę jako historyk kultury, autor głośnej książki Wielka masakra kotów.

Choć część poświęcona politykom otwartości w instytucjach układa się w spójną narrację, to cały zbiór nie stanowi „historii otwartego dostępu”. Nie tylko dlatego, że eseje nie zostały ułożone chronologicznie, ale przede wszystkim dlatego, że Subera interesują przede wszystkim problemy, a nie wydarzenia. Identyfikuje kontrowersyjne zagadnienia i przedstawia swoje stanowisko. Pierwotne teksty opatruje postscriptum z komentarzem.

Suber ma umiejętność plastycznego przedstawiania istoty sprawy. Chętnie posługuje się metaforami i porównaniami. Nierzadko wplata subtelne poczucie humoru. Przykładem metafory jest – zaczerpnięty z argumentacji PLOS przeciwko przejmowaniu praw autorskich przez wydawców – przykład akuszerki, która pomaga przyjść dziecku na świat i dostaje za tę usługę wynagrodzenie, a nie prawa do dziecka (s. 11). Porównuje otwarty dostęp do rozwiązania problemu „ostatniej mili”, znanego wśród firm telekomunikacyjnych. Dostarczenie usługi do indywidualnych odbiorców wiąże się z największymi trudnościami, które rozwiązuje się np. dzięki wi-fi (s. 108 i n.). Podobnie otwarty dostęp usuwa konieczność kosztownego docierania do indywidualnych czytelników. Tłumacząc, dlaczego OD nie jest „Napsterem nauki” i jakie są różnice między dystrybucją muzyki a dystrybucją treści naukowych, Suber sięga po analogię do seksu: dobrowolny seks jest wielkim życiowym dobrem, ale brak zgody sprawia, że staje się przestępstwem. Podobnie ocena dostępności bezpłatnych treści w internecie powinna zależeć od tego, czy uprawnieni wyrażają na to zgodę (s. 304). 

Eseje zostały podzielone na 9 części, ale wydaje się, że można podzielić je na trzy grupy. W pierwszej znajdują się teksty, w których Suber wnikliwie analizuje znaczenie OD i jego fundamentalne aspekty. Przede wszystkim są to pierwsze eseje: o wiedzy jako dobru publicznym i o działaniu wynikającym z misji w warunkach rynkowych, ale też o pierwowzorze rewolucji otwartego dostępu, jakim było wprowadzenie znaczków pocztowych. W drugiej grupie znajdują się teksty zbierające argumenty przeciwników OD i zbijające je kontrargumenty. W trzeciej grupie przedstawione zostały pomysły na wdrożenie OD do treści pozostających na uboczy głównego dyskursu, np. w tytułowym eseju Knowledge unbound Suber przedstawia sposób na zapewnienie OD do starszych, wartościowych artykułów.

Osoby mające rozeznanie w dyskusji o otwartym dostępie nie będą zaskoczone wątkami o różnych wariantach OD (gratis – libre, złota droga vs zielona droga), politykach instytucjonalnych i modelach biznesowych otwartych czasopism. Znajdą jednak zapewne mniej znane argumenty, np. informację, że czasopisma w płatnym dostępie są w przeliczeniu na liczbę cytowań i impact factor droższe od czasopism otwartych (s. 278). Interesujące są uwagi o ciężarze sukcesu (s. 314 i n.), poczynione w 2004 r., czyli w czasie, gdy idea otwartego dostępu gwałtownie zyskiwała na popularności. Coraz więcej osób zaczęło publicznie posługiwać się terminem „otwarty dostęp” drastycznie przeinaczając jego sens. W jaki sposób zachować „czystość doktryny” (szerszy dostęp to nie otwarty dostęp!), a zarazem doceniać każdy, choćby niewielki krok w dobrą stronę?

Suber potrafi zrobić krok w tył i pokazać sens przemian komunikacji naukowej w szerszej perspektywie i w nieoczywistym kontekście. Esej z 2002 r. Analogies and Precedents for the FOS Revolution rozpoczyna od postawienia pytania o historyczną analogię do rewolucji, jaką jest pojawienie się otwartych publikacji. Jakie wydarzenie w przeszłości wywołało podobne zmiany w sferze ekonomicznej? Odrzuca narzucające się porównanie z prasą drukarską Gutenberga, ponieważ nie spowodowała ona, że produkt stał się dostępny bez opłat dla końcowego użytkownika. Z kolei telewizja i radio były bezpłatne dla użytkowników od początku swojego istnienia, więc nie musiały przechodzić żadnego przeobrażenia. Suber znalazł pierwowzór dla rewolucji otwartego dostępu w rewolucji pocztowej, zainicjowanej opublikowaniem w 1837 r. broszury przez Rowlanda Hilla, a wdrażanej w Anglii od 1840 r. Do tego czasu koszt dostarczenia listu ponosił jego odbiorca. Zależał on od wielu warunków, jak wielkość listu i odległość. Obliczany był indywidualnie i w skomplikowany sposób. Hill wpadł na pomysł, który z początku wydawał się dziwactwem, ale szybko zaczął być postrzegany jako oczywisty: opłatę za dostarczenie listu może ponieść nadawca, wykupując znaczek pocztowy. Znaczek pocztowy, innowacja Hilla, pozwolił zestandaryzować wysokość opłaty za dostarczenie przesyłki na obszarze całej Anglii, a przede wszystkim zmienić system z opłaty za dostęp, ponoszonej przez odbiorcę, na opłatę za wysłanie, obciążającą nadawcę. Dzięki temu prostemu zabiegowi udało się sprawić, że usługi pocztowe stały się szeroko wykorzystywane także przez uboższe warstwy społeczeństwa.

Wartościowe jest zestawienie argumentu za otwartym dostępem jako dobrem publicznym (Knowledge as a Public Good) z argumentem z finansowania publicznego (Taxpayer argument for Open Access). Wiedza od zawsze była dobrem publicznym. Zwiększenie wiedzy jednej osoby nie wpływa na wiedzę drugiej. Nie pojawia się element rywalizacji o ograniczone zasoby. Wiedza potrzebuje jednak pewnego nośnika, np. książki. Materialne nośniki wiedzy stanowią już zasób ograniczony, w związku z czym są przedmiotem rywalizacji. Ten sam egzemplarz książki w twardej oprawie może stać w danym momencie tylko na jednej półce. Znaczenie rewolucji cyfrowej polega przede wszystkim na tym, że umożliwia uczynienie także z niektórych nośników wiedzy dóbr publicznych, korzystanie z których przez jednych nie umniejsza możliwości korzystania przez innych. Publikacje naukowe nadają się do tego szczególnie dobrze, ponieważ badacze uzyskują wynagrodzenie niezależnie od liczby sprzedanych egzemplarzy. Skoro są warunki, by uczynić dobro publiczne także z tekstów, a nie tylko z wiedzy w niej zawartej, szczególnej wagi nabiera argument z finansowania publicznego. Suber ma bowiem świadomość, że finansowanie publiczne dotyczy różnego rodzaju dóbr, także dóbr, które stanowią zasób ograniczony (np. muzeum może przyjąć ograniczoną liczbę odwiedzających).
 
Czy jest w Knowledge Unbound coś, co pozostawia w czytelniku wrażenie lekkiego niedosytu? Czy są jakieś ważne wątki, które nie znalazły się w tym tomie? Patrząc na zebrane teksty z perspektywy roku 2016 przede wszystkim brakuje świadomości, że nie każdy wariant otwartego dostępu przynosi społeczeństwu takie same korzyści. Teksty kończą się na roku 2011. Już po tej dacie zaczęły toczyć się najbardziej zacięte dyskusje z wielkimi wydawcami. Po decyzjach podjętych przez agencje finansujące badania  jesteśmy już bogatsi o doświadczenia ze stosowaniem różnych modeli OD. Przykładowo, przed 2011 r. Suber nie był jeszcze świadomy, jak drogim rozwiązaniem są czasopisma hybrydowe (por. np. s. 153).

Suber poświęca uwagę przede wszystkim na znalezienie rozwiązań, które zrównoważą interesy różnych grup: naukowców, wydawców, społeczeństwa itd. W niewielkim stopniu zastanawia się nad możliwością (lub potrzebą) gruntownego przebudowania całego systemu komunikacji naukowej i przemyślenia go na nowo. W książce pojawiają się tylko pojedyncze sygnały, że takie zmiany zachodzą, np. fakt, że pojedynczy artykuł zastąpił całe czasopismo w roli podstawowej jednostki dystrybucji, a analogiczny proces zachodzi w procesie oceny jakości i wpływu (s. 75).

Wreszcie, eseje Subera dotyczą otwartego dostępu do publikacji naukowych. Dostęp do danych badawczych, jeśli się pojawia, to tylko marginalnie. Tymczasem w ostatnich latach kwestia otwartego dostępu do danych badawczych ogromnie zyskała na znaczeniu. Teksty pisane w latach 2002-2011 nie mogą odpowiadać na problemy, które z całą ostrością pojawiły się dopiero później. Wybrane eseje pozostają aktualne. Na niektóre opinie Subera rzutuje co prawda amerykański punkt widzenia. Polski czytelnik może się zastanawiać, czy w polskim kontekście sprawdzają się tezy takie, jak wyrażona w eseju o organizacjach zorientowanych na wypełnianie misji: jednym organizacjom dobrze robi własność państwowa (policja, straż pożarna), drugie mogą być państwowe lub prywatne (np. szkoły). Są też takie organizacje nastawione na wypełnianie misji, jak gazety i media, dla których własność państwowa byłaby katastrofą (s. 20).

Warto sięgnąć po Knowledge Unbound, a zwłaszcza po eseje, w których Suber pomaga zrozumieć fundamentalne znaczenie zmian związanych z otwartym dostępem. Pozwalają one trochę lepiej pojąć sens rewolucji w komunikacji naukowej, która dzieje się na naszych oczach.

Peter Suber, Knowledge Unbound. Selected writings on open access, 2002-2011, The MIT Press 2016.

Taki sam czy inny? Otwarty dostęp w humanistyce

Michał Starczewski

 

Choć Martin Eve pisał tę książkę także z myślą o osobach niezaznajomionych z koncepcją otwartego dostępu, to za cel postawił sobie przede wszystkim przeprowadzenie krytycznej analizy efektów otwartego rozpowszechniania i ponownego wykorzystywania materiałów w naukach humanistycznych. W efekcie nie do końca udało mu się ani jedno, ani drugie. Z jednej strony bowiem wyjaśnia podstawowe pojęcia i problemy, z drugiej zaś dotyka pewnych bardziej szczegółowych kwestii, nie rozstrzygając ich jednak w sposób satysfakcjonujący.


Zdaniem części humanistów otwarty dostęp i związane z nim zmiany w komunikacji naukowej mogą sprawdzać się w naukach ścisłych i przyrodniczych, lecz nie nadają się do – rządzącej się odrębnymi regułami – humanistyki. Martin Paul Eve, wykładowca literatury współczesnej na Uniwersytecie w Lincoln, jeden z dyrektorów Open Library of Humanities oraz autor bloga naukowego, odpowiedział na te wątpliwości w opublikowanej pod koniec ubiegłego roku książce poświęconej zastosowaniu modeli otwartych w humanistyce, zatytułowanej Open Access in the Humanities. Jest to kolejna po The History. Manifesto publikacja wydana przez Cambridge University Press na jednej z licencji Creative Commons.

Praca Eve'a składa się z pięciu rozdziałów, które uzupełnia zwięzły słownik podstawowych terminów, bibliografia i indeks. W rozdziale pierwszym autor przedstawia założenia stojące za modelami otwartymi, rozważając między innym zasady prowadzenia badań humanistycznych (s. 25–28). Czytelnik oczekiwałby jednak bardziej konkretnych analiz sposobów, w jakie otwarty dostęp może pomagać w ich realizacji (s. 28–29).

W rozdziale drugim Eve zwraca uwagę na kwestie ekonomiczne, z tym że jego pierwsza część poświęcona jest głównie prestiżowi i kapitałowi symbolicznemu. Autor zauważa paradoks: oto mamy dziś równocześnie do czynienia z kryzysem popytu i podaży (s. 15). Wydawcy publikują zbyt wiele treści (dotyczy to tak czasopism, jak i monografii), ostro konkurując o czołowe pozycje, a zarazem uczelnie nie są w stanie zapewnić badaczom i studentom wszystkich potrzebnych im materiałów.

Trzeci rozdział dotyczy otwartych licencji, w tym korzyści płynących z uprawnienia do ponownego wykorzystania materiałów i text-miningu, czyli eksploracji przeprowadzanych w oparciu o duże zbiory tekstów. Zdaniem Eve'a współczesny system prawa autorskiego aktywnie powstrzymuje badania naukowe od pełnego wykorzystania swojego potencjału (s. 94).

Czwarty rozdział dotyka podstawowej różnicy między humanistyką a naukami ścisłymi, czyli monografii i ich roli. Monografie dają niezbędną przestrzeń do przedstawiania argumentacji i idei, czego nie zapewniają artykuły (s. 115). Eve zauważa, że podobnie jak istnieje oprogramowanie wspierające proces wydawania czasopism (Open Journal Systems), tak też dostępne jest oprogramowanie ułatwiające publikację monografii – Open Monograph Press. Autor dokonuje przeglądu funkcjonujących projektów wspierających otwarte monografie oraz przedstawia kilka modeli ekonomicznych.

Wieńczący pracę rozdział piąty poświęcony jest innowacjom i eksperymentom, które nie są w sposób konieczny związane z otwartym dostępem, ale stwarzają szanse na usprawnienie systemu nauki. Eve pisze w nim o eksperymentach z recenzowaniem oraz z procesem wydawniczym. Sugeruje przemyślenie znaczenia anonimowości w procesie recenzowania (s. 142). Zwraca też uwagę na problem czasu. Z jednej strony środowiska akademickie w coraz większym stopniu ze sobą konkurują, z drugiej jednak „powolna humanistyka” (slow humanities) umożliwia osiąganie bardzo wysokiej jakości (s. 149).

Choć Martin Eve pisał tę książkę także z myślą o osobach niezaznajomionych z koncepcją otwartego dostępu, to za cel postawił sobie przede wszystkim przeprowadzenie krytycznej analizy efektów otwartego rozpowszechniania i ponownego wykorzystywania materiałów w naukach humanistycznych (por. s. 3). W efekcie do końca nie udało mu się ani jedno, ani drugie. Z jednej strony bowiem wyjaśnia podstawowe pojęcia i problemy (np. s. 89–92), z drugiej zaś dotyka pewnych bardziej szczegółowych kwestii, nie rozstrzygając ich jednak w sposób satysfakcjonujący. Eve zdecydował się na przywoływanie zarówno argumentów zwolenników otwartości, jak i jej oponentów (zwłaszcza s. 30–42). W tym drugim przypadku nie wypada jednak przekonująco, szczególnie gdy przytacza wypowiedź skrajną i we własnym przekonaniu niewiarygodną: Robert Dingwall w sposób skrajny wyraził obawy, które mogą być przedstawione w sposób bardziej stonowany. Postawił zarzut, że „otwarty dostęp jest dobrą wiadomością dla neonazistów” […] Zarzuty Dingwalla są być może zbyt skrajne, by brzmiały wiarygodnie... (s. 107).

Eve jest zwolennikiem złotej drogi otwartego dostępu (zielona droga otwartego dostępu sama z siebie okazuje się z kilku powodów marnym substytutem złotej drogi, s. 10; pożądany byłby ruch wykraczający poza zieloną drogę otwartego dostępu w stronę drogi złotej, s. 69), co nie zaskakuje, jeśli wziąć pod uwagę, że jest jednym z twórców Open Library of Humanities – inicjatywy mającej na celu otwarte publikowanie prac humanistycznych, finansowanych kolektywnie przez biblioteki. Jedną z centralnych kwestii otwartego dostępu stanowi dla niego prestiż.

To właśnie prestiż ma być rozwiązaniem znanego z nauk ekonomicznych problemu gapowicza, występującego przy kolektywnym finansowaniu projektów otwartościowych: wszyscy korzystają z dobra wspólnego, które finansowane jest jednak tylko przez niektórych. W ujęciu Eve'a instytucje składające się na system otwartego publikowania mają być motywowane zmniejszeniem własnych kosztów (które teraz ponoszą na zakup płatnych treści), jak również uznaniem ze strony społeczności za wkład w tworzenia dobra wspólnego (s. 75). Warunkiem jest przyjęcie logiki współpracy zamiast konkurencji. Taki model finansowania przyjął m.in. arXiv (s. 74). Przyjął go także sam M. Eve, projektując swoją platformę wydawniczą OLH.

Po lekturze Open Access in the Humanities czytelnik może odnieść wrażenie, że różnice w komunikacji naukowej między humanistyką a naukami ścisłymi nie są zbyt daleko idące. Należy (...) zaznaczyć, że fundamenty prowadzenia badań są takie same [w naukach ścisłych i humanistycznych]: jest to dokonywanie odkryć i komunikowanie o nowych ustaleniach lub interpretacjach (s. 26). Różnice sprowadzają się w zasadzie do dużego znaczenia monografii w humanistyce. Eve rozwiązanie każdego problemu znajduje w dotychczasowym dyskursie o otwartości (przede wszystkim w pracach Petera Subera, a także w modelu stosowanym przez PLOS oraz w kilku przypadkach w dorobku ideologa ruchu wolnego oprogramowania Richarda Stallmana).

Open Access in the Humanities z pewnością nie wyczerpuje tematu otwartości w naukach humanistycznych. Wartością tej pozycji jest jednak próba zmierzenia się ze specyfiką komunikacji naukowej w tym obszarze wiedzy i wyraźne wskazanie, że modele otwarte przynoszą korzyści nie tylko przedstawicielom nauk ścisłych.

Martin Paul Eve, Open Access in the Humanities. Contexts, Controversies and the Future, Cambridge University Press 2014, s. 209.

 

Michał Starczewski jest pracownikiem Platformy Otwartej Nauki i doktorantem na Wydziale Historycznym Uniwersytetu Warszawskiego.

 

Nauka wymyślana na nowo

Maciej Chojnowski

Nielsen opisuje narzędzia i rozwiązania, które jego zdaniem stanowią moduły nauki przyszłości. Pomysł ten jest przekonujący, jeśli chodzi o przedstawione możliwości techniczne, może jednak budzić wątpliwości z uwagi na pewną naiwność autora względem ludzkiej natury. Nauka przyszłości to dla autora Reinventing Discovery coś na kształt otwartej krynicy mądrości, z której do woli czerpać mogą wszyscy spragnieni wiedzy – profesjonaliści, zdolni dyletanci czy zwykli śmiertelnicy. Rzecz w tym, że taki demokratyczny udział w naukowym dorobku ludzkości wymagałby dziś kategorycznej zmiany modeli biznesowych funkcjonujących w nauce i wokół niej, a także zasad, wedle których przeprowadza się ewaluację badaczy.

 

Wielki naukowiec to ktoś zdolny nie tylko do nadzwyczaj głębokiego rozumienia natury, ale także potrafiący po mistrzowsku korzystać z ogólnodostępnego zbioru informacji (czyli uprzednio opublikowanej wiedzy naukowej) i posiadający umiejętność tworzenia na tej podstawie. W tym sensie nauka to jedna wielka współpraca, odbywająca się w oparciu o powszechnie dostępne informacje.
Michael Nielsen

 

Wznowienie przez Princeton University Press eseju Reinventing Discovery Michaela Nielsena – australijskiego fizyka, programisty i orędownika na rzecz otwartości w nauce – to dobra okazja, by przypomnieć polskiemu czytelnikowi tę publikację, która od chwili pierwszego wydania trzy lata temu zdążyła zebrać wiele pozytywnych recenzji.
Książka Nielsena, będąca rozwinięciem idei naszkicowanych przezeń po raz pierwszy w 2008 roku w artykule The Future of Science, stawia pytania o to, jak nowoczesne narzędzia komunikacji dostępne dzięki Internetowi mogą wpływać na sposób uprawiania nauki, następnie – jak można przyczynić się do lepszego wykorzystania możliwości oferowanych przez te narzędzia, wreszcie – dlaczego ten ogromny potencjał pozostaje do tej pory właściwie niewykorzystywany.
Nielsen wymienia trzy główne obszary, w których jego zdaniem we współczesnej nauce zachodzą zasadnicze zmiany. Dotyczą one po pierwsze tworzenia nowej wiedzy, po drugie odnajdywania znaczenia w wiedzy już istniejącej, po trzecie relacji między nauką a społeczeństwem. Mimo że obszary te nie są tożsame, to istnieją między nimi punkty styczne, co sprawia, że ostatecznie nie sposób myśleć o stanie współczesnej nauki, nie uświadamiając sobie tych wzajemnych zależności.

Wykorzystanie zbiorowej inteligencji
Wraz z XXI wiekiem w historii nauki rozpoczyna się nowy rozdział. Wkraczamy w erę nauki w sieci: nowe narzędzia oferują niespotykane wcześniej możliwości komunikacyjne, pozwalając na rozwijanie zbiorowej inteligencji w celu szybszego i bardziej efektywnego rozwiązywania problemów badawczych. Jak przekonuje Nielsen, nowe narzędzia dostępne online mogą pomóc ludziom łatwiej zdecydować, gdzie powinni kierować swoją uwagę, by optymalnie wykorzystywać własną mikrospecjalizację, nie tracąc czasu na mozolne rozpoznawanie problemów oraz identyfikowanie miejsc, w których ich wiedza mogłaby znaleźć właściwe zastosowanie. Nielsen nie jest gołosłowny – swoje twierdzenia opiera na konkretnych przykładach, wskazując na różnorakie narzędzia czy projekty, które okazały się skuteczne (np. Polymath Project). Owe nowoczesne rozwiązania pozwalają na budowanie tzw. architektury uwagi, która pomaga zaoszczędzić czas i sprawia, że pomysły nie trafiają w próżnię, ale stymulują innych, dzięki czemu potencjał intelektualny jest realnie wykorzystywany i w rezultacie można mówić o wytwarzaniu się dyskusyjnej masy krytycznej. Jest ona efektem dynamicznego podziału pracy, który każdorazowo ustala się spontanicznie w zależności od sytuacji i tym różni się od podziału statycznego, że ten ostatni – choć gwarantuje precyzyjne rozplanowanie procesów i zakresu obowiązków – siłą rzeczy uniemożliwia najbardziej kreatywne działania z powodu uwzględnienia w procedurach jedynie przewidywalnych problemów.

Zaplanować przypadek
Przewaga dyskusji online nad tradycyjną rozmową polega na skali poznawczej różnorodności, którą umożliwia współpraca w sieci. Nielsen używa w tym kontekście oksymoronu, który dobrze ilustruje istotę nowego modelu: zaplanowany szczęśliwy traf (designed serendipity) – chodzi o stworzenie swoistej przestrzeni potencjalności. Idealna architektura uwagi umożliwia optymalne wykorzystanie dostępnych kompetencji przez największą, najbardziej merytorycznie różnorodną grupę.
Ten nowy model działania charakteryzują następujące elementy:
– modularyzacja (nie trzeba rozumieć całości projektu, by w nim partycypować);
– mikrokontrybucja (wnoszenie nawet niewielkiego wkładu do projektu jest wartościowe);
– rozwój bogatych i dobrze zaprojektowanych otwartych baz informacji (information commons) umożliwiających ponowne wykorzystanie wcześniej zdobytej wiedzy;
– mechanizmy sygnalizujące ułatwiające skierowanie uwagi we właściwe miejsce.
Paradygmatycznym przykładem tego nowego modelu działania jest open source, który choć powstał w świecie programistów, to pozostaje ogólnym wzorem projektowania możliwym do zastosowania w każdej dziedzinie wykorzystującej informacje przetwarzane cyfrowo.
Podstawą zbiorowej inteligencji jest przekształcenie indywidualnego rozumienia w rozumienie grupowe. Owa zbiorowa inteligencja wydaje się szczególnie odpowiednia w domenie nauki. Jednak jej efektywne wykorzystanie nie jest proste. Przeciwdziałają temu różne czynniki, m.in. skłonność grup do dyskutowania o kwestiach, co do których panuje powszechna zgoda, czy przecenianie opinii osób o najwyższym statusie, zaś deprecjonowanie tych wyrażanych przez osoby ze statusem niższym. Generalnie podstawowym warunkiem zastosowania zbiorowej inteligencji jest tzw. wspólna praxis, czyli określony zakres wiedzy i technik umożliwiający szybkie porozumienie i weryfikację informacji. Wspólna praxis jest warunkiem skalowalności zbiorowej inteligencji. Jednak nie wszystkie dziedziny mają jedną wspólną praxis – tak dzieje się (przynajmniej częściowo) w naukach humanistycznych, gdzie różne środowiska intelektualne może dzielić brak owego wspólnego obszaru podstawowego (np. w sztukach pięknych czy krytyce literackiej). Nielsen podkreśla, że owej wspólnej praxis nie należy wszakże traktować jako czegoś prostego i klarownego. Codzienność nauki jest bowiem faktycznie pełna nieporządku, spekulacji, błędów i sporów.


Kultura otwartości potrzebna od zaraz
Dla urzeczywistnienia wizji tego nowego rynku współpracy ekspertów online najistotniejsze jest oparcie nauki na kulturze otwartości. Oto wyłaniają się nowe metody odkryć naukowych – odpowiednie narzędzia pozwalają na przeszukiwanie już zdobytej wiedzy i odkrywanie w niej nowych znaczeń, powiązań i wcześniej niedostrzegalnych zależności. Otwieranie zbiorów danych przez instytucje z całego świata umożliwia stawianie nowych, odkrywczych pytań. Jest to swego rodzaju odmiana sytuacji opisanej wcześniej jako zaplanowany szczęśliwy traf. Tym razem jednak chodzi już nie o wysyłanie pytań w świat, lecz o udostępnianie danych w oczekiwaniu, że to inni postawią im nieoczekiwane pytania, co pozwoli twórczo je wykorzystać.
Obecnie zmianie ulega relacja między prowadzeniem obserwacji o analizą danych. Coraz częściej analizy danych przeprowadzane są przez osoby spoza laboratoriów. Dynamicznie rozwijają się związane z przetwarzaniem danych nowe dziedziny wiedzy, np. bioinformatyka. Dane zwykle chętniej otwierane są w przypadku dużych projektów. Ich udostępnianie zawsze jednak powinno być użyteczne dla innych, co wiąże się z koniecznością opatrywania ich odpowiednimi metadanymi. Większość naukowców wciąż jednak nie dostrzega korzyści w udostępnianiu tego typu zbiorów informacji. Co więcej, brakuje też przepisów, które regulowałyby korzystanie z cudzych danych. Nielsen wieszczy jednak nadejście ogólnej sieci wiedzy z danymi czytelnymi zarówno dla urządzeń, jak i ludzi, co pozwoliłoby na stworzenie opartej na algorytmach inteligencji zasilanej danymi. Ten nowy rodzaj wykorzystywania wiedzy byłby na swój sposób komplementarny wobec zbiorowej inteligencji.
Zdaniem Nielsena taka sieć danych przekształci naukę na 2 sposoby:
– nastąpi przyrost różnorodności pytań, które można postawić i na które można odpowiedzieć;
– dotychczasowy model wyjaśniania przeobrazi się w kompleksowy model statystyczny z miliardami parametrów.

Era wolontariatu

Do niedawna złożoność naukowych wyjaśnień ograniczały możliwości naszych umysłów. Obecnie komputery pomagają nam tworzyć i wykorzystywać bardzo złożone modele. Owa zmiana w naturze wyjaśniania idzie w parze z demokratyzacją nauki i wyłonieniem się tzw. nauki obywatelskiej, polegającej na pozyskiwaniu wolontariuszy gotowych włączyć się w badania naukowe online.
Nauka obywatelska wspiera inteligencję zasilaną danymi, pozwalając na pozyskiwanie i/lub analizę dużych ilości danych. Większość projektów obywatelskiej nauki wciąż nie jest jednak ustrukturyzowana na tyle, by zapewnić uczestnikom rozwój i opiekę mentorską, które dostępne są dla profesjonalnych naukowców.
Nielsen przekonuje, że rolę nauki w społeczeństwie można zmienić dopiero wtedy, gdy zmieni się sposób, w jaki instytucje odpowiadają na fundamentalne pytania:
– kto finansuje naukę?
– jak nauka włączona jest w politykę rządową?
– kto może być naukowcem?
Rynek i szkoły to typowe instytucje łączące świat nauki ze społeczeństwem. Jednak narzędzia sieciowe to urządzenia zarówno wytwarzające nowe instytucje, jak i przekształcające te, które już istnieją. W powstawaniu nowych instytucji łączących naukę i społeczeństwo pomaga otwarty dostęp. Gdy więc nauka obywatelska zmienia warunki określające, kto może być naukowcem, otwarty dostęp modyfikuje to, kto może mieć dostęp do nauki. W ten sposób, przekonuje Nielsen, tworzy się nowa kultura umożliwiająca rozwiązanie problemów trapiących społeczeństwa, które niegdyś nie były możliwe ze względu na tzw. niedobór pomysłowości. Dzisiejsze narzędzia sieciowe dają szansę zasypania tej przepaści, tworząc nowe instytucje zmieniające relacje między społeczeństwem a nauką.

Trwałe nawyki
Niestety, zmiana technologiczna nie przekłada się na zmianę w modelu biznesowym. Jednak, jak zauważa Nielsen, przejście od zamkniętej kultury odkrycia naukowego do bardziej otwartej nauki nowoczesnej to jeden z najważniejszych momentów w historii nauki, mający miejsce w XVII wieku. Dzięki temu powstała zbiorowa pamięć długoterminowa, która stanowi bazę rozwoju naukowego ludzkości. Narzędzia online pomagają wzbogacić ową pamięć długoterminową, jak też dają szansę stworzenia krótkoterminowej zbiorowej pamięci roboczej – miejsca dyskusji i szybkiej wymiany informacji.
Co zatem stoi na przeszkodzie efektywnemu wdrożeniu tych wszystkich innowacyjnych narzędzi i rozwiązań? Zdaniem Nielsena kluczowym problemem jest głęboko zakorzeniony opór naukowców wobec przedsięwzięć, które nie są ukierunkowane na publikowanie artykułów i pozyskiwanie grantów. Badacze nie mają interesu w tworzeniu narzędzi typu wiki-science. Naukę w sieci w znacznym stopniu powstrzymuje zamknięta kultura naukowa, którą wzmacniają patenty i komercyjny zysk.
Tajemnica handlowa to względnie nowe zjawisko na uczelniach. Niegdyś funkcjonował klarowny podział na badania podstawowe oraz stosowane, które finansowano z funduszy prywatnych. Dziś rządy i instytucje finansujące badania coraz częściej dążą do uznania kryterium patentowego i innych praw własności intelektualnej za główne czynniki warunkujące wsparcie określonych badań.


Imperatyw otwartości i niewidzialna ręka
Otwarte dane i otwarty dostęp to istotne działania w kierunku otwierania nauki. Nielsen postuluje wprowadzenie polityki obligatoryjnego udostępniania danych w określonych formatach i w konkretnych repozytoriach. Podkreśla zarazem konieczność logiki zbiorowego działania.  I choć instytucje finansujące badania de facto sprawują rządy w republice nauki, to nie mogą one jedynie poprzestać na wymuszeniu otwartości – chodzi przede wszystkim o wytworzenie autentycznego porozumienia z całym środowiskiem, co pozwoli uniknąć powierzchownego traktowania nowych wytycznych.
Zachęta do otwartej nauki musi wiązać się z nowymi rozwiązaniami w zakresie mierzalności cytowań, ponieważ prawo własności intelektualnej prowadzi do ekonomii opartej na reputacji, przez co powstaje niewidzialna ręka nauki, która silnie motywuje naukowców do dzielenia się wynikami ich pracy (jednak na określonych warunkach!). W nauce liczy się to, co mierzalne. Narzędzia przyszłości umożliwią pomiar cytowalności danych. Nie należy oczywiście spodziewać się, że wszystko odbędzie się bez komplikacji, jednak systemy, w jakich funkcjonujemy, nie są dziełem natury, lecz rezultatem społecznej konstrukcji, stąd można (a niekiedy wręcz trzeba) je zmieniać.

Republika marzeń?
W swoim eseju Nielsen, odwołując się do różnych przykładów wziętych z sieci, opisuje praktyki, narzędzia i rozwiązania, które jego zdaniem stanowią moduły  nauki przyszłości. Pomysł ten jest dość przekonujący, jeśli chodzi o przedstawione możliwości techniczne, może jednak  budzić wątpliwości z uwagi na pewną naiwność autora względem ludzkiej natury. Zresztą sam Nielsen, niejako uprzedzając ewentualne zarzuty, zaznacza, że wizja zawarta w jego książce nosi znamiona utopii i że w praktyce realizacja tych pomysłów byłaby znacznie bardziej skomplikowana. Zdaje sobie także sprawę z ewentualnych minusów, które mogłyby wynikać z nieograniczonego dostępu do wyników badań. Generalnie jednak nauka przyszłości to dla autora Reinventing Discovery coś na kształt otwartej krynicy mądrości, z której do woli czerpać mogą wszyscy spragnieni wiedzy – profesjonaliści, zdolni dyletanci czy zwykli śmiertelnicy. Rzecz w tym, że taki demokratyczny udział w naukowym dorobku ludzkości wymagałby dziś kategorycznej zmiany  modeli biznesowych funkcjonujących w nauce i wokół niej (nierzadko nastawionych na zysk), a także zasad, wedle których przeprowadza się ewaluację badaczy. Co więcej, wymagałby także od samych naukowców sporo dobrej woli i przynajmniej krzty idealizmu w postrzeganiu przez nich swojego powołania i własnej kariery.
Czy wizja Nielsena się ziści, czy pozostanie tylko naukową republiką marzeń? To zależy zarówno od postaw przyjmowanych w środowiskach badaczy, jak i od decyzji wielu instytucji, które dostarczają funduszy na finansowanie badań. Nacisk, jaki pod koniec swojego eseju Nielsen kładzie właśnie na ten odgórne działania, pozwala mieć nadzieję, że nacechowane realizmem podejście pozwoli zbliżyć się w praktyce do jego idealistycznej wizji.

 

Michael Nielsen, Reinventing Discovery. The New Era of Networked Science, Princeton University Press 2012.

 

Maciej Chojnowski – ukończył polonistykę na Uniwersytecie Warszawskim, jest redaktorem, prowadzi serwis Otwarta Nauka w Centrum Otwartej Nauki ICM UW.

 

Granice humanistycznego przełomu

Michał Starczewski

Określenie humanistyka cyfrowa (HC) dotyczy zróżnicowanego nurtu badań. Z tego powodu badacze identyfikujący się z tą dziedziną usiłują określić, czym jest i gdzie przebiegają jej granice. Jedną z prób podsumowania tych starań jest zbiorowa publikacja Debates in the Digital Humanities (Dyskusje w obrębie humanistyki cyfrowej).

W 2012 roku ukazała się w postaci drukowanej jako ponadpięćsetstronicowy tom pod redakcją Matthew K. Golda, profesora City University of New York, wydany przez University of Minnesota Press. Rok później opublikowano ją w formie serwisu internetowego w otwartym dostępie (co twórcy podkreślają), wzbogacając o interaktywne funkcjonalności: po zalogowaniu się czytelnik może komentować fragmenty tekstu, indeksować lub zaznaczać je jako warte uwagi. Funkcjonalności te mogą okazać się przydatne przy poruszaniu się po publikacji: wiadomo, które fragmenty wzbudziły żywsze zainteresowanie (np. ile razy dany fragment został oznaczony jako „interesujący” albo ile oznaczeń uzyskał każdy rozdział). Jednocześnie nie zostały przygotowane inne formaty publikacji: ani PDF, ani MOBI czy EPUB.

Debates... zostały poddane tradycyjnej anonimowej recenzji w wydawnictwie, ale wcześniej autorzy i zaproszeni akademicy komentowali eseje na zabezpieczonej hasłem witrynie (redaktor tomu uznał ten na wpół publiczny model za nowatorski i niezwykle konstruktywny – w tej fazie prac autorzy zapoznali się z esejami kolegów, dzięki czemu mogli odnieść się do nich w swoich własnych artykułach; wskutek dyskusji w tym czasie prowadzonych powstało kilka nowych tekstów).

Wśród autorów znajduje się 43 humanistów cyfrowych, zarówno praktyków, jak i teoretyków, w tym grono najbardziej rozpoznawalnych postaci z tego obszaru, m.in. Daniel J. Cohen, Johanna Drucker, Kathleen Fitzpatrick, Matthew Kirschenbaum i Tom Scheinfeldt, jak również badacze dopiero rozpoczynający swoje kariery akademickie.

W tomie zamieszczono eseje napisane specjalnie z myślą o Debates... oraz takie, które wcześniej znalazły się w innych zbiorach lub na blogach. Zostały one pogrupowane w sześciu częściach, których tytuły są propozycją usystematyzowania dyskusji toczących się w ramach humanistyki cyfrowej.

 

Część I poświęcona jest problemowi definiowania humanistyki cyfrowej. Czy jest ona odrębną dyscypliną? Gdzie przebiegają jej granice? Jakimi cechami musi charakteryzować się praca, by móc określić ją jako należącą do humanistyki cyfrowej? W jakim stopniu HC jest ekskluzywna, a w jakim otwarta na szerokie grono naukowców?

Próby zdefiniowania HC przyniosły podzielane przez wiele osób przekonanie o niemożliwości wypracowania takiej definicji. Rafael C. Alvarado (The Digital Humanities Situation) źródeł tej sytuacji doszukuje się w tym, że humanistyka cyfrowa jest „kategorią społeczną”, a nie „ontologiczną”, co rodzi duże wewnętrzne zróżnicowanie.

Lisa Spiro w eseju „This Is Why We Fight”: Defining the Values of the Digital Humanities argumentuje, że humaniści cyfrowi potrzebują określenia wspólnych wartości. Pozwolą one uniknąć jałowych dyskusji o tym, „kto jest w środku, a kto na zewnątrz dużego namiotu” (o metaforze dużego namiotu – patrz niżej). Aby deklaracja wartości nie stała się ideologią, musi zostać sformułowana przez całą społeczność humanistów cyfrowych. Spiro przedstawia swoje propozycje wartości HC.

Pierwszą z nich jest otwartość mająca w tym kontekście przede wszystkim dwa aspekty: otwarty dostęp do publikacji i danych naukowych ułatwiający kolejne badania oraz otwarcie na społeczeństwo pozwalające pozytywnie wpływać na rzeczywistość. Ważnym celem humanistyki cyfrowej jest bowiem demokratyzacja wiedzy, a nie ograniczanie jej do wąskiego grona specjalistów. Przejawem doceniania otwartości przez humanistów cyfrowych jest wyraźne zalecenie NEH (National Endowment for the Humanities), by oprogramowanie wytworzone w ramach projektów wspieranych przez tę instytucję miało otwarty kod źródłowy (open source). Otwartość humanistyki cyfrowej obejmuje wiele obszarów: otwarty dostęp do treści naukowych, otwarte dane badawcze, otwarte oprogramowanie, a także otwarte zasoby edukacyjne.

Kolejną wartością humanistyki cyfrowej proponowaną przez Spiro jest współpraca. Projekty HC wymagają często współdziałania wielu osób o różnych kompetencjach. Nie sama konieczność kooperacji jest jednak wartością. „Społeczność humanistów cyfrowych wspiera etos współpracy jako zasadniczy dla swojego działania i misji (nawet jeśli przyznaje, że część pracy lepiej wykonuje się w samotności)”. Ze współpracą związane są ściśle kolejne wartości: kolegialność i pozostawanie w stałym kontakcie, umożliwiające udzielanie pomocy kolegom.

Kathleen Fitzpatrick w eseju The Humanities. Done digitally stawia pytanie, czy należy mówić o jednej humanistyce cyfrowej, czy raczej o wielu humanistykach cyfrowych? W tym samym tekście pojawia się, powtarzający się wielokrotnie, podział humanistów cyfrowych na tych, którzy coś budują (cyfrowe archiwa, narzędzia lub metody), oraz tych, którzy interpretują.

Fitzpatrick uważa, że na dzisiejszy stan humanistyki cyfrowej wpływa w znacznym stopniu twórcze napięcie „między tymi, którzy pracują w danej dyscyplinie od lat, a tymi, którzy pojawili się niedawno, między dyscyplinarnością a interdyscyplinarnością, między tworzeniem a interpretowaniem, między historią dyscypliny a jej przyszłością”.

W dyskusjach o tym, czym jest humanistyka cyfrowa, ważną kwestię stanowi metafora dużego namiotu wraz z pytaniem, „kto jest w środku, a kto na zewnątrz”. Patrik Svensson w eseju Beyond Big Tent opisuje spór o zasięg „dużego namiotu” (czyli granice humanistyki cyfrowej ) m.in. w kontekście – dość późnego – zaangażowania się naukowców z uniwersytetu Yale w humanistykę cyfrową i sporu, czy humaniści cyfrowi muszą sami umieć programować, czy też wystarczy, że przedmiotem ich badań są zjawiska związane z kulturą cyfrową. Niepozbawione znaczenia było przeświadczenie części uznanych humanistów cyfrowych, że Yale – jedna z najbardziej prestiżowych uczelni w USA – stara się poniekąd zawłaszczyć ich dorobek, przyznając tytuł humanistów cyfrowych osobom, od których nie wymagano umiejętności programowania (tę kontrowersję należy oceniać, pamiętając o częstych w środowisku humanistów cyfrowych alternatywnych karierach akademickich – patrz niżej). Svensson dochodzi do wniosku, że najlepszym rozwiązaniem byłaby w ogóle rezygnacja z metafory „namiotu” i zastąpienie jej na przykład ideą „miejsca spotkań”.

Tom Scheinfeldt (Where’s the Beef? Does Digital Humanities Have to Answer Questions?) wyostrza problem definiowania humanistyki cyfrowej: na jakie pytania udzielenie odpowiedzi byłoby niemożliwe bez narzędzi oferowanych przez HC? Przestrzega przed brakiem cierpliwości. Historia nauki dowodzi, że nieraz trzeba długo czekać, by przekonać się o poznawczym potencjale odkryć. Nowa technologia nie od razu pozwala postawić wszystkie pytania, a tym bardziej nie od razu umożliwia udzielenie innowacyjnych odpowiedzi.

 

Część II Debates... zawiera teksty stawiające sobie za cel teoretyzację humanistyki cyfrowej. Zderzają się one z materią pod wieloma względami podobną do tej, z jaką mierzyli się autorzy esejów poświęconych poszukiwaniu definicji omawianej dyscypliny. Kluczowym problemem jest podział humanistów cyfrowych na dwie grupy. Dla jednych konstytutywne jest posługiwanie się narzędziami cyfrowymi do badania rzeczywistości niekoniecznie cyfrowej. Dla drugich nie są istotne formy pracy: cyfrowe lub tradycyjne; określają się oni poprzez przedmiot swoich badań, czyli rzeczywistość cyfrową. Pierwsi często utożsamiają cyfrową humanistykę z budowaniem narzędzi, drudzy – z interpretowaniem zjawisk.

Autorzy zastanawiają się, w jakiej relacji humanistyka cyfrowa znajduje się w stosunku do tradycyjnej humanistyki. Johanna Drucker (Humanistic Theory and Digital Scholarship) wyraziła to następująco: „po kilku dekadach cyfrowej pracy pozostaje otwarte pytanie, czy humaniści robią coś innego niż dotychczas, czy tylko rozszerzają aktywności, które zawsze należały do ich podstawowych zainteresowań”.

W tym samym eseju Drucker formułuje poważny zarzut pod adresem kultu wizualizacji.  „Uważam, że ideologia prawie wszystkich współczesnych wizualizacji informacji jest przekleństwem dla myśli humanistycznej, jest wroga jej celom i wartościom”. Oskarża przedstawicieli HC o reifikację informacji, polegającą na ograniczaniu się do graficznego przedstawiania danych. Praktyki te wywierają niszczący wpływ na krytykę i interpretację. Humaniści, aby wejść do świata informatycznego, zapłacili bardzo wysoką cenę: musieli w pełni dostosować się do reguł gry panujących wśród programistów i zrezygnować z tego, co charakterystyczne dla tradycyjnej humanistyki. To, co ze swej natury jest niejednoznaczne i wyrażane implicite, na potrzeby cyfrowego przedstawienia należy sztucznie ujednoznacznić, spłaszczyć i wyrazić wprost.

Obok sporu o napięcie między wizualizacją a interpretacją danych istotny jest spór między zwolennikami teoretyzowania a zwolennikami „czystej” metodologii. Tom Scheinfeldt na swoim blogu umieścił wpis Why Digital Humanities Is “Nice”, przedrukowany również w omawianym tomie. Stwierdził, że cyfrowi humaniści są „mili”, ponieważ koncentrują się nie na trudno rozwiązywalnych (jeśli w ogóle) problemach teoretycznych, ale na metodzie. Debaty metodologiczne są zaś zwięzłe – kończy je rozwiązanie konkretnego problemu, co jest empirycznie weryfikowalne. Autor rozwija ten tok rozumowania w eseju Sunset for Ideology, Sunrise for Methodology? Zauważa, że od lat 90. XX w.  pojawiają się nie nowe teorie, ale nowe metodologie (przynajmniej w naukach historycznych, których jest przedstawicielem).

Z tym punktem widzenia polemizuje Jamie „Skye” Bianco, która podchodzi do kwestii (This Digital Humanities Which Is Not One) od strony etycznej. Brak teoretyzowania, według tej autorki, grozi bierną agresją i podtrzymywaniem niesprawiedliwych relacji władzy.

 

Część III Debates... to krytyka humanistyki cyfrowej. Etyczne podejście do zagadnienia przybiera w esejach zamieszczonych w tej części konkretny wymiar: Tara McPherson (Why Are the Digital Humanities So White? or Thinking the Histories of Race and Computation) przygląda się problemom związanym z rasą, Bethany Nowviskie (What Do Girls Dig?) – z płcią, a George H. Williams (Disability, Universal Design, and the Digital Humanities) – z inwalidztwem. Z kolei Elizabeth Losh (Hacktivism and the Humanities: Programming Protest in the Era of the Digital University) przygląda się relacji haktywizmu i humanistyki: czy humaniści cyfrowi powinni angażować się w spory polityczne jako strona konfliktu, jak miało to miejsce np. w Iranie, gdzie przyczynili się do paraliżu działalności w Internecie instytucji rządowych  w 2009 r., a także w Egipcie w 2011 r., gdzie projekt HyperCities stworzony przez cyfrowych humanistów z Los Angeles pomagał w antyrządowych protestach poprzez integrację mediów społecznościowych i map Google.

Od strony funkcjonalności, a nie etyki przeprowadza analizę krytyczną humanistyki cyfrowej Charlie Edwards (The Digital Humanities and Its Users). Widzi on niedostatki w myśleniu o użytkowniku przez realizatorów projektów humanistyki cyfrowej, choć dostrzega pozytywne zmiany. Skoncentrowanie na użytkowniku pozwala przejść od rozważań „czy humanistyka cyfrowa jest inkluzywna?” do praktycznych pytań: „które funkcjonalności humanistyki cyfrowej jako systemu wspierają lub utrudniają dostęp i partycypację?”. Partycypacja użytkowników jest zaś potrzebna, by uniknąć wielu błędów, które zostałyby wychwycone, gdyby choć kilka osób mogło obejrzeć efekty projektów przed ich ostatecznym sfinalizowaniem.

Rozproszenie humanistyki cyfrowej i brak wyraźnego centrum – kontynuuje Edwards – jest źródłem największego problemu z funkcjonalnością: wiele razy odkrywa się koło, ponieważ brakuje skutecznego przepływu informacji.

 

Część IV, Humanistyka cyfrowa w praktyce, poświęcona jest kilku zagadnieniom, które pojawiają się przy bieżącej pracy humanistów cyfrowych. Jaka jest przyszłość konkurencyjnych praktyk: close reading (wnikliwa analiza pojedynczych tekstów, rozwinięta przez tradycyjną humanistykę) i distant reading (analiza dużej liczby tekstów metodami statystycznymi z pomocą
komputerów)?

Matthew Wilkens (Canons, Close Reading, and the Evolution of Method) stawia pytanie o sens i możliwość utrzymania kanonu literackiego w sytuacji, gdy liczba publikacji przyrasta lawinowo. Uważa, że distant reading pozwoli sformułować pytania potrzebne dla owocnego close reading.

Paul Fyfe (Electronic Errata: Digital Publishing, Open Review, and the Futures of Correction) zatrzymuje się przy procesie edycji, recencji i poprawiania błędów. Otwarte recenzje i elektroniczna postać tekstów sprawiają, że zmienia się rola korektora. Fyfe nawiązuje do tekstu Daniela J. Cohena The Social Contract of Scholarly Publishing (również zamieszczonego w tomie), w którym ten ostatni uznał, że przed epoką publikacji elektronicznych istniał „społeczny kontrakt”, na mocy którego wytwarzano „magię” wydawnictw akademickich. W rzeczywistości manuskrypt od książki naukowej dzielą jedynie starannie opracowane przypisy i estetyczny skład, co stanowi zaledwie 5% całości pracy włożonej w powstanie publikacji. Możliwość łatwego poprawienia tekstu wydanego w otwartym dostępie powoduje zmianę „społecznego kontraktu”. Teraz czytelnik akceptuje drobne błędy, ponieważ łatwo wprowadzić korekty po publikacji. Różne modele otwartego recenzowania wykorzystujące nowe technologie pozwalają zrezygnować z kosztownych „magicznych 5%”.

Praktykowanie humanistyki cyfrowej jest ściśle związane z instytucjonalnym zapleczem. Neil Fraistat opisuje funkcję centrów HC, jakie powstały przy różnych ośrodkach akademickich. Z kolei Julia Flanders, między innymi na własnym przykładzie, pokazuje przebieg kariery humanistów cyfrowych, często rozwijającej się alternatywnie w stosunku do typowych karier naukowych (w części VI David Greetham posłużył się nawet określeniem „gettoizacja” na określenie pozycji humanistyki cyfrowej w środowisku akademickim – The Resistance to Digital Humanities).

 

Część V poświęcona jest nauczaniu. Refleksja nad potrzebą uczynienia z humanistyki cyfrowej obowiązkowego przedmiotu nauczania na kierunkach humanistycznych dobrze koresponduje z problemem alternatywnych karier akademickich. Czy poruszanie się w środowisku cyfrowym i posługiwanie się cyfrowymi narzędziami jest elementem jeszcze do końca niezdefiniowanej „cyfrowej piśmienności”? Mark L. Sample w krótkim rozdziale What's Wrong with Writing Essays przyznaje, że rezygnuje z uczenia swoich studentów pisania esejów. Nie chce uczynić z nich „miniaturowych kopii” jakiegokolwiek profesora. W zamian stara się nauczyć ich kreatywnego korzystania z różnych mediów.

 

Ostatnia część Debates... skierowana jest ku przyszłości i przewidywaniom, jak potoczy się historia humanistyki cyfrowej. Przewidywania te wracają do podstawowych pytań o charakter humanistyki cyfrowej i jej granice. Pojawia się ponownie przekonanie, że HC jest dopiero na początku swojej drogi, więc należy być gotowym na błędy. Duży potencjał kryje się w uspołecznieniu pracy badawczej.

Dave Parry (The Digital Humanities or a Digital Humanism) zauważa, że nie mówi się o „humanistach długopisów” lub „humanistach maszyny do pisania”. Dlaczego zatem mówi się o „humanistach cyfrowych”? Czy dodanie przymiotnika „cyfrowy” zmienia istotę tego, czym zajmują się humaniści? Czy zmienia istotę humanistyki? Parry powtarza, że są dwa rodzaje humanizmu cyfrowego (digital humanism): pierwszy to zestaw narzędzi stosowanych do badań humanistycznych, podczas gdy drugi traktuje cyfrowość jako przedmiot badań. Autor wyznaje, że ten pierwszy rodzaj raczej go nudzi. Nie interesuje go liczenie słów w prozie Jane Austen. „Mam nadzieję, że cyfrowa humanistyka może być czymś więcej, niż szybciej przeprowadzaną analizą tekstu”.

Kathleen Fitzpatrick w eseju Beyond Metrics: Community Authorization and Open Peer Review opisuje alternatywne metody oceny prac naukowych. W kulturze manuskryptów autorytet znajdował oparcie w rzadkich zasobach kontrolowanych przez wydawcę, który gwarantował odpowiednią jakość publikacji. Dziś, gdy elektroniczne teksty można publikować w Internecie bez ograniczeń, mechanizm tworzenia autorytetu może się zmienić. Imprimatur daje już nie wydawca – którego znaczenie się zmniejsza – ale społeczność. To odbiorcy dokonują selekcji tego, co wartościowe. Selekcja dokonuje się więc na etapie konsumpcji, a nie produkcji. Należy jednak stosować narzędzia mierzące tę konsumpcję. System ewaluacji powinien odpowiadać aktualnym potrzebom. Fitzpatrick wskazuje na szereg wskaźników, np. czas spędzany na stronie internetowej, pozwalające precyzyjnie określić zainteresowanie czytelników.

Zgodnie z obrazem przedstawionym w Debates... tematy, jakie nurtują humanistów cyfrowych, to przede wszystkim spór o granice humanistyki cyfrowej: czy humanista cyfrowy musi umieć sam programować, czy też wystarczy, że bada cyfrową rzeczywistość? Z tym sporem wiążą się wątpliwości co do znaczenia wymiaru etycznego. Czy na humanistach cyfrowych ciąży obowiązek wpływania na społeczeństwo, by stawało się lepsze dzięki ich pracy?

Wydaje się, że wartości im przyświecające nie muszą jednak wiązać ich z jedną ze stron tego sporu. Wśród tych wartości znajdują się także otwartość (w różnych aspektach) i nastawienie na współpracę. One zaś mogą być realizowane także przez tych badaczy, którzy ograniczają się do budowania narzędzi. Humaniści cyfrowi mają silne poczucie, że znajdują się na początku drogi. Ich dyscyplina (o ile humanistykę cyfrową można nazwać oddzielną dyscypliną) jest młoda i dopiero się kształtuje.

Tym też tłumaczone są niedoskonałości i niepewność co do jej istoty. Młody wiek HC jest też powodem, dla którego humaniści cyfrowi czują się wyobcowani z tradycyjnego życia akademickiego. Ich kariery często rozwijały się alternatywnie wobec karier kolegów z typowych dyscyplin.

Debates... jest publikacją poświęconą humanistyce cyfrowej, ale rzuca światło na szerszą kwestię: czy rozwój HC oznacza przełom dla humanistyki w ogóle? Czy nowoczesne technologie – zarówno jako narzędzia, jak i przedmiot badań – zmieniają istotę nauk humanistycznych?


Debates in the Digital Humanities, red. Matthew K. Gold, University of Minnesota Press 2012 [wydanie elektroniczne 2013].

Michał Starczewski jest pracownikiem Centrum Otwartej Nauki i doktorantem na Wydziale Historycznym Uniwersytetu Warszawskiego.

 

Additional information