Spis treści

1 Problematyka badawcza na cyfrowym "uskoku tektonicznym"

Motto:

W sensie filozoficznym opis struktury jest teorią. W nim - z definicji - struktura jest relacją między rzeczami; i teoria może być wyrażona tylko w kategoriach zależności między rzeczami. Opis strukturalnych relacji w usłudze bibliotecznej tworzy ważną część "ciała uogólnień i zasad rozwiniętych w powiązaniu z praktyką".
Należy odnotować, że empirycznie odkryta struktura może być badana teoretycznie bez żadnej teorii co do tego, dlaczego ona zaistniała. To przydarzyło się Zipfowi. Jego empirycznie odkryte "Prawo Zipfa" o wzorcach rozkładu różnych zachowań społecznych spotkało się z szeroką akceptacją. Natomiast jego pracowicie skonstruowane wyjaśnienie, dlaczego ten wzorzec występuje - jego "Zasada Najmniejszego Wysiłku" - nie spotkało się z uznaniem.

Michael K. Buckland, “Library Services in Theory and Context”, 1988,strona 28.
Niewiara teoretyka i chwytanie nieuchwytnego
Bez specjalnego uproszczenia można powiedzieć, że na przestrzeni wieków ludzie posługiwali się dwoma typami komunikatów: przemijającymi (nietrwałymi) i trwałymi. Pierwsza z tych tradycji komunikacji: sygnalizacja świetlna, język dźwięków i gestów (w tym tańca), wyrosła zapewne na bazie obserwacji świata zwierzęcego i może być uważana za pierwotną. Powtarzalność czy też odtwarzalność takich komunikatów zależała od pamięci, słuchu, spostrzegawczości i szeregu innych cech osobniczych odtwórcy oryginalnego komunikatu. Ulotna natura takiego przekazu i niski stopień standaryzacji zapewne przez długie wieki nie skłaniała wykonawców do traktowania produktów swej działalności jako towaru, na którym można zarobić. Towar ten nie bardzo pasował do prawideł wymiany barterowej, akceptowanej powszechnie aż do czasów filistyńskich. Druga z tych tradycji, to komunikaty słabo zależne od czasu, często nazywane trwałymi: rysunki naskalne, malowidła na naczyniach, rzeźba w kości, drewnie i kamieniu, odlewy w metalu, wreszcie dokumenty pisane.

Dziewiętnasty wiek wprowadził podstawowe zamieszanie w tym schemacie: uwiecznił w trwałej postaci dotychczas ulotną rzeczywistość. To, co do niedawna było powtarzalne z dokładnością do interpretacji i improwizacji, teraz mogło zostać bez ograniczeń reprodukowane w niezwykle wiernym stopniu. Na rynku pojawił się masowo tani i atrakcyjny towar, dokładnie wystandaryzowany, taki sam dla wszystkich ludzi. Jednak inny fakt miał tu decydujące znaczenie dla przyszłych losów tej nowej technologii, która bez kłopotów zintegrowała się z istniejącym światem. Produkt powstały w wyniku trwałego zapisu ulotnej rzeczywistości nabrał materialności niezwykle konkretnej, dał się wziąć w rękę, włożyć do torby, postawić na półce.

Zastosowanie awangardowych technologii do "zatrzaśnięcia" w niezmiennym kształcie zjawisk ulotnych, często miało charakter intuicyjny, ale bazując na powtarzalnej serii udanych eksperymentów dawało gotowy produkt rynkowy. Brak dopracowanej teorii funkcjonowania wielu takich urządzeń i utarte schematy myślenia wywoływały niejednokrotnie przedwcześnie ostre i bezpodstawne reakcje środowisk naukowych, czy nawet administracyjnych, na wprowadzaną innowację. Dla ilustracji zacytujemy za Kaczmarkiem [1953, strona 22] wyszukane przez niego u Scheminzky'ego [1943] malownicze opisy przygód pierwszych prezenterów fonografów:

Kiedy w roku 1878 przedstawiono fonograf w Akademii Nauk w Paryżu, członek jej Jan Bouillard, który nie wierzył w możliwość utrwalenia i odtworzenia głosu ludzkiego, pomawia demonstratora o brzuchomówstwo. Gorzej się stało z demonstratorem w Rosji. Tu sądy carskie ukarały go trzymiesięcznym więzieniem, grzywną, nakazując prócz tego zniszczyć aparaturę”.

W tym wypadku miały miejsce pomówienia, a nie argumentacja naukowa. Niespełna ćwierć wieku później, w znacznie trudniejszej sytuacji znalazł się Marconi. Po pomyślnym przesłaniu sygnałów drogą radiową przez cieśninę La Manche (1899), przy pomocy tego samego sprzętu wynalazca nie był w stanie przesłać sygnału przez Ocean Atlantycki. Przyczyny niepowodzenia eksperymentu upatrywał wyłącznie w zbyt niskiej mocy nadajnika. Na próżno naukowcy próbowali go przekonać, że z teoretycznego punktu widzenia transmisja sygnału między Europą i Ameryką Płn. skazana jest na całkowite niepowodzenie, bez względu na moc sygnału. Wniosek ten wyprowadzali z dwóch powszechnie znanych i akceptowanych faktów: udowodnionego przez Hertza liniowego rozchodzenia się fal elektromagnetycznych oraz kulistości ziemi, - delikatnie pomijając znaną już od ok. 20 lat hipotezę Belfoura Stewarta o możliwości istnienia zjonizowanych warstw atmosfery ziemskiej. Mimo pozornie tak niezbitych argumentów Marconi z uporem maniaka powtarzał, że odpowiednie zwiększenie mocy nadajnika na pewno pozwoli przesłać drogą radiową sygnał nad Atlantykiem. Gdyby decyzja o przyznaniu funduszy na budowę większego nadajnika spoczywała w rękach teoretyków, nadzieje wynalazcy na realizację końcowej fazy projektu były by mizerne. Na szczęście przemysłowcy bardziej wierzyli Marconiemu niż naukowcom i w ciągu dwóch lat bezprzewodowy telegraf stał się faktem. Właściwie to dopiero eksperymenty Marconiego stworzyły solidne podstawy do przyszłych badań atmosfery, co w roku 1925 pozwoliło E.V. Appletonowi udowodnić istnienie jonosfery.

Przełom XX i XXI wytworzył dobra, które w niczym nie przypominały dotychczasowych skarbów kultury. Miniaturyzacja zapisu sięgnęła poziomu molekularnego, nieuchwytnego dla zwykłego mikroskopu optycznego, powietrze wypełniło się tak szerokim spektrum fal elektromagnetycznych, że zwykłemu śmiertelnikowi nie sposób się połapać kto co komu przekazuje, kto co nadaje, a kto odbiera. Mariaż elektroniki z innymi dziedzinami zaowocował tak rewelacyjnym postępem, że dziś w krajach uprzemysłowionych mało ludzi zdobywa się na wypowiedzenie sądu o niemożliwości wyprodukowania produktu o żądanych własnościach. Nowe technologie są błyskawicznie przyjmowane przez młode pokolenie, znacznie szybciej, niż dzieje się to w pokoleniu rodziców i nauczycieli. Umiejętność posługiwania się komputerem i współczesnymi technikami komunikacyjnymi stała się warunkiem sine qua non uzyskania pracy i coraz szybciej staje się takim warunkiem dla podtrzymania stosunku pracy. Doświadczenie w epoce industrialnej zdobywało się dziesiątkami lat i stary robotnik był ceniony przez producenta. Obecnie tempo zdobywania wiedzy o systemach cyfrowych wyznaczone jest przez szybkość zdobycia i wytestowania najnowszych wersji oprogramowania (w naszych warunkach niestety prawie zawsze są to kopie nielegalne) oraz przez sieciową, legalną i nieodpłatną wymianę wiedzy. Dzisiaj młody człowiek po technikum, jeśli jest dobrym „hakerem”, może przedstawiać dla firmy znacznie większą wartość jako administrator, niż absolwent uniwersyteckiej informatyki z 20-letnim stażem. Zinwertowaniu uległy pozycje przydatności zawodowej skrajnych generacji cyklu produkcyjnego. Doświadczenie życia przegrywa z doświadczeniem użycia i silnemu zamgleniu ulega perspektywa rozwoju zawodowego następnych generacji. Czyżby oznaczało to szybko nadchodzące wyraźne obniżenie wieku emerytalnego i skrócenie tygodnia pracy?

Wyzwania stawiane przez nowe technologie zapoczątkowały dramatyczne zmiany społeczne, te z kolei domagają się pilnych regulacji. Jednak badania społeczne w obszarze środowisk internetowych są obecnie bardzo utrudnione. Szerokie spektrum nowych produktów wytworzyło mozaikę grup wyspecjalizowanych w obsłudze poszczególnych technologii. Obecnie naukowcowi – teoretykowi coraz trudniej jest penetrować wielką ilość takich przestrzennie rozproszonych, hermetycznych grup młodzieżowych, podejrzliwych w stosunku do każdego nowicjusza, próbujących „wpuścić go w maliny” – a potem w prywatnej korespondencji tworzyć sobie scenariusze kolejnych odsłon dobrej sieciowej zabawy. Fakt ten prowadzi coraz bardziej do niemocy ujawnienia analizy prawdziwych mechanizmów asocjacyjnych, zastępując je z konieczności porównawczą analizą statystyczną. Należy dopuścić, że za 5-10 lat znacząca liczba obecnych członków takich grup opuści je i zacznie publikować obszerniejsze wspomnienia, które mogą się stać ciekawym materiałem analitycznym. Zachodzi jednak obawa, że wówczas dla wielu na profilaktykę społeczną będzie już za późno.

Cyfrowa technologia jest wciąż bardzo nowa i - jeśli sądzić po najnowszych odkryciach - jeszcze nie osiągnęła szczytu swych możliwości. Nawet trudno powiedzieć, czy jest dopiero na półmetku; zresztą – czym to ewentualnie mierzyć? Ci, którzy obecnie teoretyzują na jej temat, często niefortunnie identyfikują ją z technologią elektroniczną. Stąd też z ciągle dość skromnej listy tematów badawczych trudno wyekstrahować wątki teoretyczne poświęcone ściśle technologii cyfrowej. Tym zapewne się kierując, Goban-Klas [2001, strona 291] z wielką ostrożnością zredagował w swojej 336-cio stronicowej książce Media i komunikowanie masowe zaledwie jednostronicowy paragraf "Cyfrowa rewolucja kulturalna", nie wywołując ani jednego odsyłacza bibliograficznego! Są tu wyraźne kłopoty ze specyfikacją i opis należało by poddać pewnym zabiegom o charakterze chirurgicznym. U podstaw tych problemów leży nieprecyzyjna terminologia, do której defektów Goban-Klas odwołuje się osiem stron dalej, a której uściślenie jest jednym z celów niniejszej książki.

Dla uniknięcia ewentualnych nieporozumień w dalszym ciągu prowadzonych tu rozważań, dobrze będzie zestawić listę wyróżników, słów kluczowych, odnoszących się do "czystej" cyfrowej technologii elektronicznej. Oto robocza propozycja takiej listy:

Sieć w filozofii i filozofia w sieci.

Na wstępie warto zatrzymać się w obrębie pewnej grupy prac naukowych o najbardziej ogólnym charakterze: metodologicznym i filozoficznym. Ostatnio opublikowane u nas przekłady książek i artykułów wyróżniających się myślicieli zachodnich pozwalają odesłać polskiego czytelnika do pełnych tekstów kilku ciekawszych pozycji. Na szczególne wyróżnienie zasługuje tu obszerna antologia tekstów zestawionych i skomentowanych przez Gwoździa [2001]. W grupie filozofów na uwagę zasługuje Heim [2001]. Kokieteryjny tytuł artykułu: "Erotyczna ontologia cyberprzestrzeni" i sformułowania typu „Atrakcyjność komputera wykracza poza charakter utylitarny czy estetyczny; jest ona erotyczna” nie powinny zmylić czytelnika: eros Heima ma charakter uogólniony i trafiony strzałą Kupidyna nasz surfer, jeśli wybiera dla uprawiania swej miłości porę nocną, czyni to głównie z uwagi na niższą w tym czasie taryfę opłat TP SA. Eros ten uosabia pęd do tworzenia cyberistot. W swych rozważaniach Heim prowadzi grę intelektualną na bazie leibnizowskiej monadologicznej metafizyki, w której widzi pra-model sieci komputerowej, będącej systemem węzłów, zarządzanych z pewnego wybranego węzła. Bezcielesne monady swój życiowy impet generują wewnętrznie, pragnąc odwzorować cały wszechświat – wszakże każda na swój sposób, dysponując swym własnym interfejsem. Ta monadologia wskazuje, że istnienie pewnych paradoksów, niekonsekwencji, złudnych nadziei jest w sieci cechą „wrodzoną”. Po fazie pozornego wybawienia z monadycznego odosobnienia i po zachłyśnięciu się pozorną bliskością odległych fizycznie bytów następuje powolna utrata niezależności, osłabienia psychiki społecznej, pojawienie się efemeryczności. Bardzo negatywnie postrzega Heim brak bezpośredniego doświadczenia ludzkiej twarzy i upatruje w tym źródła zaniku etycznej świadomości i coraz szerszego zalewu grubiaństwa w anonimowych kontaktach sieciowych. We wzroście sieci widzi utratę niewinności i zanik poczucia lokalnej więzi społecznej.

Artykuł Cheshera [2001] „Ontologia domen cyfrowych” pod pewnym przynajmniej względem jest wyjątkowy wśród omawianego tu wyboru prac. Bez specjalnych ogólników autor wielokrotnie wskazuje na wyraźnego kreatora dyskutowanych zjawisk: jest to człowiek, programista: „Programiści zbudowali rozległy system sklepów, bibliotek, kompleksów handlowych i rozrywkowych, które ujrzeć można jedynie na małych ekranach stojących na naszych biurkach. /.../ artyści i projektanci stworzyli przestrzenne metafory logicznych światów komputerowych, trójwymiarową przestrzeń telewizualną.” [op.cit.: strony 145-146]. Jest zastanawiające, że u Cheshera te wytwory człowieka: komputery, oprogramowanie, dane, - zaczynają żyć własnym życiem: Komputery tworzą domeny cyfrowe i światy równoległe, w których wszystko toczy się poza naturalnymi ograniczeniami przestrzeni fizycznej [ibid.: 145]. Ale u Cheshera to już nie człowiek pogrupował komputery w domeny cyfrowe, tylko one same się pogrupowały. Komputery Cheshera wyrwały się swoim twórcom spod kontroli! Wydawać by się mogło, że to wstęp do analizy tak obecnie dokuczliwych na świecie zjawisk nieprzewidywalności zachowań systemów komputerowych. Nic z tego! W swym wykładzie autor stara się udowodnić, że komputer to medium inwokacyjne, przypominając o przypisanym mu statycznie adresie. Analizie umknęło tu kilka spraw. Tak więc, oprócz statycznego przypisywania komputerowi adresu sieciowego stosowane jest też adresowanie dynamiczne, które w ramach ograniczonej puli adresów umożliwia korzystanie z dostępu do sieci znacznie większej liczbie osób, pod warunkiem nierównoczesnego korzystania z dostępu. Znaczy to, że w sieci w naturalny sposób tworzą się niejednoznaczności. Tego rodzaju aranżacje zostały pogłębione przez zapoczątkowanie w 1993 roku usług zapewniających anonimowość pracy w Sieci [Grossman, 2001]. Uzupełnienia i komentarza wymaga opisanie komputera jako medium inwokacyjnego. Termin ten nie budzi zastrzeżeń. Jednakże twórcy komputerów przewidzieli w nich także pewne funkcje wykraczające poza pasywne oczekiwanie na inwokację, do której Chesher chciałby je ograniczyć. W typowych serwerach powszechnie wykorzystywane są funkcje, inicjujące w określonym momencie zaprogramowane wcześniej zachowanie komputera, już bez fizycznego udziału administratora – ale przecież na jego wcześniejsze zlecenie. Może to być wysyłanie o określonej porze faksu lub e-maila, archiwizacji zasobów, pozamykanie „wiszących” sesji, zamknięcie systemu. Komputer może też mieć zaprogramowane pewne funkcje nadzorcze, w których jego akcja ma charakter warunkowy, asynchroniczny. Dotyczyć to może np. kontroli czujników antywłamaniowych, detekcji awarii, czy automatyki przemysłowej. W tych wszystkich wypadkach pasywna rola medium inwokacyjnego zmienia się w aktywną rolę medium inicjatywnego. Trzeba przy tej okazji zauważyć, że podejmowane przez komputer inicjatywy nie muszą być autorstwa twórcy komputera, czy też twórcy zainstalowanego przez użytkownika oprogramowania. Źródłem tych inicjatyw mogą być oczywiście tak popularne obecnie wirusy, najczęściej pochodzące ze źródeł niemożliwych do identyfikacji. Wtedy komputer staje się medium refleksyjnym – akceptuje infekujący go byt cyfrowy i następnie odbija go w przestrzeń. Tak więc komputer funkcjonujący w sieci ma cechy polimorficzne. Ale tego Chesher już się nie dopatrzył.

Pracę Binkley’a [2001] Refigurowanie kultury można zaliczyć do nieprzeciętnie prowokacyjnych. Jej autor, którego zainteresowania koncentrują się wokół metod rejestrowania informacji [op.cit.:116, przypis], stara się przeprowadzić gruntowną egzegezę pojęć "technologia analogowa" i "technologia cyfrowa" w ich różnych manifestacjach. We wstępie trafnie identyfikuje dwie ważne cechy wiązane ze środowiskiem cyfrowym: wirtualność i interaktywność. W dalszym ciągu stara się zdefiniować, czym jest dla niego medium cyfrowe w stosunku do medium analogowego, zaczynając od ogólnego sformułowania: Wytyczona droga cywilizacji wyrzeźbiła bogate dziedzictwo kanałów komunikacyjnych – od malarstwa do periodyków, od recitali do radia, od longplayów do CD-ROMów – znanych jako media, przez które komunikaty pokonują przestrzeń oraz czas [ibid:114]. Tak ustawiona terminologia jest zgodna ze źródłosłowem i nie ma powodu, by budziła wątpliwości. W pewnym jednak momencie do argumentacji autora wkrada się homonim o odmiennym znaczeniu, który w angielskim języku winien być określony nie jako medium, lecz jako carrier (nośnik). I tak np. w zdaniu: Medium cyfrowe nie jest medium dziewiczym, ponieważ zanim przyjmie komunikaty od nadawcy, musi zostać sformatowane. Nie wymaga się tu odciskania, ale raczej wypełniania siatek danymi, - argumentacja tu bezwarunkowo odnosi się do fizycznego nośnika na którym realizuje się zapis – np. dysku magnetycznego. Natomiast niesposób to odnieść do medium transmisyjnego po którym odbywa się transmisja, tu warto powtórzyć: „przez które komunikaty pokonują przestrzeń”. To było by wyjątkowo niefortunne, - wszakże po tym samym medium transmisyjnym, miedzi, szkle, czy w powietrzu, bez kłopotu można współbieżnie realizować przebiegi cyfrowe, jak i analogowe. Jest to tylko sprawa użytej techniki zwielokrotnienia (multipleksacji). Binkley albo unika przykładów, które przeczą jego linii rozumowania, albo po prostu ich nie zna. Również jego opinia na temat wyższej wrażliwości zapisu analogowego na uszkodzenia fizyczne, niż zapisu cyfrowego, nie jest zgodna z rzeczywistością. Analogowy hologram można przedzielić fizycznie na dwie (niekoniecznie równe) części i NATYCHMIAST, bez żadnego sklejania, można niezależnie z każdego kawałka odtworzyć kompletny, trójwymiarowy obraz oryginału. Tego niestety nie można powiedzieć o przełamanym twardym dysku, czy dyskietce. Ale częściowo zalany kawą lub podrapany, dwu-wymiarowy kod plamkowy, czy paskowy, daje się odczytać, ze względu na wbudowaną weń nadmiarowość. Podwyższenie odporności zapisu cyfrowego na losową utratę danych można uzyskać tylko kosztem rozszerzenia pamięci. W dalszym ciągu ten sam autor, wbrew faktom znanym z klasycznej fotografii, zdaje się przypisywać zapisowi analogowemu strukturę bezzarnistą: Media analogowe zachowują konkretną homogeniczność tego, co prezentują, /.../ Medium cyfrowe przygotowuje się do odbioru informacji, nie przez sprowadzanie ich do nieodróżnialnego kontinuum [ibid.: 117]. Podobnie wyidealizowany obraz prezentuje Binkley w odniesieniu do technologii zapisu: Media analogowe magazynują informację, dokonując transkrypcji, która zmienia konfigurację materiału fizycznego w inny, analogowy porządek. /.../Media cyfrowe, inaczej, raczej konwertują informację, którą chcą zachować, niż ją kopiują. [ibid.:115-116]. I to nie jest prawdą. W tym miejscu godzi się przypomnieć, że technologie konwersji sygnału są stosowane nie tylko w zapisie cyfrowym, ale również analogowym. Tak np. postępuje się przy zapisie dźwięku z redukcją szumu (system Dolby, czy dbx), w trakcie którego następuje konwersja oryginalnego analogowego sygnału. Bezpośrednie odtworzenie tego zapisu, bez wiedzy o tym, jaka technologia redukcji szumu była użyta, daje zupełnie sfałszowany obraz nagrania. Podobna sytuacja ma miejsce w przypadku klasycznej telewizji: do czasu pojawienia się pierwszych konwerterów, analogowe nagrania wideo wykonane w amerykańskim standardzie NTSC były nie do odtworzenia na magnetowidach systemu SECAM. Każde z nagrań funkcjonowało w swoim własnym świecie i producentów i odbiorców.

Niemała porcja podobnych uchybień ogranicza się raczej do styku świata analogowego ze światem cyfrowym. Znacznie bardziej poprawnie przeanalizował Binkley obecną i spodziewaną w przyszłości rolę technologii cyfrowej w społecznym komunikowaniu. Widzi nieodwracalność tendencji migracyjnych w kierunku czystej technologii cyfrowej, paradoksy oraz zagrożenia.

Interesujące są rozważania Mike Sandbothe [2001] na temat praktyk kulturowych wirtualnych wspólnot Internetu. Mając całkowitą świadomość tymczasowości obecnego etapu rozwojowego Sieci (ograniczenia związane z wysokimi kosztami powszechnego dostępu do szerokiego pasma transmisji i przesyłania obrazu „na żywo”), skupia się on na procesie wtapiania się starszych, linearno-tekstualnych form komunikacyjnych we współczesne formy hipertekstualne. Godne szczególnej uwagi są jego spostrzeżenia, że w takich usługach jak IRC, MUD, czy MOO mowa zostaje upiśmienniona – z drugiej zaś strony wzajemnozwrotna forma interaktywnego użytkowania pisma w trybie rozmowy – de facto – jest oralizacją pisma. Podobną parę bliźniaczą: ikonizację pisma i upiśmiennienie obrazu widzi w tworzeniu i odbiorze dokumentów hipertekstowych. Sandbothe uważa, że ze względu na obserwowaną obecnie migrację znaczeń tak podstawowych pojęć jak „obraz”, „mowa”, czy „pismo”, warto monitorować te przesunięcia tak, by w przyszłości można było ustalić właściwy zakres znaczeniowy tego rodzaju pojęć.

Psychologia i prawo

Technologia cyfrowa szybko wkraczająca do domów, biur, urzędów, instytucji rozrywkowych, niepodzielnie panuje w nowoczesnych środkach transportu i łączności, zmienia warunki życia, jego jakość – i wreszcie - zmienia ludzi. W dobie, gdy jeszcze niezmiernie daleko było technologicznie, ekonomicznie i społecznie do dzisiejszego stanu sieci WWW, wyniki jednych z pierwszych, poważnych badań opublikowali Hiltz i Turoff [1978]. Mimo, że technologia oferowała wówczas wyłącznie terminale znakowe dużych serwerów, a komunikacja między serwerami nie należała do szybkich, wrażenie uczestniczenia w jakiejś nowej rzeczywistości było ogromne. Dla oddania skali swego wrażenia autorzy posłużyli się terminem Naród sieciowy. Bardziej adekwatnie chyba było by przetłumaczyć tytuł ich książki jako Społeczeństwo sieciowe. Warto się na chwilę zatrzymać na dyskutowanym przez Hiltz i Turoffa fenomenem: najpierw fascynacji, potem ucieczki. Zastanawiające było jednak to, że ta nowa jakość wcale nie była jakąś faktyczną jakością. Ludzie od dawna już używali całkiem niezłych telefonów, a w USA telefon w domu prywatnym wcale nie był jakimś rarytasem. Jakość komunikacji międzyludzkiej przez telefon była o niebo lepsza niż poprzez znakowy terminal. W głosie rozmówcy można było usłyszeć irytację, wahanie, zniechęcenie, zaciekawienie, entuzjazm. Terminal komputerowy wszystko to bezlitośnie obcinał. Komfort przytulania do ucha słuchawki w zaciszu domowym nie dał się porównać z wędrówką do odległego centrum komputerowego i siedzenia przy hałaśliwym terminalu TSR-33. A jednak .... Po dzień dzisiejszy zastanawiamy się, co ciągnęło tych nielicznych zrazu entuzjastów nowej technologii do nielicznych centrów, gdzie uruchomiono pilotażowe projekty? Zapewne ciekawość. Rodzaj badania „czarnej skrzynki” – urządzenia mającego wejście i wyjście i zupełnie nieznany środek. Może chcieli zabawić się w lekarza, który na podstawie dostępnych, ograniczonych środków diagnostycznych chce postawić diagnozę o tym co jest w środku? Może chcieli zmierzyć się z czymś odległym, nieznanym, posiłować się bez wysiłku? Może, pozostając anonimowym, zagrać wymarzoną rolę przed osobą fizyczną, acz ułomną. Niewidzącą ale nie niewidomą. Sprawną, ale z ograniczonymi możliwościami; osłabioną jak nadbita w szczepionce bakteria. A może był to już podświadomie wyczuwalny, choć przeoczony przez Hiltz i Turoffa praprzodek dzisiejszego dokumentu cyfrowego ze wszystkimi jego możliwościami? A jednak te wczesne badania zachowań ludzkich ujawniły już wtedy pierwsze niepokojące objawy skłonności uczestników grup komunikacyjnych do posługiwania się określeniami prowadzącymi do wzrostu napięcia w grupie.

W dwadzieścia lat po ukazaniu się The Network Nation Patricia Wallace opublikowała obszerne wyniki swych doświadczeń nad grupami kulturowymi Internetu [Wallace 2001]. Na dwanaście rozdziałów dwa poświęcone są tożsamości w jej różnych przerysowaniach, jeden analizie procesów asocjacji sieciowej, dwa – konfliktom i agresji i aż trzy omawiają zagadnienia miłości, płci i pornografii. Autorka zdaje sobie sprawę zarówno z młodości Sieci, jak i wczesnego etapu badań nad nią: Jak dotąd niewiele przeprowadzono badań na temat zachowania w sieci, choć dziedzina ta szybko zdobywa sobie popularność wśród uczonych reprezentujących różne dyscypliny. Musimy więc zacząć niemal od zera ... [op.cit.:8]. Takiego problemu, jak wpływ nabytych w Sieci postaw na poza-sieciowe życie publiczne w ogóle autorka nie dotyka. Pewnie jest na to daleko za wcześnie. Zachodzi obawa, że gdy ten problem stanie się publicznie dostrzegalny, dla bardzo wielu może już być za późno. Wywody wsparte dobrze przemyślanym układem treści, mimo lokalnie trudnych problemów, tchną jednak optymizmem. Autorka ma nadzieję, że ktoś zechce przeczytać jej książkę i wyciągnąć jakieś wnioski na swój użytek. Gdy pisałam tę książkę, przyświecało mi kilka celów. Pierwszym było zbadanie psychologicznych wpływów sieciowego świata na nasze zachowanie i ukazanie, jak sam ów środek przekazu może wpływać na to, że zaczynamy zachowywać się inaczej niż zwykle. Po drugie, chciałam zaproponować, by zastosowano tę wiedzę do poprawy psychologicznego klimatu Internetu, który wciąż jest nową technologią, a większość z nas to dość „młodzi” jej użytkownicy. /.../ Być może znajdujemy się obecnie w samym środku jednej z tych historycznych epok, lecz ostatnią rzeczą, jakiej byśmy pragnęli, jest jakaś „instytucja”, która miałaby „kontrolować i kierować” Internetem. Zostajemy więc tylko my – miliony użytkowników wspólnego sieciowego świata – i to na nas spoczywa obowiązek jak najlepszego wywiązania się z tego zadania. [ibid.:21-22]. Płonna to nadzieja. Kształtowanie postaw sieciowych przez pisanie książek wydaje się syzyfową pracą. W Sieci nie czyta się książek. Ale nawet, gdyby autorka wraz z wydawcą udostępnili za darmo książkę w Internecie, to i tak mało kto by ją przeczytał: może kilku niewidomych studentów studiujących nauki społeczne. Sieć to medium, a media nie lubią długich tekstów. Ale bezsprzecznie spostrzeżenia osobiste autorki są wartościowe, taksonomia – do przyjęcia, a książka warta przeczytania. Może zainteresuje pedagogów i rodziców.

Przyklejone w tym paragrafie do socjologii prawo to nie przypadek. Prawo wkracza tam, gdzie narastają konflikty indywidualnych i instytucjonalnych interesów. Na wstępie warto zreferować trudny problem, zwykle pomijany przez prawników. Moda i zachowania społeczne ludzi sieci zaczęły być bacznie obserwowane przez wydzielone służby specjalne najbardziej rozwiniętych krajów. Nie tak dawno bez specjalnego zażenowania przyznała się do tego Rosja [PAP 1999]. Na ciężkie rozdwojenie jaźni cierpią Stany Zjednoczone: interesy bezpieczeństwa państwa stoją w jawnej sprzeczności z literą pierwszej poprawki do Konstytucji, a USA chcą dla całego świata być wzorem nowoczesnej i zarazem sprawnej demokracji. Więc sieć jest inwigilowana, a o sprzeczności tego faktu z obowiązującym prawem po prostu do pewnego czasu się nie mówiło. Gdyby chodziło tu wyłącznie o sprawy wojskowe, lub sprawy bezpieczeństwa, to prawdopodobnie tajemnica była by nie wyszła w ogóle na jaw. Sprawa została ujawniona najpierw przez jednego, a potem przez następnych oszukanych współpracowników i odnosi się do tajnego projektu Echelon (por. np. http://www.echelonwatch.org) zaprojektowanego i koordynowanego przez Narodową Agencję Bezpieczeństwa (NSA). Projektu, podobno w założeniach swych, zorientowanego na ściganie terroryzmu szybko jednak przestawionego na ukryte wsparcie gospodarczej ekspansji USA. Zraniona miłość jest nieobliczalna w swych zachowaniach. Okłamana, oszukana i oburzona sieć (w domyśle tajny współpracownik projektu Echelon) zaczęła się bronić tą samą bronią: puszczoną w obieg anonimową informacją. I tu można było dostrzec prawdziwą potęgę Internetu - na efekty nie trzeba było długo czekać. Dnia 12 kwietnia 2000 Komitet ds. Wywiadu Izby Reprezentantów Kongresu USA wysłuchiwał na tą okoliczność wyjaśnień Dyrektora CIA Georga Teneta oraz Dyrektora NSA Michaela Haydena, ale w konkluzji z przesłuchania nie znalazło się nic poza zdawkowym stwierdzeniem, że rząd USA nie potwierdza, ani też nie zaprzecza istnienia globalnego systemu inwigilacji ( http://www.aclu.org/echelonwatch/congress.html). Sprawa jednak nie została zlekceważona i we wrześniu 2001 Parlament Europejski przedstawił na ten temat swoje stanowisko (http://www.cyber-rights.org). W tym wypadku prawo ciągle jest pasywne i w chwili obecnej nikt w USA nie jest w stanie wyegzekwować swych praw zagwarantowanych przez Pierwszą Poprawkę. Spektakularne akty terrorystyczne roku 2001 przyspieszyły i pogłębiły inwigilację sieci i nic na to nie wskazuje, by poufność i prywatność osobista miały obecnie jakiekolwiek znaczenie w stosunku do tzw. interesu państwowego. Te frazesy o tajemnicy danych osobowych są dobre dla maluczkich i naiwnych, a nie dla superpotęg, czy nawet polskich służb specjalnych. Globalna działalność wywiadowcza ECHELONu jak na razie nie pociąga za sobą żadnych bezpośrednio widocznych, szybkich konsekwencji prawnych. Po pierwsze problem jest z udowodnieniem przestępstwa.

Podstawowym obszarem egzekwowania prawa w związku z funkcjonowaniem sieci i działalnością bibliotek jest łamanie ustawy o prawach autorskich. Ten aspekt ściśle dotyczy bibliotek w związku z tzw. „dozwolonym użytkiem utworów” (ang. fair use). Stan prawny tego aspektu, również w kontekście prawa europejskiego, wyczerpująco zreferował ostatnio Michał du Vall [2000]. Świetną prace z tego tematu, widzianego z perspektywy amerykańskiej, przygotował i publikuje w Internecie Uniwersytet Stanforda ( http://fairuse.stanford.edu).

W kontekście praw przedruku, ze smutkiem należy odnotować, że istniejące na całym świecie ustawodawstwo ciągle nie spostrzega faktu istnienia niewidomych. Na problem ten zwracał ostatnio uwagę Czermiński [2000-2 strona 67]. Obecne prawo jest zbyt restryktywne i napędzane głównie przez środowiska twórców muzyki i filmu. Ten sam problem, choć z innego powodu, wywołuje niepokój administratorów sieciowych. Obserwują oni bardzo duży ruch sieciowy związany z przerzucaniem przez sieć ogromnej liczby pasmożernych plików muzycznych i filmowych. W efekcie sieć szybko się zapycha i transmisja staje się coraz wolniejsza. Natomiast przesyłanie przez sieć tekstów nie powoduje najmniejszych problemów. Książka w wersji sieciowej, cyfrowej, - to nie żaden „towar” sieciowy, to znikomy margines egzystencjalny. Tak sprawa wygląda od strony technicznej i administracyjnej. Kręgi autorskie i wydawnicze są tu jednak bardzo restrykcyjne. Lęk autorów i wydawców przed udzielaniem licencji na publikację w Internecie utworów uprzednio wydanych drukiem jest całkowicie przesadzony i nieuzasadniony z ekonomicznego punktu widzenia. Również lęk autorów i wydawców przed klasycznym kserokopiowaniem książek z ekonomicznego punktu widzenia jest bezpodstawny. Piszący te słowa korzystał i korzysta po dziś dzień ze znacznej liczby wydanych „własnym sumptem” śpiewników turystycznych i do tej chwili nie spotkał ani jednego poety, który wszczął ściganie studentów „nielegalnie” kopiujących i wykonujących (w sensie prawa) jego utwory. Przecież dla autora to radość, że jego książki trafiają pod strzechy a wiersze zasiadają przy ognisku. Nie! Ściganie tego rodzaju zachowania, to po prostu coś trudnego do wyobrażenia. Wydaje się, że należy tworzyć lobby na rzecz bardziej zdroworozsądkowej nowelizacji prawa autorskiego.


Estetyka

W 1997 ukazało się w języku polskim tłumaczenie artykułu Norberta Bolza „Estetyka cyfrowa”, w którym autor zestawia listę wyróżników tego zwolna rodzącego się kierunku estetyki. O ile takie cechy, jak symulacja, czy immaterialność nie budzą większych zastrzeżeń, to chyba kompletnym nieporozumieniem jest umieszczenie wśród nich zatarcia granicy między realnym a wyobrażonym. A cały surrealizm, to co? Czy fruwający na Witebskiem pobratymcy Chagalla to rzeczywistość, czy czysta fantazja? Ostatnie lata ustępującego milenium to coraz więcej publikacji na temat estetyki cyfrowej. W 1998 roku ukazała się książka Cubitta „Digital aesthetics”, a rok później - w Polsce - pod redakcją Krystyny Wilkoszewskiej została wydana książka „Piękno w sieci. Estetyka a nowe media”, obejmując szerokie spektrum tematyczne. Jednak podobnie jak i w wielu dyskutowanych tu przypadkach „czysta” tematyka cyfrowa jest omawiana w nielicznych pracach, na ogół z wielką ostrożnością i dość powierzchownie. Już w pierwszym swym artykule Wilkoszewska poświęca cały paragraf estetyce digitalnej, odchodząc jednakże od kierunku nakreślonego przez Bolta: Nie jest jasne, czy estetyka digitalna nakierowana jest wyłącznie na sztukę – sztukę mediów elektronicznych, czy też na owe media w ogóle. Jej głównym bohaterem jest raczej obraz, obraz syntetyczny, niekoniecznie pretendujący do miana dzieła sztuki. Zgoda! Absolutnie tak! Ale też warto przypomnieć, że również w epoce przed-digitalnej nie każdy wytwór ludzki pretendował do miana dzieła sztuki, nawet gdy był autorstwa dyplomowanego artysty. Nie inaczej było w literaturze.

Bardzo wartościową publikacją jest artykuł Małgorzaty Komzy „Estetyczne walory publikacji elektronicznych”. Autorka przypomina zalew przemysłowo produkowanej brzydoty z końca XIX wieku i dręczące współczesnych estetyków pytania, czy już nastała pora na objęcie badaniami nowo rodzących się obszarów ludzkiej twórczości. Widzi ona jasno ograniczenia twórcy w kształtowaniu tego, co otrzyma na swym ekranie zdalny odbiorca dzieła. To prawda. Mimo, że np. protokół Z39.50 v.3 uwzględnia już możliwość wynegocjowania parametrów i ustawień karty graficznej pomiędzy klientem a serwerem, to i tak pozostaje wiele elementów, których protokół nie rozwiąże, i które zostaną zebrane w postaci konfiguracji typu „minimalna akceptowalna recepcja”. Ale czyż tak zawsze nie było? Jaki wpływ miał Botticelli na fakt, że zwiedzający galerię jego obrazów daltonista nie widział niektórych kolorów? Trudno. Można w uproszczeniu powiedzieć, że to sprawa daltonisty, a nie Botticellego. Czy zachowały się jakiekolwiek wspomnienia Paganiniego, że w swych kompozycjach sugerował się on statystyką górnego progu słyszalności wysokich dźwięków? Artysta winien tworzyć dzieło swoich marzeń. Poza autorem są całe rzesze aranżerów, tłumaczy, interpretatorów. Ale nawet w przypadku międzyludzkiej komunikacji, w pewnym momencie kończy się wpływ autorski. Z pewnością ma to miejsce przy tłumaczeniu literatury na języki wywodzące się z obszaru o odrębnej kulturze. W technologii cyfrowej do tego dochodzi tandem dwóch elementów: systemu serwera, oraz systemu klienta. Tu na serwerze kończy się wpływ autora na odbiór jego dzieła. Dokładnie tak samo, jak w przekładzie chińskiego wiersza na język polski, wpływ autora na jego odbiór w Polsce na ogół zawsze kończy się na dostarczeniu wiersza tłumaczowi (por. program Telewizji PLANET „W labiryncie języków” cz. I). Nie należy uważać, że pod tym względem świat cyfrowy w jakiś istotny sposób różni się od tradycyjnego.

Warto na koniec tych krótkich rozważań o estetyce cyfrowej nakierować Czytelnika na strony internetowe Ryszarda Horowitza, by dać mu okazję posmakowania, czym jest obraz cyfrowy w ręku prawdziwego artysty, z jednej strony nienagannie panującego nad swym narzędziem pracy, z drugiej – doskonale wiedzącego, co chce przedstawić. Oto lokatory dwóch takich stron:


http://www.ryszard-horowitz.com
http://ultra.cto.us.edu.pl/RyszardHorowitz

Przy okazji warto zwrócić uwagę, że poprawne oglądanie strony domowej Horowitza wymaga instalacji komercyjnego pakietu oprogramowania Shockwave. Ciekawe, ile osób się na to zdobędzie i w jaki stylu? Czy ściągnie tylko wersję demonstracyjną, czy zakupi pełnowartościowy pakiet? Niestety, estetyka digitalna kosztuje nie tylko twórcę, ale i widza.

Na marginesie mistrzowskiego warsztatu Horowitza autor pragnie wyrazić swoją własną, choć zapewne powszechnie podzielaną opinię, że zarówno technologie tradycyjne, jak i cyfrowe miały, mają i będą mieć zarówno swoich partaczy, jak i geniuszy. Czyż nie ma racji McLuhan [2001 strona 87] pisząc: Dlatego nie jest absurdem twierdzenie, że nasze zrozumienie zmian we współczesnej komunikacji powinno pochodzić przede wszystkim od pomysłowych „techników” znajdujących się wśród współczesnych poetów i malarzy ?

Piękno jednak pozostaje pięknem, choć będzie różnie postrzegane przez określone grupy odbiorców. Było by jednak potrzebne, by estetyka chciała zwrócić uwagę również na niewidomych i ich świat wrażeń: dotyku i dźwięku, tak niesłychanie czuły i wysubtelniony, przecież znacznie poza przeciętny poziom wrażliwości – nawiasem mówiąc autor tych słów jest zapamiętałym wielbicielem A. Bocelli. Można zadać pytanie: dlaczego w Wiedniu na „deptaku” można zobaczyć rzeźbę wraz z przymocowaną do cokołu jej miniaturą – tą ostatnią przeznaczoną dla niewidomych do „oglądania” palcami, a u nas ciągle takich nie ma? Może warto przeanalizować, czy i w jakich okolicznościach taka miniatura zaburza kompozycję całości, jak należy planować jej wielkość, by uwzględnić efekt „zdolności rozdzielczej” ludzkich palców?

Rysunek dodany 1. Brązowa miniatura kościoła Macieja na Wzgórzu Zamkowym w Budapeszcie z objaśnieniami w brajlu, przeznaczona do "oglądania"  palcami. Zdjęcie autora.

Zdjęcie wykonanej z brązu miniatury kościoła Macieja na Wzgórzu Zamkowym w Budapeszcie

 A przechodząc do świata dźwięku: jak modelować głosy syntezatora mowy, by odbiór mowy syntetycznej był prawdziwą przyjemnością? Jak posługiwać się takim „rozpisaniem na głosy” sztuki teatralnej przy przetwarzaniu jej na cyfrowy dokument elektroniczny? Jak zaplanować składanie dwóch obrazów: rzeczywistego i cyfrowego na siatkówce oka (porównaj opis rysunnku 2), by wytworzyć najlepszy między nimi kontrast nie tylko w intensywności, ale i w barwie? Czy estetyka cyfrowa jest w stanie zniżyć się do takiego poziomu, by algorytmicznie wyrazić przyjemność płynącą z odbioru sąsiadujących barw obrazu w kategoriach składowych RGB lub CMYK? Czy będzie umiała matematycznie wyrazić uczucie przyjemności, czy pozostanie tylko na poziomie ogólników? Technologia cyfrowa jest z pewnością otwarta na sugestie estetyków a wydaje się, że i estetycy interesują się to dziedziną. I to rodzi nadzieję na przyszłość.

Organizacja pracy

Organizacja pracy zwykle kojarzy się z czymś urzędniczym, formalnym, o małym ładunku intelektualnym. Nowoczesna nauka o zarządzaniu zadaje kłam tego rodzaju osądom. Jako przykład warto przytoczyć fragment artykułu Murraya i Willmotta [Murray, Willmott 1997, strona 171]: W latach osiemdziesiątych teoria organizacji i zarządzania ponownie odkryła i celebrowała wagę kultury, jako witalnego czynnika na drodze ożywienia i przekierowania organizacji. Takie skoncentrowanie przyniosło w efekcie wzrost liczby inicjatyw organizacyjnych. /.../ Wzrastająca waga strategicznych celów, planowania i zmian kulturalnych znalazła swoje odbicie w przemyśleniu na nowo tego, jak wycisnąć z istoty ludzkiej jeszcze większą kreatywność i adaptowalność. Autorzy widzą to poprzez stopniową fuzję informatyzacji i technologii komunikacyjnych w skali kontynentalnej, przez wyzwolenie się od ustanowionych tradycją ograniczeń, poczucia dystansu w przestrzeni i czasie. Dla Amerykanów kultura zostaje wprzęgnięta w kierat ludzkiej produktywności. Ale zachowanie się produktywności na uskoku cyfrowym jest paradoksalne! Tak, jak we wczesnym etapie informatyzacji odkryto paradoks nadużycia papieru przez technologię komputerową, tak obecnie badania dotyczą przyczyn, dla których inwestycje poniesione na IT w sferze nieprodukcyjnej nie zwracają poniesionych kosztów, podczas gdy takie same inwestycje w sferze produkcyjnej przynoszą zyski [Brynjolfsson 1993]. Przenosząc te spostrzeżenia na grunt bibliotek Peter Lyman [1999] próbuje zdefiniować działalność bibliotek akademickich w epoce cyfrowej w kategoriach teorii ekonomicznych. Po pierwsze wypowiada sąd, że wspólnota akademicka wprowadziła do obiegu nową jakość, którą jest dokument cyfrowy, który z kolei stał się dla tej wspólnoty nowym pieniądzem, a równowaga pomiędzy produkcją i konsumpcją jest rządzona przez kulturę wymiany darów. Produkcja jest u niego przypisywana naukowcom, a konsumpcja realizowana jest przez darmowy dostęp do informacji w bibliotekach. Dla Lymana wymiana darów i wymiana rynkowa nie stoją w sprzeczności ze sobą, lecz są symbiotyczne. Ale w przypadku instytucji akademickich widzi on dwuznaczność granicy między kulturą darów i rynkiem, jako że instytucje te są zarazem korporacjami i instytucjami wspólnotowymi (community). Widzi dalej nowe rodzaje wartości dodane do informacji: hipertekst, wyszukiwanie boolowskie oraz bazy danych. Można przypuszczać, że autor chciał zasugerować decydentom, że jednak biblioteki coś od siebie dodają do istniejącego kapitału (w sensie Wristona [1992]). Misternie prowadząc swe rozumowanie próbuje Lyman zasugerować, że biblioteki nie są instytucjami, do których należy przykładać tą samą miarę, co i do zakładów przemysłowych. Jednak nie precyzuje do końca, czym należałoby mierzyć tą akademicką produktywność i zostawia temat otwarty do dalszych dociekań.

Technologia
Znakomitą większość wartościowych badań naukowych nad rozwojem technologii prowadzi się w zamkniętych laboratoriach dużych konsorcjów przemysłowych. Z reguły są one okryte głęboką tajemnicą. Wiadomo powszechnie, że poszukiwania nowych rozwiązań mają w efekcie dać inwestorom maksymalne zyski – to jest główny cel komercyjnego inwestora.

W zakresie technologii cyfrowej badania technologiczne stawiają przed sobą następujące cele cząstkowe:

  1. zmniejszenie kosztów materiałowych wytwarzania dzięki miniaturyzacji produktu oraz wprowadzenie nowych, tańszych materiałów. W chwili obecnej duży wysiłek skierowany jest na badanie możliwości dalszego zwężenia ścieżek przewodzących układu scalonego. Badania te w znacznej mierze odnoszą się do technologii procesu litograficznego wytwarzania maski oraz procesów trawienia,

  2. zmniejszenie kosztów osobowych i redukcję niestabilności procesu wytwarzania (spowodowanych wpływem czynnika ludzkiego) poprzez automatyzację tego procesu.

Oprócz tematów badań wyraźnie wskazujących na naturę kosztów, które inwestor zamierza zredukować, istnieje cały obszar badań nakierowany na eliminację, czy neutralizację poczynań firm konkurencyjnych, a przynajmniej na ich ubiegnięcie w wejściu na rynek nowym, przebojowym produktem. Można tu wymienić:
  1. Poszukiwanie nowych technologii materiałowych i komunikacyjnych. Tu na pierwszym planie lokują się badania operacyjne nad nanotechnologią materiałową i badania strategiczne nad możliwością wykorzystania technologii kwantowej do celów cyfrowych. Dalekim celem jednych i drugich jest dokonanie przełomu w skali upakowania przestrzennego elementów aktywnych (powiększenie pamięci i mocy przetwarzania systemu o rzędy wielkości) oraz zdecydowane obniżenie poziomu konsumowanej mocy

  2. Poszukiwanie nowych obszarów zastosowań technologii cyfrowej. Na szczególną uwagę zasługuje bardzo duże zainteresowanie laboratoriów badawczych implantami cyfrowymi w żywych organizmach. W tej materii inicjatorzy już teraz sięgają do współpracy z wolontariatem odwołując się do moralnych aspektów usług rehabilitacyjnych, w niepokojącym stopniu zarazem oddalając się od istniejących ustaleń prawnych. Istnieje jednak sporo inicjatyw ściśle akademickich, rozwijających tą sferę badawczą. Warto tu odnotować fakt wytrwałego organizowania od wielu lat przez Oesterrichische Computer Gesellschaft cyklu konferencji naukowych poświęconych komputerowemu wsparciu osób niepełosprawnych
    (http://www.icchp.at).

  3. Analizowanie nowych sytuacji prawnych, które wprowadzają nowe technologie.