Menu English Ukrainian Rosyjski Strona główna

Bezpłatna biblioteka techniczna dla hobbystów i profesjonalistów Bezpłatna biblioteka techniczna


Notatki z wykładów, ściągawki
Darmowa biblioteka / Katalog / Notatki z wykładów, ściągawki

Filozofia nauki i techniki. Notatki z wykładu: krótko, najważniejsze

Notatki z wykładów, ściągawki

Katalog / Notatki z wykładów, ściągawki

Komentarze do artykułu Komentarze do artykułu

Część I. Filozofia nauki

Temat 1. Przedmiot i metodologia filozofii nauki

Problem korelacji między racjonalnym a irracjonalnym w poznaniu. Każda nauka ma swój przedmiot i przedmiot badań. Istnieje różnica w tych pojęciach: przedmiot może być wspólny dla wielu nauk, natomiast przedmiot może być specyficzny. Co jest przedmiotem i podmiotem filozofii? Jak są ze sobą powiązane? Jakie miejsce zajmuje filozofia w systemie nauk? I czy wiedzę filozoficzną można sprowadzić do wiedzy naukowej, jeśli filozofia ma trudności z określeniem swojego przedmiotu i twierdzi, że jest uniwersalna? Wszystkie te kwestie wymagają szczegółowego rozważenia.

Jak wiadomo, przedmiotem nauk specjalnych są indywidualne, specyficzne potrzeby społeczeństwa – w zakresie technologii, ekonomii, sztuki itp. – a każda z nich ma swój własny przedmiot istnienia. Myślenie naukowe, poprzez myśl G.W.F. Hegel (1770-1831), zanurzony w ostatecznym materiale i ograniczony racjonalnym rozumieniem finału. Filozofia interesuje się światem jako całością, dąży do całościowego zrozumienia wszechświata. Poszukuje początku i przyczyny, podczas gdy nauki prywatne zwracają się ku zjawiskom, które istnieją obiektywnie, poza człowiekiem, niezależnie od niego. Formułują teorie, prawa i formuły, biorąc pod uwagę osobisty, emocjonalny stosunek do badanych zjawisk oraz społeczne konsekwencje, do których może prowadzić to lub inne odkrycie.

Człowiek, który myśli, jak pisał Immanuel Kant (1724-1804), potrafi sformułować jedność w sferze doświadczenia. Kant wyróżnił dwa poziomy tego procesu myślowego: rozum, który tworzy jedność poprzez doświadczenie, i rozum, który tworzy jedność reguł rozumu według zasad. Innymi słowy, umysł nie organizuje materiału zmysłowego ani doświadczenia, ale sam umysł. Rozum dąży zatem do zredukowania różnorodności poznania intelektu do jak najmniejszej liczby zasad lub do osiągnięcia ich najwyższej jedności. Rozum jest w stanie doprowadzić jedynie do jedności przyczyny, tj. naturalny wzór. Ale najwyższym zadaniem nauki jest wniknąć w głąb natury, do pierwotnych przyczyn, pierwotnych źródeł, pierwszych zasad!

Główną zasadą jedności jest jedność celów. Filozofia jest nauką, która poznaje cel, dla którego wszystko się rozwija i porusza, a więc dobro (kryteria moralne). Zatem filozofia jest przede wszystkim światopoglądem. Z tej właściwości filozofii wynika problem związany z relacją między racjonalnym a irracjonalnym w wiedzy, tj. ze związkami filozofii i nauki.

Nauka jest racjonalna, jest logicznym rozumowaniem; teoretycznie świadoma, uniwersalna wiedza na temat podmiotu w jego aspekcie epistemologicznym. Ale nauka to także przedmiot, zjawisko, działanie, którego podstawą istnienia jest prawo: tworzenie, reguła, porządek, celowość. Jednocześnie występuje także zjawisko irracjonalności, tj. potężny, nieznany impuls; pewne pragnienie, które nie ma jeszcze żadnego powodu; nieświadoma siła. Najwyższym stopniem w szeregu uprzedmiotowienia woli jest człowiek: istota obdarzona racjonalną wiedzą. Każda nieświadoma jednostka jest świadoma siebie poprzez swoją wolę życia. Wszystkie inne jednostki istnieją w jego umyśle jako coś zależnego od jego istnienia, co jest źródłem bezgranicznego egoizmu człowieka. Organizacja społeczna, będąc jedynie systemem zrównoważonych woli cząstkowych, nie niszczy egoizmu: przezwyciężenie popędu egoistycznego dokonuje się w sferze sztuki i moralności.

Artur Schopenhauer (1788-1860) zdefiniowali irracjonalność jako wolę życia. Według Schopenhauera podstawą moralności jest poczucie współczucia, irracjonalne. Człowiek może doświadczyć zarówno cierpienia, jak i szczęścia, zakorzenionego w samej woli życia.

To, co irracjonalne, jest niepoznawalne. Mistycyzm jest próbą penetracji tam, gdzie nie dociera ani wiedza, ani kontemplacja, ani pojęcie. Ale mistyk nie może przekazać niczego poza swoimi uczuciami. Trzeba mu wierzyć na słowo, nikogo nie jest w stanie przekonać: tej wiedzy w zasadzie nie przekazuje się. Filozofia musi wychodzić z obiektywnej wiedzy wspólnej dla wszystkich, z faktu samoświadomości. Według Schopenhauera leży ona pomiędzy racjonalizmem a irracjonalizmem i musi być przekazywaną wiedzą, tj. racjonalny. Aby wyrazić wiedzę ogólną, filozofia posługuje się pojęciami i kategoriami. Jej głównym zadaniem jest budowanie jednolitego obrazu świata, w którym wszystko jest współzależne. Jednak irracjonalność jest obiektywna! Ślepa wiara w kult rozumu naukowo-technicznego (pozytywizm), w logiczno-dedukcyjne sposoby pojmowania prawdy w XIX – XX wieku. doprowadziło do niedoceniania zasady irracjonalności. Odegrało to fatalną rolę w historii ludzkości: nastawienie na racjonalność nie zapewniło rodzajowi ludzkiemu ani szczęścia, ani pokoju.

Powszechnie przyjmuje się, że problem korelacji między racjonalnym a irracjonalnym narodził się w czasach nowożytnych i wiąże się z nazwą René Descartes (1596-1650). Główna teza Kartezjusza sprowadza się do następującego stwierdzenia: „Myślę, więc istnieję” [1]. Stąd niedocenianie roli tego, co irracjonalne, i przesadne znaczenie tego, co rozsądne. Narodził się także swego rodzaju stereotyp: jeśli jest irracjonalny, to znaczy negatywny. Ale to nie jest takie proste. Rozum często znajduje się na granicy moralności: można wziąć od człowieka kawałek chleba, aby się nasycić i nie umrzeć z głodu. Działanie jest rozsądne, ale niemoralne.

Jaka jest specyfika wiedzy filozoficznej? W refleksji! Refleksja odnosi się do myślenia i świadomości skierowanej ku sobie, ku świadomości własnych form i założeń. Refleksja filozoficzna różni się od refleksji naukowej. Ta ostatnia jest zamknięta w sobie, wychodząc często ze stanowiska naukowości jako jedynej wskazówki ludzkiej egzystencji (co było szczególnie charakterystyczne dla XVII-XVIII w.).

filozof austriacki Ludwig Wittgenstein (1889-1951) mówił o niewystarczalności czysto poznawczego poznawania świata. Obszarem wiedzy o świecie są fakty i ich logiczne przekształcenia. Istnieją jednak aspekty świata, które nie podlegają twierdzeniom typu poznawczego. Tutaj świat jest pojmowany całościowo, rodzi się poczucie wspólnego zaangażowania w świat i życie, istotne stają się problemy Boga, szczęścia, sensu życia itp. Wittgenstein za cel studiów filozoficznych uważał osiągnięcie jasności, która miała dla niego znaczenie zasady etycznej jako wymóg uczciwości i szczerości w myślach i wypowiedziach, uczciwej świadomości swojego miejsca i celu w świecie. Według Wittgensteina całą wiedzę należy sprowadzić do zbioru elementarnych twierdzeń, tak jak w matematyce. Na tej zasadzie zbudowana jest jego doktryna atomizmu logicznego, będącego projekcją struktury wiedzy przepisanej przez model logiczno-strukturalny na strukturę świata. Refleksja filozoficzna zakłada zatem zwątpienie i twórcze myślenie.

Problem metodologii poznania filozoficznego. Metoda jest formą praktycznego i teoretycznego opanowywania rzeczywistości w oparciu o wzorce ruchu badanego obiektu. Metodologia – doktryna, czyli nauka o metodzie (metodach) i zasadach poznania – składa się z dwóch części: a) doktryny o początkowych podstawach, zasadach poznania (część ta jest bezpośrednio związana z filozofią, światopoglądem) oraz b) doktryna technik i metod badawczych (rozważa się tu poszczególne metody poznania i opracowuje ogólną metodologię badań). Istnieje jednak problem rozbieżności pomiędzy metodologią filozoficzną i naukową. Na przykład pozytywizm uważał, że nauka jest filozofią samą w sobie i to nie tylko w zakresie badania obiektywnej rzeczywistości, ale także w zakresie samoświadomości jej uwarunkowań i przesłanek. Innymi słowy, klasyczny pozytywizm XIX wieku zastąpił filozofię konkretną wiedzą naukową o świecie. Logiczny pozytywizm zastępuje metodę filozoficzną konkretnymi metodami naukowymi, a filozoficzną refleksję nad nauką konkretną refleksją naukową. Czego zaprzecza pozytywizm? Po pierwsze, rzeczywistość obiektywna jako przedmiot analizy filozoficznej, po drugie, wiedza naukowa jako przedmiot badań filozoficznych. Mówimy zatem o całkowitej eliminacji przedmiotu filozofii w ogóle.

Nauka jako przedmiot badań filozoficznych badana jest w wielu gałęziach wiedzy, co nie neguje potrzeby jej filozoficznego rozważania. Naukę analizuje filozofia z dwóch perspektyw – metodologicznej i ideologicznej. Metodologiczna analiza nauki dotyka takich problemów, jak dialektyka relacji między przedmiotem a podmiotem nauki; logika wewnętrzna, ciągłość, wzorce rozwoju nauki; relacje między poziomem empirycznym i teoretycznym, kategoriami i prawami, formami i metodami poznania (szczególnymi, ogólnymi, powszechnymi); naukowy obraz świata, styl myślenia; obiektywność wiedzy (teoria, prawda naukowa). Analiza światopoglądowa nauki skupia się na problematyce związanej z czynnikami społeczno-kulturowej determinacji nauki – produkcją materialną, technologią, technologią, postępem naukowo-technicznym; stosunki gospodarcze; czynniki społeczno-polityczne, filozoficzne, moralno-estetyczne, ideologiczne.

Nie do utrzymania są próby przekształcenia filozofii w naukę „specjalną”, „naukę o naukach”, która wznosi się ponad wszelką inną wiedzę. Podstawą takich poglądów jest ludzkie pragnienie wiedzy całościowej. Wobec braku rozwiniętej wiedzy naukowej, tendencja ta jest zaspokajana poprzez wymyślanie brakujących połączeń i spekulatywne konstruowanie obrazu świata. Tak więc nawet G.W.F. Hegel napisał, że każda nauka jest jedynie logiką stosowaną. Jednak wznoszenie ponad naukami pozytywnymi specjalnej nauki o powszechnym powiązaniu rzeczy jest zadaniem bezużytecznym. To zamieniłoby je w ciężary na nogach nauki i uniemożliwiłoby jej rozwój.

Filozofia ma swoje główne pytanie - o stosunek świadomości do bytu, który determinuje jej podejście do świata i leży u podstaw metod i logiki poznania, które rozwija. Filozofia nie powinna przeciwstawiać się wiedzy naukowej. Realizuje postawy ideologiczne wraz ze wszystkimi innymi naukami (przyrodniczymi i społecznymi).

Nauka jako przedmiot refleksji filozoficznej. Nauka jest pojęciem podstawowym, które nie posiada wyczerpującej definicji formalnej. Zatem z jednej strony nauka rozumiana jest jako rozwój i systematyzacja obiektywnej wiedzy. Z drugiej strony nauka jest zinstytucjonalizowaną (instytucją społeczną) racjonalną zasadą (zdrowy rozsądek). Jednocześnie nauka jest wspólnotą, w ramach której możliwa jest pełna (bez różnic indywidualnych) i dobrowolna, oparta na przekonaniach zgoda różnych ludzi w określonej kwestii. Quasi-nauka to forma, jaką nauka przyjmuje w hierarchicznie zorganizowanej społeczności naukowej; pewna teoria naukowa, która zaprzecza podobnej nauce światowej. Taka sprzeczność jest charakterystyczną cechą diagnostyczną analizy nauki. Quasi-nauka obejmuje zarówno teorie naukowe, jak i relacje między naukowcami, tj. jest to narzędzie, które pozwala dowolnej grupie naukowców utrzymać lub przejąć władzę w środowisku naukowym. Wreszcie istnieje pseudonauka - pewna doktryna, która jest w stanie wzajemnego zaprzeczenia nauce światowej o podobnej nazwie (na przykład biologia Michurina, która sprzeciwiała się nauce światowej od 1948 do 1964 roku). Quasi-nauka jest zjawiskiem społecznym, zbiorowym istniejącym w środowisku naukowym. Pseudonauka jest zjawiskiem indywidualnym, błędem jednostki spowodowanym niskim poziomem wykształcenia, inteligencji i choroby psychicznej. Z historycznego punktu widzenia pojęcie „nauki” ma dwa znaczenia: po pierwsze, to właśnie rozumie się przez naukę we współczesnej metodologii naukowej; po drugie, to właśnie nazywano nauką w różnych okresach historii ludzkości.

Koncepcje nauki zmieniały się z biegiem czasu. Początkowo słowo to oznaczało wiedzę w ogóle lub po prostu wiedzę o czymś. Przez długi czas pojęcie „nauki” było stosowane do metody poznania charakteryzującej się myśleniem dyskursywnym (racjonalnym, konceptualnym, logicznym, w przeciwieństwie do zmysłowego, kontemplacyjnego). Ale astrologia i alchemia charakteryzują się również dyskursywnym myśleniem i dlatego przez wiele stuleci były uważane za nauki. W średniowieczu teologia była „królową” nauk, aw epoce Kartezjusza i Leibniza metafizyka była uważana za „podstawę” nauki i pierwszą z nauk.

Jak badać naukę? Jeśli weźmiemy za naukę to, co naukowcy różnych epok uważali za naukę, tracimy przedmiot historii nauki. Tak więc Pierre Ramus w XVI wieku. zdefiniował przedmiot fizyki jako badanie najpierw nieba, a następnie meteorytów, minerałów, roślin, zwierząt i ludzi. A nawet w XVIII w. fizyka nadal pozostawała jedną nauką, w której nie było wyraźnego podziału na obszary nieorganiczne i organiczne. Jakie kryterium wyznaczania epok można wyróżnić w historii nauki? Za takie kryterium może służyć rodzaj racjonalności. Możemy rozważyć typ racjonalności, opisując różne refleksje Arystotelesa, Platona, Bacona, Kartezjusza itp. Jednak większość tych refleksji to ideologemy (tj. fałszywe wyobrażenia o prawdziwej nauce). Oznacza to, że jeśli będziemy podążać tą drogą, to nasza praca sprowadzi się do opisu tego rodzaju ideologii. Lepiej skupić się na aspekcie: w jaki sposób pewne cechy nauki, działalności naukowej i jej wyników (prawd) znalazły racjonalne odzwierciedlenie w ramach koncepcji filozoficznych i metafizycznych. Wówczas typ racjonalności będzie oznaczał pewną formę i stopień zgodności ideologemu filozoficznego i epistemologicznego z rzeczywistą sytuacją historyczną w nauce. Można na przykład porównać ideał konstruowania geometrii, jaki mieli na myśli Platon i Arystoteles, z urzeczywistnioną praktyką geometrii – „Elementami” Euklidesa. Możemy krytycznie przeanalizować te racjonalne aspekty, które są osadzone w koncepcjach przeszłości, a koncepcje te można skorelować nie tylko z nauką, ale także z kulturą jako całością, z problemami początków (genezy) konkretnej nauki, przesłanki jego powstania (mit, religia, magia, filozofia itp.). Tak więc, jeśli badamy genezę arytmetyki lub geometrii, nie możemy obejść się bez studiowania przedracjonalnych form tych nauk - praktyki mierzenia działek, liczenia na palcach itp. Problem polega na zrozumieniu historycznych typów racjonalności w nauce, co często wyraża się w kategoriach rewolucji naukowej lub intelektualnej. Mówimy w tym przypadku o zmianie globalnych założeń i paradygmatów (T. Kuhn), „reformie intelektualnej” (A. Koyré) i całkowitej zmianie „szafy intelektualnej” (S. Toulmin). Jak objawiają się te procesy? Z reguły nagłe zwycięstwo jednej z konkurencyjnych teorii powoduje jej szybką i nieoczekiwaną akceptację przez środowisko naukowe i opinię publiczną.

Jak irracjonalna wiedza staje się racjonalna? Istnieje kilka punktów widzenia i podejść w tej kwestii. Przedstawiciele pierwszego (O. Comte, G. Spencer, E. Taylor, J. Thompson i in.) uważali, że filozofia i nauka powstały z mitu. Według drugiego podejścia (stosowanego w szczególności przez A.F. Loseva) nauka już na pierwszym etapie rozwoju nie miała nic wspólnego z mitologią [2]. Możliwa jest także trzecia opcja: mit stał się punktem rozwidlenia dwóch historycznie pierwszych typów racjonalności – logiki formalnej Eleatów[3] i logiki dialektycznej Heraklita.

Skupiamy się więc na problemie racjonalności. Co spowodowało takie zainteresowanie nią? Faktem jest, że kwestia racjonalności jest nie tylko teoretyczna, ale także żywotnie praktyczna. Cywilizacja przemysłowa jest cywilizacją racjonalną, nauka odgrywa w niej kluczową rolę, stymulując rozwój nowych technologii. Aktualność problemu racjonalności wynika z rosnącej troski o losy współczesnej cywilizacji jako całości, nie mówiąc już o dalszych perspektywach rozwoju nauki i technologii. Podstawą zainteresowania problematyką racjonalności są więc kryzysy generowane przez cywilizację technotroniczną.

Filozofia bada historyczne formy wiedzy naukowej, zauważając ich fragmentację, podczas gdy wiedza ludzka potrzebuje jedności. Ale na jakiej podstawie jest to możliwe? Uważa się, że sposobem myślenia Europy jest hermeneutyka. To właśnie ona musi pełnić rolę „nauki uniwersalnej” (scientia universalis) i zajmować miejsce, które kiedyś należało do metafizyki. Hermeneutyka (z greckiego hermeneuo – interpretować, interpretować, interpretować) - to sztuka i teoria interpretacji. Ma na celu odsłonięcie znaczenia tekstu w oparciu o jego obiektywne (znaczenie słów) i subiektywne (intencje autorów). Zainteresowanie hermeneutyką pojawia się tam, gdzie dochodzi do nieporozumień, nieporozumień, nieporozumień. W epoce hellenistycznej hermeneuci byli interpretatorami przekazów, których znaczenie było niedostępne dla niewtajemniczonych, czy to wierszy Homera, czy wypowiedzi wyroczni. W średniowieczu hermeneutyka odrodziła się ze względu na potrzebę interpretacji znaczenia słowa Bożego. Początków jej wyłonienia się jako dyscypliny szczególnej – doktryny metod interpretacji – można doszukiwać się w połowie XVII wieku, kiedy pojawiła się hermeneutyka „świecka” zajmująca się badaniem różnego rodzaju tekstów. Należą do niej zasługi uzasadnienia hermeneutyki jako nauki Friedricha Schleiermachera (1768-1834), który zdefiniował ją jako doktrynę „o wzajemnym powiązaniu zasad rozumienia” i nie ma znaczenia, o jakim tekście mówimy – „świętym”, „klasycznym”, czy po prostu „autorytatywnym”. Schleermacher proponował wczuć się w przedmiot wiedzy, uwzględniając tekst i psychologię autora. Jego zdaniem pozwala to lepiej zrozumieć autora, świadomą i nieświadomą stronę jego twórczości. Zatem zrozumienie tekstu zależy od wiedzy autora, tj. filozof w istocie sprowadza filozofię nauki do gramatologii i psychologii, wyniszczając samą filozofię. Urodzony na rok przed śmiercią Schleiermachera Wilhelm Dilthey (1833-1911) kontynuowali badania w tej dziedzinie. Jego credo: wyjaśniamy naturę, ale rozumiemy życie duchowe. Dilthe pojmowali życie jako interakcję osobowości: pełnia życia przejawia się w doświadczeniach i empatii osobowości dawanych im od samego początku.

Wiek stulecia Hans Georg Gadamer (1900-2002) w swojej książce „Prawda i metoda” (M.: Postęp, 1988) rozwinął pojęcie hermeneutyki nie tylko jako metody humanistycznej, ale także jako swoistej antologii, zbierającej „pod dachem” hermeneutyka wszystkie znaczące punkty orientacyjne: praktyka, życie, sztuka, słowo, dialog, uznanie doświadczenia hermeneutycznego za podstawową zasadę wszelkiej filozofii. Sztuka według filozofa jest organonem: porzuciwszy ją, filozofia płaci wewnętrzną dewastacją. Istota hermeneutyki ujawnia się w badaniu nauki w systemie kultury, choć wyprowadzenie jej bezpośrednio z kultury jest problematyczne.

Filozofia i nauka są ze sobą powiązane jako naukowe i dialektyczne typy racjonalności. Jeżeli dialektykę – sztukę argumentacji – stosuje się jako metodę konceptualizacji zasad rozwoju, to naukowy typ racjonalności opiera się na uznaniu: a) prawa zachowania; b) zasada korespondencji, która zapewnia ciągłość wiedzy; c) zasada cykliczności, rytmiczności procesów rozwojowych; d) zasada względności i symetrii, tożsamość itp. Dialektyka jako rodzaj racjonalności nie sprowadza się do naukowego typu racjonalności i nie jest przez niego zastępowana. Dialektyka, jako nauka o prawach rozwoju, posiada zasoby heurystyczne, które pozwalają jej formułować wyobrażenia o źródłach i mechanizmach rozwoju, modelować zasady ruchu rzeczywistości w oparciu o własne prawa i kategorie. Oczywiście prawa dialektyki mogą ujawnić swój brak treści w fizyce, jak zauważył twórca klasycznej elektrodynamiki i teorii pola elektromagnetycznego James Maxwell (1831-1879). Ale zasoby heurystyczne dialektyki są niewspółmiernie wyższe niż fizyka! Będąc nauką o prawach rozwoju, dialektyka dąży do stworzenia takich zasobów heurystycznych, które pozwolą na poziomie teoretycznym wypracować ideę, źródło i mechanizm rozwoju, modelować zasady ruchu „bieżącej”, „stającej się” rzeczywistością z jego różnorodnością i nieformalizacją. Podlegają temu wszystkie prawa i kategorie dialektyki.

Nauki specjalne adresowane są do zjawisk, które istnieją obiektywnie, tj. poza człowiekiem, niezależnie od człowieka i ludzkości. Nauka tworzy teorie i formuły, biorąc pod uwagę osobisty, emocjonalny stosunek naukowca do badanych zjawisk oraz konsekwencje społeczne, do których może doprowadzić to lub inne odkrycie. Postać naukowca, struktura jego myśli i temperamentu, charakter wyznań i preferencje życiowe w kontekście badań naukowych nie mają szczególnego znaczenia. Prawo grawitacji, równania kwadratowe, układ Mendelejewa, prawa termodynamiki są obiektywne. Ich działanie jest realne, niezależne od pragnień, nastrojów i osobowości naukowca. Świat idei filozofa to nie tylko statyczna warstwa rzeczywistości, ale żywa, dynamiczna całość, różnorodność interakcji, w których splatają się cykliczność i spontaniczność, porządek i destrukcja, siły dobra i zła, harmonia i chaos. Filozofujący umysł musi określić swój stosunek do świata. Dlatego też główne pytanie filozofii formułowane jest jako pytanie o relację myślenia do bytu, człowieka do świata. Dialektyka jest zatem rodzajem heurystyki, sposobem na osiągnięcie nowych rezultatów.

Gałęzie nauki wywodzą się z pewnych idei, które są akceptowane jako coś, co nie wymaga uzasadnienia. Żaden z wąskich specjalistów w procesie bezpośredniej działalności badawczej nie zadaje pytania o to, jak powstała jego dyscyplina, jaka jest jej specyfika i odmienność od innych dyscyplin. Jeśli te problemy zostaną poruszone, przyrodnik wkracza w sferę historii i filozofii nauki.

Cechy wiedzy filozoficznej. Filozofia opiera się na teoretyczno-refleksyjnym i duchowo-praktycznym stosunku podmiotu do przedmiotu. Aktywnie wpływa na życie społeczne poprzez nowe ideały, normy i wartości kulturowe. Jego główne, historycznie ustalone działy to antologia, epistemologia, logika, etyka, estetyka, antropologia, filozofia społeczna, historia filozofii, filozofia religii, metodologia, filozofia nauki itp. Główne kierunki rozwoju filozofii są związane ze zrozumieniem takie problemy jak świat i miejsce w człowieku, losy współczesnej cywilizacji, jedność i różnorodność kultur, natura ludzkiej wiedzy, byt i język.

Specyfika aparatu pojęciowego filozofii nauki polega na tym, że filozofia poszukuje ostatecznych podstaw i regulatorów każdego świadomego stosunku do rzeczywistości. Dlatego wiedza filozoficzna nie przybiera postaci racjonalnie uporządkowanego schematu, ale szczegółowe omówienie, szczegółowe sformułowanie wszystkich trudności analizy, krytyczne porównanie i ocena możliwych sposobów rozwiązania problemu. Stąd znana maksyma: dla filozofii ważny jest nie tylko osiągnięty wynik, ale także droga prowadząca do tego wyniku.

„Fizyko, bój się metafizyki!” - To stwierdzenie przypisuje się Izaakowi Newtonowi. To jego oryginalny protest przeciwko niejednoznaczności definicji pojęć w filozofii. Nauka stosuje dość ścisłą formę organizacji wypowiedzi. Ale filozofia za każdym razem staje przed budowaniem różnych opcji uzasadnienia i odrzucenia, kierując się powiedzeniem: „Wątp we wszystko”.

Dla nauki tradycyjnie skumulowany ruch do przodu, tj. ruch oparty na kumulacji już uzyskanych wyników (naukowiec nie odkryje na nowo tabliczki mnożenia ani praw mechaniki klasycznej!). Można go porównać do skarbonki, w której podobnie jak monety gromadzą się ziarna prawdziwej wiedzy. Filozofia natomiast nie może zadowolić się zapożyczeniem już uzyskanych wyników. Nie sposób na przykład zadowolić się odpowiedzią na pytanie o sens życia, proponowaną przez myśliciela średniowiecznego: każda epoka rozwiązuje to pytanie na swój sposób.

Specyfika filozofii przejawia się w tym, że stosuje ona własną, szczególną metodę refleksji: metodę włączania się w siebie, ruch wahadłowy, który wiąże się z powrotem do pierwotnych założeń i wzbogaceniem o nowe treści. Filozofia charakteryzuje się przemyśleniem na nowo głównych problemów w historii ludzkości, co świadczy o jej refleksyjności. Filozofia niejako dystansuje się od codzienności, wkraczając w świat intelektualnych, wyobrażalnych bytów. Jak napisał Bertrand Russell (1872-1970) filozofia jest czymś pośrednim między teologią a nauką; jest to „ziemia niczyja” pomiędzy nauką a teologią, ale otwarta na krytykę z obu stron. Zagadnienia nierozwiązywalne z punktu widzenia teologii i nauki okazują się być przedmiotem filozofii. Język filozofii jest czymś pomiędzy wyposażonym w kategorie językiem życia codziennego a językiem poezji.

Filozofia to nie nauka! Twierdzi jednak, że jest obecna w każdej nauce - ze swoimi własnymi pojęciami, obiektywnością, ideą przyczynowości, prawami rozwoju, zbiorem pojęć o wzorach itp. Jej naukowy charakter schodzi na dalszy plan. Nie o to chodzi! Określa wartości wartości, społeczne skutki związków przyczynowo-skutkowych, wyznacza miejsce człowieka w świecie.

Filozofia jest rodzajem aktywności intelektualnej, która wymaga stałej komunikacji z wielkimi umysłami przeszłości i teraźniejszości, ma narodową pewność, jest wzbogacona światowym doświadczeniem filozoficznym, a zatem, jak każda nauka, jest międzynarodowa, ma uniwersalną jedność.

Temat 2. Powstanie nauki i główne etapy jej historycznej ewolucji

2.1. Pre-nauka i nauka. Powstawanie pierwszych form myśli teoretycznej

Głównym problemem tego tematu jest problem genezy racjonalnego myślenia. Bez względu na to, jak racjonalność jest interpretowana, oczywiste jest, że we wczesnych stadiach dziejów ludzkości iw przyszłości nosiła głębokie piętno myślenia mitologicznego. Wynika z tego naturalne pytanie: jakie jest kryterium racjonalności? Być może liczba elementów mitologicznych, skojarzeń, obrazów itp., które zawiera ta czy inna doktryna? Nie. Ważny jest tu bardzo głęboki sposób myślenia, który jest wskaźnikiem stopnia racjonalności danej doktryny. Innymi słowy, musimy wyjść nie z treści, ale z logicznej formy (struktury) badanego tekstu historycznego. W związku z tym interesuje nas problem przejścia od mitu do logosu.

Mit grecki (mit) oznacza mowę, słowo, rozmowę, rozmowę, plan, plan. Jednak mit i słowo nie są tożsame. Mit wykracza daleko poza wyrażenia werbalne, narracje i fabuły. Mit, jaki istniał w prymitywnej społeczności, nie jest opowiadaną historią, ale rzeczywistością, którą się przeżywa; nie jest to ćwiczenie intelektualne ani wyobrażenie artystycznej fantazji, ale praktyczny przewodnik po prymitywnych wierzeniach i zachowaniach. Nie można go zrozumieć poza kontekstem całego życia prymitywnej społeczności.

Myślenie prymitywne nie zna abstrakcji. Mit, będąc „strażnikiem” zbiorowego doświadczenia społeczności plemiennej, był regulatorem zachowań. Był organicznie związany z rytuałem i często występowali razem. Bez zastrzeżeń przestrzegano rytuałów i mitów przekazywanych z pokolenia na pokolenie. W tym sensie wiara człowieka pierwotnego nie jest wiarą religijną, ale zaufaniem poprzez sugestię. Stąd poczucie przynależności jednostki do wspólnoty zbiorowej i postrzeganie siebie poprzez „My”, a co za tym idzie możliwość „wierzenia sobie na słowo”, nieporozumień i absurdów. W mitach i rytuałach zbiorowa władza sprawowana była nad jednostką w symbolicznie autorytarnej formie. To określiło ważną rolę przodka - totemu. Funkcją mitu była mobilizacja sił zbiorowości na rzecz spójności, od której zależało przetrwanie społeczności i klanu. Mit miał na celu maksymalne podporządkowanie życia jednostki interesom jedności. Słowa mitu są tożsame z formami zachowań: każda zmiana słów prowadzi do chaosu.

Mitologia pierwotna ma swoje okresy historyczne: 1) okres totemiczny (akt zjedzenia zwierzęcia znajduje się w centrum uwagi mitologicznej); 2) okres urodzenia (dominującym motywem jest akt produkcyjny: siew, zbiór itp.). Ale zarówno w pierwszym, jak i drugim przypadku kult fetyszy, totemów i bóstw nie jest jeszcze kultem religijnym. Bogowie w świadomości mitologicznej pełnią inne funkcje niż w religii. Fetysze, totemy, przedmioty tabu to znaki regulujące zachowanie („krzyki”, „polecenia” itp.). Stosunek do bóstw w tym okresie nie był jeszcze święty. W mitach istnieje niezliczona ilość opisów aktów rozdarcia i pożarcia własnego totemu (założyciela klanu) lub boga (np. greckiego Dionizosa, bogów papuaskich). Bogowie zachowują się jak ludzie, a ludzie czują się równi bogom, nie okazując im szacunku. Człowiek może stać się bogiem, otrzymać swoją moc tylko poprzez wchłonięcie totemu, zjedzenie go. A Bóg może stać się człowiekiem, psem i rekinem.

Claude Levi-Strauss (1908-2000) dowodzili, że mit archaiczny pełni funkcję poznawczą. Czy tak jest? Faktem jest, że żywotna aktywność społeczeństwa prymitywnego jest synkretyczna (niepodzielna), integralna. Prymitywna aktywność zawodowa, życie codzienne i produkcja narzędzi pracy są nasycone świadomością mitologiczną. Działalność produkcyjna człowieka pierwotnego nie wyizolowała się jeszcze w samodzielny obszar i istnieje jako moment integralnego sposobu życia; jest tak rutynowa i prosta, że ​​nie wymaga refleksji, m.in. nie jest przedmiotem refleksji, co jest niemożliwe ze względu na brak abstrakcyjnego myślenia. Instrumentalna działalność człowieka pierwotnego nie jest przez niego postrzegana jako coś szczególnego i nie jest oddzielona od takich działań jak chodzenie, bieganie, pływanie. Drobne usprawnienia techniczne w życiu codziennym dokonywano na przestrzeni wieków tak powoli, że świadomość społeczna nie była w stanie ich wyodrębnić, zatrzymać na nich uwagi. Oczywiście człowiek prymitywny umiejętnie wykonuje przedmioty gospodarstwa domowego: kosze, tkaniny, biżuterię, zachwycając subtelnością i precyzją wykonania. Ale to nic innego jak zręczność, umiejętności, które powstały w wyniku ćwiczenia. Ogólnie rzecz biorąc, jednostka epoki prymitywnej nie oddziela się od rodzaju, nie zastanawia się nad sobą. Przykładem są badania A. F. Losev (1893-1988) struktury języków koriackiego, aleuckiego i czukockiego. Okazało się, że tutaj myślenie ma trudności z analizowaniem rzeczy; mitologia jest albo nieobecna, albo w powijakach.

Ale społeczność prymitywna nie oddziela się też od otaczającego świata, natury. Świadomość mitologiczna nie zna dublującego się „świata – człowieka”. JJ Frazier (1854-1941) w znanym dziele „Złota gałąź” mówi, że człowiek prymitywny nie zna przyczyn wielu zjawisk, chociaż w ciągu tysiącletniej historii osiągnął pewne sukcesy, na przykład rozpalił ogień pocierając kawałek drewna o kawałek drewna. W ten sposób autorka opisuje, jak zszokowani byli chrześcijańscy księża misjonarze arogancką arogancją czarowników, ufnych w swoją zdolność wpływania na naturę, zmuszania jej do działania tak, jak tego potrzebują. Ernst Cassirer (1874-1945) mówi także o stabilnym i ciągłym zaprzeczaniu zjawisku śmierci przez mit, tj. natura nie istnieje w świadomości mitologicznej jako świat zewnętrzny przeciwstawiający się człowiekowi. Stąd pytanie: jak w tym przypadku możliwe jest poznanie, jeśli nie ma jego przedmiotu? Należy tu rozróżnić pojęcia „myślenie” i „poznanie”. Myślenie jest szersze niż wiedza. Człowiek prymitywny myśli, a wynik jego myślenia wyraża się w obiektywnym działaniu. Jednak wiedza nadal istnieje w formie ukrytej. Poznanie jest kolejnym etapem rozwoju myślenia, który musi koniecznie stworzyć moment jego werbalizacji, a co za tym idzie krytycznej postawy wobec siebie (refleksji). Dla człowieka prymitywnego wiedza nie istnieje jako coś obiektywnego, tj. niezależny od jego podmiotowości. Idee dotyczące wiedzy kształtują się dopiero w kulturze starożytnej. (Tak więc Sokrates powiedział: „Wiem, że nic nie wiem”, ale od razu dodał: o wiele smutniej jest uświadomić sobie fakt, że „nawet jego sędziowie o tym nie wiedzą”).

Filozof angielski, jeden z twórców postpozytywizmu Michał Polanyi (1891-1976) wprowadził kategorię wiedzy ukrytej. Według autora, osoba posiada zarówno wiedzę jawną, wyrażającą w słowach osobiste doświadczenie, jak i wiedzę ukrytą, która jest bezosobowa, holistyczna, z natury niewerbalizowana. Wiedza niejawna (peryferyjna) skupia się nie na strukturze przedmiotu, ale na jego funkcji. To jest wiedza bezkrytyczna. W tym sensie mit nie zna dialogu, który zawiera postulat krytyki przeciwstawnych punktów widzenia. Stąd wniosek: skoro człowiek prymitywny nie ma wątpliwości co do ignorancji, to znaczy, że wie wszystko, a to jest równoznaczne z tym, że nic nie wie. Myślenie staje się wiedzą, kiedy zaczyna się zastanawiać nad sobą. Autor udowadnia, że ​​formalnie wyszkolony umysł, nieprzywiązany do żywych źródeł „wiedzy osobistej”, jest bezużyteczny dla nauki[4].

Myślenie mitologiczne nie wyjaśnia, ale sugeruje. O wiedzy można jednak mówić w odniesieniu do społeczeństwa prymitywnego, ale tylko w tym sensie, że objawia się ona w formie światopoglądu. Sama etymologia słowa „wiedzieć” w języku rosyjskim i greckim sięga wrażeń zmysłowych (percepcji). Jednym ze znaczeń słowa „wiedzieć” w języku rosyjskim jest doświadczyć jakiegoś uczucia, doświadczyć. I na przykład Homer ma wyrażenia „myśl oczami”, „myśl przeponą”, „myśl wzrokiem”. Zatem zbiór rzeczy, które powinien znać człowiek prymitywny, sprowadza się do zakazów (nie zawierania związku małżeńskiego w klanie, nie kazirodztwa, nie zabijania osoby należącej do jego klanu), tj. treść wiedzy jest tym, co jest zabronione. W okresie dominacji myślenia mitologicznego nie pojawiła się jeszcze potrzeba specjalnej wiedzy naukowej. Ale pojawia się kolejne pytanie: czy mit pełni funkcję etnologiczną? Częściowo tak. Na przykład wielu myślicieli starożytności często odwoływało się do mitologii, aby wyjaśnić zjawiska społeczne i naturalne. Działo się tak, gdy nie było racjonalnej interpretacji zjawisk (pamiętajcie mit o jaskini Platona).

Ale jaki jest stosunek religii do wiedzy? Hegla zwana świadomością mitologiczną „bezpośrednią”, „naturalną” religią. Ale bardzo trudno jest określić granicę między mitologią a religią. Ich kult jest powiązany, w obu przypadkach autorytarny i absolutny. Jednocześnie jest między nimi wiele różnic.

1. Mit jest uniwersalną, unikalną formą świadomości społecznej na pewnym etapie. Religia natomiast pojawia się wraz ze sztuką, świadomością polityczną, z wyodrębnieniem pracy umysłowej na samodzielną, wyspecjalizowaną działalność.

2. Nosicielem świadomości mitologicznej jest całe społeczeństwo. Religia natomiast powstaje na podstawie formowania się specjalnych grup duchownych (księży), którzy zawodowo zajmują się tworzeniem ideologii religijnej.

3. Istnieją różnice w formach regulacji zachowania. Mit istnieje, gdy jednostki nie oddzielają się od siebie, a zachowanie jest regulowane bezpośrednio zakazami. Religia istnieje w warunkach zróżnicowania społeczności, pojawienia się własności prywatnej. Zachowanie w tym przypadku regulowane jest pośrednio poprzez oddziaływanie na świat duchowy. Religia już działa wraz z regulatorami politycznymi i prawnymi. Wyrasta na specjalną instytucję społeczną.

4. W przeciwieństwie do mitu, religia dzieli, podwaja świat na świat święty (święty) i światowy (profaniczny). W religii nie można już komunikować się z Bogiem na równych zasadach.

5. W religii następuje kolejne podwojenie – na świat naturalny i świat nadprzyrodzony (cudowny). Świadomość mitologiczna nie zna takiego rozróżnienia. Ewangeliści podkreślają zatem zdolność Chrystusa do czynienia cudów, aby odróżnić Go od tych, którzy uczestniczą w naturalnym biegu życia i śmierci; jego działania są wyjątkami od zasad.

6. Zmienia się funkcja Boga w religii. Mitologiczni bogowie nie znają moralności, oceny etyczne nie mają do nich zastosowania. Bóg religii jest antropomorficzny. Jednocześnie jest święty, gdyż jest nosicielem najwyższych zasad etycznych. Etyka religijna wynosi imperatywy moralne do absolutu, ponieważ uważa, że ​​relatywizm w moralności nieuchronnie prowadzi do niemoralności, samozniszczenia ludzkości. I tak np. Mojżesz mierzy swoją działalność zgodnie z dziesięcioma przykazaniami, sformułowanymi jako uniwersalne „imperatywy kategoryczne” i stanowiącymi podstawę autonomicznej moralności.

Hegel uważał religię za formę wiedzy, ale jest to błąd. Religia w swojej genezie nie jest podporządkowana funkcji wytwarzania wiedzy w formie obiektywnej; nie ma funkcji poznawczych. Religia jest następczynią mitologii i nie produkuje wiedzy w usystematyzowanej, a tym bardziej teoretycznej formie. (Najsłabszym punktem nawet najbardziej reprezentatywnych religii – chrześcijaństwa, buddyzmu, islamu – jest ich zrozumienie natury i ludzkiego myślenia.) Na przykład świat przyrody, roślin i zwierząt dla wczesnego chrześcijaństwa nie stanowi niezależnego przedmiotu zainteresowania, ale służy jako alegoria opisująca ludzkie zachowanie i ludzką moralność. Funkcje religii mają głównie charakter regulacyjny, osiągany na psychologicznej, sugestywnej i sakralnej podstawie. Jeśli chodzi o naukę, można ją zdefiniować jako wytwarzanie wiedzy. Problem jednak w tym, że wiedza racjonalna, oparta na opozycji przedmiotu i podmiotu, wnosi w świat wiele negatywnych rzeczy. Czy nauka wierzy, że tylko człowiek (społeczność ludzka, kultura) nadaje sens światu? Konsekwencją takiego podejścia jest pozbawienie natury jej znaczenia ontologicznego. Wyraża się to w szczególności w przekształceniu przyrody przez cywilizację technotroniczną w swego rodzaju „surowiec”. Jak jednak rozwiązać problem racjonalizacji i różnego rodzaju kryzysów, jakie ona generuje, np. ekologicznego? Kryzys ekologiczny nie jest przede wszystkim wytworem cywilizacji przemysłowej w jej materialnej formie (w postaci maszyn, fabryk, fabryk, elektrowni, elektrowni jądrowych itp.); Jest to wytwór szczególnego typu mentalności charakterystycznej dla New Age, który determinuje nasz obecny stosunek do natury i jej rozumienie. Koncepcja New Age głosiła, że ​​natura jest przedmiotem używanym przez człowieka do własnych celów. Człowiek jest transformatorem, gwałcicielem. W tym przypadku „przyczyna docelowa” jest usuwana z natury. Dlatego tak ważne jest filozoficzne przemyślenie problemu racjonalności.

2.2. Kształtowanie się nauk eksperymentalnych w nowej kulturze europejskiej

Uniwersytety, szkoły, racjonalna autonomia scholastyki, stopniowo podważając podstawy średniowiecza, zaczęły „pasować” do warunków rozwoju przemysłowego New Age. Uniwersytety stopniowo stawały się „narodowe”, każdy mógł tam studiować. Korporacje studentów i mistrzów powstały bez rozróżnienia klasowego. Najstarsze uniwersytety w Bolonii (1158), Paryżu (1215), Oksfordzie (1206) stopniowo pozbyły się rzymskich papieskich zakazów nauczania nauk przyrodniczych i filozofii. Wiodącą pozycję w procesie odnowy zajmował Uniwersytet Oksfordzki, gdzie tradycyjnie istniało sprzyjające środowisko dla rozwoju nauk przyrodniczych. Na ówczesnych uniwersytetach nauczano tzw. quadrium, łączącego arytmetykę, geometrię, astronomię i muzykę. W tym okresie ponownie przemyśleno rolę doświadczonej wiedzy. Zaczęto publikować dzieła, nie wspominając o Bogu. Przywrócono naukowe dziedzictwo Arystotelesa. Mottem epoki były słowa Rogera Bacona: „Prawda jest dzieckiem swoich czasów, a nauka nie jest córką jednego czy dwóch, ale całej ludzkości”. Zmieniły się także metody badań naukowych: dedukcja arystotelesowska ustąpiła miejsca indukcji. Ale Inkwizycja nadal walczyła o swoje zasady. Tak więc wyczyn naukowy R. Bacona, który studiował optykę, astronomię i alchemię, antycypując wiele późniejszych odkryć, został przez nią „oceniony” na 15 lat więzienia, a prace naukowca spalono.

Podobny los spotkał włoskiego naukowca, jednego z założycieli nauk ścisłych, profesora matematyki na Uniwersytecie w Pizie Galileo Galilei (1564-1642). Galileusz położył podwaliny współczesnej mechaniki: przedstawił ideę względności ruchu, ustanowił prawa bezwładności, swobodnego spadania i ruchu ciał na pochyłej płaszczyźnie, dodawania ruchów; odkrył izochronizm oscylacji wahadła; pierwszy, który zbadał wytrzymałość belek; zbudował teleskop z 32-krotnym powiększeniem i odkrył góry na Księżycu, cztery satelity Jowisza, fazy w pobliżu Wenus, plamy na Słońcu. Aktywnie bronił heliocentrycznego systemu świata, za co został postawiony przed sądem przez Inkwizycję (1633), co zmusiło go do wyrzeczenia się nauk N. Kopernika. Do końca życia Galileusz był uważany za „więźnia Inkwizycji” i zmuszony był mieszkać w swojej willi pod Florencją.

Innego wielkiego wyczynu w rozwoju nauki dokonał współczesny Galileuszowi angielski mąż stanu i filozof, twórca angielskiego materializmu. Francis Bacon (1561-1626). W swoim traktacie „Nowy Organon” (1620) Bacon ogłosił, że celem nauki jest zwiększenie władzy człowieka nad przyrodą. Postawił tezę „Wiedza to potęga” i stworzył program uogólnienia całego świata intelektualnego, zaproponował reformę metody naukowej: oczyszczenie umysłu z błędów, zwrócenie się ku doświadczeniu i przetwarzanie go poprzez indukcję, której podstawą jest eksperyment . Klasyfikacja nauk Bacona, będąca alternatywą dla klasyfikacji Arystotelesa, przez długi czas była uznawana przez wielu europejskich naukowców i filozofów za fundamentalną. W swoim dziele „O godności i rozwoju nauk”, opartym na kryteriach psychologicznych, Bacon podzielił nauki na historyczne, poetyckie i filozoficzne. Jednocześnie Bacon uznał prawo do istnienia religijnej interpretacji prawdy. Błędy w wiedzy nazwał „bożkami wiedzy”.

Francuski matematyk, fizyk i fizjolog Rene Descartes (1596-1650) stał się twórcą racjonalizmu w filozofii. W traktacie „Zasada kierowania umysłem” sformułował zasady poznania naukowego, które stanowiły istotę metody poznania Kartezjusza:

1) przyjąć za prawdziwe tylko to, co nie budzi wątpliwości;

2) rozłożyć złożone problemy na proste elementy;

3) ułożyć proste elementy w ścisłej kolejności;

4) sporządź kompletne listy i zdjęcia dostępnych elementów, aby mieć pewność, że nie ma żadnych założeń.

Kartezjusz uważał intuicję, naturalne światło rozumu, dowód zdolności poznawczych, za początek wiedzy; dedukcja wydawała mu się intuicją w działaniu. Kartezjusz wszedł do historii filozofii nauki jako przedstawiciel dualizmu, uznając istnienie dwóch niezależnych substancji – rozciągłości i myślenia.

Powstanie nowej nauki europejskiej stało się możliwe dzięki zastosowaniu metody eksperymentalnej i jej połączeniu z opisem matematycznym. Wybitną rolę odegrali w tym G. Galileo, F. Bacon i R. Descartes.

Głównym osiągnięciem New Age w nauce było ukształtowanie naukowego sposobu myślenia, charakteryzującego się połączeniem eksperymentu jako metody badania przyrody z metodą matematyczną oraz kształtowaniem teoretycznej nauki przyrodniczej. Wszystko to wpłynęło pozytywnie na dynamikę nowej kultury europejskiej. W tym okresie znacząco wzmocnił się również status prawny nauki. W 1662 r. na podstawie Karty Królewskiej powstało w Londynie Królewskie Towarzystwo Przyrodników, którego statut został przyjęty. W tym samym roku powstała w Paryżu Akademia Nauk.

2.3. Kształtowanie się nauk technicznych i kształtowanie filozofii technologii

Termin „technologia” (z gr. techne – sztuka, rzemiosło, umiejętność) łączy w sobie dwa główne aspekty: 1) narzędzia, narzędzia stworzone przez człowieka; 2) zestaw umiejętności, zdolności, technik, metod, operacji itp. niezbędnych do uruchomienia narzędzi pracy (czasami określa się je terminem „technologia”). Filozofia technologii jako kierunek w filozofii nauki zaczęła przyciągać uwagę w Rosji dopiero pod koniec XX wieku. Wynikało to przede wszystkim z dewaluacji filozofii marksistowskiej. Kolejny powód tak późnego zainteresowania tą dziedziną myśli filozoficznej związany jest ze specyfiką rozwoju technologii. Według niektórych szacunków do końca XIX wieku przepaść między badaniami teoretycznymi a ich realizacją wynosiła co najmniej 150 lat, choć historia rozwoju techniki świadczy o coraz szybszym tempie rozwoju technicznego świata. W tym względzie orientacyjna jest sytuacja, jaka rozwinęła się w XX wieku. W tym okresie jak lawina następowały odkrycia: lot pierwszego samolotu, wynalezienie lodówki, czołgu, odkrycie penicyliny, stworzenie radioteleskopu, pojawienie się pierwszego komputera, odkrycie DNA, spacer kosmiczny człowieka, klonowanie itp. - to dowody na skuteczność ludzkiej działalności. A oto jego koszty: technologia zniewala człowieka, niszczy jego duchowość, prowadzi do śmierci cywilizacji. Aby uniknąć negatywnych konsekwencji rozwoju technicznego świata, działalność technologiczno-inżynierska potrzebuje precyzyjnych wytycznych, które uwzględniają skalę i nasilenie problemów interakcji świata przyrody ze światem sztucznym.

Kwestie instynktownego i świadomego działania człowieka zainteresowały naukowców na długo przed pierwszymi eksperymentami wielkiego rosyjskiego fizjologa I. P. Pawłowa. Tak więc starożytny grecki filozof Anaksagoras (500-428 p.n.e.) wierzył, że dzięki używaniu rąk człowiek przewyższa wszystkie inne zwierzęta. Arabski historyk i filozof Ibn Khaldun (1332-1406), odrzucając ideę stworzenia człowieka przez Boga, postrzegał przyrodę jako wielką, wzajemnie powiązaną i rozwijającą się całość, gdzie świat minerałów prowadzi ściśle do świata roślin, a to ostatni do królestwa zwierząt. A wszystko to opiera się na zasadzie przyczynowości. Osoba posiadająca rozum i rękę opanowuje rzemiosło, aby wytwarzać narzędzia i chronić siebie. Te rozumowania myśliciela stały się podstawą instrumentalnej koncepcji formacji ludzkiej, którą za Ibn Khaldunem rozwinęli Benjamin Franklin (1706-1790), Adam Smith (1723-1790) i inni.Problem ten został szczegółowo zbadany w: prace Ludwig Noiret (1827-1897). W swoich pracach „Pochodzenie języka” oraz „Narzędzie i jego znaczenie w historycznym rozwoju ludzkości” wyznawał przekonanie, że dopiero wraz z pojawieniem się narzędzi rozpoczyna się prawdziwa historia ludzkości. Noiret powiązał to zjawisko z ludzkim myśleniem, podkreślając dwie jego cechy. Po pierwsze, narzędzia służą woli człowieka, jego intelektowi. Oni sami są wytworem racjonalnego myślenia. Innymi słowy, ludzka ręka jest „organem mózgu”, narzędziem narzędzi! Proces pracy pod wpływem narzędzi najbardziej bezpośrednio wpływa na pracę mózgu i jego rozwój, w tym rozwój całego ludzkiego ciała: „Ręka udziela pouczających lekcji oku i umysłowi”. Po drugie, co wynika z poprzedniego wyroku, ręka ulega istotnym zmianom w procesie działania instrumentalnego, dzięki czemu dzięki swemu organicznemu połączeniu staje się potężnym czynnikiem rozwoju umysłu. A co z myśleniem? Według Noireta myślenie dopiero później osiąga to, co zostało już rozwinięte znacznie wcześniej, dzięki pracy, która wyprzedza myślenie, poprzedza myślenie [5].

Ale prawdziwym założycielem filozofii techniki jest niemiecki filozof Ernest Kapp (1808-1896). Nie zadowalając się filozofią heglowską, zaczyna materialistycznie przepracowywać dziedzictwo Hegla w oparciu o koncepcję antropologiczną Ludwiga Feuerbacha (1804-1872). Kapp jako pierwszy zdecydował się na odważny krok – w tytule swojego dzieła połączył dwa pozornie nieprzystające do siebie pojęcia „filozofia” i „technologia”. W centrum jego książki „Podstawowe kierunki filozofii technologii” leży zasada projekcji narządów: człowiek we wszystkich swoich dziełach nieświadomie odtwarza swoje narządy i poznaje siebie w oparciu o te sztuczne twory. Podobnie jak Noir, Kapp skupia swoją uwagę na dłoni jako specjalnym narządzie („organie wszystkich narządów”). „Mechanicznym” przedłużeniem dłoni są oczy, które Kapp nazywa półkończynami, pośrednikami między zewnętrznym światem rzeczy a wewnętrznym światem nerwów. Taka organiczna projekcja przejawia się w tym, że człowiek, tworząc na swój obraz i podobieństwo, zamienia ciało w wagę i wzorce natury, według których mierzy różne jej zjawiska. Stopa, palec, jego stawy, zwłaszcza kciuk, dłoń i ramię, rozpiętość, odległość między nogami chodzącymi i między wyciągniętymi końcami ramion, szerokość palca i włosów - jako miara długości; garść, „pełne usta”, pięść, głowa, grubość ramienia, nogi, palca i ud – jako miara pojemności i objętości; natychmiastowy (miga) - jako miara czasu. Wszystko to było i pozostaje wszędzie wśród młodych i starych, wśród dzikich i cywilizowanych ludzi, niezmiennie przy użyciu środków naturalnych. Według Kappa projekcję organów można wyraźnie prześledzić nie tylko w prymitywnych lub prostych narzędziach ręcznych, ale także w bardzo skomplikowanych mechanizmach i konstrukcjach technicznych, takich jak maszyny parowe, koleje itp.

Teoria projekcji narządowej Kappa została dalej rozwinięta w badaniach francuskiego socjologa i filozofa Alfred Espinas, niemiecki filozof Fred Bona, traktując technologię jako sposób na osiągnięcie ludzkiego szczęścia. Ważny wkład w rozwój krajowej filozofii technologii wniósł rosyjski inżynier mechanik Petr Klimentievich Engelmeyer. Jego raport na IV Międzynarodowym Kongresie Filozoficznym w 1911 roku w Bolonii poświęcony był uzasadnieniu prawa do istnienia filozofii techniki jako szczególnie ważnej dziedziny nauki. Odsłaniając istotę technologii, Engelmeyer pisze: „Technologia to zdolność do celowego działania na materię. Technologia to sztuka wytwarzania pożądanych zjawisk. prawdziwa podstawa całej kultury ludzkości” (cyt. za: Al-Ani N.M. Filozofia technologii : podręcznik / N. M. Al-Ani. Petersburg, 2004).

Temat 3. Struktura wiedzy naukowej

3.1. Klasyfikacja naukowa

Klasyfikacja (od łac. сlassis - kategoria, klasa i facio - tak) to system pojęć podrzędnych (klasy, przedmioty) w dowolnej dziedzinie wiedzy lub działalności. Klasyfikacja naukowa wychwytuje regularne relacje między klasami obiektów w celu określenia miejsca obiektu w systemie, co wskazuje na jego właściwości (na przykład systematyka biologiczna, klasyfikacja pierwiastków chemicznych, klasyfikacja nauk). Ściśle i przejrzyście przeprowadzona klasyfikacja niejako podsumowuje skutki kształtowania się pewnej gałęzi wiedzy, a jednocześnie wyznacza początek nowego etapu jej rozwoju. Klasyfikacja przyczynia się do przejścia nauki od etapu empirycznej akumulacji wiedzy do poziomu syntezy teoretycznej. Ponadto umożliwia dokonywanie rozsądnych przewidywań dotyczących jeszcze nieznanych faktów lub wzorców.

W zależności od stopnia istotności podstaw podziału rozróżnia się klasyfikacje naturalne i sztuczne. Jeżeli za podstawę przyjąć podstawowe cechy, z których wynika maksimum pochodnych, tak aby klasyfikacja mogła służyć jako źródło wiedzy o klasyfikowanych obiektach, to taka klasyfikacja nazywana jest naturalną (np. Układ Okresowy Elementy). Jeśli do usystematyzowania nieistotne cechy są używane, klasyfikacja jest uważana za sztuczną (na przykład alfabetyczne indeksy tematyczne, katalogi nominalne w bibliotekach). Klasyfikację uzupełnia typologia, przez którą rozumie się metodę naukową opartą na podziale układów obiektów i ich grupowaniu za pomocą uogólnionego modelu lub typu. Służy do badania porównawczego istotnych cech, relacji, funkcji, relacji, poziomów organizacji obiektów.

Klasyfikacja nauk polega na grupowaniu i systematyzowaniu wiedzy w oparciu o podobieństwo pewnych cech. Na przykład Francis Bacon oparł swoją klasyfikację na cechach duszy ludzkiej, takich jak pamięć, wyobraźnia i rozum. Klasyfikował historię jako pamięć, poezję jako wyobraźnię, filozofię jako rozum. Do klasyfikacji Rene Descartes użył metafory drzewa. „Kłącze” tego drzewa tworzy metafizykę (przyczyna pierwotna!), „pień” symbolizuje fizykę, a „korona” obejmuje medycynę, mechanikę i etykę.

Autor książki „Historia Rosji od czasów starożytnych do współczesności” stworzył własną klasyfikację. W. N. Tatiszczew (1686-1750), który za Piotra I nadzorował sprawy oświaty. W naukach ścisłych Tatishchev wyróżnił etnografię, historię i geografię. Za najważniejsze w klasyfikacji nauk uważał samowiedzę i zasadę użyteczności, według której nauki mogą być „konieczne”, „eleganckie”, „ciekawe” i „szkodliwe”. Tatiszczew uważał logikę, fizykę i chemię za nauki „konieczne”. Zaklasyfikował sztukę jako naukę „modną”; astronomia, chiromancja, fizjonomia - do nauk „ciekawych”; wróżenie i czary - do „szkodliwych”.

Filozof francuski, jeden z twórców pozytywizmu i socjologii Auguste Comte (1798-1857) oparł klasyfikację nauk na prawie trzech etapów ewolucji intelektualnej ludzkości. Swoją klasyfikację zbudował według stopnia spadku abstrakcyjności i wzrostu złożoności nauk: matematyki, astronomii, fizyki, chemii, biologii, socjologii (fizyki społecznej). Jako cechę klasyfikującą zidentyfikował rzeczywiste naturalne powiązania istniejące między obiektami. Według Comte’a istnieją nauki, które z jednej strony odnoszą się do świata zewnętrznego, a z drugiej do człowieka. Zatem filozofię przyrody należy podzielić na dwie gałęzie - nieorganiczną i organiczną; filozofia przyrody obejmuje trzy gałęzie wiedzy - astronomię, chemię, biologię. Comte uznał za możliwe kontynuację strukturyzacji, rozszerzając swoją zasadę systematyzacji nauk na matematykę, astronomię, fizykę, chemię i socjologię. Zaliczenie tej ostatniej do szczególnej grupy uzasadniał jej opracowaniem na własnych podstawach metodologicznych, których nie da się rozszerzyć na inne nauki.

niemiecki historyk kultury i filozof Wilhelm Dilthey (1833-1911) w książce „Wprowadzenie do nauk o duchu” zaproponował oddzielenie nauk o duchu od nauk przyrodniczych, zewnętrznych wobec człowieka. Za przedmiot nauk o duchu uważał analizę ludzkich relacji, zabarwionych emocjami przeżyć wewnętrznych, o których natura "milcze". Według Diltheya taka orientacja może ustanowić związek między pojęciami „życia”, „ekspresji”, „rozumienia”, które nie istnieją w nauce, choć są zobiektywizowane w instytucjach państwowych, kościelnych i orzeczniczych.

Według innego niemieckiego filozofa Heinricha Rickerta (1863-1936) opozycja nauk o przyrodzie i nauk o kulturze odzwierciedla opozycję interesów dzielących naukowców na dwa obozy. W jego klasyfikacji przyrodoznawstwo ma na celu ujawnienie ogólnych praw, historia zajmuje się unikalnymi, jednostkowymi zjawiskami, przyroda jest wolna od wartości, króluje w nich kultura.

Fryderyk Engels (1820-1895) uznał formy ruchu materii w przyrodzie za główne kryterium klasyfikacji nauk.

Ciekawe jest doświadczenie akademika w zakresie klasyfikowania nauk V. I. Vernadsky (1863-1945). W centrum jego przyrodniczych zainteresowań naukowych i filozoficznych znajdował się rozwój holistycznej doktryny o biosferze – żywej materii, która organizuje skorupę ziemską – oraz ewolucja biosfery w noosferę. Dlatego swoją klasyfikację oparł na naturze nauk. W zależności od charakteru badanych obiektów wyróżnił dwa typy nauk: 1) nauki obejmujące całą rzeczywistość – planetę, biosferę, kosmos; 2) nauki związane ze światem. W tym systemie wiedzy szczególne miejsce przyznał logice: obejmuje ona wszystkie dziedziny nauki – zarówno humanistyczne, jak i ścisłe i matematyczne.

sowiecki filozof, chemik, historyk nauki, akademik B.M. Kedrov (1903-1985) zaproponował klasyfikację czterostopniową, obejmującą: a) nauki filozoficzne (dialektyka, logika); b) nauki matematyczne (matematyka, logika, cybernetyka); c) nauki przyrodnicze i techniczne (mechanika, astronomia, fizyka, chemia, geologia, geografia, biochemia, biologia, fizjologia, antropologia); d) nauki społeczne (historia, archeologia, etnografia, geografia ekonomiczna, statystyka itp.).

Jeśli chodzi o klasyfikację nauk, dyskusja toczy się do dziś, przy czym dominuje zasada dalszego ich podziału według podstaw, stosowanej roli itp. Powszechnie przyjmuje się, że najbardziej owocną metodą klasyfikacji jest ta, która opiera się na różnicach w sześciu podstawowych formach materii: subatomowej fizycznej, chemicznej, molekularnej fizycznej, geologicznej, biologicznej i społecznej.

Klasyfikacja nauk ma duże znaczenie dla organizacji działalności badawczej, dydaktycznej, dydaktycznej i bibliotecznej.

3.2. Struktura wiedzy empirycznej i teoretycznej

Problem metod poznania naukowego. Postęp naukowy nie jest możliwy do pomyślenia poza poznawczym rozwojem obiektów o rosnącej złożoności (małe systemy, duże systemy, samorozwijanie się, samouczenie się itp. rodzaje systemów). Proces poznawczy związany jest z metodami poznania. W tym przypadku interesuje nas kompleks zagadnień związanych ze zmianami metod poznania naukowego. Problem ten ma dwa aspekty: 1) doskonalenie istniejących metod w celu dostosowania ich do nowych obiektów; 2) budowa fundamentalnie nowych metod poznania. Historyczny nurt w tym zakresie polega na tym, że filozoficzna i metodologiczna refleksja nad metodami stosowanymi w nauce zawsze pozostawała w tyle za naukową praktyką stosowania metod. Przy tej okazji angielski fizyk i osoba publiczna J. D. Bernal (1901-1971) napisał: „Badanie metody naukowej jest wolniejsze niż rozwój samej nauki. Doktryna najpierw coś znajduje, a następnie zastanawia się nad metodami”. Obecnie ma miejsce ten sam trend: trwają dyskusje na temat problemów modelowania, roli eksperymentu w badaniu mikrokosmosu, istoty podejścia systemowego itp. Przyczyn tego jest wiele. Po pierwsze, wciąż dominują metafizyczne wyobrażenia o epistemologicznym statusie metody naukowej (jej ponadhistoryczny, ponadczasowy charakter), myśli o niezależności metody od społeczno-kulturowych uwarunkowań wiedzy naukowej, a zwłaszcza badanych zjawisk. Po drugie, rozwój problemów metod naukowych nie obejmuje szerokiego kręgu przedstawicieli środowiska naukowego. Tymczasem istnieje wiele zadań badawczych, które wymagają kolektywnego wysiłku (dialektyka prawdy absolutnej i względnej, problem metody obiektywnej, uzasadnienie nowych metod, kryteria metody naukowej, związek między kryteriami naukowymi a kryterium prawdy wiedzy itp.).

W filozofii metodę uważa się za sposób konstruowania i uzasadniania systemu wiedzy, za ścieżkę (właściwą ścieżkę) wiedzy. Ale ta interpretacja bardziej nadaje się do metafor niż do definicji naukowych. Słowa „środki”, „metoda”, „technika”, które wyjaśniają pojęcie metody, również niewiele wyjaśniają jej istotę, utożsamiają bowiem metodę z niezależnym składnikiem aktywności poznawczej (środkami). Najbardziej wstępna jest grupa definicji, które określają metodę jako wiedzę normatywną – zbiór reguł, norm, zasad rządzących działaniem poznawczym (operacjami, procedurami) podmiotu.

Struktura metody zawiera trzy niezależne komponenty (aspekty): 1) komponent pojęciowy – pomysły na temat jednej z możliwych form badanego obiektu; 2) komponent operacyjny – przepisy, normy, reguły, zasady regulujące aktywność poznawczą podmiotu; 3) element logiczny – zasady rejestrowania wyników interakcji przedmiotu ze środkami poznania.

Na metodę ma wpływ kilka czynników: a) historyczne typy racjonalności, odzwierciedlające specyfikę relacji podmiot-przedmiot w praktyce i poznaniu; b) kreatywność, ostrość obserwacji (percepcji), siła wyobraźni, rozwój intuicji; c) podstawy badań naukowych (obejmuje to naukowy obraz świata, ideały i normy działalności naukowej, filozoficzne podstawy nauki); d) szczegółowa wiedza naukowa, odzwierciedlająca stopień naukowości badanego obiektu; e) czynniki subiektywne związane z tzw. problemem rozumienia, z wiedzą osobistą.

Cechy empirycznej metody poznania. Ta metoda poznania jest wyspecjalizowaną formą praktyki, ściśle związaną z eksperymentem (od łac. eksperymentum – próba, doświadczenie). Pojawienie się eksperymentu wpłynęło na rozwój myślenia naukowo-teoretycznego, będącego rodzajem komunikacji realizowanej za pomocą aparatu logiczno-matematycznego. Dzięki temu eksperyment myślowy, odzwierciedlony w pracach G. Galileo, M. Faradaya (1791-1867), J. Maxwella (1831-1879), L., stał się ważną formą myślenia naukowego i teoretycznego w czasach nowożytnych (XVII - XIX w.) Boltzmann (1844–1906), A. Einstein (1879–1955), N. Bohr (1885–1962), W. Heisenberg (1901–1976) itp.

Eksperyment jest testem badanych zjawisk w skonstruowanych i kontrolowanych warunkach. Eksperymentator stara się wyizolować badane zjawisko w czystej postaci, tak aby było jak najmniej przeszkód w uzyskaniu pożądanej informacji. Przygotowanie eksperymentu poprzedzone jest odpowiednimi pracami przygotowawczymi: w razie potrzeby opracowywany jest jego program; produkowane są specjalne przyrządy i sprzęt pomiarowy; teoria jest dopracowana, co stanowi niezbędne narzędzie do eksperymentu. Taki eksperyment najczęściej przeprowadza grupa eksperymentatorów, którzy działają wspólnie, mierząc swoje wysiłki i umiejętności. Naukowo uzasadniony eksperyment zakłada obecność:

- sam eksperymentator lub grupa eksperymentatorów;

- laboratoria (obiektywny świat eksperymentatora, wyznaczony jego granicami przestrzennymi i czasowymi);

- badane przedmioty umieszczone w laboratorium (ciała fizyczne, roztwory chemiczne, rośliny i organizmy żywe, ludzie);

- instrumenty, przedmioty, na które bezpośrednio wpływają badane zjawiska i zaprojektowane do rejestrowania ich specyfiki;

- pomocnicze urządzenia techniczne zaprojektowane w celu wzmocnienia zmysłowych irracjonalnych możliwości człowieka i przyczynienia się do jego zaangażowania (komputery, mikroskopy i teleskopy, różne wzmacniacze).

Eksperyment nie jest jednak odosobnionym wydarzeniem, ale integralną częścią eksploracyjnych programów badawczych; przyczynia się do przyszłości programu naukowego, wyznaczając nowe ścieżki badań i zamykając ślepe uliczki. Jeden eksperyment nie prowadzi do teorii. Należy ją powtarzać, zmieniać w celu zidentyfikowania ewentualnych subiektywnych błędów w organizacji eksperymentu lub niedociągnięć w sprzęcie (przyrządy, narzędzia). Niezwykle ważne jest również uwzględnienie wyników innych eksperymentów, które ujawniają inne punkty, na przykład procesy fizyczne.

Tak więc jedną z cech fizyki klasycznej było to, że miała antropomorficzny charakter w strukturze organizacji (M. Planck). Podział wiedzy fizycznej na obszary zdeterminowany był właściwościami zmysłów człowieka (uzyskany przez niego w procesie ewolucji biologicznej system „urządzeń”). Jeśli chodzi o współczesną fizykę, powszechnie przyjmuje się, że powstała ona wraz z rozwojem takich fundamentalnych teorii, jak teoria względności i mechanika kwantowa. Jednocześnie ogromny wpływ na jej powstawanie miał rozwój wiedzy eksperymentalnej. Tak więc w 1895 r. V.K. Roentgen (1845-1923) odkrył nowy rodzaj promieni; w 1896 r. A. A. Becquerel (1852-1908) odkrył zjawisko elektroniki radiowej, a rok później J.J. Thomson (1856-1940) eksperymentalnie zarejestrował pierwszą cząstkę elektronową. Odkrycia te pociągnęły za sobą dwie konsekwencje: po pierwsze konieczne było stworzenie nowego złożonego sprzętu, a po drugie podział specjalnych działań badawczych na teoretyczną i eksperymentalną.

Eksperyment nie powstał jednak w warunkach próżni teoretycznej: w oderwaniu od teorii zamienia się w rodzaj działalności uświęconej magią za pomocą instrumentów (jak średniowieczna alchemia). Jednak teoria bez eksperymentu jest tylko sformalizowaną grą symboli i kategorii. Niezbędny jest dialog między eksperymentem a teorią, a do tego po pierwsze teoria i eksperyment muszą być w miarę niezależne, a po drugie muszą mieć skuteczny kontakt, odczuwalny za pomocą modeli pośrednich.

Metody Wiedzy Teoretycznej. Teoria (z greckiej teorii – rozważanie, badanie) w szerokim znaczeniu oznacza rodzaj działalności mającej na celu uzyskanie uzasadnionej, obiektywnie prawdziwej wiedzy o rzeczywistości przyrodniczej i społecznej w celu jej rozwoju duchowego i praktycznego. W wąskim znaczeniu teoria jest formą organizacji rozwoju wiedzy naukowej. „Teoria jest siecią: tylko ten, kto ją rzuci, łapie” (Novalis). Teoria pełni w nauce bardzo ważne funkcje: informacyjną, systematyzującą, wyjaśniającą, predykcyjną. Aby odsłonić istotę teorii, stosuje się opozycje binarne: „teoria – praktyka”, „teoria – empiria”, „teoria – eksperyment”, „teoria – opinia” itp. Wiedza teoretyczna ma właściwości uniwersalności i konieczności, uporządkowania, integralności systemowej, dokładności itp.

Tradycyjnie wierzono, że nie ma nic bardziej praktycznego niż dobra teoria. Praktyka teoretyzowania narodziła się w starożytnej Grecji. Myśliciele tamtej epoki byli zgodni co do tego, że kluczem do zrozumienia rzeczywistości jest myśl teoretyczna (episteme), a nie opinia (doxa). Początkową przesłanką filozoficzną wszystkich dalszych teorii nauk przyrodniczych jest doktryna kosmicznej harmonii. Idee Arystotelesa dotyczące wewnętrznej wartości nauk teoretycznych przekształcają się w zalecenia etyczne i ideał. Później mechanika Galileusza - Newtona stała się wzorem (paradygmatem) dla eksperymentalnych i matematycznych nauk przyrodniczych XVIII-XIX wieku.

Teoretyk nie może odnosić się bezpośrednio do natury. Swój wewnętrzny obraz świata tworzy z wrażeń, szczegółów cudzego eksperymentu, spisuje je językiem logiki i matematyki. To jest eksperyment myślowy. Jej produkt to idealny model, fragment rzeczywistości.

Teoria podlega dynamice historycznej. Na przykład w badaniach matematycznych do XX wieku. dominowało tak zwane podejście „standardowe”, zgodnie z którym jako początkową jednostkę analizy (komórki) wybrano teorię i jej związek z doświadczeniem. Później okazało się, że badania empiryczne są misternie splecione z rozwojem teorii i nie można sobie wyobrazić weryfikacji teorii przez fakty bez uwzględnienia dotychczasowego wpływu teorii na kształtowanie się faktów nauki. Innymi słowy, empiryczny i teoretyczny poziom wiedzy różnią się przedmiotami, środkami i metodami badań. W prawdziwym badaniu te dwa poziomy zawsze oddziałują na siebie.

Eksperyment myślowy jako metoda poznania teoretycznego związane z rozwojem technologii logicznej (symbolika i techniki zapisu). Znaki i symbole są istotną częścią metod pojmowania rzeczywistości (fizycznej, chemicznej itp.). Główną funkcją znaków jest to, że są zbudowane: złożone z nich modele znaków na pewnym etapie rozwoju stają się niezależne i niezależne od słowa i działają jako forma narodzin i istnienia myśli, jako środek jej przepływu, środek eksperymentu myślowego. Eksperyment myślowy integruje zatem dwa poziomy odzwierciedlenia rzeczywistości: zmysłowo-obiektywny i pojęciowo-znakowy.

Metoda systemowa (strukturalno-funkcjonalna) - inna metoda wiedzy teoretycznej. System jest obiektem integralnym składającym się z elementów pozostających we wzajemnych relacjach. Relacje między elementami systemu tworzą jego strukturę, dlatego czasami w literaturze pojęcie systemu utożsamia się z pojęciem struktury. Tradycje badań systemowych rozwinęły się w drugiej połowie XX wieku. Etiologicznie pojęcie systemu oznacza złożoną całość, zespół. Pojęcie systemu, które zakłada rozpatrywanie obiektu z punktu widzenia całości, zawiera ideę pewnego unifikacji dowolnych elementów oraz relacji między tymi elementami. Teorię systemu ujawniają pojęcia „integralność”, „element”, „struktura”, „połączenia” itp. Koncepcja badań systemowych została wykorzystana w pracach G. Spencera (1820-1903), E. Durkheima (1858-1917), C. Lévi-Straussa (1908-2000), M. Foucaulta (1926-1984), J. Lacan (1901-1981), R. K. Merton (1910-2001), T. Parsons (1902-1979) itd.

Centralne miejsce w logice myślenia systemowego zajmują kategorie części i całości, zasada podziału całości na części (analiza) i syntezy części w całość. Analiza dzieli, synteza integruje, ale to wciąż za mało, aby odsłonić istotę poznawalnych zjawisk. Współczesne myślenie naukowe jest zmuszone do osobnego opisu i badania niektórych podstawowych aspektów ruchu materialnego: stabilności i zmienności, struktury i zmiany, bytu i powstawania, funkcjonowania i rozwoju. To tutaj skupiają się główne trudności logiczne i matematyczne oraz kolizje procesu poznawczego. Podstawowymi pojęciami w tym przypadku są „system”, „funkcje”, „struktura”, „autonomia” itp.

Wiele elementów staje się systemem, jeśli ich wzajemne powiązanie wyraża się w pojawieniu się właściwości, które nie są właściwe każdemu elementowi z osobna, oraz funkcji, których każdy element z osobna nie może pełnić. Komponentami mogą być powiązania podmiotowe, relacje, stany, poziomy rozwoju itp. (oryginalne jednostki tworzące system). Im bardziej zróżnicowane są relacje między elementami, tym układ jest bardziej organiczny (nieliniowy). Odmienną naturę i różne stopnie powiązania pomiędzy elementami wyraża koncepcja „gęstości”. Mówimy zatem o podejściu systemowo-komponentowym. Podejście to powinno rozwinąć się w podejście systemowo-strukturalne, a drugie w podejście strukturalno-funkcjonalne, tj. system na poziomie teoretycznym należy rozpatrywać jako zespół relacji funkcjonowania i rozwoju. Pod tym względem istnieją dwa niezwykle abstrakcyjne modele: zbiór superdatywny (całość całkowicie określa właściwości części) i zbiór sumatywny (składniki mają swoją istotę i nie pełnią ogólnych funkcji systemu). Jednak w rzeczywistości nie ma ani ostatecznej elementarności, ani ostatecznej integralności.

Struktura rozwoju to zbiór praw zmian w powiązanych stanach. W każdym obiekcie rozróżnia się samorozwój i prawdziwy rozwój (ewolucję). Żaden system nie rozwija się w odosobnieniu, nie tylko dzięki wymianie informacji z otaczającą energią (która odbywa się poprzez komponenty), ale także dzięki wzajemnemu oddziaływaniu systemów. Podstawa procesu rozwoju tj. samorozwoju systemów (logicznego systemu rzeczywistości), eksploruje analizę strukturalno-genetyczną. Tutaj badacz odwraca uwagę od wpływów zewnętrznych i pokazuje bezpośredni mechanizm rozwoju systemu, którego źródłem są jego wewnętrzne sprzeczności.

Konieczne jest rozróżnienie koncepcji rozwoju absolutnego i względnego (samorozwoju). Można mówić o absolutności rozwoju w stosunku do dużych systemów, ponieważ nie mają one nic zewnętrznego. Mówią o względności rozwoju w stosunku do realnie istniejących systemów, ponieważ w stosunku do nich istnieją inne systemy zewnętrzne.

Wyróżnia się następujące etapy rozwoju systemu.

1. Prehistoria nowej integralności: istnieje nagromadzenie „materiału budowlanego w celu pojawienia się innej jakości („Nie ma jeszcze rzeczy, gdy się zaczyna”, G. W. F. Hegel).

2. Etap formacji (początek nowego obiektu, narząd, system). Elementy systemu zostały dostosowane do nowej struktury; te składniki, których nie można przekształcić i podporządkować nowemu, obumierają i są eliminowane; funkcje systemu są skoordynowane.

3. System działa na zasadzie własnej: funkcje elementów i struktury są skoordynowane; możliwości systemu są zmaksymalizowane.

Należy wziąć pod uwagę, że metody systemowo-strukturalne i systemowo-genetyczne mają charakter abstrakcyjny. Abstrahują od bezpośrednio „materialnych” cech bytu i reprodukują je poprzez relacje i funkcje. Zatem energię traktuje się jako nośnik informacji, a materialne podłoże jako jej kod. Pozostaje jednak problem odwrócenia uwagi od podłoża. Na przykład, dodając prędkości, odwracamy uwagę od różnic między ptakiem, samolotem, osobą i samochodem. Rodzi to pogląd, że nauka w ogóle nie zajmuje się substratami. W szczególności strukturalizm wysuwa ideę antysubstancjalizmu: Wszechświat nie składa się z przedmiotów ani nawet „materii”, ale jedynie z funkcji; obiekty są punktami przecięcia funkcji.

Metodologia systemowo-strukturalna jest zjawiskiem czasu. Czy to jest to konieczne. Jednak skupianie się wyłącznie na funkcjonalnym odtwarzaniu rzeczywistości, bez uwzględnienia samoistnej wartości jej składników, specyfiki ludzkiej percepcji i ludzkiej miary, prowadzi do absolutyzacji roli nauki i scjentyzmu. Zaprzeczenie osoby jest zawsze poprzedzone zaprzeczeniem rzeczy. Na przykład z funkcjonalnego punktu widzenia życie może powstać zarówno na bazie białka, jak i krzemu lub innej podstawy. Znamy jednak tylko ziemskie życie biologiczne – naszą wersję życia z węglem wejściowym. Albo inny przykład: robot elektroniczno-mechaniczny na bazie krzemu będzie zachowywał się jak człowiek. Czy należy to tak traktować? Jednocześnie, jeśli pracownik regularnie wykonuje swoją funkcję i osiąga zyski, wówczas pracodawca może w ogóle nie być zainteresowany jego myślami, uczuciami, jego „duchowym podłożem”: „Kim jest ten żołnierz, jaki tamten” ( B.Brechta).

3.3. Metodologia w strukturze wiedzy naukowej

Metodologia jako doktryna metody konstruowania ludzkiej działalności jest tradycyjnie ważna w filozofii nauki. Ogranicza ją pewien zakres wymagań, zasad, postaw, standardów, które wykształciły się w doświadczeniu ludzkości. Istnieje wzajemna zależność między metodologią a wiedzą. Metodologia może być zatem rozumiana jako zespół środków organizacji (zasad, podejść, metod, metod, technik) działań poznawczych i przedmiotowo-praktycznych.

Dynamika procesów poznawczych ma istotny wpływ na doskonalenie nie tylko metod poznania, ale także filozofii, która z kolei pełni funkcję metodologiczną w stosunku do poszczególnych nauk. Określa normy i zasady badań dla dyscyplin naukowych, a wraz z wyjaśnieniem natury problemów i paradoksów wymagających przetworzenia aparatu poznawczego poszczególnych nauk, doprecyzowania warunków poznania, tworzy „napięcie metodologiczne”, które jest rozwiązany biorąc pod uwagę codzienne życie. Sytuacja ta wskazuje na niekompletność metodologii, potrzebę jej stałej korelacji „po” czasie, zmieniających się orientacji życiowych ludzi.

Metodologia nauki łączy w sobie zestaw form gromadzenia i przetwarzania informacji naukowej podlegającej przetwarzaniu empirycznemu, teoretycznemu, metateoretycznemu, w tym opisu, uogólniania, klasyfikacji, wyjaśniania, przewidywania, rozumienia, idealizacji, dowodu, interpretacji itp. Oprócz tego, możliwe jest zastosowanie określonych naukowych metod poznania, mających zastosowanie do pewnych dziedzin wiedzy naukowej.

Klasyfikacja metod nauk według charakteru powstałego produktu (wiedzy) przewiduje trzy główne klasy:

1) metody poznania empirycznego: eksperyment, opis, abstrakcja, indukcja, ekstrapolacja itp.;

2) metody wiedzy teoretycznej: idealizacja, eksperyment myślowy, modelowanie matematyczne, logiczna organizacja wiedzy, dowód, interpretacja itp.;

3) metody poznania metateoretycznego: analiza podstaw teorii naukowych, filozoficzna interpretacja treści i metod nauki, ocena społecznego i praktycznego znaczenia treści teorii naukowych itp.

Wśród różnych koncepcji filozofii nauki są „liderzy” i „outsiderzy” (VA Kanke). Filozofia analityczna jest więc uważana za bardziej ugruntowaną niż np. filozofia postmodernistyczna. Uznanie spójności nauk filozoficznych jest jednym ze współczesnych problemów metodologii. „Teoria jest niespójna, jeśli zawiera zarówno zdanie A, jak i jego negację nie-A. Jeśli w teorii pojawiają się sprzeczności, starają się ich pozbyć. W związku z tym wybierane są nowe aksjomaty. System aksjomatyczny teoria jest zupełna, jeśli wszystkie jej zdania dają się wyprowadzić (samych aksjomatów nie trzeba wyprowadzać). Jeśli jednak w składzie teorii znajdują się zdania, których nie można wyprowadzić z jej aparatu, to należy o tym zdecydować” [6] . I dalej: „Praktyka badań naukowych pokazuje, że nie należy spieszyć się z wysyłaniem teorii na „odpady”. Zachowują swoją „zdolność do pracy” przy częściowej zależności aksjomatów od siebie… jeśli nie niszczą systemu teoretycznego”[7].

Temat 4. Dynamika nauki i proces generowania nowej wiedzy

4.1. Czynniki społeczno-kulturowe w rozwoju nauki

Zmienność jest uniwersalną właściwością wszystkich formacji materialnych i duchowych. Rozwój jako konsekwencja zmienności tkwiącej we wszystkich zjawiskach jest spowodowany czynnikami środowiska wewnętrznego i zewnętrznego. W potocznym znaczeniu rozwój związany jest z koncepcją postępu. Nauka jako szczególna usystematyzowana gałąź wiedzy podlega tej prawidłowości. Zmiany następują, gdy środowisko intelektualne pozwala na „przetrwanie” tych populacji, które są do niego najlepiej przystosowane. Najważniejsze zmiany polegają na zastąpieniu samych matryc rozumienia, czyli najbardziej podstawowych standardów teoretycznych.

Prawa nauki mają tendencję do odpowiedniego odzwierciedlania praw natury. Jednak, jak uznali Johannes Kepler (1571-1630) i Mikołaj Kopernik (1473-1543), prawa nauki należy rozumieć jedynie jako hipotezy. W dziele „Wiedza i złudzenie” austriacki fizyk i filozof Ernst Mach (1838-1916) starali się udowodnić, że świadomość podlega zasadzie ekonomii myślenia, a nauka powstaje poprzez przystosowanie idei do określonej sfery doświadczenia. Wszelka wiedza jest doświadczeniem psychologicznym, które jest dla nas biologicznie przydatne. Według naukowca źródłem problemu jest rozbieżność myśli i faktów lub niezgodność myśli. Mach widział wyjście z tej trudności w zastosowaniu hipotezy, co skłoniło do nowych obserwacji, które mogły ją potwierdzić lub obalić. Zatem znaczenie hipotezy polega na poszerzeniu doświadczenia: hipoteza to „poprawa instynktownego myślenia”.

Rozwój nauki wynika z dwóch grup czynników. Pierwsza grupa to wewnątrznaukowe czynniki intelektualne, które determinują pojawienie się innowacji teoretycznych. Druga grupa to czynniki pozanaukowe (społeczne, ekonomiczne), które determinują konsolidację lub odpychanie jednego lub drugiego wariantu pojęciowego.

Często okazuje się, że wiodąca rola w rozwoju nauki należy do elity naukowej, która jest nosicielem racjonalności naukowej. Zmieniający się charakter nauki wyraża się w zmieniających się warunkach działania naukowców, dlatego tak ważna jest rola liderów i autorytetów w środowisku naukowym. Kolejne pokolenia naukowców ucieleśniają historyczną zmianę w procedurach wyjaśniania naukowego. Treść nauki objawia się zatem w formie przekazania w procesie uczenia się zespołu idei intelektualnych następnemu pokoleniu. Rozwój wielu dziedzin nauki związany jest z działalnością szkół naukowych. W szczególności kształtowanie filozofii odbywało się w ramach specyficznych, odrębnych szkół filozoficznych, które powstały w okresie starożytności. Często szkoły nosiły imię wybitnego naukowca - założyciela szkoły (na przykład szkoła Rutherford, szkoła Bohr, szkoła Sechenov itp.). Szkoły naukowe zawsze pełniły funkcję przekazywania wiedzy.

Wśród czynników społeczno-kulturowych rozwoju nauki ważną rolę odgrywa obecność potencjału naukowego społeczeństwa – jego realnych możliwości, zasobów wyznaczanych suwerennością odkryć naukowych (które zwykle uwzględnia ekonomia nauki). . Jednocześnie ilościowe wskaźniki potencjału naukowego należy rozpatrywać łącznie z jego wskaźnikami jakościowymi.

Problem potencjału naukowego powstaje w wyniku samowiedzy nauki, jej świadomości jej społecznego znaczenia, przesłanek i możliwości jej rozwoju, co z kolei wiąże się z rozwojem samego społeczeństwa. Ten ostatni, zainteresowany praktycznym zastosowaniem nauki, interesuje również to, że nauka ma potencjał do jej dalszego rozwoju i zastosowania w praktyce społecznej. Dialektyka relacji między społeczeństwem a nauką jest taka, że ​​realizacja potencjału naukowego prowadzi do wzrostu poziomu rozwoju gospodarczego, kultury i miary możliwości tego społeczeństwa w znajomości praw przyrody, rozwoju społeczeństwa i człowieka.

4.2. Kształtowanie wiedzy teoretycznej i jej uzasadnienie

Kształtowanie wiedzy teoretycznej w filozofii nauki jest jednym z ważnych aspektów jej rozwoju. Oczywiście nauka nie może istnieć bez współistnienia wiedzy faktograficznej i teoretycznej, indywidualnej i ogólnej, percepcyjnej i poznawczej (wzajemne towarzyszenie uczuć i myśli), indywidualnych i uniwersalnych stwierdzeń. Korelacja tych pojęć przejawia się na poziomie zdarzenia-codziennego, percepcyjno-poznawczego, logiczno-lingwistycznego.

Klasyfikacja odgrywa istotną rolę w kształtowaniu wiedzy naukowej: ułatwia przejście nauki z etapu empirycznego gromadzenia wiedzy do poziomu syntezy teoretycznej. Oparta na podstawach naukowych klasyfikacja to nie tylko szczegółowy obraz stanu nauki, ale także jej fragmenty; pozwala na dokonywanie rozsądnych prognoz dotyczących wciąż nieznanych faktów i wzorców.

Fundamenty nauki obejmują fundamentalne zasady, aparat pojęciowy, ideały i standardy badań naukowych. Dojrzałość danej nauki można ocenić po jej zgodności z naukowym obrazem świata. Według współczesnej klasyfikacji nauki dzielą się z jednej strony na przyrodnicze, techniczne i społeczne, z drugiej na nauki podstawowe i stosowane, teoretyczne i eksperymentalne. Kiedy ludzie mówią o „wielkiej nauce”, o „nowoczesnej nauce”, podkreślają jej hipotetyczny charakter. Współczesna nauka rozwija się z uwzględnieniem głębokiej specjalizacji, a także na styku obszarów interdyscyplinarnych, co wskazuje na jej integrację. Wspólne dla wszystkich nauk są ich integrujące właściwości: a) ideały i normy poznania, charakterystyczne dla danej epoki i skonkretyzowane w odniesieniu do specyfiki badanego obszaru; b) naukowy obraz świata; c) podstawy filozoficzne. Własności integrujące implikują zatem funkcjonowanie i rozwój nauki jako całości, a także jej poszczególnych gałęzi, na wspólnych zasadach aksjologicznych (wartościowych) i metodologicznych.

Podstawowe modele teoretyczne i prawa. W procesie poznania pewne znaczenie ma kształtowanie się pierwotnych modeli teoretycznych i praw. Pojęcie „model” (od łacińskiego modułu – miara, próbka) oznacza normę, próbkę (standard, standard). W logice i metodologii nauki przez model rozumie się analogię, strukturę, system znaków, który służy do określenia rzeczywistości społecznej i przyrodniczej generowanej przez kulturę ludzką – pierwotną, poszerzającą wiedzę o oryginale, konstruującą oryginał i przekształcającą. To. Z logicznego punktu widzenia rozkład taki opiera się na relacjach izomorfizmu i homomorfizmu istniejących pomiędzy modelem oraz na tym, że za jego pomocą modelowany jest izomorficzny lub homomorficzny obraz określonego obiektu. Relacje te są relacjami równości. Model może uzyskać status prawa – koniecznej, istotnej, trwałej, powtarzalnej relacji pomiędzy zjawiskami. Prawo wyraża związek między przedmiotami, elementami składowymi danego przedmiotu, między właściwościami rzeczy, a także między właściwościami wewnątrz rzeczy. Istnieją prawa funkcjonowania, prawa rozwoju. Mają one charakter obiektywny, charakteryzują się wzorcami statystycznymi i dynamicznymi. Działanie praw zależy od warunków działania: w przyrodzie działają one spontanicznie, w praktyce społecznej możliwy jest regulujący wpływ człowieka.

Analogia. W badaniach teoretycznych pewną rolę odgrywa analogia (z greckiego analogia - zgodność, podobieństwo). Rozważając obiekt (model), jego właściwości są przenoszone na inny, mniej zbadany lub mniej dostępny obiekt. Wnioski uzyskane na drodze analogii mają z reguły jedynie charakter prawdopodobny; są jednym ze źródeł hipotez naukowych, rozumowań indukcyjnych i odgrywają ważną rolę w odkryciach naukowych. Termin „analogia” rozumiany jest także w znaczeniu „analogii istnienia”, „analogii bytu” (łac. analogia entis). W katolicyzmie jest to jedna z zasad scholastyki, która uzasadnia możliwość poznania Boga z istnienia stworzonego przez niego świata. Analogia odegrała ogromną rolę w metafizyce Arystotelesa, który interpretował ją jako formę rządów jednej zasady w pojedynczych ciałach. Znaczenie analogii można zrozumieć, odwołując się do rozumowania średniowiecznych myślicieli Augustyna Błogosławionego i Tomasza z Akwinu. Augustyn pisał o podobieństwie Stwórcy do jego stworzenia, a Tomasz z Akwinu rozważał „analogie bytów”, które świadczą o nierównym i niejednoznacznym podziale doskonałości we wszechświecie.

Współcześni badacze wyróżniają następujące rodzaje analogii: 1) analogia nierówności, gdy różne przedmioty mają tę samą nazwę (ciało niebieskie i ciało ziemskie); 2) analogia proporcjonalności (zdrowie fizyczne - zdrowie psychiczne); 3) analogia atrybucji, gdy te same relacje lub cechy są przypisywane różnym obiektom (zdrowy styl życia, zdrowe ciało, zdrowe społeczeństwo itp.).

Według badaczy analogia między ruchem porzuconego ciała a ruchem ciał niebieskich odegrała ważną rolę w powstaniu mechaniki klasycznej. Analogię między obiektami geometrycznymi i algebraicznymi zrealizował Kartezjusz w geometrii analitycznej. Analogię pracy selekcyjnej w pasterstwie wykorzystał Darwin w swojej teorii doboru naturalnego. Analogia między zjawiskami świetlnymi, elektrycznymi i magnetycznymi okazała się owocna dla teorii pola elektromagnetycznego Maxwella[8]. Analogie wykorzystywane są we współczesnej urbanistyce, architekturze, farmakologii, medycynie, logice, językoznawstwie itp.

W ten sposób rozumowanie przez analogię pozwala nam porównać nowe pojedyncze zjawisko z innym, już znanym zjawiskiem. Z pewnym prawdopodobieństwem analogia pozwala poszerzyć wiedzę poprzez włączenie w ich zakres nowych obszarów tematycznych. Hegel nazwał analogię „instynktem rozumu”.

Często wynalazca (autor) koncepcji, terminy powstają przez intuicję, przez przypadek. Aby potwierdzić poprawność lub niepoprawność proponowanych pojęć można posłużyć się pojęciem logika i historyka wiedzy Carl Gustav Hempel (1905-1997). Oto sedno jego koncepcji.

1. Terminy teoretyczne pełnią lub nie spełniają swojej funkcji.

2. Jeżeli terminy teoretyczne nie spełniają swoich funkcji, to nie są potrzebne.

3. Jeżeli terminy teoretyczne spełniają swoje funkcje, to ustanawiają związki między obserwowanymi zjawiskami.

4. Połączenia te można nawiązać bez terminów teoretycznych.

5. Jeżeli powiązania empiryczne można ustalić nawet bez terminów teoretycznych, to terminy teoretyczne nie są potrzebne.

6. W konsekwencji terminy teoretyczne nie są potrzebne zarówno wtedy, gdy pełnią swoje funkcje, jak i gdy tych funkcji nie spełniają.

W 1970 roku Hempel, posługując się nowoczesnymi logicznymi i matematycznymi środkami badawczymi, po raz pierwszy wykazał niepoprawność definicji wiarygodności Poppera. Przeciwko sceptycyzmowi Karl Popper (1902-1994), wyrażone w jego maksymie „Nie wiemy – możemy się tylko domyślać”, znaleziono niezaprzeczalne kontrargumenty. Hipoteza – specyficzna forma pojmowania prawdy obiektywnej – staje się rzetelną teorią, gdy z jej podstawowych założeń wyciągnie się wnioski umożliwiające praktyczną weryfikację. Czy negatywne wyniki poszczególnych eksperymentów stanowią ostateczny „werdykt” tej hipotezy? Hempel uważał, że nie, ponieważ:

a) możliwa jest błędna interpretacja tych eksperymentów;

b) możliwe jest potwierdzenie innych efektów przewidywanych przez tę hipotezę; c) sama hipoteza pozwala na jej dalszy rozwój i doskonalenie.

Związek między logiką odkrycia a logiką usprawiedliwienia. W formie teoria ta jawi się jako system spójnych, logicznie powiązanych stwierdzeń. Teorie posługują się określonym aparatem kategorycznym, systemem zasad i praw. Rozwinięta teoria jest otwarta na opis, interpretację i wyjaśnianie nowych faktów, a także gotowa jest do włączenia dodatkowych konstrukcji metateoretycznych: hipotetyczno-dedukcyjnych, opisowych, indukcyjno-dedukcyjnych, sformalizowanych za pomocą złożonego aparatu matematycznego. Thomas Kuhn (1922-1996), wymieniając najważniejsze cechy teorii, przekonywali, że powinna ona być dokładna, spójna, szeroko stosowana, prosta, owocna, mieć nowość itp. Jednak każde z tych kryteriów z osobna nie ma samowystarczalności. Z tego faktu Popper wnioskuje, że każda teoria jest w zasadzie falsyfikowalna i podlega procedurze obalania. W oparciu o te argumenty Popper wysuwa zasadę fallibilizmu. Konkluduje, że nie ma błędu tylko w stwierdzeniu, że „wszystkie teorie są błędne”.

Łatwo zauważyć, że w rozwoju pojęć naukowych wielokrotnie zapośredniczają językowe definicje pojęciowe. W swoich badaniach nad tym zagadnieniem rosyjski naukowiec T.G. Leshkevich pisze: „Język nie zawsze ma odpowiednie środki odtwarzania alternatywnego doświadczenia; pewnych fragmentów symbolicznych może brakować w podstawowym słownictwie języka. ma fundamentalne znaczenie dla badania specyfiki języka jako skutecznego środka reprezentacji, kodowania podstawowych informacji, relacji mechanizmów językowych i pozajęzykowych w konstruowaniu teorii”[9].

4.3. Klasyczne, nieklasyczne, post-nieklasyczne teorie

Teorie klasyczne, nieklasyczne i postnieklasyczne charakteryzują etapy i typy filozofowania. Punktem wyjścia w tym cyklu jest pojęcie „klasyczne”, gdyż kojarzone jest z wyobrażeniami o wzorcach filozofowania, imionach, osobowościach i odpowiadających im tekstach, a także wzorach, jakie filozofia ofiarowuje ludziom jako wskazówki dotyczące ich życia i zajęcia. Z historycznego punktu widzenia każda epoka prezentuje swoje własne wzorce filozoficzne, które do dziś zachowują znaczenie kulturowe. W tym sensie powinniśmy mówić o klasykach filozoficznych starożytności, średniowiecza, renesansu itp. W węższym ujęciu klasykę filozoficzną można ograniczyć do XVII-XIX w., a głównie do przestrzeni regionu europejskiego, gdyż to właśnie w tym chronotopie idea klasycyzmu uzyskała szczegółowe uzasadnienie i rozwinięcie. To zawężenie „pola” klasyków filozoficznych sprawia, że ​​porównanie klasyków, nieklasyków i postnieklasyków staje się jaśniejsze. Zakończenie etapu klasycznego przypada na połowę XIX wieku, etap nieklasyczny – od Marksa do Husserla – trwa do połowy XX wieku, etap postnieklasyczny kształtuje się w drugiej połowie XX wieku. XX wiek. z perspektywą kontynuacji w następnym stuleciu. Na tym etapie „wąskie” znaczenie klasyki zostaje praktycznie utracone, istotne bowiem okazuje się włączenie jej w nowe konteksty metodologiczne, kulturowe i praktyczne.

Klasyczny typ filozofowania zakłada obecność systemu wzorców, które określają współmierność i rozumienie głównych aspektów i sfer bytu: przyrody, społeczeństwa, życia ludzi, ich działań, wiedzy, myślenia. Zakłada się również odpowiedni sposób realizacji próbek: ich dedukcję, dystrybucję, utrwalanie w określonych formach duchowej, teoretycznej, praktycznej działalności ludzi. Na przykład uogólniona idea osoby zawarta jest w konkretnych opisach jednostek ludzkich, wyjaśnieniach ich działań, ocenach ich sytuacji. W tym modelu forma opisu i wyjaśniania jest z góry ustalona, ​​a kiedy wchodzi w kontakt z „materiałem ludzkim”, wyodrębnia w nim pewne cechy i je mierzy. W związku z tym pewne cechy ludzi i rzeczy nie są przez modela brane pod uwagę, pozostają w „cieniu” lub są przez niego po prostu odcinane. Ten aspekt pracy uogólnionej idei osoby jako modelu metodologicznego wskazuje na jego związek z kanonami tradycyjnego zdrowego rozsądku. Podobnie jak tradycyjne wyobrażenia o naturze człowieka, może być ona przekazywana jako istniejący schemat doświadczenia z pokolenia na pokolenie, przemieszczać się w czasie społecznym, utrzymywać jego ciągłość, służyć jako środek reprodukcji i organizacji więzi społecznych. Ale w jednym zasadniczym punkcie różni się od tradycyjnych schematów: nie jest „przywiązana” do określonej strefy przestrzeni społecznej, nie jest już kojarzona z osobliwościami i ograniczeniami charakteru osiedlowego. Tutaj ujawnia się historyczne tło jego logicznego „wglądu” (i pozornej uniwersalności). Przez sam proces historii zostaje oderwany od gruntu betonowego; zmiany religijne, prawne, ekonomiczne, technologiczne, naukowe, wyabstrahowane z etycznych, społecznych, kulturowych cech wspólnot ludzkich.

Ta cecha klasycznego wzorca jest wzmocniona przez opieranie się (które często jest jedynie odniesieniem) na uzasadnieniach naukowych. Filozofia klasyczna wykorzystuje autorytet i argumenty nauki, aby nadać swoim modelom szczególne znaczenie społeczne. Podobieństwo tych modeli z tradycyjnymi kanonami i normami naukowymi wskazuje, że „roszczą się” one właśnie o rolę, jaką odgrywały tradycyjne kanony zachowania i myślenia. Jednak wypieranie tradycyjnych schematów i zajmowanie ich funkcjonalnej „komórki” przez próbki jest realizowane przez filozofię opartą na standardach naukowych oraz przez porównywanie próbek filozoficznych i standardów naukowych jako narzędzi ludzkiej działalności.

Związek filozofii klasycznej z nauką to przede wszystkim połączenie z logiką, która początkowo rozwijała się w ramach samej filozofii, a następnie funkcjonowała w ramach poszczególnych nauk, głównie przyrodniczych, gdzie dostarczała klasyfikacji, uogólnień, redukcji, porównań i procedury pomiarowe. Co do samego uogólnienia, to w filozofii klasycznej powstały bardzo wyrafinowane, obiecujące metodologicznie koncepcje rozmieszczenia pojęć ogólnych w określonych cechach bytu. Wystarczy przypomnieć stanowisko Hegla dotyczące pojedynczości jako prawdziwej realizacji uniwersalizmu, jego rozumowanie o indywidualności jako duchowym centrum życia plemiennego i jego żywym konkretnym wcieleniu. Zauważmy, że Hegel sformułował te twierdzenia na „marginesach” swoich głównych dzieł (w szczególności w tak wyraźnie niemetodologicznym dziele jak „Estetyka”). Klasyka wschodnia nie dostarcza przykładów tak ostrego zerwania filozofii z formami codziennego doświadczenia (a co za tym idzie wzajemnego oddziaływania filozofii i nauki), jak filozofia europejska XIX wieku. To ostatnie jest szczególnie ważne dla zrozumienia gruntu, na którym wyrasta filozofia postklasyczna.

Wpływ nauki na filozofię XIX wieku, na jej modele i sposoby wykorzystania, został wprost i domyślnie skorygowany przez rozwój gospodarki, przemysłu i techniki. Szczególne znaczenie społeczne przypisywano schematom działania i myślenia, które służyły rozrastającej się produkcji, masowej produkcji rzeczy pozbawionych cech indywidualnych. Stabilność tych schematów nadał odpowiedni wizerunek osoby, który jest dość zgodny z próbkami dostępnymi w klasykach filozoficznych. Abstrakcyjność modelu stymulowała rozważanie ludzkich podmiotów, ich cech i relacji poprzez sumowanie, kalkulację i podział ich sił. Co więcej, siły te w istocie okazały się oderwane od ich zindywidualizowanych nośników.

W uogólnionym obrazie osoby zatracono nie tylko indywidualne cechy ludzi, ale także rzeczywisty proces ich istnienia, dynamikę ich zmiany siebie, samorealizacji, samorozwoju. Uogólniony obraz osoby jako miary aktywności ludzi w charakterystyce interakcji międzyludzkich ujawnił znaczenie normy. W istocie to właśnie w tej funkcji przyłączył się do prawnych i moralnych regulatorów stosunków społecznych. Jego abstrahowanie od cech indywidualnych i życia procesualnego stworzyło wiarygodne warunki do pomiaru zachowań ludzi jako jednostek abstrakcyjnych. Abstrakcyjność wzorca umożliwiła wykorzystanie go w ocenie różnych ludzkich sytuacji: bez względu na to, jak daleko ludzie posuwają się w swoich działaniach i błędach, wzorzec (zestaw wzorców) już istniał, aby scharakteryzować i ocenić ich działania.

Uogólniony obraz człowieka działał w filozofii i poza nią w wyraźnej lub pośredniej koordynacji z uogólnionymi obrazami natury, historii, kultury, działalności, nauki, prawa, polityki itp. Wszystkie te koncepcje (i narzędzia działania) ukształtowane zostały według tego samego typu. Ułożyły zatem spójny klasyczny obraz i wdrożyły odpowiadającą mu metodologię, a raczej były jasnymi i raczej sztywnymi środkami jego realizacji. W tym sensie przykłady klasyfikacji filozoficznej były w pełni zgodne z kanonami estetyki klasycznej; były one dość jasne i trwałe w odniesieniu do indywidualnej wyjątkowości i dynamiki zjawisk życia przyrodniczego i społecznego. Ich stabilność przypomina kolumnadę klasycznej świątyni, wyznaczając niezmienny porządek przepływu przestrzeni, zamieniając zwykły spacer ludzi w akcję kulturalną, rytuał lub jego imitację; krnąbrny i asertywny czas nabrał w ten sposób miary kanonicznej.

Pozornie naturalna stabilność modeli klasycznych (ich totalność) stała się jednym z ważnych warunków ich upadku, ponieważ to właśnie niemożność wykorzystania klasycznego obrazu świata w pracy z osobliwymi i dynamicznymi układami kazała wątpić w jego wiarygodność i następnie zdradź go krytyce i rewizji. Rozpoczęty w drugiej połowie XIX wieku. Kryzys klasycznych próbek ujawnił także inną ważną, wcześniej ukrytą cechę: wraz z ujawnieniem się ich metodologicznych ograniczeń ujawniła się ich rola w reprodukcji form kulturowych, przekazywaniu ludzkiego doświadczenia w przestrzeni i czasie. Upadek form klasycznych był nie tylko kryzysem wiedzy o naturze i człowieku, zagrażał istnieniu fundamentalnych struktur przechowywania i przekazywania ludzkiego doświadczenia. Modele klasyczne ujawniły ich znaczenie jako formy reprodukcji społecznej i ich niezdolność do dalszej realizacji tego celu. Według amerykańskiego socjologa, dziennikarza, profesora uniwersytetów Columbia i Harvard, jednego z autorów koncepcji „deideologizacji” i „społeczeństwa postindustrialnego” Daniel Bell (s. 1919), „nowa teoria zmienia system aksjomatów i ustanawia nowe połączenia na skrzyżowaniach, co zmienia topologię. Kiedy dwie nauki zostaną połączone w jedną, nowa sieć jest bogatsza i jaśniejsza niż tylko suma dwóch części” [10] .

Filozofowanie nieklasyczne nie jest kierunkiem, ale rodzajem myślenia i działania związanym z reakcją na wzorce klasyczne, z kryzysem klasyki i jego przezwyciężeniem. Jest to reakcja na dysproporcję abstrakcyjnego podmiotu klasyków do konkretnych jednostek, abstrakcyjnego przedmiotu – ewolucji przyrody, jej metodologii – poszukiwania zasobów intensywnej działalności we wszystkich obszarach praktyki. Sytuacja, którą zwykle nazywa się „nieklasyczną”, nie jest początkowo ujawniana w filozofii. Ujawnia się na pograniczu filozofii i nauki, gdy klasyczne teorie wiedzy spotykają się z obiektami, które nie „pasują” do utartych form poznawczych. Pod koniec XIX wieku. obiekty takie postrzegane są jako wyjątki od reguł, egzotyczni przedstawiciele mikro- i megaświata. Liczba takich obiektów jednak stale rośnie i trzeba już pogodzić się z faktem, że do niedawna „prosta i przejrzysta natura” (którą należy „naśladować”) otacza człowieka zawiłością nieobserwowalnych i wyraźnie niemierzalnych stałe obiekty. Co więcej, w połowie XX w. Okazuje się, że społeczeństwo, system życia ludzi wraz z jego warunkami, środkami, produktami, również należy do świata przedmiotów nieklasycznych i nie można go sprowadzić do rzeczy, do narzędzi, mechanizmów, maszyn pracujących z rzeczami. Klasyczne skupienie się na stabilnych wzorcach przyrodniczych i psychicznych oraz podążająca za nim pozytywistyczna orientacja na „logikę rzeczy” w tym zakresie okazują się nie do utrzymania.

Nieklasyczna sytuacja wyrosła z peryferii, tj. od granic nakreślonych przez problemy nauki i praktyki, do centrum, do ogniska światopoglądu i form metodologicznych, skoncentrowanych wokół klasycznych modeli filozoficznych. Stabilność wzorców wydawała się ostatnim bastionem kultury, a więc nauki i moralności, iw ogóle normalnie funkcjonującej społeczności. Tradycja mocno łączyła istnienie próbek z ich nienaruszalnością i niezmiennością, więc zagrożenie ich stanu stacjonarnego prawie zawsze było postrzegane jako zagrożenie ich zniszczenia. Ale to właśnie reżim stacjonarnego istnienia próbek dobiegł końca. I nie chodzi tu nawet o to, że poddawano je coraz bardziej zmasowanej krytyce z różnych stanowisk i punktów widzenia, ale o to, że opanowanie sytuacji nieklasycznej stało się możliwe tylko wtedy, gdy zmienił się tryb „pracy” sampli. Jednak pod presją potężnej masy krytycznej warunki te zostały wyraźnie uproszczone i zinterpretowane w kategoriach odrzucenia próbek jako norm metodologicznych i światopoglądowych.

Modele klasyczne, tracąc swoją uprzywilejowaną pozycję, przeszły na pozycję zwykłych środków ludzkiej działalności; zostali oddani do pełnej dyspozycji swoich indywidualnych podmiotów, których zachowanie wcześniej regulowali i kierowali. Uogólniony obraz osoby, wcześniej postawiony ponad konkretną egzystencją ludzi, stał się jedną z metod metodologicznych rozwiązywania pewnych szczególnych problemów poznania i praktyki. Teraz odrębne podmioty, samodzielnie określając orientacje zachowań, modelując różne interakcje, dostosowywały różne schematy do realizacji swoich indywidualnych projektów. W miarę zmniejszania się pola działania modeli klasycznych coraz bardziej rozszerzała się strefa manifestowania ludzkiej podmiotowości.

Podmiotowość została uwolniona od ocen epistemologicznych, które zbliżyły ją do wiedzy zniekształconej i ujawniły ontologiczne aspekty życia i działania jednostek ludzkich. Ta zmiana w przejawach ludzkiej podmiotowości została początkowo odnotowana w badaniach psychologicznych. Psychologia faktycznie „zrehabilitowała” podmiotowość, a jednocześnie sama przeniosła punkt ciężkości zainteresowań z charakterystyki poznawczych zdolności człowieka na interpretację emocjonalno-wolicjonalnych i nieracjonalnych sfer jego bytu. Pod względem kulturowo-filozoficznym zmiana statusu podmiotowości przez długi czas (do połowy XX wieku) była oceniana według wzorców klasycznych, tj. negatywnie, jako początek subiektywizmu, irracjonalizmu, nihilizmu. W związku z tym przestrzeń kultury wydawała się coraz bardziej fragmentaryczna, tracąc swoje stałe wymiary i korespondencje. Z tego punktu widzenia pole społeczeństwa było postrzegane jako zbiór interakcji różnych podmiotów, utrzymywany od całkowitej arbitralności jedynie przez sztywne struktury społeczne. Około drugiej ćwierci XX wieku. kwestia podmiotowości wchodzi w „rezonans” z problemem znalezienia odpowiednich zasobów ludzkich dla rozwoju społeczeństwa. Rozległa ścieżka w zasadzie okazuje się ślepym zaułkiem; produktywność gospodarki, perspektywy technologii, odnowa nauki i kultury okazują się uzależnione od energii i jakości działalności poszczególnych podmiotów. Problem podmiotowości stopniowo przeradza się w problem podmiotowości jednostek jako siły i formy rozwoju społeczeństwa.

Jednostki „wchodzą” w rozważanie tego problemu najpierw jako nośniki energii fizycznej i nerwowej, tj. głównie jako naturalne obiekty cielesne utożsamiane z innymi zasobami reprodukcji społecznej. Napotkane są trudności z modelowaniem społeczeństwa. Jak napisał Howard Becker: „Wszyscy jesteśmy w drodze, ale nie wiemy, dokąd zmierzamy…” Nie ma przekonującej teorii na temat wewnętrznych sił spójności mechanizmu społecznego. Ale to posunięcie nie zapowiada zmian jakościowych. Istnieje potrzeba włączenia do schematów ekonomicznych, technologicznych, zarządczych i łańcuchów jednostek w całej możliwej pełni ich podmiotowości społecznej, tj. ze wszystkimi ich możliwościami samorealizacji i produktywnej interakcji. Jednocześnie modele jako środek organizowania aktywności społecznej, komunikacji (modele zontologizowane) nieuchronnie stają się elementami samych struktur życia społecznego.

Pole społeczności jawi się jako podzielone pomiędzy wielość podmiotów, i to nie są już podmioty indywidualne ze swoją psychologizowaną podmiotowością, ale „złożone”, np. grupowe, podmioty realizujące swoje obrazy świata, swoje modele działania. Są to podmioty, które kumulują w sobie energię i organizację wspólnot społecznych, gałęzi działania, dyscyplin poznawczych, korzystając ze swoich środków i zasobów, potwierdzając swoją podmiotowość i egoizm. W skrajnym przypadku są to maszyny społeczne, które nie tylko zajmują ważne miejsca w produkcji społecznej, ale także reprodukują tę przestrzeń, ontologizują swoje modele i narzędzia, kształtując obiektywność społecznej egzystencji i typy zachowań samych ludzi. Produkt ten w rzeczywistości okazuje się ontologizacją modeli zawartych w obwodach i technologiach. Przestrzeń społeczeństwa stopniowo zapełnia się takimi zontologicznymi modelami. Z punktu widzenia przyjętego potoczną logiką rzeczy nie wydaje się, żeby było w tym coś dziwnego. Faktem jest jednak, że takie modelowanie kłóci się z logiką rzeczy, gdyż własne istnienie obiektów naturalnych wraz z ich wrodzonymi rytmami i prawami zastępuje jednostronnymi schematami (i ich ontologizacjami). To w istocie rodzi, a następnie sprawia, że ​​problem ochrony środowiska i szereg innych problemów współczesnego społeczeństwa związanych z ogromną bezwładnością społeczną ekstensywnych rodzajów działalności staje się coraz bardziej groźny. Pojawia się problem nie tylko ograniczenia tego typu działalności, ale także harmonizacji różnych modeli świata, określenia sposobu ich interakcji, potrzeb i warunków ich przetwarzania.

Z tematu ich zderzeń wyrasta wątek interakcji różnych modeli kształtujących pozycje i zachowania podmiotów społecznych. Sytuacje konfliktowe precyzyjnie eksponują fakt, że podmioty mają różne obrazy świata i modele działania. Kryzysowe formy relacji między ludźmi a systemami przyrodniczymi w pewnym sensie mówią o tym samym: sposoby działania ludzi nie są współmierne ze sposobami (co można interpretować jako swego rodzaju model) reprodukcji składników przyrody. Ujawnia to zespół zadań metodologicznych odkrywania modeli, ich deontologizacji, ograniczania i przetwarzania, a przede wszystkim zadanie deautomatyzacji modeli, które „przerodziły się” w produkcję na dużą skalę, struktury zarządzania, zinstytucjonalizowane formy działalności naukowej, które „wciągnęły” w orbitę swojego funkcjonowania ogromne zasoby naturalne i ludzkie. Rozwiązanie tych problemów wiąże się z wyborem strategii mającej na celu usunięcie ontologicznych modeli z automatycznego trybu działania, określenie ich granic i możliwości; ich dostosowanie zgodnie z wynikami kontroli ludzi. Jednak tego rodzaju strategia nie kształtuje się od razu, właściwie – jako zwykła szczegółowa koncepcja – nie istnieje do dziś. „Wskazuje” na jego wciąż ukryte istnienie poprzez zespół ruchów naukowych, metodologicznych, filozoficznych, ideologicznych, społeczno-politycznych, które manifestują się w różnych sferach życia publicznego, ale łączy rodzaj rozwiązywanych problemów. W trakcie podejmowania decyzji niezbędne środki okazują się podzielone i stają się niezależnymi celami: jedna grupa ruchów nalega na demontaż zautomatyzowanych modeli aż do ich eliminacji; drugi dotyczy budowy nowych modeli interakcji, które odpowiadają kontekstowi ich użycia. Dla tych pierwszych – zwolenników anarchizmu metodologicznego i etycznego, skrajnego dekonstruktywizmu i postmodernizmu – ważne jest ukazanie regresywnej funkcji modeli, maskowanych przez nie form społecznych i technologicznych, aby sam proces ich „demontażu” uczynić środkiem wyzwolenia społeczeństwa. istnienie ludzi, rzeczy i tekstów. Po drugie – są wśród nich zwolennicy koncepcji „małej nauki”, fenomenologii i mikrosocjologii, etnometodologii, historii społecznej, edukacji i szkolenia rozwojowego, jednoczących (ekumenicznych) ruchów religijnych – podstawową kwestią jest kształtowanie i reprodukcja modeli normatywnych i regulacyjnych przez określone podmioty społeczne w określonych warunkach przestrzennych i czasowych, o formach konsolidacji organizacji społeczno-przestrzennej i czasowej w interakcjach samych ludzi.

W różnych wariantach realizacja tych celów prowadzi do stopniowego kształtowania się zasady charakteryzującej tego typu zadania. Można to nazwać zasadą „inną”. „Inny” okazuje się być umownym określeniem tego potencjalnego obiektu wielowymiarowego, według standardów, według których budowane są modele interakcji ludzi ze sobą i z systemami naturalnymi, a miary obiektu nie zależą od podmiotu, ale o sposobie istnienia przedmiotu, jego stanie, specyfice interakcji. W klasycznej sytuacji, gdy przywileje obiektywności (i obiektywności), jej znaczenie, konieczność liczenia się z nią i jej przestrzegania były podkreślane w każdy możliwy sposób, funkcja pokojowa pozostawała de facto całkowicie w rękach podmiotu. . W sytuacji postklasycznej nie ma, jak pisze D. Bell, „żadnej przekonującej teorii o tym, jakie są siły wewnętrznego mechanizmu społecznego, możliwości modelowania są ograniczone” [11] .

Gdy wydawałoby się, że obraz obiektu zostaje całkowicie utracony, to właśnie sposób istnienia obiektu (przedmiotów) staje się najważniejszym czynnikiem określającym modele budujące z nim interakcję. Uwzględnienie tego czynnika okazuje się ważnym momentem w reprodukcji samego przedmiotu, jego samozachowawczości i konstrukcji. Podmiot w tej sytuacji nie może być ani abstrakcyjny, ani „monolityczny”; jego tożsamość potwierdza stale odnawiana zdolność do rozwijania i odtwarzania modeli interakcji. Obraz „innego” ma początkowo charakter antropomorficzny i personalologiczny, dlatego modele interakcji z „innym” charakteryzowane są zgodnie z ideami komunikacji międzyludzkiej między ludźmi (wystarczy przypomnieć pierwsze próby uzasadnienia metodologii wiedza humanitarna, „nauki o duchu”, „zrozumienie procedur”, V. Dilthey) . Ale kontynuacja tych prób stopniowo prowadzi do przekonania, że ​​osobista sympatia, współrozumienie, współdziałanie nie wystarczy, aby zrozumieć „innego”: w tym leży zadanie, a na tym polega trudność, że trzeba iść poza istniejącymi osobistymi, subiektywnymi, subiektywnymi reprezentacjami i koncepcjami, przekształcać i przeformułowywać je w celu określenia produktywnego porządku interakcji. Dla filozofii (i dla potocznej świadomości) zrozumienie sytuacji jest bardzo trudne, przede wszystkim pozornie dlatego, że konieczne jest przezwyciężenie trudności nie tyle natury logicznej i metodologicznej, ile natury moralnej i psychologicznej. W rzeczywistości konieczne jest uczynienie z praktyki wykraczania poza granice zwykłych idei i pojęć, poza ramy osobistego doświadczenia, poza granice indywidualnej podmiotowości, normą. Przezwyciężenie tych osobowo-psychologicznych barier, które kryją się w pracy filozoficznej i metodologicznej, oznacza w istocie początek etapu post-nieklasycznego i uformowanie się filozofowania typu postklasycznego. Trudności i złożoność tej przechodniej sytuacji wyrażają się przede wszystkim w reakcjach, które naprawiają niewystarczalność poszczególnych form psychologicznych do pracy filozofującego podmiotu. Dlatego też interpretacja przezwyciężenia tych form rozwija się często w tezy o zniszczeniu lub unicestwieniu podmiotu, o zniknięciu autora, o dehumanizacji filozofii itp. Podobnie wielowymiarowość „innego”, „nieklasyczny” charakter przedmiotów i sposoby ich mocowania rodzą ideę dezintegracji przedmiotowości i destrukcji rzeczywistości. Ale po reakcjach następuje etap świadomości trudności pracy metodologicznej związanej z konstruowaniem nowej formy podmiotowości, z określeniem sposobu działania schematów interakcji, z techniką rekonstrukcji sytuacji przedmiotowych i form ich rozwój. W filozofii nadal istnieje wiele barier w przejściu do tego rodzaju działalności. Jednym z nich jest orientacja filozofii XX wieku. na mikroanalizie interakcji, w której relacje podmiot-podmiot (i kontakty z „innym”) modelowane są w duchu schematów dyscyplinarno-psychologicznych, mikrosocjologicznych, językowych.

Logikę przejścia filozofii do etapu poklasycznego i rodzaju dzieła wyznacza nie tylko filozofia, ale „wewnętrzne systemy” jej ewolucji na przestrzeni ostatniego półtora wieku. Istotnych bodźców dostarcza rozwój takich kierunków naukowych, jak uniwersalizm ewolucyjny, biologia i fizjologia działania, synergetyka oraz podejście do systemu światowego. W tym sensie możemy powiedzieć, że D. Bell, N. M. Moiseev, L. von Bartalanffy, I. R. Prigogine, F. Braudel i niektórzy inni badacze w nie mniejszym stopniu przyczynili się do ukształtowania stylu postnieklasycznego filozofowania niż filozofowie drugiej połowa XX wieku Ich wysiłki wiążą się z szeregiem problemów praktyczno-ekologicznych, politycznych, ekonomicznych, technicznych i naukowych, często wskazując na potrzebę kształtowania modeli, a co najważniejsze, stworzenia takiego sposobu funkcjonowania modeli, który zapewnia współistnienie systemy społeczne w ich przypadku z systemami naturalnymi. Problem modeli powraca do filozofii, ale powraca jako orientacja w kierunku zmiany samej filozofii, kształtowania filozoficznych koncepcji rozwoju i funkcjonowania modeli, odpowiadającego im strukturalizacji społeczeństwa, podmiotów interakcji i wzorców samorozwoju człowieka. osoby. Cechą tego reżimu jest połączenie stabilnych wzorców jako norm z ich funkcjami regulacyjnymi, zapewniającymi współzmianę i samozmianę podmiotów ludzkich. Dynamika próbek i ich stabilne funkcjonowanie to tak naprawdę zadanie, od którego konkretnego rozwiązania zależą inne interpretacje tradycyjnych pojęć i procedur filozoficznych, takich jak podmiot, przedmiot, miara, system miar, uogólnienie, konkretyzacja: wszystkie odkrywane są na nowo „z zewnątrz”. „ich kształtowanie się w aspekcie interakcji, w kategoriach współzmiany podmiotów społecznych.

Temat 5. Tradycje naukowe i rewolucje naukowe. rodzaje racjonalności naukowej

5.1. Interakcja tradycji i pojawienie się nowej wiedzy

Problematykę tradycji jako głównego konstytucyjnego czynnika rozwoju nauki po raz pierwszy rozważał w pracach Thomasa Kuhna. Wpadł na pomysł, że tradycje są warunkiem możliwości rozwoju nauki. Tradycja (z łac. traditio – przekaz, tradycja) odnosi się do elementów dziedzictwa społecznego i kulturowego, które są przekazywane z pokolenia na pokolenie i przez długi czas zachowywane w określonych społeczeństwach i grupach społecznych. Tradycja jest wyrazem wszystkiego, co poprzednie i względnie stałe w życiu społecznym i kulturze. Obejmuje zarówno treść różnych sfer społeczeństwa, jak i mechanizm ich sukcesywnego rozwoju, formę konsolidacji i utrwalania doświadczenia społeczno-kulturowego. Jest to szczególny rodzaj zachowania, myślenia i doświadczenia, oceniany pozytywnie lub negatywnie, przynależny (faktycznie lub mitologicznie) do dziedzictwa kulturowego grupy społecznej; szczególny typ świadomości historycznej, który przekształca niejednoznaczność faktów z przeszłości w jednoznaczne wartości nowoczesności. Jednocześnie zarówno umniejszanie roli tradycji w życiu publicznym, jak i uczynienie z niej podstawy istniejącego społeczeństwa oznacza niemożność prawidłowego zrozumienia problemu tradycji. Takie rozumienie polega na interpretacji ich jako wartości. W życiu społeczeństwa tradycje mogą odgrywać rolę regulacyjną. Jest to szczególnie prawdziwe w przypadku tak zwanego społeczeństwa tradycyjnego. Oświecenie, którego wiara opiera się na uwydatnianiu w historii pozytywnej zasady (rozumu, cywilizacji, emancypacji), nadaje tradycjom status realności ze znakiem negatywnym; cechy uprzedzeń, złudzeń, fanatyzmu. Pojęcie „innowacji” przeciwstawia się tradycjonalizmowi. Tradycjonalizm po raz pierwszy otrzymał racjonalistyczną ocenę w filozofii Heglaktórzy wyraźnie oddzielili kwestię rzeczywistej zależności teraźniejszości od przeszłości. Karol Marks (1818-1883) rozważał zjawisko tradycjonalizmu z pozycji rewolucjonizmu i racjonalizmu. Pojęcie tradycjonalizmu zostało najpełniej opisane w pracach max Weber (1864-1920), chociaż istnieje tendencja do postrzegania jego koncepcji jako nieredukowalnej dwoistości. W filozofii nowożytnej problemy tradycjonalizmu rozpatrywane są z punktu widzenia stabilności, niezmienności i odnawialności struktur świadomości społecznej i praktyki społecznej, a także zachowania ich poszczególnych elementów we współczesnym społeczeństwie, w którym rola dominuje sztuczne projektowanie relacji i relacji społecznych.

Tradycje są żywe i stale odnawiane. Jednak pomimo umiejętności przystosowania się do innowacji, zyskując w ten sposób drugie życie, istnieje możliwość, że tradycje wytłumią innowacje, opóźniając proces rozwoju. Pod tym względem tradycje można uznać za pierwotne i wtórne. Tradycje pierwotne rozwijają się spontanicznie i są odtwarzane jako ustalone formy i sekwencje działań bezpośrednio i praktycznie, podporządkowując się przepisom rytualnym i zwyczajowym, folklorystycznym i mitologicznym. Tradycje wtórne są efektem refleksyjnego i racjonalnego przetwarzania, zapisanego w profesjonalnie tworzonych tekstach i świadomie kontrolowanych normach zachowania. To tradycje wtórne podlegają przemyśleniu i rozwojowi, zapewniając ciągłość społeczno-kulturową.

Tradycja negatywna jest wzorem niechcianej lub zakazanej przeszłości, chociaż może mieć ukryte przyczyny i wyjaśnienia.

Funkcjonalnie tradycje optymalizują formę istnienia grupy społecznej w określonym środowisku naturalnym, etnokulturowym i społeczno-gospodarczym, tworzą warunki do samoidentyfikacji jednostek i społeczeństwa o określonej strukturze społecznej, działają jako system ograniczania innowacji, kontrolować legitymizację i pozycjonowanie, przeprowadzać korektę społeczną i kodyfikację, „odpowiadać za nietykalność społeczną.

Pojawienie się nowej wiedzy wiąże się z przełamywaniem barier budowanych przez tradycjonalizm. Niezwyciężoność nowego jest uzasadniona niezdolnością starego do zaspokojenia potrzeb rozwoju. Tradycyjna nauka, jak wiadomo, działa pod „dachem” pewnego, ustalonego już paradygmatu. Jak nowe sprawdza się w tych warunkach? Odpowiedź na to pytanie zawarta jest w opracowaniach T. Kuhna, K. Poppera, D. Bella i innych, w szczególności amerykańskiego fizyka, filozofa i historyka nauki Thomas Kuhn Zauważa, że ​​postępując zgodnie z zasadami dominującego paradygmatu, naukowiec przypadkowo i przypadkowo natrafia na fakty i zjawiska niewytłumaczalne w ramach tego paradygmatu. Należy zmienić zasady prowadzenia badań naukowych i wyjaśniania. Na przykład fizycy w komorze chmurowej, chcąc zobaczyć ślad elektronu, nagle odkryli, że ślad ten ma kształt widelca. Nie spełniło to ich oczekiwań, ale wyjaśnili, co uważają za błędy w eksperymencie. W rzeczywistości za obserwowanym zjawiskiem kryło się odkrycie pozytonu. Pod naporem nowych faktów, które nie mieściły się w ramach starych, nastąpiła zmiana paradygmatu. Coś podobnego wydarzyło się, gdy astrofizycy, nie wiedząc nic o „czarnych” dziurach, próbowali wyjaśnić to zjawisko w kategoriach niewiedzy. Później okazało się, że czarne dziury to obiekty kosmiczne, których istnienie przewiduje ogólna teoria względności. Ulegają nieograniczonej kompresji grawitacyjnej (zapadaniu się grawitacyjnemu) masywnych ciał kosmicznych. Promieniowanie czarnych dziur jest blokowane przez grawitację, dlatego można je wykryć jedynie na podstawie ich grawitacji lub promieniowania bremsstrahlung gazu padającego na nie z zewnątrz.

Karl Popper w książce „Objective Knowledge” (1972) argumentował: im więcej nowych i nieoczekiwanych problemów pojawia się w procesie celowego porównywania alternatywnych hipotez ze sobą, tym większy postęp w nauce. Rozwijając tę ​​ideę, amerykański filozof nauki Paweł Feyerabend (1924-1994) w „Jak być dobrym empirystą” pisze: „… dobry empirysta zacznie od wymyślania alternatyw dla teorii, a nie bezpośredniego testowania tej teorii”. Następnie formułuje cztery warunki dla ścisłej alternatywy:

1) alternatywa musi zawierać pewien zestaw stwierdzeń;

2) zbiór ten musi być ściślej powiązany z przewidywaniem niż tylko przez koniunkcję;

3) wymagane są co najmniej potencjalne dowody przemawiające za rozwiązaniem alternatywnym;

4) zakłada się zdolność alternatywy do wyjaśnienia dotychczasowych sukcesów krytykowanej teorii.

Feyerabend wyjaśnia: "Nowe fakty odkrywa się najczęściej za pomocą alternatyw. Jeżeli alternatyw nie ma, a teoria wydaje się skutecznie wyjaśniać fakty, to jest to jedynie symulacja sukcesu, czyli "eliminacja" faktów i alternatywnej ontologii schematy niepożądane dla jej weryfikacji.” I dalej: „Wynalezienie alternatyw jest właśnie środkiem, po który naukowcy… rzadko uciekają się.”[12] Chociaż, zauważmy, nie jest to panaceum!

Analizując rewolucje naukowe, T. Kuhn w swoich pracach z filozofii nauki bardzo owocnie zastosował koncepcję paradygmatu, rozwiniętą w dziełach filozofii starożytnej, a później średniowiecznej i nowożytnej. W przenośni porównał znaczenie tego pojęcia do „kaczki, która po rewolucji okazuje się królikiem”. Według jego koncepcji zmianie paradygmatów towarzyszy zerwanie komunikacji pomiędzy naukowcami wyznającymi różne paradygmaty i zmiana „techniki” perswazji w środowiskach naukowych. Każdy paradygmat uzasadnia swoje własne kryteria (wymagania, standardy itp.) oceny działań poznawczych i ich wyników. Prowadzi to do ważnego problemu filozoficzno-socjologicznego: czy nauka jest sferą autonomiczną, wewnętrznie zamkniętą, a działalność poznawcza naukowców szczególnym rodzajem wysoce profesjonalnej przedsiębiorczości na rzecz tworzenia informacji naukowej i rozwoju zapotrzebowania społeczeństwa na tę informację, czy też nauka to szczególna dziedzina działalności, która w systemie pracy publicznej pełni specyficzną funkcję społeczną: dostarczanie społeczeństwu wiedzy naukowej, argumentów?

Według Kuhna zmiana paradygmatu nauki, przejście do fazy „rewolucyjnego zerwania” wiąże się z całkowitą lub częściową wymianą elementów matrycy dyscyplinarnej, technik badawczych, metod i założeń teoretycznych; cały zasób wartości epistemologicznych zostaje przekształcony. Schemat rozwoju wiedzy naukowej zaproponowany przez Kuhna obejmuje następujące etapy: etap przednaukowy – kryzys – rewolucja – nowa nauka normalna – nowy kryzys itp. Badając szczegółowo punkty zwrotne w historii nauki, Kuhn pokazuje, że okres rozwoju nauki „normalnej” można przedstawić także za pomocą tradycyjnych pojęć, na przykład pojęcia postępu, które w tym przypadku ma kryterium liczby rozwiązanych problemów. Dla Kuhna „normalna” nauka polega na poszerzaniu zakresu paradygmatu wraz ze zwiększaniem jego dokładności. Kryterium bycia w okresie nauki „normalnej” jest zachowanie przyjętych podstaw pojęciowych. Można powiedzieć, że działa tu pewien immunitet, pozwalający na pozostawienie bez zmian ram pojęciowych danego paradygmatu. Cel „nauki normalnej”, zauważa Kuhn, w żaden sposób nie polega na przewidywaniu nowych typów zjawisk. Odporność, czyli odporność na czynniki zewnętrzne, które nie mieszczą się w przyjętych czynnikach wyjściowych, nie może absolutnie oprzeć się tzw. zjawiskom i faktom anomalnym – stopniowo podważają stabilność paradygmatu. Kuhn charakteryzuje „normalną” naukę jako kumulatywną akumulację wiedzy. Okresy rewolucyjne, czyli rewolucje naukowe, prowadzą do zmian w strukturze nauki, zasadach poznania, kategoriach, metodach i formach organizacji nauki.

Jaki jest powód zmiany okresów spokojnego rozwoju nauki i okresów jej rewolucyjnego rozwoju? Historia rozwoju nauki pozwala stwierdzić, że okresy spokojnego, normalnego rozwoju nauki odzwierciedlają sytuację ciągłości tradycji, kiedy wszystkie dyscypliny naukowe rozwijają się zgodnie z ustalonymi wzorcami i przyjętym systemem nakazów. Nauka „normalna” oznacza badania, które są mocno oparte na przeszłych lub istniejących osiągnięciach naukowych i uznają je za podstawę przyszłego rozwoju. W okresach normalnego rozwoju nauki działalność naukowców opiera się na tych samych paradygmatach, tych samych zasadach i standardach praktyki naukowej. Istnieje wspólnota postaw i widoczna koordynacja działań, która zapewnia ciągłość tradycji jednego lub drugiego kierunku. Naukowcy nie stawiają sobie zadania tworzenia fundamentalnie nowych teorii, a nawet nie tolerują tworzenia takich „zwariowanych” teorii przez innych. Używając symbolicznego wyrażenia Kuhna, naukowcy są zajęci „porządkowaniem” w swoich dziedzinach dyscypliny. Nauka „normalna” rozwija się poprzez gromadzenie informacji, wyjaśnianie znanych faktów. Jednocześnie okres ten charakteryzuje się „ideologią tradycjonalizmu, autorytaryzmu, pozytywnego zdrowego rozsądku i scjentyzmu”.

Każda rewolucja naukowa odsłania nowe wzorce, których nie da się zrozumieć w ramach dotychczasowych idei. Świat mikroorganizmów i wirusów, świat atomów i cząsteczek, świat zjawisk elektromagnetycznych i cząstek elementarnych, świat kryształów i odkrywania innych galaktyk to fundamentalne poszerzenia granic ludzkiej wiedzy i wyobrażeń o wszechświecie. „Objawami” rewolucji naukowej, oprócz oczywistych anomalii, są sytuacje kryzysowe w wyjaśnianiu i potwierdzaniu nowych faktów, walka starej świadomości z nową hipotezą oraz gorące dyskusje. Otwierają się środowiska naukowe oraz bariery dyscyplinarne i hierarchiczne. Na przykład pojawienie się mikroskopu w biologii, a następnie teleskopu i radioteleskopu w astronomii umożliwiło dokonanie wielkich odkryć. Cały XVII wiek. nazwano erą „podboju mikroskopu”. Odkrycia kryształów, wirusów i mikroorganizmów, zjawisk elektromagnetycznych i świata mikrocząstek dają możliwość głębokiego pomiaru rzeczywistości. Rewolucja naukowa jawi się jako swego rodzaju nieciągłość w tym sensie, że wyznacza nie tylko granicę przejścia od starego do nowego, ale także zmianę samego kierunku. Odkrycia dokonane przez naukowców wyznaczają zasadnicze zmiany w historii rozwoju nauki, wyznaczając odrzucenie przyjętej i dominującej teorii na rzecz nowej, niezgodnej z poprzednią. A jeśli pracę naukowca w okresie nauki „normalnej” można określić jako zwyczajną, to w okresie rewolucji naukowej ma ona charakter niezwykły.

Interdyscyplinarne i intradyscyplinarne mechanizmy rewolucji naukowych są bardzo aktualne. Interdyscyplinarne interakcje wielu nauk polegają na analizie złożonych obiektów systemowych, ujawniając takie efekty systemowe, których nie da się wykryć w ramach jednej dyscypliny. W przypadku przekształceń interdyscyplinarnych obraz świata wypracowany w nauce wiodącej przekształca się we wszystkie inne dyscypliny naukowe przyjęte w nauce wiodącej, ideały i normy badań naukowych uzyskują status ogólnonaukowy.

5.2. Rewolucje naukowe jako punkty bifurkacji i problem wyboru strategii rozwoju naukowego

Rewolucja jest najbardziej zauważalnym kluczowym momentem w procesie rozwoju, który z kolei charakteryzuje zmiany jakościowe obiektów, pojawienie się nowych form bytu oraz transformację ich wewnętrznych i zewnętrznych powiązań. Rozwój jest ściśle powiązany z koncepcją postępu, która zaczęła nabierać znaczenia kategorycznego i ideologicznego w okresie historycznego przejścia od starożytności do średniowiecza. Na przełomie XVIII - XIX w. rozwój nabiera kryterium nowości. W drugiej połowie XIX w. Na tle sukcesów w biologii, teorii ekonomii, wiedzy społeczno-historycznej, wraz z pojawieniem się schematów niespójności rozwoju, samorozwoju (obejmującego obszary przyrody ożywionej i nieożywionej), a także myślenia rozwiniętego w niemieckiej filozofii klasycznej , stało się możliwe naukowe wyjaśnienie zachodzących okresowo dużych zmian o dużej skali, zwanych „rewolucją”.

Rewolucje zdarzały się więcej niż raz w życiu ludzkości. Pamiętacie rewolucje w nauce, przemyśle, informacji, była nawet „zielona” rewolucja i wszystkie przyniosły ze sobą radykalne zmiany jakościowe. Jednak pomimo wszystkich podobieństw między rewolucjami zauważalne były także różnice, zwłaszcza w ich dynamice. W jednym przypadku transformacja światopoglądu nastąpiła bez zmiany ideałów i norm badawczych. W tym sensie rewolucja w medycynie związana z odkryciem krążenia ogólnoustrojowego i płucnego przez Williama Harveya (1628) ma charakter orientacyjny; rewolucja w matematyce związana z odkryciem rachunku różniczkowego (I. Newton i G. W. Leibniz); odkrycie teorii tlenu Lavoisiera; przejście od mechanicznego obrazu świata do elektromechanicznego w związku z odkryciem teorii pola elektromagnetycznego itp. Wszystkie te rewolucje nie doprowadziły do ​​zmiany postaw poznawczych fizyki klasycznej, ideałów i norm badawczych. Jednocześnie w innych przypadkach nastąpiły radykalne zmiany w samym obrazie świata, w systemie ideałów i norm nauki. Tym samym odkrycie termodynamiki i późniejsze w połowie XX wieku. Rewolucja mechaniki kwantowej doprowadziła nie tylko do przemyślenia naukowego obrazu świata, ale także do całkowitej zmiany paradygmatu, zmiany standardów, ideałów i norm badawczych. Odrzucono opozycję subiektywno-obiektywną, zmieniono sposoby opisu i uzasadniania wiedzy, dostrzeżono probabilistyczny charakter badanych systemów, nieliniowość i bifurkację rozwoju. Masowe wprowadzenie komputerów do sfery produkcji materialnej stało się symbolem postępu naukowo-technicznego. Nauka stała się bezpośrednią siłą produkcyjną społeczeństwa. Zmiany nastąpiły także w społecznym podziale pracy. W szczególności zmienił się stosunek elementów sił wytwórczych: podmiot pracy, narzędzia i sam robotnik; produkcja z prostego procesu pracy zamieniła się w proces naukowo-techniczny. Nastąpił postęp w przezwyciężaniu sprzeczności pomiędzy pracą fizyczną i umysłową; pojawiła się spekulacyjna tendencja do niedoceniania pracy umysłowej w systemie jej wynagradzania. Zatem za przesłanki rewolucji naukowej można uznać, po pierwsze, obecność fundamentalnej anomalii naukowej, której nie można wyjaśnić istniejącymi środkami naukowymi; po drugie, kumulacja tych anomalii, oczywiste poszukiwanie alternatywnych rozwiązań; po trzecie, rozwój sytuacji kryzysowej; po czwarte, obecność alternatywnej koncepcji spajającej teorie (w terminologii Kuhna – paradygmaty). Rewolucje związane ze zmianą paradygmatów są zjawiskiem rzadkim, gdyż są zbyt okazałe, złożone i zdeterminowane wieloma okolicznościami, w tym psychologicznymi.

Za szczególnie znaczące uważa się okresy rewolucyjne w rozwoju nauki. Ich „destrukcyjna” funkcja ostatecznie przekształciła się w konstruktywną, kreatywną i innowacyjną. Rewolucja naukowa stała się najbardziej oczywistym wyrazem podstawy siły napędowej postępu naukowego. Problem wyboru strategii rozwoju naukowego nie jest jednak tak prosty, jak mogłoby się wydawać. Liczba aksjomatów na tej płaszczyźnie jest bardzo zróżnicowana. Amerykański filozof, logik, matematyk i przyrodnik Karol Pierce (1839-1914) uważali, że wiedza niekoniecznie zaczyna się od prawd oczywistych, może zaczynać się od dowolnych postanowień, także tych wyraźnie błędnych. Badania naukowe to istotny proces domysłów, testowania i krytycznej debaty. Wiedza jest zawsze hipotetyczna, probabilistyczna. W miarę postępu badań założenia są dostosowywane, a prawdopodobieństwo uzyskania wiedzy wzrasta. Jednak po przyjęciu nowych założeń ponownie się zmniejsza.

K. Popper argumentował, że nauka postępuje od jednego problemu do drugiego, od mniej głębokiego problemu do głębszego. Według Poppera model rozwoju wiedzy naukowej jest następujący [13].

1. Nauka zaczyna się od problemów.

2. Naukowe wyjaśnienia problemu są hipotezami.

3. Hipoteza jest naukowa, jeśli w zasadzie jest falsyfikowalna.

4. Fałszowanie hipotez zapewnia eliminację zidentyfikowanych błędów naukowych.

5. Nowe i głębsze stawianie problemów i hipotezy są osiągane w wyniku krytycznej dyskusji.

6. Pogłębienie problemów i hipotez (teorii) zapewnia postęp w nauce, a dokładniej wzrost wiedzy naukowej.

Według Poppera nie da się zrozumieć nauki, jeśli wyjdziemy od relacji drugiego świata do pierwszego, czyli tj. świat systemowy (sztuczny) i świat społeczny (przyrodniczy). Z tej relacji nie można wyprowadzić żadnego elementu nauki (problemów naukowych, sytuacji problemowych, teorii, hipotez, racjonalnych schematów, kryteriów, metod obalania krytyki). Tradycyjna koncepcja epistemologiczna, rozwijana przez Kartezjusza, Berkeleya, Hume'a, Kanta, Russella, jego zdaniem została pokonana, ponieważ przyjęła tę postawę jako podstawę filozoficznego rozumienia nauki. Nie rozumieli istotnej roli „badań teoretycznych” i „nauki teoretycznej”; nie rozumiał intersubiektywnego charakteru wiedzy naukowej, tj. uwolnić je od wszelkiego rodzaju subiektywnych dodatków. Popper rozwija nową epistemologię – epistemologię bez znającego podmiotu. Filozof łączy z tym uzasadnienie autonomii nauki. Wszystkie jej najważniejsze elementy, jego zdaniem, można wyjaśnić bez odniesienia ani do realnych podmiotów nauki, ani do jej funkcji społecznej. Nauka jest wewnętrznie zamkniętym, samoreprodukującym się, samokontrolującym się „trzecim światem”, w którym powstają nieograniczone możliwości pojawienia się nowych „wyobrażalnych obiektów” oraz nowych problemów i sytuacji problematycznych z tym związanych. Popper pisze, że „trzeci świat” jest główną sferą działalności człowieka. Grupy ludzi rozwijające ten świat muszą zajmować główne stanowiska w społeczeństwie i pozostać grupami aktywnymi. Aby jednak opisać ich działalność, nie trzeba odwoływać się do tradycyjnego pojęcia „podmiotu wiedzy naukowej”. Popper w swojej koncepcji filozoficznej proponuje przeniesienie uwagi z badania człowieka jako podmiotu wiedzy na badanie początkowych elementów samego „trzeciego świata” jako świata autonomicznego. W tym świecie akceptacja wyników jako naukowych opiera się nie na wyjaśnieniu ich związku z badanymi obiektami z życia codziennego, ale na możliwości zastosowania do tych wyników kryteriów, standardów i zasad, które tworzą jego wyjściową racjonalną strukturę.

Według Poppera badacze nauki badają nie przedmioty, ale problemy naukowe. Działają nie na granicach „przedmiot-przedmiot”, ale w ramach racjonalnych podstaw nauki. Filozof proponuje opracowanie trzyczłonowej struktury badań naukowych: „problem naukowy – domysły (hipotezy) – obalenia”. Jego zdaniem w nauce nie mogą istnieć ściśle obiektywne i jednolite podstawy filozoficzne i metodologiczne. W historii nauki sami naukowcy mają nowe rozumienie podstaw nauki i celów badań naukowych. Nauka jest po prostu szczególnym rodzajem gry, której zasady można sformułować bez opierania się na jakichkolwiek niezależnych parametrach obiektów pierwszego świata.

Idee wyrażone przez Karla Poppera były szczególnie aktywnie rozwijane przez angielskiego matematyka, logika i filozofa nauki. Imre Lakatos (1922-1974). Urodzony na Węgrzech filozof wyemigrował z kraju w 1956 roku po stłumieniu powstania w Budapeszcie przez wojska sowieckie. Był studentem i jednocześnie krytykiem Poppera. Lakatos wypowiedział się przeciwko falsyfikacjonizmowi Poppera, wierząc, że teorie są bardziej stabilne i żadne falsyfikowanie nie doprowadzi do „skreślenia” badanej nauki. Aby wyjaśnić swoje pomysły, wprowadza do koncepcji szereg dodatkowych pojęć, takich jak „twardy rdzeń”, „pas ochronny”, pozytywna i negatywna heurystyka. W szczególności Lakatos odwołuje się do „twardego rdzenia” trzech dobrze znanych praw Newtona i prawa grawitacji, które przetrwały próbę czasu i do dziś stanowią podstawę współczesnej mechaniki. Lakatos uważa, że ​​sumienny badacz nie musi obawiać się zasady falsyfikowalności, ale powinien traktować ją z szacunkiem. Co więcej, błędy są ludzkie: „Errare humanum est…”

5.3. Rewolucje globalne i rodzaje racjonalności naukowej. Nauka klasyczna, nieklasyczna i post-nieklasyczna

Według Kuhna każda nauka w swoim ruchu przechodzi przez pewne fazy (okresy) rozwoju: preparadygmat, paradygmat i postparadygmat. Te trzy fazy można przedstawić jako genezę nauki, naukę „normalną” i kryzys nauki. Zmiana paradygmatów, przezwyciężenie stanów kryzysowych działa jak rewolucja naukowa, która sprawia, że ​​przyjęte koncepcje i doktryny naukowe stają się bezproduktywne. Istnieją trzy rodzaje rewolucji naukowych: minirewolucje, które odnoszą się do odrębnych bloków w treści danej nauki; rewolucje lokalne obejmujące określoną naukę jako całość; globalne rewolucje naukowe, które obejmują całą naukę jako całość i prowadzą do pojawienia się nowej wizji świata. W historii rozwoju nauki jest kilka globalnych rewolucji:

1) rewolucja naukowa XVIII wieku, która zaznaczyła pojawienie się klasycznych nauk przyrodniczych i określiła podstawy rozwoju nauki na kolejne dwa stulecia. Wszystkie nowe osiągnięcia w spójny sposób układały się we wspólnym galilejsko-newtonowskim obrazie świata;

2) rewolucja naukowa końca XVIII - I połowy XIX w., która doprowadziła do dyscyplinarnej organizacji nauki i dalszego jej zróżnicowania;

3) rewolucja naukowa przełomu XIX i XX wieku, będąca „reakcją łańcuchową” rewolucyjnych zmian w różnych dziedzinach wiedzy. Ta fundamentalna rewolucja naukowa XX wieku, charakteryzująca się odkryciem teorii względności i mechaniki kwantowej, zrewidowała pierwotne wyobrażenia o przestrzeni, czasie i ruchu (pojęcie niestacjonarności Wszechświata pojawiło się w kosmologii, chemia kwantowa pojawiła się w chemii, genetyka zadomowiła się w biologii, powstała cybernetyka i teoria systemów). Dzięki komputeryzacji i automatyzacji, przenikającemu przemysł, inżynierię i technologię, podstawowa rewolucja naukowa nabrała charakteru naukowo-technicznego;

4) rewolucja naukowa końca XX wieku, która wprowadziła do życia technologie informacyjne, będące zwiastunem nowej światowej rewolucji naukowej. Żyjemy w rozszerzającym się Wszechświecie, którego ewolucji towarzyszą potężne procesy wybuchowe z uwolnieniem kolosalnej ilości energii, z jakościowymi zmianami w materii na wszystkich poziomach. Biorąc pod uwagę całość odkryć dokonanych pod koniec XX wieku, możemy powiedzieć, że stoimy u progu globalnej rewolucji naukowej, która doprowadzi do całkowitej restrukturyzacji całej wiedzy o Wszechświecie.

Globalne rewolucje nie mogą nie wpłynąć na zmiany typów racjonalności. Idea racjonalności została wdrożona w historii kultury ludzkiej na różne sposoby, a idee dotyczące racjonalności uległy zmianie. Współczesny kryzys racjonalności to kryzys klasycznej idei racjonalności, utożsamianej z normą i ściśle jednoznaczną zgodnością przyczyny i skutku. Klasyczny racjonalizm nigdy nie znalazł odpowiedniego wyjaśnienia aktu twórczości. W procesie nowych odkryć jest mniej racjonalnie niż intuicyjnie i nieracjonalnie. Głębokie warstwy ludzkiego „ja” nie wydają się całkowicie podporządkowane rozumowi; pożądliwości, instynkty i afekty łączą się w bulgoczącym elemencie nieświadomości. Klasyczna idea racjonalności jest ściśle związana z ideałem naukowej obiektywności wiedzy. Głosiła potrzebę przeprowadzenia procedury eliminacyjnej, mającej na celu maksymalne wykluczenie elementów subiektywnych z procesu poznawczego. Klasyczny ideał czystego rozumu nie chciał mieć nic wspólnego z realną osobą, nosicielem rozumu. W modelu racjonalności klasycznej miejsce realnej osoby, myślącej, odczuwającej i doświadczającej, zajmował abstrakcyjny podmiot poznania.

Jeśli problem racjonalności rozpatrywany jest z punktu widzenia retrospektywy historycznej, to oprócz starożytnego uniwersalno-filozoficznego typu racjonalności konieczne jest wyróżnienie religijnego typu racjonalności, który panuje w średniowiecznej Europie, podporządkowany racjonalne uzasadnienie wiary i rozsądne wyjaśnienie dogmatów religijnych. Kultura sporów średniowiecznych przygotowała aparat logicznego dowodu i uzasadnienia, technikę samobadania myśli, przejście od niesformalizowanych do sformalizowanych form racjonalności.

Nieklasyczna racjonalność naukowa ukształtowała się w wyniku odkrycia teorii względności Einsteina. Istotnym warunkiem dotarcia do prawdy nie jest eliminacja wszelkich przeszkód towarzyszących badaniom, lecz doprecyzowanie ich roli i wpływu, z uwzględnieniem relacji pomiędzy naturą przedmiotu a środkami i metodami badań. Racjonalność nieklasyczna uwzględnia dynamiczną relację człowieka do rzeczywistości, w której istotna staje się jego działalność. Podmiot znajduje się w otwartych sytuacjach problemowych i podlega potrzebie samorozwoju w kontaktach ze światem zewnętrznym. Zatem w racjonalności klasycznej mówimy o obiektywności bytu, w racjonalności nieklasycznej mówimy o procesie stawania się.

Racjonalność postnieklasyczna pokazuje, że pojęcie racjonalności obejmuje nie tylko normy logiczne i metodologiczne, ale także analizę celowych działań ludzkich. Powstaje idea pluralizmu racjonalności. Mówiąc słowami P. P. Gaidenko, w miejsce jednego umysłu powstało wiele rodzajów racjonalności. Racjonalizm post-nieklasyczny charakteryzuje się korelacją wiedzy nie tylko z działalnością podmiotu i środkami poznania, ale także ze strukturami wartościowo-celowymi działania. Człowiek wchodzi w obraz świata nie tylko jako aktywny uczestnik, ale jako czynnik systemotwórczy. W kontekście nowego paradygmatu podmiot jest jednocześnie obserwatorem i aktywatorem. Myślenie człowieka z jego celami i orientacjami wartości niesie ze sobą cechy, które łączą się z podmiotową treścią przedmiotu. W nowej racjonalności sfera przedmiotowa rozszerza się o takie systemy jak „sztuczna inteligencja”, „rzeczywistość wirtualna”, „relacje cybernetyczne” (czyli relacje realizowane zgodnie z systemem wartości intelektualnej funkcjonującym w rzeczywistości wirtualnej – wyimaginowana iluzoryczna). świata), które same w sobie są wytworami postępu naukowego i technologicznego.

Rozróżnij racjonalność otwartą i zamkniętą. Ta ostatnia realizowana jest w trybie określonych orientacji na cele, ale nie jest uniwersalna. To, co wydaje się racjonalne w kategoriach zamkniętej racjonalności, przestaje być racjonalne w kategoriach otwartej racjonalności. Zatem rozwiązywanie problemów produkcyjnych nie zawsze jest racjonalne w kontekście problemów środowiskowych. Działalność nieracjonalna z punktu widzenia nauki może być całkiem racjonalna z punktu widzenia relacji międzyludzkich czy rozważań dotyczących kariery. Otwarta racjonalność pozwala na refleksyjną analizę alternatywnych praktyk poznawczych, zakłada uważne i pełne szacunku podejście do alternatywnych obrazów świata, które powstają w innych niż współczesna nauka tradycjach kulturowych i światopoglądowych, dialogu i wzajemnego wzbogacania się różnych tradycji poznawczych. Antydogmatyzm kojarzy się z otwartą racjonalnością, ale zawiera też niebezpieczeństwo relatywizmu, stwarza sytuację ciągłego napięcia w poszukiwaniu „solidnego gruntu”, odpowiedzialności za dokonany wybór.

Powstaje pytanie o związek między różnymi typami racjonalności. Badacze mają tendencję do dostrzegania dialektycznego przyciągania racjonalności otwartej i zamkniętej, bezosobowej racjonalności typu kosmologicznego i ludzkiej antropocentrycznej racjonalności. Ideałów klasycznej racjonalności nie należy zastępować „racjonalnością bez brzegów”, która głosi, że „wszystko jest we wszystkim racjonalne”. Według V. S. Stepina wszystkie trzy typy racjonalności naukowej (klasyczna, nieklasyczna i post-nieklasyczna) oddziałują na siebie, a pojawienie się każdego nowego typu nie anuluje poprzedniego, a jedynie go ogranicza, określając jego zakres. Obecnie ważne jest, aby odróżnić typy racjonalności, jakkolwiek zmienne by one nie były, od pseudoracjonalności.

Racjonalność wiąże się z wyartykułowanymi programami działania. Autor koncepcji wiedzy osobistej, M. Polanyi, pokazał, że wiedza prezentowana w tekstach artykułów naukowych i podręczników jest tylko jej częścią, która znajduje się w centrum świadomości. Druga część skupia się na połowie tzw. wiedzy peryferyjnej, która stale towarzyszy procesowi poznania. Można powiedzieć, że racjonalność wyznacza główny „kierunek świadomości”, nie negując integralności, w ramach której nasza wiedza jest realizowana i którą musimy osiągnąć.

Można wyróżnić trzy opcje relacji myślenia i mowy, które powinny uwzględniać nowoczesny typ rozwoju racjonalności. Pierwsza opcja charakteryzuje się obszarem wiedzy milczącej, której werbalny wyraz nie jest samowystarczalny lub niewystarczająco adekwatny. Jest to obszar, w którym składnik wiedzy milczącej dominuje do tego stopnia, że ​​jej artykułowany wyraz jest niemożliwy i dlatego można go nazwać „obszarem niewyrażalnego”. Obejmuje wiedzę opartą na doświadczeniach i doświadczeniach życiowych. Są to głęboko osobiste doświadczenia, które bardzo trudno jest przekazać i uspołecznić. Sztuka zawsze próbowała rozwiązać ten problem własnymi środkami: akt kreatywności i empatii odzwierciedla umiejętność spojrzenia na świat i życie bohatera dramatu życiowego. Druga wersja relacji między myśleniem a mową charakteryzuje się obszarem wiedzy, który jest dość dobrze przekazywany za pomocą mowy. Jest to obszar, w którym składnik myślenia istnieje w postaci informacji i może być w całości przekazany za pomocą dobrze zrozumiałej mowy, dlatego obszar wiedzy ukrytej pokrywa się z tekstem, którego nośnikiem znaczenia jest. Trzecią opcją jest obszar „trudnego zrozumienia”: istnieje niespójność między niewerbalną treścią myślenia a środkami werbalnymi, która uniemożliwia konceptualizację treści myśli. Jest to obszar, w którym wiedza ukryta i wiedza formalna są od siebie niezależne. Zatem te niuanse, które wyznaczają granice artykulacji myślenia, mieszczą się również w zakresie nowoczesnego typu racjonalności.

Umiejętności i działania instrumentalne mają charakter racjonalny, ale w dużej mierze są indywidualne. Z drugiej strony spisane zasady i instrukcje nie zawsze mogą być racjonalne, ponieważ nie odtwarzają wszystkich tajemnic mistrzostwa i nie mogą zastąpić niewyrażonej technologii. Oprócz poszerzania nowoczesnego typu racjonalności, uwzględniającego potencjał tego, co niewyartykułowane, istnieją także możliwości jego rozbudowy, uwzględniając zasoby polisemantyzmu. Znaczenie twierdzeń naukowych jest pojmowane niejednoznacznie, ale znaczenie racjonalności jako takiej zależy od ukrytego kontekstu wiedzy, jak wiedza-umiejętność, wiedza-władza itp. Znaczenie kształtuje się jakby na płaszczyźnie siecznej - w procesie wewnętrznego lektura powstającego tekstu „dla siebie” i różnorodne czynniki związane z artykulacją „na zewnątrz”. Współcześni naukowcy argumentują, że znaczenie jest nierozerwalnie związane z osobistym zaufaniem pokładanym w głoszonym osądzie naukowym.

Można stwierdzić, że dla współczesnego postnieklasycznego typu racjonalności, oprócz jej realizacji w trybie przestrzeni strukturalnej, ważny jest holistycznie uchwycony obraz tej przestrzeni. Ważny jest Gestalt – formacja mentalna niezbędna do odtworzenia jednej integralnej struktury, która jednoczy i łączy różne elementy i komponenty. Penetracja zasad wschodniego światopoglądu we współczesnej mentalności sprawia, że ​​istotne staje się utożsamienie się z „kosmiczną racjonalnością”. Może obejmować idee harmonii, integralności człowieka i kosmosu, idee właściwej ścieżki i osobistego przeznaczenia.

Społeczno-kulturowy typ racjonalności, który uwzględnia hierarchię, podporządkowanie i inne funkcjonalne standardy zachowań, pokazuje, jak rozsądne są normy świata stworzonego przez człowieka. Jako innowacyjny typ racjonalności naukowcy wyróżniają racjonalność komunikacyjną.

Obecność „pułapek racjonalności”, gdy racjonalna strategia indywidualnego działania prowadzi do zbiorowej irracjonalności społecznej, jest uważana za szczególnie istotną dla tego etapu rozwoju metodologii. Wykazano, że w pewnych okolicznościach całkowicie racjonalna strategia indywidualna może być destrukcyjna i destrukcyjna dla jednostki.

Temat 6. Rozwój samodzielnie rozwijających się systemów synergicznych i nowych strategii badań naukowych

We współczesnej nauce postnieklasycznej cały potencjał nauk opisowych, wiedzy dyscyplinarnej, problemowych badań interdyscyplinarnych itp. skupia się na odtwarzaniu obrazu obiektywnej rzeczywistości.Badanie samorozwijających się układów synergicznych odbywa się w ramach badania interdyscyplinarne w kilku kierunkach: 1) model zaproponowany przez twórcę synergetyki G. Hakena; 2) I. Model Prigogine’a; 3) model szkoły rosyjskiej, na której czele stał S.P. Kurdyumov itp. Początek nowej dyscypliny zwanej „synergetyką” (w modelu I. Prigogine’a używa się zamiast tego innego terminu – „termodynamika nierównowagowa”) został zaznaczony przemówieniem w 1973 przez niemieckiego fizyka - teoretyka Herman Haken (ur. 1927) na pierwszej konferencji poświęconej problematyce samoorganizacji. We współczesnym postnieklasycznym obrazie świata porządek i struktura, a także chaos i scholastyka uznawane są za obiektywne, uniwersalne cechy rzeczywistości, obecne na wszystkich strukturalnych poziomach rozwoju. Problem nieuregulowanego zachowania się układów nierównowagowych jest przedmiotem zainteresowania synergetyki (od greckich synergos – dosł. „syn” – z i „ergos” – działanie, czyli pomoc, uczestnictwo) – teorii samoorganizacji, która ugruntowała swoją pozycję przedmiotem identyfikacji najbardziej ogólnych wzorców spontanicznej strukturogenezy.

Wskaźnikiem postępu jako stanu dążącego do zwiększania złożoności systemu jest obecność w nim wewnętrznego potencjału samoorganizacji. Ta ostatnia pomyślana jest jako globalny proces ewolucyjny, dlatego pojęcie „synergii” stało się szeroko rozpowszechnione we współczesnej filozofii nauki i jest najczęściej używane w znaczeniu „zjednoczonego działania”, „ciągłej współpracy”, „współdzielenia”. Haken w swojej klasycznej pracy Synergetics zauważył, że w wielu dyscyplinach, od astrofizyki po socjologię, obserwuje się zjawiska korporacyjne, które często prowadzą do pojawienia się mikroskopijnych struktur lub funkcji. Synergetyka w swoim obecnym stanie koncentruje się na tych sytuacjach, w których struktury lub funkcje systemów ulegają dramatycznym zmianom na poziomie makroskali. Szczególnie interesuje ją pytanie, w jaki sposób podsystemy lub części powodują zmiany, które są całkowicie spowodowane procesami samoorganizacji. Paradoksalnie, przy przechodzeniu ze stanu nieuporządkowania do stanu porządku wszystkie te układy zachowują się w podobny sposób.

W 1982 roku na konferencji na temat synergii, która odbyła się w ZSRR, określono konkretne priorytety dla nowej nauki. W szczególności G. Haken podkreślił, że w związku z kryzysem wysoko wyspecjalizowanych obszarów wiedzy informacje muszą być skompresowane do niewielkiej liczby praw, pojęć czy idei, a za jedną z takich prób można uznać synergię. Jego zdaniem zasady samoorganizacji układów o odmiennym charakterze (od elektronów po ludzi) są takie same, należy zatem mówić o ogólnych uwarunkowaniach procesów przyrodniczych i społecznych, których odnalezieniu ma służyć synergetyka.

Tym samym synergetyka okazała się bardzo produktywną koncepcją naukową, której przedmiotem były procesy samoorganizacji – geneza struktury spontanicznej. W krajowym modelu synergetyki i jego interpretacji przez krajowych naukowców ze szkoły S.P. Kurdyumowa uwaga skupia się na procesach zachodzących w trybie „zaostrzonym”. Synergetyka obejmowała nowe priorytety współczesnego obrazu świata – koncepcję niestabilnego, nierównowagowego świata, zjawisko niepewności i wieloalternatywnego rozwoju, ideę wyłonienia się porządku z chaosu.

Podstawową ideą synergii jest to, że nierównowaga jest pojmowana zgodnie ze źródłami powstania nowej organizacji, tj. porządek (dlatego główne dzieło I. Prigogine'a i I. Stengersa nosi tytuł "Porządek z chaosu"). Pochodzenie porządku utożsamiane jest z materią spontaniczną. System jest zawsze otwarty i wymienia energię z otoczeniem zewnętrznym, w zależności od charakterystyki jego parametrów. Stany nierównowagi są spowodowane przepływami energii między systemem a otoczeniem. Procesy lokalnego porządkowania odbywają się dzięki dopływowi energii z zewnątrz. Według G. Hakena przetwarzanie energii dostarczanej do układu przechodzi przez wiele etapów, co ostatecznie prowadzi do porządku na poziomie mikroskopowym: powstawanie struktur mikroskopowych (morfogeneza), ruch o niewielkiej liczbie stopni swobody itp. Przy zmieniających się parametrach ten sam system może wykazywać różne swobody samoorganizacji. W warunkach wysoce nierównowagowych systemy zaczynają dostrzegać te czynniki, na które były obojętne, będąc w stanie większej równowagi. W konsekwencji intensywność i stopień ich braku równowagi są ważne dla zachowania systemów samoorganizujących się.

Systemy samoorganizujące się znajdują wewnętrzne (immanentne) formy adaptacji do otoczenia. Warunki nierównowagi powodują efekt zbiorowego zachowania pierwiastków, które w warunkach równowagi zachowywały się niezależnie i autonomicznie. W sytuacjach braku równowagi, koherencji tj. spójność elementów systemu w dużym stopniu wzrasta. Pewna liczba lub zespół cząsteczek wykazuje spójne zachowanie, które ocenia się jako złożone. W The Philosophy of Instability I. Prigogine podkreśla: "Wydaje się, że cząsteczki znajdujące się w różnych regionach roztworu mogą w jakiś sposób komunikować się ze sobą. W każdym razie jest oczywiste, że daleko od równowagi, koherencja zachowania cząsteczek wzrasta W stanie równowagi cząsteczka widzi tylko swoich sąsiadów i „komunikuje się” tylko z nimi. Daleko od równowagi, każda część systemu widzi cały system jako całość. Można powiedzieć, że w stanie równowagi materia jest ślepa, ale poza równowagą widzi. „G. Haken nazywa te „zbiorowe” tryby ruchami. Jego zdaniem, tryby stabilne dostosowują się do niestabilnych i można je wykluczyć. prowadzi do kolosalnego spadku liczby stopni swobody, czyli do uporządkowania.

Układy synergiczne na poziomie bytu abiotycznego (materia nieorganiczna, czerwona) tworzą uporządkowane struktury przestrzenne; na poziomie organizmów jednokomórkowych oddziałują poprzez sygnały; na poziomie organizmów wielokomórkowych w trakcie ich funkcjonowania odbywa się różnorodna współpraca. Identyfikacja systemu biologicznego opiera się na obecności współpracujących zależności. Praca mózgu jest oceniana przez synergię jako „arcydzieło współpracy komórkowej”.

Nowe strategie badań naukowych w związku z koniecznością opanowania samoorganizujących się systemów synergicznych opierają się na konstruktywnym przyroście wiedzy w zakresie tzw. teorii zaburzenia ukierunkowanego, co wiąże się z badaniem specyfiki i rodzajów wzajemnych zależności między procesy strukturyzacji i chaosu. Próby zrozumienia pojęć „porządek” i "chaos” opierają się na klasyfikacji chaosu, który może być prosty, złożony, deterministyczny, przerywany, wąskopasmowy, wielkoskalowy, dynamiczny itp. Najprostszy rodzaj chaosu – niskowymiarowy – występuje w nauce i technologii oraz można opisać za pomocą systemów deterministycznych; jest to inne złożone zachowanie czasowe, ale bardzo proste zachowanie przestrzenne. Chaos niskowymiarowy towarzyszy nieregularnemu zachowaniu mediów nieliniowych. W reżimie turbulentnym zarówno parametry czasowe, jak i przestrzenne będą złożone i nieskoordynowane. Chaos deterministyczny implikuje zachowanie układów nieliniowych, które opisuje się równaniami bez źródeł scholastycznych, z regularnymi warunkami początkowymi i brzegowymi. Przyczyną utraty stabilności i przejścia w chaos są szum, zakłócenia zewnętrzne, czynniki zakłócające. Czasem rozważa się źródło chaosu być obecnością różnorodnych, absolutnie przypadkowych sekwencji. Do okoliczności powodujących chaos należy zasadnicza niestabilność ruchu, gdy dwa bliskie stany mogą dać początek różnym trajektoriom rozwoju, wrażliwie reagując na scholastykę działań zewnętrznych.

Współczesne badania w znaczący sposób uzupełniają tradycyjne poglądy na procesy chaotyzacji. Chaos wszedł w postklasyczny obraz świata nie jako źródło destrukcji, ale jako stan wywodzący się z pierwotnej niestabilności oddziaływań materialnych, które mogą być przyczyną spontanicznej genezy struktur. W najnowszych osiągnięciach teoretycznych chaos jawi się nie tylko jako bezkształtna masa, ale jako niezwykle złożona, zorganizowana sekwencja, której logika jest bardzo interesująca. Naukowcy definiują chaos jako ruch nieregularny o okresowo powtarzających się, niestabilnych trajektoriach, gdzie korelacja parametrów przestrzennych i czasowych charakteryzuje się losowym rozkładem.

W świecie stosunków międzyludzkich zawsze panował negatywny stosunek do struktur chaotycznych i pełna akceptacja tych uporządkowanych. Praktyka społeczna rozszerza się na chaos, niepewność, towarzysząc im negatywnymi formułami wartościującymi, próbując je wypchnąć poza granice metodologicznej analizy. To ostatnie wyraża się w triumfie racjonalistycznych utopii reżimów totalitarnych, które chcą ustanowić „całkowity porządek” i utrzymać go z „żelazną koniecznością”. Współczesna nauka przezwycięża tę postawę, oferując inne, konstruktywne rozumienie roli i znaczenia procesów chaosu w obecnym paradygmacie synergii.

Interpretacja spontaniczności rozwoju jako cechy negatywnej w kategoriach destrukcyjnej „arbitralności” i „chaosu” koliduje nie tylko z wyliczeniami współczesnej nauk przyrodniczych oraz analiz filozoficzno-metodologicznych, która chaos wraz z porządkiem uznaje za uniwersalne cechy rozwoju wszechświata, ale także z najstarszą tradycją historyczną i filozoficzną, w której chaos jest uważany za wszechogarniającą i generatywną zasadę. W starożytnym światopoglądzie niezrozumiały chaos jest obdarzony mocą formacyjną i oznacza „ziewanie”, „rozdziawianie”, pierwotny bezkształtny stan materii i pierwotną moc świata, który otwierając się, wypluwa rzędy życiodajnych uformowanych esencji . Ponad 20 wieków później ten starożytny światopogląd znalazł odzwierciedlenie we wnioskach naukowców, którzy twierdzą, że odkrycie dynamicznego chaosu jest w rzeczywistości odkryciem nowych rodzajów ruchu, o charakterze tak fundamentalnym, jak odkrycie przez fizykę cząstek elementarnych, kwarki i gluny jako nowe elementy materii. Nauka o chaosie jest nauką o procesach, a nie o stanach, o stawaniu się, a nie o bycie.

Nowe strategie badań naukowych w związku z koniecznością opanowania samoorganizujących się systemów synergicznych przemyśleją na nowo rodzaje powiązań między strukturalizacją i chaotyzacją, reprezentowane przez schemat cykliczności, relacje binarne i komplementarne. Binarna struktura interakcji porządku i chaosu przejawia się we współistnieniu i konfrontacji tych dwóch elementów. W przeciwieństwie do cykliczności, która implikuje zmianę stanów, binarna opozycja porządku i chaosu wiąże się z wielością efektywnych efektów: jest to zarówno negacja, jak i transformacja przy zachowaniu pierwotnej podstawy (powiedzmy, więcej porządku i więcej chaosu) i rozwinięciu ta sama konfrontacja na nowej podstawie (na przykład czasy są inne, ale rozkazy lub wady są takie same). Relacja komplementarności zakłada wtargnięcie nieustrukturyzowanych sił i fragmentarycznych formacji w zorganizowaną całość. Można tu zaobserwować nietypowe dla niej zaangażowanie w integralność elementów obcych, wtrącenia w ustalony system składników struktur wtórnych, często bez nowatorskich przekształceń i zmian w systemie złożoności.

Dla rozwoju samoorganizujących się systemów synergicznych wskazana jest nowa strategia poszukiwań naukowych, oparta na zasadzie drzewiastej (schemat strukturalno-logiczny, wykres), która odtwarza alternatywny rozwój. Wybór wiodącej trajektorii rozwoju zależy od warunków początkowych, zawartych w nich elementów, zmian lokalnych, czynników losowych i oddziaływań energetycznych. Na 1995. Międzynarodowym Kongresie Logiki, Metodologii i Filozofii Nauki, który odbył się w sierpniu XNUMX r. we Florencji, I. Prigogine zaproponował rozważenie idei pomiaru kwantowego w odniesieniu do wszechświata jako podstawy. Nowa strategia badań naukowych polega na uwzględnieniu fundamentalnej niejednoznaczności zachowania systemów i ich elementów składowych, możliwości przeskakiwania z jednej trajektorii na drugą oraz utraty pamięci, gdy system, zapomniawszy o swoich przeszłych stanach, działa spontanicznie i nieprzewidywalnie . W krytycznych punktach ukierunkowanych zmian możliwy jest efekt oddziałów, co pozwala na liczne kombinacje ich ewolucji w perspektywie funkcjonowania takich systemów.

Warto zauważyć, że zastosowano podobne podejście metodologiczne z wykorzystaniem grafik analizy rozgałęzień AJ Toynbee (1889-1975) w odniesieniu do ogólnego procesu rozwoju cywilizacyjnego. Nie ignoruje prawa do istnienia różnych typów cywilizacji, których według historyka jest około 21. Rozwój cywilizacyjny nie podlega jednemu schematowi, zakłada wielowymiarowy rozwój cywilizacyjny, w którym przedstawiciele tego samego typu społeczeństwo różnie reaguje na tak zwane historie wyzwań: niektórzy umierają natychmiast; inni przeżywają, ale za taką cenę, że potem nie są już do niczego zdolni; jeszcze inni tak skutecznie stawiają czoła wyzwaniu, że wychodzą nie tylko nie osłabieni, ale nawet stworzywszy najkorzystniejsze warunki do przezwyciężenia przyszłych prób; Są tacy, którzy podążają za pionierami, jak owce za swoim przywódcą. Geneza niezależnych cywilizacji nie jest związana z oddzieleniem się od wcześniejszych formacji społecznych tego samego gatunku, ale raczej z mutacjami społeczeństw siostrzanych lub społeczeństw prymitywnych. Rozpad społeczeństw również następuje na różne sposoby i z różną szybkością: niektóre rozkładają się jak ciało, inne jak pień drzewa, a jeszcze inne jak kamień na wietrze. Społeczeństwo, zdaniem Toynbeego, jest skrzyżowaniem pól działania poszczególnych jednostek, których energia jest siłą życiową tworzącą historię. Ta konkluzja historyka w dużej mierze jest zgodna z jednym z wiodących założeń metodologii postnieklasycznej, przemyślenia na nowo roli i znaczenia jednostki jako inicjatora „skoku twórczego”, wymuszającego nowe spojrzenie na przeszłość, wydarzenia które miały miejsce pod wpływem mniejszości, wielkich ludzi i proroków.

Specyficzna otwartość organizacyjna świata zakłada różnorodność sposobów kwantyzacji rzeczywistości, różne scenariuszowo-strukturalne powiązania materii. Strategia opanowania samoorganizujących się układów synergicznych wiąże się z takimi pojęciami jak „bifurkacja”, „fluktuacja”, „chaosomalność”, „rozproszenie”, „atraktory”, „nieliniowość”, „niepewność”, którym nadawany jest status kategoryczny i służą do wyjaśniania zachowań wszystkich typów systemów - deorganicznych, organizmicznych, społecznych, aktywnościowych, etnicznych, duchowych itp.

W warunkach odległych od równowagi działają mechanizmy bifurkacyjne, co sugeruje obecność punktów bifurkacyjnych i niejednolitą kontynuację rozwoju. Skutki ich działania są trudne do przewidzenia. Według I. Prigożyna procesy bifurkacji wskazują na złożoność układu. N. Moiseev argumentuje, że w zasadzie każdy stan systemu społecznego jest rozwidlony, a w globalnych wymiarach antropogenezy rozwój ludzkości doświadczył co najmniej dwóch rozwidleń: pierwsze nastąpiło w epoce paleolitu i doprowadziło do powstania system tabu ograniczający działanie praw biospołecznych (nie zabijaj!), drugi – w epoce neolitu i związany jest z poszerzaniem niszy geologicznej (rozwój rolnictwa i hodowli bydła).

Fluktuacje, tj. zakłócenia dzielą się na dwie klasy: te wytwarzane przez środowisko zewnętrzne i te odtwarzane przez sam system. Fluktuacje mogą być tak silne, że mają gęstość systemową, nadając mu własne wahania i w istocie zmieniając sposób jego istnienia. Wyprowadzają system z jego wrodzonego rodzaju porządku, ale odrębną kwestią jest to, czy koniecznie prowadzi to do chaosu, czy do porządku na innym poziomie.

System, przez który rozpraszane są zakłócenia, nazywa się rozpraszającym. W istocie jest to cecha zachowania systemu podczas wahań, które go całkowicie pochłonęły. Główną właściwością układu rozpraszającego jest jego niezwykła wrażliwość na wszelkiego rodzaju wpływy i w związku z tym ekstremalna nierównowaga.

Atraktory nazywane są zbiorami przyciągającymi, które tworzą rodzaj centrów, do których przyciągają elementy. Na przykład, gdy gromadzi się duży tłum ludzi, człowiek nie może przejść obojętnie obok niego bez okazania ciekawości. W teorii samoorganizacji taki proces nazywa się przesuwaniem do punktu akumulacji. Atraktory skupiają wokół siebie elementy scholastyczne, tym samym strukturyzując otoczenie i stając się uczestnikami tworzenia ładu.

Priorytetowy kierunek nowego paradygmatu – analiza układów niestabilnych, nierównowagowych – stoi przed koniecznością zbadania zjawiska niepewności ontologicznej, która ujmuje brak realnego desygnatu przyszłości. W połowie XX wieku. niepewność wzbudziła zainteresowanie wielu zachodnich naukowców w ramach problemów cybernetyki i komunikacji komputerowej. W pracach N. Wienera, K. Shannona, W. Ashby'ego, H. Hartleya informację uzależniano od niepewności i mierzono jej miarą. Powszechnie przyjęto, że niepewność (lub niespodzianka) jest odwrotnie proporcjonalna do prawdopodobieństwa: im bardziej prawdopodobne było zdarzenie, tym mniej było niepewne i nieoczekiwane. Dalsza analiza wykazała, że ​​związek ten pod wieloma względami wydaje się jedynie prosty: niepewność jest rodzajem interakcji, któremu brakuje ostatecznej, stabilnej formy. Można to wyprowadzić z heteronomicznego charakteru obiektu-zdarzenia, gdy dzieje się to, jak mówią, na naszych oczach, przed wszelkimi przewidywaniami, kalkulacjami i oczekiwaniami. Zjawisko niepewności utożsamiamy z potencjalną kompletnością wszystkich możliwych zmian w granicach istniejących podstawowych stałych fizycznych. Prawdopodobieństwo zakłada stabilny rozkład cech populacji i ma na celu obliczenie kontinuum możliwych zmian.

Dla nowej strategii badań naukowych istotna jest kategoria losowości, która jawi się jako cecha zachowania dowolnego typu układu, nie tylko złożonego, ale także prostego. Co więcej, ich dalsze badanie, niezależnie od tego, jak starannie jest prowadzone, w żaden sposób nie prowadzi do wyzwolenia się od przypadkowości. To drugie oznacza, że ​​właściwości i cechy poszczególnych zjawisk zmieniają swoje znaczenia niezależnie i nie są zdeterminowane listą cech innych zjawisk. W jednej z najnowszych interpretacji taką przypadkowość nazwano chaosem dynamicznym. Szansa powstająca w wyniku działania przyczyn ubocznych, nieregularnych, małych lub splotu przyczyn złożonych, jest konkretnym i szczególnym przejawem niepewności.

Kategoria możliwości odzwierciedla przyszły stan obiektu. Szansa ma na celu skorelowanie przesłanek i trendów ewoluującego zjawiska oraz sugeruje możliwości kolejnych etapów rozwoju i zmian. Zbiór możliwości stanowi egzystencjalne pole niepewności. Obecna sytuacja jest często oceniana jako niepewna ze względu na występowanie wielu konkurencyjnych możliwości. Niepewność towarzyszy procedurze selekcji i kwalifikuje stan „wstępnej selekcji” systemu. Co więcej, wybór rozumiany jest nie tylko jako świadome i celowe działanie, ale także jako aktualizacja scholastycznej przyczynowości procesu przyrodniczego lub przyrodniczo-historycznego. Niepewność potencjalnie zawiera równie możliwe liczne opcje, gdy „wszystko jest możliwe” (oczywiście w granicach podstawowych stałych fizycznych). Następnie jest zorganizowana w sytuację i w swojej wypełnionej formie jest jej przeciwieństwem, tj. pewność.

Niezbędne w nowej strategii badania układów samoorganizujących się statystyczne prawidłowości kształtują się w języku rozkładów prawdopodobieństwa i manifestują się jako prawa zjawisk masowych oparte na wielkich liczbach. Uważa się, że ich działanie znajduje się tam, gdzie dla różnych przypadkowych przyczyn istnieją głębokie niezbędne powiązania. Nie dają absolutnej powtarzalności, jednak w ogólnym przypadku ich ocena jako prawidłowości przyczyn trwałych jest uzasadniona. Współczesna synergetyka charakteryzuje się rozróżnieniem dwóch ewolucyjnych gałęzi rozwoju: organizmowej i nieorganicznej. Żywy świat potwierdza wyjątkową zdolność do wytwarzania uporządkowanych form, jakby kierował się zasadą „porządek od porządku”. Aspiracja materii bezwładnej to podejście do chaosu, wzrost entropii z późniejszą genezą struktury. Podstawą subtelnych praw fizycznych jest nieporządek atomowy. Główną ewolucyjną cechą żywych istot jest minimalny wzrost entropii. Z tezy o minimalnej produkcji entropii wynika, że ​​warunki uniemożliwiają przejście układu w stan równowagi, przechodzi on w stan entropii, który jest tak bliski równowagi, jak pozwalają na to okoliczności.

Postulat współczesnych nauk przyrodniczych – „wystarczy to, co w przeważającej mierze prawdopodobne” – nie wyklucza „kawałka po kawałku” analizy zdarzeń nieoczekiwanych, nieprawdopodobnych, ale przez to maksymalnie pojemnych, co ułatwiają tak innowacyjne środki strategii poszukiwań naukowych, jak sytuacyjne determinacja (etapy przypadku), uprowadzenie, kumatoid.

Analiza według typu „studiów przypadku” (case studies) polega na badaniu indywidualnych, szczególnych sytuacji, które nie mieszczą się w ustalonych kanonach wyjaśniania. Uważa się, że idea podejścia sytuacyjnego wywodzi się z metody ideograficznej (opisowej) szkoły badeńskiej. Istnieją dwa rodzaje studiów przypadku: tekstowe i terenowe. Zaletą studiów przypadku jest to, że treść systemu wiedzy ujawnia się w kontekście pewnego zestawu warunków, specyficznych i szczególnych form sytuacji życiowych, otwierając tym samym zasłonę na tajemnice realnego procesu poznawczego.

Faza „wnioskowania do najlepszego wyjaśnienia faktów” nazywana jest uprowadzeniem. Takie wnioski są wykorzystywane w życiu codziennym oraz w praktyce. Na przykład lekarz szuka przyczyny choroby po objawach choroby, detektyw szuka przestępcy po śladach pozostawionych na miejscu zbrodni. Podobnie naukowiec, próbując znaleźć najskuteczniejsze wyjaśnienie tego, co się dzieje, posługuje się metodą uprowadzenia: znaczenie odbitej przez niego procedury i konstruowania nowej, skutecznej strategii metodologicznej jest bardzo istotne.

Kolejną innowacją współczesnych strategii naukowo-technicznych jest kumatoid (od greckiego kuma – fala) – pewien rodzaj pływającego obiektu, którego cechą charakterystyczną jest to, że może pojawiać się, tworzyć, znikać lub rozpadać się. Nie reprezentuje wszystkich swoich elementów jednocześnie, ale niejako przedstawia je w niepowtarzalnym „zmysłowo-nadzmysłowym” obrazie. Na przykład taki obiekt systemowy, jakim jest człowiek, nie może być reprezentowany i umiejscowiony w określonym obszarze czasoprzestrzennym, ponieważ nie da się zgromadzić wszystkich ludzi, aby obiekt mógł zostać przedstawiony całościowo. Obiekt ten jednak nie jest fikcyjny, lecz realny, obserwujemy, badamy, a ponadto w dużej mierze wyznacza kierunek całego procesu cywilizacyjno-historycznego jako całości. Innym prostym i łatwo dostępnym przykładem jest grupa studentów. Jest to także rodzaj obiektu unoszącego się w powietrzu (obiekt znikający lub pojawiający się), który nie występuje we wszystkich systemach interakcji. Zatem po zakończeniu szkoleń grupa jako integralny przedmiot przestaje istnieć, natomiast w pewnych, instytucjonalnie zaprogramowanych sytuacjach (liczba grupy, liczba uczniów, ogólna charakterystyka) grupa jako przedmiot zostaje odkryta i samoidentyfikowana. Dodatkowo taki kumatoid wspierany jest także pozainstytucjonalnie, podsycany różnorodnymi impulsami – przyjaźnią, rywalizacją, solidarnością, wsparciem itp.

Osobliwością kumatoidu jest to, że jest on nie tylko obojętny na lokalizację czasoprzestrzenną, ale także luźno związany z samym podłożem - materiałem, który go tworzy. Jego właściwości mają charakter systemowy, a zatem zależą od obecności lub braku jego elementów składowych, a zwłaszcza od trajektorii ich rozwoju lub zachowania. Kumatoidu nie da się jednoznacznie utożsamić z jedną określoną cechą lub z zespołem podobnych cech utrwalonych w sposób materialny. Całe życie społeczne jest zalane pływającymi obiektami - kumatoidami. Cechą charakterystyczną tego zjawiska jest także pewna predykatywność jego funkcjonowania (być człowiekiem, być nauczycielem, być członkiem określonej grupy społecznej itp.). Oczekuje się, że kumatoid będzie odtwarzał niektóre z najbardziej typowych cech behawioralnych.

Nowe strategie badań naukowych wskazują na fundamentalną hipotetyczną naturę wiedzy. W szczególności w jednej z możliwych interpretacji post-nieklasycznego obrazu świata taki stan wszechświata znajduje uzasadnienie, gdy mimo nieprzewidywalności fluktuacji (przypadkowych perturbacji i zmian warunków początkowych) zbiór możliwych trajektorie (ścieżki ewolucji systemu) są zdefiniowane i ograniczone. Przypadkowe fluktuacje i punkty bifurkacji zmieniają trajektorie układu w trudny do przewidzenia sposób, jednak trajektorie te skłaniają się ku określonym typom atraktorów i w efekcie doprowadzają układ niestabilny względem najmniejszych zmian warunków początkowych do nowy niestabilny stan.

Temat 7. Nauka jako instytucja społeczna

7.1. Instytucjonalizacja nauki i jej problemy filozoficzne

W szerokim znaczeniu instytucja społeczna jest rozumiana jako element struktury społecznej, historyczna forma organizacji i regulacji życia społecznego – zespół instytucji, norm, wartości, wzorców kulturowych, trwałych form zachowań. Liczne definicje nauki dostępne w literaturze są zgodne co do jednego: wszystkie traktują naukę jako wyjątkową formę działalności. Definiując naukę, najczęściej odwołuje się do jej genetycznych powiązań z kulturą, która jest najsolidniejszym fundamentem nauki. Jednocześnie roszczenia nauki do statusu instytucji społecznej uzasadniają dwie okoliczności. Po pierwsze, granice jego funkcjonowania są na tyle rozległe, że z pewnością dotyka kultury i wchodzi z nią w komunikację. Po drugie, sama nauka jest w stanie stać się naprawdę solidnym fundamentem kultury, zarówno w aspekcie działalności, jak i technologii. Dlatego też całkiem słuszne i uzasadnione jest nazywanie nauki zjawiskiem społeczno-kulturowym, dlatego jej rola aplikacyjna znacznie wzrasta. Wspólnota nauki i kultury jest w stanie stworzyć cywilizację.

Oczywiście rola nauki nie ogranicza się do jej kontaktów z kulturą. Możliwości nauki są znacznie szersze. Ujęty w kontekście społecznym może wpływać na politykę społeczeństwa i zaspokajać jego potrzeby ideologiczne. Istnieją różne modele relacji nauki z ideologią: potępienie, obojętność, apologetyka, wyzysk itp. Nauka może znaleźć się w służalczej zależności, wypełniając „porządek społeczny”. Praktyka ta jest szczególnie typowa dla przemysłu wojskowego (obronnego). Najbardziej od ideologii uzależnione są nauki humanistyczne, najmniej nauki przyrodnicze. Nauki techniczne są ograniczone przez stosowane cele, zapotrzebowanie na produkcję i stopień wdrożenia. Nauka jednak nie może całkowicie uwolnić się od wpływu społeczeństwa, choć do tego dąży. Czynniki społeczno-psychologiczne determinujące naukę wymagają wprowadzenia w kontekst nauki idei dotyczących świadomości historycznej i społecznej, refleksji nad typami zachowań naukowców, poznawczymi mechanizmami poznania i motywacją do działalności naukowej. Zobowiązują one naukę do poddania się badaniom socjologicznym, zwłaszcza że będąc zjawiskiem społeczno-kulturowym, nauka ma nie tylko pozytywne, ale i negatywne konsekwencje swojego rozwoju.

Współczesna nauka jest uzależniona od wielu czynników determinujących jej rozwój, wśród których oprócz potrzeb produkcji i gospodarki można wymienić priorytety państwowe oraz własne czynniki intelektualne, filozoficzne, religijne i estetyczne, a także mechanizmy wsparcia społecznego. do badań naukowych. Wszystkie te czynniki łącznie nakładają na naukowca wymogi etyczne: bezinteresowność, obiektywizm, sumienność naukowa, poczucie obowiązku wobec tradycji intelektualnych, które wyznaczają jego moralne wytyczne.

Nauka rozumiana jako zjawisko społeczno-kulturowe wiąże się z korelacją z typem rozwoju cywilizacyjnego. Według klasyfikacji A.J. Toynbee rozróżnia się 21 typów cywilizacji. Bardziej ogólne podejście zakłada ogólny podział cywilizacyjny, uwzględniający dwie odmiany cywilizacji: tradycyjną i technogeniczną. Są między nimi pewne różnice. W szczególności ponowne przemyślenie tradycyjnych koncepcji konserwatywnych podyktowane jest koniecznością wykorzystania nie tylko wewnętrznych, ale i uniwersalnych rezerw myślenia. Technogeniczny typ rozwoju implikuje przyspieszoną zmianę środowiska przyrodniczego w połączeniu z aktywną transformacją więzi społecznych czynnika ludzkiego. Kulturowa matryca rozwoju technogenicznego przechodzi przez etapy rozwoju przedindustrialnego, przemysłowego, postindustrialnego. Trzystulecie życia cywilizacji technogenicznej zademonstrowało swoją aktywność, graniczącą z agresywnością, co wskazuje na obecność głębokich konsekwencji ludzkiej ingerencji w tajemnice natury i jej odpowiedzialność wobec społeczeństwa.

Osobowość naukowca, jego ruch ku prawdzie jest tradycyjnym przedmiotem zainteresowania samych naukowców. Na przykład, max Weber (1864-1920) widział obowiązek naukowca w ciągłym pokonywaniu samego siebie, bezwładności własnego myślenia. A każdy, kto nie jest do tego zdolny, nie powinien zajmować się nauką! Intelektualiści stanowią szczególne środowisko naukowe. Jej najwybitniejsi przedstawiciele tworzą tzw. elitę (od elity francuskiej – najlepszą, najbardziej wyselekcjonowaną). Według niektórych szacunków wybuchy elitarnej działalności naukowej mają dwa szczyty: pierwszy w wieku 32–36 lat, drugi w wieku 42–46 lat. W rzadkich przypadkach taka płodność naukowa jest przekazywana w drodze dziedziczenia. Według niektórych obserwacji (wiceprezes Kochanowski, T.G. Leszkiewicz i in.) z wiekiem elita traci swoją „elitarność”, formalnie podtrzymując swój wizerunek i utrudniając rozwój młodych ludzi. Należy zauważyć, że rozumowanie autorów na temat elit w nauce nie ma dowodów empirycznych, ale zakłada się, że mogą takie istnieć. Na przykład wiceprezes Kokhanovsky uważa pięć cech za warunki przynależności do elity, których obecność, jego zdaniem, stanowi podstawę awansu do kategorii elit:

1) wybór naukowca na członka zwyczajnego, członka korespondenta, członka honorowego akademii, instytucji naukowych i stowarzyszeń;

2) przyznawanie nagród i medali za działalność naukową;

3) umieszczenie informacji biograficznej o naukowcu w specjalnych informatorach i encyklopediach;

4) udział w pracach rad redakcyjnych, publikacji o wysokich kwalifikacjach naukowych;

5) wysoki wskaźnik cytowania naukowca przez członków światowego środowiska naukowego.

Instytucjonalne podejście do nauki w Rosji jeszcze się nie ukształtowało, ale obiecuje pozytywne perspektywy. Przodkiem tego podejścia jest amerykański socjolog Robert Król Merton (ur. 1910). Jak wiadomo, pojęcie „instytucji społecznej” odzwierciedla stopień utrwalenia określonego rodzaju ludzkiej działalności i nieformalnych relacji przez rodzaj umów i negocjacji do tworzenia struktur organizacyjnych. W związku z tym używa się słowa o instytucjach politycznych, społecznych, religijnych, a także instytucji rodziny, szkoły, instytucji. Ale filozoficzne podstawy tego zjawiska w Rosji jeszcze się nie rozwinęły.

Instytucjonalność w odniesieniu do indywidualnego podmiotu ma siłę przymusu. Instytut, zdaniem Webera, jednoczy ludzi, włączając ich w działania zbiorowe, systematyzuje procesy edukacyjne. W powijakach normy te istniały w średniowiecznych klasztorach i na uniwersytetach, w systemie profesjonalnej działalności naukowej. O skuteczności edukacji decydują cele stawiane przez uczestników procesu; zależy to od tego, co chcą zrealizować poprzez edukację. Wiąże się z tym problem orientacji zawodowej i społecznej, tj. jak człowiek określa swoje miejsce w życiu, w systemie stosunków społecznych.

Orientacja zawodowa i społeczna są w dużej mierze ze sobą powiązane. Jeśli więc orientacja zawodowa zakłada istnienie zespołu zawodów, w których podmiot może realizować swoje istniejące możliwości, to orientacja społeczna jest rozumiana jako określenie przez człowieka swojego miejsca w systemie stosunków społecznych, wybór jego pozycji społecznej. Społeczeństwo postępuje źle, jeśli nie wspiera dążenia ludzi do awansu społecznego. Pragnienie to stwarza konkurencję, w związku z czym społeczeństwo ma większe możliwości selekcji kandydatów na określone stanowiska, w tym w nauce. Przemiany rynkowe w Rosji znacząco zwiększyły orientację młodych ludzi na edukację. Coraz więcej osób chce zdobyć wykształcenie finansowe, ekonomiczne i prawne, a coraz mniej osób chce zostać pracownikami. Ludzie chcą być nie przedmiotem, ale podmiotem swojego losu, chcą zajmować aktywną pozycję w życiu. Nie oczekują już łask ani od natury, ani od władzy. Jak pisze Ż. T. Toszczenko, badając orientację zawodową uczniów szkół średnich, okazało się, że tylko jeden z respondentów chciał zostać robotnikiem – poszukiwaczem (wydaje się, że marzył o znalezieniu bryłki złota!).

7.2. Rozwój metod transferu wiedzy i dynamika wiedzy naukowej

Każdy kraj jest zainteresowany postępem nauki ze względu na oczywiste korzyści dla jej rozwoju. W społeczeństwie ludzkim istnieje kilka sposobów przekazywania wiedzy z pokolenia na pokolenie: synchroniczny, diachroniczny, translacyjny itp. Istotą synchronicznego transferu jest asymilacja wiedzy poprzez kontaktową komunikację między pokoleniami, gdy istnieją one razem. Metoda diachroniczna polega na przekazywaniu wiedzy pomiędzy pokoleniami poprzez tłumaczenie wiedzy. Pomiędzy tymi formami nie ma nieprzekraczalnej granicy, przenikają się i uzupełniają. Współczesne społeczeństwo stale doskonali metody transferu wiedzy zarówno w poziomie (terytorialnym), jak i wertykalnym (z pokolenia na pokolenie). Najważniejszy sposób przekazywania wiedzy – pismo – charakteryzuje poziom rozwoju społeczeństwa, łączy przeszłość z teraźniejszością i przyszłością, czyniąc ją ponadczasową. Masowe rozpowszechnienie pisma przyczyniło się do powstania tzw. społeczeństwa informacyjnego.

Uważa się, że język mówiony jest najbliższy znaczącemu. Słowa, głos są bliższe umysłowi niż znak pisany. Taką dwuwarstwową strukturę języka po raz pierwszy badał słynny szwajcarski językoznawca Ferdinand de Saussure (1857-1913). Zaproponował, aby traktować język jako system, rozróżniając językoznawstwo języka i językoznawstwo mowy, synchroniczność i diachronię oraz wyróżnił takie właściwości języka, jak obiektywność i operacjonalność. Wiedza naukowa ma swoje wymagania wobec języka: neutralność, brak indywidualności i dokładne odzwierciedlenie bytu. Język nauki powinien być kopią przedmiotu badań, choć zawsze okazuje się więźniem mentalności, zawierającej tradycje wypowiedzi, przyzwyczajenia, przesądy, „ducha” ludu. Pisanie było pierwotnie pomyślane jako sposób obrazowania mowy i jako sposób na zastąpienie osobistego uczestnictwa, ale jednocześnie ograniczało swobodę refleksji, zawieszało tok myśli.

Sposoby przekazywania wiedzy naukowej związane są z typem systemu społecznego. W tradycyjnym społeczeństwie ważne miejsce zajmuje postać nauczyciela, nauczyciela przekazującego wiedzę swoim uczniom. Uczeń musi uchwycić i ujawnić znaczenia, odprzedmiotowić treść wiedzy, zastosować ją do własnych, indywidualnych działań. Dziś technologia informacyjna ma ogromny wpływ na przekazywanie wiedzy naukowej. Mają znaczne zalety: mają znacznie większą ilość informacji, większą szybkość tłumaczenia i przetwarzania. Intensyfikacja technologii informacyjnych podnosi poziom wykształcenia ludzi, intelektualizację społeczeństwa i rozszerza jego informatyzację. Nowa rzeczywistość oferuje człowiekowi wirtualne sposoby interakcji: anonimowo, bezosobowo, bez moralizacji. Internet zaciera ścisłe kryteria uczenia się, utrudniając wybór sensownych informacji. Jest „po drugiej stronie dobra i zła”.

7.3. Problem społecznej regulacji nauki”

Społeczna regulacja nauki to proces rozwoju przez społeczeństwo i stan orientacji wartości, priorytetów strategicznych, norm prawnych regulujących działalność środowiska naukowego, organizacji badawczych i konkretnych naukowców. Konieczność takiej regulacji wynika z faktu, że nauka jako instytucja społeczna pełni ważne funkcje związane z rozwojem nowej wiedzy, rozwojem postępu naukowo-technicznego itp. Dlatego społeczeństwo, państwo nie mogą być obojętne na problemy rozwoju naukowego. Tymczasem w tej dziedzinie istnieje wiele kontrowersji. Amerykański filozof technologii E. Layton, badając problem społecznej regulacji nauki na przykładzie 700 innowacji technologicznych, doszedł do wniosku, że uzyskanie chwilowych korzyści z innowacyjnych inwestycji kapitałowych jest niemożliwe. Jak widać, praktyka empiryczna nie przyczynia się do wprowadzania innowacji naukowych w przemyśle. Mechanizmy hamujące tych ostatnich wstrzymują postęp techniczny, „pracują” na rzecz zachowania istniejącej technologii, chroniąc ją przed nagłą zmianą i dekonstrukcją. Praktyka ta nie sprzyja przyspieszonemu wprowadzaniu innowacji technicznych do produkcji i nie gwarantuje, że innowacje znajdą zastosowanie technologiczne. Jednocześnie naukowcy dochodzą do wniosku, że jeśli działalność naukowa na rzecz wytwarzania wiedzy fundamentalnej i jej stosowania zostanie zawieszona na co najmniej 50 lat, to nigdy nie będą mogli wznowić ze względu na deprecjację dotychczasowej wiedzy.

Problem interakcji sztucznego świata ze światem przyrody wciąż pozostaje nie do rozwiązania. Na przykład generatory niskiej częstotliwości stosowane w urządzeniach gospodarstwa domowego zmieniają zwykłe środowisko codziennej ludzkiej egzystencji. Ale badanie konsekwencji ich wpływu nie jest zorganizowane, chociaż wstępne eksperymenty wykazały szkodliwy wpływ tego wpływu na psychikę i zdrowie człowieka. Brak strategii koewolucyjnej w państwowej regulacji rozwoju technologicznego wprowadza dysharmonię natury psychologicznej i medycznej w strukturę zdrowego stylu życia.

Niepokojący jest status społeczny współczesnego naukowca: można stwierdzić występowanie wielu problemów społecznych, ekonomicznych, logistycznych, finansowych, psychologicznych, aksjologicznych i innych, które negatywnie wpływają na jego status społeczny i prawny.

Wszystkie powyższe problemy można odnieść do systemu powiązań, jaki rozwinął się pomiędzy nauką a rządem. Francuski filozof M. Foucault próbował wyjaśnić związek między władzą a wiedzą. Wydawało mu się, że nauka jest synonimem władzy i sformułował ideę „Wiedza to potęga” (wersja rosyjska: „Wiedza to potęga”). Relacje między rządem a nauką w Rosji zawsze były złożone. W szczególności władze sowieckie, ukrywając się za społeczną demagogią na temat stopniowej konwergencji pracy fizycznej i umysłowej w okresie tzw. „rozszerzonej budowy komunizmu”, realizowały linię polityczną zmierzającą do obniżenia płac pracowników naukowych do poziomu płace robotników wykonujących pracę fizyczną, aby w ten sposób stworzyć pozory realizacji swojego propagandowego przedsięwzięcia. Stopniowo w wyniku tej awanturniczej polityki nastąpił spadek prestiżu pracy umysłowej. Sowieci popadli w zapomnienie, ale trend ten żyje dzięki inercji, stymulując migrację tam, gdzie ludzka myśl jest coś warta – na Zachód. Według niektórych szacunków liczba emigrantów z kraju na początku tego stulecia przekroczyła dziesięć milionów. To prawda, że ​​straty ludzkie tego czasu zostały zrekompensowane napływem z Południa, powrotem rodaków do ojczyzny historycznej i napływem niewykwalifikowanych pracowników, bezrobotnych, z byłych braterskich republik. Zaprawdę, totalitaryzm i nauka są nie do pogodzenia!

7.4. Koszty postępu technologicznego i problemy przezwyciężania globalnych kryzysów

Współczesne zmiany w świecie związane z postępem technologicznym nastąpiły głównie na skutek znacznego wzrostu zatrudnienia w sektorze usług i odwrotnie, znacznego zmniejszenia liczby pracowników w systemie produkcyjnym. Na przykład w Stanach Zjednoczonych pod koniec ubiegłego wieku 22% pracowników było zatrudnionych w przemyśle, 3% w rolnictwie, a 75% w sektorze usług. Uwolnienie siły roboczej w sektorze produkcyjnym i jej redystrybucję na korzyść usług ułatwiły takie czynniki, jak wzrost wydajności pracy, automatyzacja pracy itp. Sektor usług to nie tylko usługi gospodarstwa domowego. Kategoria usług obejmuje usługi informacyjne, biznesowe, profesjonalne, prawne, organizacyjne, reklamowe, medyczne, edukacyjne, handlowe, transportowe, komunikacyjne itp.

Podobny rozkład zasobów pracy jest charakterystyczny dla większości rozwiniętych krajów zachodnich, które w swoim rozwoju osiągnęły poziom społeczeństwa postindustrialnego. Wprowadzenie zaawansowanych technologii w przemyśle i rolnictwie okazało się na tyle istotne, że możliwe stało się „redystrybucja” znacznej ilości zasobów pracy do sektora usług i marketingu. Taka jest specyfika społeczeństwa postindustrialnego, które często nazywane jest także społeczeństwem informacyjnym. Znaczenie takiego rozwidlenia tej koncepcji polega na tym, że ten rodzaj społeczeństwa wiąże się ze zwiększoną aktywnością człowieka i nie można go sobie wyobrazić bez wsparcia informacyjnego, bez zdolności osoby do szybkiego reagowania na zmieniającą się sytuację życiową, jego inicjatywy , zdolności do porozumiewania się; bez jego wykształcenia i świadomości, wychowania i kompetencji. Ludzie w tym społeczeństwie nie są tak podzieleni klasowo; znaki te są usuwane, chociaż nie zniknęły całkowicie.

W społeczeństwie postindustrialnym podział pracowników według klas ustępuje miejsca zróżnicowaniu ze względu na dochody. Zatem pracownicy najemni w takim społeczeństwie to nie tylko robotnicy (jak to miało miejsce w społeczeństwie przemysłowym), do tej kategorii zaliczają się zarówno specjaliści, jak i menedżerowie przedsiębiorstw, z których każdy może mieć swój udział w produkcji w postaci udziałów. Kolejną, nie mniej powszechną warstwą społeczną społeczeństwa postindustrialnego są tzw. warstwy średnie, które z reguły stanowią podstawę społeczeństwa. Na szczycie tego podziału znajdują się warstwy o wysokich i bardzo wysokich dochodach. Z drugiej strony na dole znajdują się warstwy o skrajnie niskich dochodach, które otrzymują dotacje od społeczeństwa, a jeszcze niżej – marginalizowane, stanowiące „rezerwę” dla narkomanii i przestępczości. Podany podział nie jest nieruchomy. Wręcz przeciwnie, jest niestabilny, co w socjologii rozpatrywane jest w kategoriach mobilności pionowej. Sprawiedliwość społeczna w społeczeństwie postindustrialnym osiągana jest w cywilizowanych formach, poprzez negocjacje i mediację związków zawodowych pomiędzy pracodawcą a pracownikiem.

Szczególnym problemem społeczeństwa postindustrialnego jest powiązanie nauki z ekonomią. Z jednej strony specyfika tego problemu polega na tym, że jego rozwiązanie, wraz z energochłonnością, jest również kosztowne finansowo i wymaga dużych inwestycji o niepewnej opłacalności. W wielu przypadkach projekty naukowe są wspierane przez organizacje prywatne, takie jak Klub Rzymski. Z drugiej strony rozwój technologii oderwany od celów humanistycznych może mieć niszczycielskie skutki: zagrożenie katastrofami ekologicznymi; nieprzewidywalne konsekwencje rozwoju inżynierii genetycznej i klonowania; światopogląd naukowy itp. Ten rodzaj zagrożenia można rozpatrywać w dwóch aspektach: naturalnym (trzęsienia ziemi, powodzie, opady śniegu, lawiny itp.) i spowodowanym przez człowieka (błędy w planowaniu, obliczeniach, projektowaniu itp.). Jednocześnie prognozowanie jest jednym z ważnych i odpowiedzialnych narzędzi w nauce. Środowisko, elementy społeczno-kulturowe, dynamika rynku, priorytety rządu są ważnymi elementami procesu prognozowania.

W systemie „nauka – technologia” ważny staje się problem odpowiedzialności naukowca. Dzisiaj naukowiec, który z powodzeniem prowadzi badania naukowe, zdaje sobie sprawę ze znaczenia swojego odkrycia i sam je wprowadza w życie. Jednak obecny etap rozwoju nauki charakteryzuje się wieloaspektowymi, rozgałęzionymi, złożonymi naukowo-technicznymi zbiorowymi osiągnięciami, zjednoczonymi nie wokół lidera, ale wokół koncepcji, idei. Zasadę osobistej odpowiedzialności naukowca za skutki swoich odkryć zastępuje zasada odpowiedzialności zbiorowej, często zdepersonalizowanej. Z tego nieuchronnie wynika wzrost roli państwa w regulowaniu procesów postępu naukowego i technicznego.

7.5. Problemy społecznej regulacji postępu naukowo-technicznego

Wchodząc w XXI wiek rosyjskie społeczeństwo nagle poczuło potrzebę przestrzennego i czasowego samostanowienia oraz opracowania społeczno-politycznej, naukowo zweryfikowanej strategii rozwoju. Wśród wielu możliwych paradygmatów (modernizacja, postmodernizacja, globalizacja, wirtualizacja) preferowano globalizację z lekkim nastawieniem na modernizację i nutą postmodernizacji. W związku z tym prace I. Wallersteina, S. Eisenstadta, J. Alexandra, R. Robertsona, W. Becka i innych okazały się poszukiwane w filozofii społecznej. Filozofowie zajmujący się tym zagadnieniem mieli głównie odkrywcze publikacje skierowane do autorów zagranicznych. Pewne aspekty typologii zmian społecznych zostały poruszone w pracach N.E. W.P. Kokhanovsky i jego współautorzy, zwracając uwagę na rolę władzy w rozwoju nauki, piszą o jej podwójnej funkcji: albo nadzoruje naukę, albo dyktuje priorytety władzy. Ta ostatnia zależy, jak sądzimy, nie od rządu, ale od konkretnej osoby go reprezentującej, jego autorytaryzmu lub demokracji, kultury lub jej braku.

Dynamikę postępu naukowego najdokładniej przedstawiono w pracach Thomasa Kuhna. Działalność naukowa jest dla niego wydarzeniem o charakterze aksjologicznym, socjologicznym i psychologicznym. Opracowana przez niego koncepcja paradygmatyczna najdobitniej charakteryzuje proces rozwoju działalności naukowej. W narodzinach paradygmatów wielka jest rola intuicji i sposobu interpretacji innowacji. Zmiana paradygmatów niejasno przypomina zmianę formacji społeczno-gospodarczych poprzez rewolucje społeczne (według Marksa), jednak na szczęście przy mniejszych stratach ludzkich. Idealnie byłoby, gdyby naturalna zmiana paradygmatów w nauce sprawiła, że ​​państwowa regulacja tej ostatniej stałaby się niepotrzebna, zwłaszcza że państwo nie jest jednostką naukową, ale polityczną i administracyjną, której metody są przeciwwskazane dla nauki. W tym względzie naukę interpretuje się poprzez pojęcie etyki.

Etyka (z greckiego ethika, od ethos – zwyczaj, zwyczaj, charakter) to nauka o sposobach, w jaki człowiek może przezwyciężyć swoje wady. Termin ten został po raz pierwszy wprowadzony do użytku naukowego przez Arystotelesa. W swojej „Etyce Nikomachejskiej”, tej encyklopedii moralności, opracował podstawy zasad - praw realizacji dobrych uczynków. Immanuel Kant wysunął zasadę imperatywu kategorycznego – prawa uniwersalnego dla wszystkich ludzi: postępuj tak, jak powinni postępować wszyscy ludzie, którzy pomnażają dobro społeczeństwa. Systemy etyczne powstawały w różnych epokach. Za najbardziej obiecujący system etyczny uważa się etykę konwencjonalną zorientowaną na wartości, która organicznie koreluje z pragmatyczną metodą nauki. Chroni przed spekulatywnością dzięki swojej jasnej wartości i treści aksjologicznej oraz eliminuje niebezpieczeństwo popadnięcia w merkantylizm i naturalizm.

Wybitne postacie nauki zawsze interesowały się problematyką etyki. Na przykład wielki holenderski filozof materialistyczny Benedykt (Baruch) Spinoza (1632-1677), zwolennik nauk D. Bruna, R. Kartezjusza, T. Hobbesa, występował jako jeden z radykalnych przedstawicieli determinizmu i przeciwników teleologii. W teorii poznania opierał się na rozumie, który uważał za nieskończoną własność człowieka – część natury. Głównym dziełem filozoficznym Spinozy jest Etyka udowodniona w porządku geometrycznym (1675). Etyka Spinozy jest doktryną substancji i jej sposobów.

W znanej światu naukowców książce „Ostatnie myśli”Henri Poincaré (1854-1912) rozwinęli matematyczne konsekwencje postulatu (od łacińskiego postulatum - wymaganie).

1. Zasady nauki, postulaty geometrii, wyrażane są tylko w trybie oznajmującym, prawdy doświadczalne wyrażane są w tym samym nastroju, a u podstaw nauk jest i nie może być nic innego.

2. W nauce nie można otrzymać zdania, które mówiłoby: rób to albo nie rób tamtego, co odpowiadałoby moralności lub było jej sprzeczne.

3. Nauka nas podnieca, ta rozkosz, która sprawia, że ​​zapominamy nawet o sobie, a w tym jest wysoce moralna.

4. Harmonia praw natury daje ideał i jest to jedyny grunt, na którym można budować moralność.

5. Pasją, która inspiruje naukowca jest umiłowanie prawdy, a czyż taka miłość nie jest najbardziej moralna?

6. Nauka prowadzi do podporządkowania interesów prywatnych interesom wspólnym i znów jest w tym moralność.

7. Nauka daje nam poczucie koniecznej współpracy, solidarności naszych prac z pracami naszych współczesnych, naszych poprzedników i naszych naśladowców.

8. Nauka nie toleruje kłamstw, nieszczerości.

9. Nauka szeroko rozumiana, nauczana przez nauczycieli, którzy ją rozumieją i kochają, może odegrać bardzo pożyteczną i ważną rolę w wychowaniu moralnym.

Dla Poincare moralność jest poza nauką, ale ponad nauką. Jego wypowiedzi są miejscami sprzeczne, są dyskutowane, analizowane, ale nie sposób nie rozpoznać ich utylitarnego znaczenia w nauce. Poincaré był twórcą konwencjonalizmu, spójności (w odniesieniu do matematyki i fizyki). Później Rudolf Carnap (USA) zastosował tę metodę do opracowania zasady pozytywizmu logicznego i logiki indukcyjnej.

A. Einstein w szczególny sposób charakteryzuje relacje między etyką a nauką. Nie wierzy, że nauka może uczyć ludzi moralności, etyki zachowania. Nie wierzy, że filozofię moralną można zbudować na podstawie naukowej. Teoria naukowa, według Einsteina, nie stanowi jeszcze podstawy dla moralnego zachowania, ale nie może też zaprzeczyć moralności. Ludzie chcą zbyt wiele od etyki. Podstawowe pytania etyczne, na które naukowiec chce odpowiedzieć, to: co może być? co powinienem zrobić, aby osiągnąć to, co możliwe? jaka jest różnica między jednym możliwym a drugim możliwym? Nie odpowiadając na te pytania, niektórzy uważają etykę za nienaukową.

Etyka jest więc nauką pragmatyczną. Jasne zrozumienie statusu etyki jest kluczem do zrozumienia etycznego wymiaru nauki jako całości.

7.6. Postęp naukowo-techniczny, kontrola publiczna i administracja publiczna

Administracja publiczna to organizowanie i regulowanie działalności różnych publicznych i państwowych organów władzy działających w imieniu podstawowych praw społecznych (VE Chirkin). Zarządzanie społeczne polega na oddziaływaniu na społeczeństwo w celu jego usprawnienia, zachowania jego jakościowej specyfiki, doskonalenia i rozwoju. Istnieje również system kontroli spontanicznej, którego wpływ na system jest wynikiem przecinania się różnych sił, mas, przypadkowych aktów jednostkowych (np. rynku), a także świadomej kontroli realizowanej przez organizacje państwowe. Granice, treść i cele zarządzania zależą od charakteru ustroju państwowego.

Postęp naukowo-techniczny ma istotny wpływ na charakter administracji publicznej, a jej rola w gospodarce rynkowej nie maleje. Zarządzanie na skalę państwa takiego jak Rosja jest, można by powiedzieć, nieuchronnością, obiektywną koniecznością. Realizacja aktualnych interesów gospodarczych w ramach rynkowego modelu ekonomicznego powoduje, że innowacyjne projekty są bardzo sprzeczne, oparte na nienaturalnych decyzjach, nie uwzględniających możliwości otoczenia. Skala innowacji technicznych, podbój przyrody, wyczerpywanie się jej zasobów często świadczą o krótkowzroczności ludzi, błędnych kalkulacjach i arbitralności, które przez wiele dziesięcioleci będą szkodzić wielu pokoleniom. Dlatego na obecnym etapie rozwoju gospodarki i produkcji istotne są wymagania państwowej regulacji rozwoju technologicznego, a doskonalenie strategii koewolucyjnej jest nie mniej ważne. Wymaga organicznego splotu praw środowiska technicznego i naturalnej rzeczywistości, harmonijnej zbieżności wszystkich typów systemów.

N. A. Berdiajew z niepokojem pisał o kosztach administracji państwowej: „Zgubną konsekwencją technologii, podlegającej tylko własnemu prawu, która powoduje techniczne wojny światowe, jest horrendalny wzrost etatyzmu. Państwo staje się wszechwładne, coraz bardziej totalitarne , i to nie tylko w reżimach totalitarnych, nie chce uznawać żadnych granic swojej władzy i traktuje osobę jedynie jako środek lub narzędzie”[14].

Klasyka zarządzania w warunkach rynkowych, Henri Fayol, sięga początków XX wieku. napisał: „Zarządzać oznacza organizować, kierować, koordynować i kontrolować; przewidywać, to znaczy brać pod uwagę przyszłość i opracowywać program działania; organizować, to znaczy budować podwójny – materialny i społeczny – organizm instytucji; dysponować, to znaczy zmuszać personel do prawidłowej pracy; koordynować, to znaczy łączyć, jednoczyć, harmonizować wszystkie działania i wszelkie wysiłki; kontrolować, to znaczy czuwać, aby wszystko odbywało się zgodnie z ustalone zasady i wydane rozkazy”[15].

W teorii administracji publicznej rozróżnia się dwa jej typy. Zarządzanie bezpośrednie odbywa się w systemie bezpieczeństwa, podtrzymywania życia, uporządkowania systemu gospodarczego i społecznego. Obiecujące cele zarządzania obejmują poprawę jakości życia ludności, zagwarantowanie jej praw i wolności, zapewnienie sprawiedliwości społecznej i postępu społecznego. Wielkość i złożoność rozwiązania tych problemów można sobie wyobrazić, jeśli weźmiemy pod uwagę, ile zasobów materialnych i środków wydano na budowanie komunizmu i popychanie jednej trzeciej ludzkości do „rozwoju” w tym kierunku. Niestety w okresie sowieckim Rosja nie pojmowała optymalnych metod i form zarządzania gospodarczego.

Rozwijające się w Europie koncepcje tzw. technokracji, czyli potęgi technologii (w Rosji A. A. Bogdanow używał jako synonimu pojęcia „determinizmu technologicznego”, przewidującego kontrolę nad krajem przez specjalistów technicznych) głównym celem osiągnięcia rewolucyjnej zmiany poziomu życia ludności poprzez wprowadzenie rewolucji naukowo-technicznej (T. Veblen, A. Berl, A. Frisch, J. K. Gilbraith i inni). Słabym ogniwem technokratycznej koncepcji rozwoju społecznego jest niedocenianie duchowego komponentu życia społeczeństwa. W koncepcji tej pomija się problemy samorządności publicznej średniego szczebla ustroju administracyjnego, kultywowanie demokratycznych form rekrutacji do władzy, rozwój instytucji społeczeństwa obywatelskiego i prawa człowieka. Koncepcja ta nie przewiduje gwarancji chroniących społeczeństwo przed kryzysami, zagrożeniami, aktami terrorystycznymi i klęskami żywiołowymi.

Uznany socjolog i filozof Carl Manheim (1893-1947) zauważył, że głównymi problemami współczesnego Zachodu są problemy osiągnięcia jedności narodowej, udziału ludności w administracji publicznej, włączenia państwa w światowy porządek gospodarczy, a także problemy społeczne. Niektóre z tych problemów dotyczą także współczesnej Rosji. Na przykład Rosja musi stworzyć jednolitą przestrzeń informacyjną. Mamy wiele problemów w sferze gospodarczej. Rosja zajmuje wiodące miejsce na świecie pod względem poziomu różnic między biednymi i bogatymi, których bogactwo wymaga zalegalizowania i legitymizacji. Zasada sprawiedliwości w rozwiązywaniu problemów społecznych nie stała się jeszcze dla naszego kraju fundamentalna. Problematyka godnego życia ludności jest przedmiotem troski związków zawodowych, mediów, stowarzyszeń i organizacji społecznych. „Odkrywając” wiek XX, ludzkość patrzyła na świat optymistycznie. Była nadzieja, że ​​nauka uratuje świat i przyniesie ludziom szczęście. Wchodząc w kolejny, XXI wiek, ludzkość była zaniepokojona brakiem swoich praw. Wraz z pojawieniem się ruchu na rzecz praw człowieka świat zaczął się dzielić w zależności od bogactwa lub braku tego zjawiska. Poszanowanie praw innych stało się podstawą komunikacji nie tylko ludzi, ale także państw. Rosja, dokonując historycznego przejścia od totalitaryzmu do demokracji, dołączyła do grona krajów cywilizowanych. Przyjmując Konstytucję w 1993 r., Federacja Rosyjska ogłosiła się państwem prawnym zbudowanym w oparciu o społeczeństwo obywatelskie.

Rozwój osobistej zasady u współczesnego człowieka przeradza się w utratę poczucia „my” i nabycie poczucia „samotności w tłumie”. Człowiek z definicji Herbert Marcuse (1898-1979), staje się „jednowymiarowy”, o zanikłej postawie krytycznej społecznie wobec społeczeństwa, przez co nie jest w stanie powstrzymać i zapobiec zmianom społecznym, które mogą okazać się niedopuszczalne. Jednocześnie społeczeństwo obiektywnie okazuje się zdolne do narzucania mu nagannych, „fałszywych” potrzeb, wciągając je w szkodliwy dla niego wyścig zbrojeń. Ten trend grozi klasie robotniczej utratą jej rewolucyjnej roli w historii. To tradycyjne miejsce klasy robotniczej w nowoczesnych warunkach przechodzi w ręce „outsiderów” (lumpenów, prześladowanych mniejszości narodowych, bezrobotnych itp.), a także radykalnych studentów i intelektualistów. W swoim czasie Marcuse pisał o utracie przez partie marksistowskie ich dawnej rewolucyjnej roli i rewolucyjnego charakteru ich programów politycznych. W skali globalnej nosicielami inicjatywy rewolucyjnej są, jego zdaniem, pokrzywdzone narody „trzeciego świata”, w większości „jednowymiarowego”. Opisując cechy osoby „jednowymiarowej”, Marcuse zauważył jego towarzyskość, niezadowolenie z życia, samotność w sytuacji bezużyteczności. Osłabić te cechy, jak sądził filozof, można organizując opiekę społeczną: „infolinię”, oswajanie ze sztuką i literaturą, przeciwstawiając je szerzącym się nastrojom konsumenckim.

Temat 8. Główne kierunki filozofii nauki na świecie

8.1. Hermeneutyka - spuścizna filozoficzna H.G. Gadamera

Rozwój filozofii hermeneutyki jako jednego z kierunków współczesnej filozofii europejskiej zapoczątkował włoski historyk prawa Emilio Betti (1890-1970), a następnie kontynuował w swoich pracach niemiecki filozof Hans Georg Gadamer (1900-2002)” Manifest hermeneutyczny” (1954), „Ogólne rozumienie teorii” (1955), „Prawda i metoda” (1960). Gadamer rekonstruuje nauki swoich poprzedników i tworzy filozofię zrozumienia. W swojej definicji jest to sposób opanowania świata przez osobę, w którym obok wiedzy teoretycznej, bezpośrednie doświadczenie („doświadczenie życia”), na które składają się różne formy praktyki (doświadczenie historii), formy doświadczenia estetycznego , („doświadczenie sztuki”) odgrywa znaczącą rolę. Skarbnicą doświadczeń jest język i sztuka. Źródłami doświadczenia są edukacja, legendy, tradycje kulturowe, rozumiane przez jednostkę w społeczeństwie. Doświadczenie hermeneutyczne w nauczaniu Gadamera jest niepełne, co jego zdaniem stanowi epistemologiczny problem społeczeństwa. Jednocześnie istotna jest rola samozrozumienia podmiotu i jego zbieżność z interpretacją, interpretacją własnej egzystencji. Filozof widzi główne znaczenie rozumienia cudzego tekstu w „wchodzeniu w cudzą podmiotowość”. Naprawdę: nie można zrozumieć drugiego bez poczucia się na jego miejscu! Gadamer w książce „Prawda i metoda. Główne cechy filozofii hermeneutyki” kontynuuje tradycje metafizyczne Platona i Kartezjusza, broni tezy, że głównym nośnikiem rozumienia tradycji jest język.

Gadamer uważał tak zwaną psychologię rozumienia za podstawę hermeneutyki jako sposób bezpośredniego pojmowania integralności życia psychicznego i duchowego. Sformułował główny problem hermeneutyki w następujący sposób: „Jak indywidualność może uczynić daną zmysłowo manifestację cudzego indywidualnego życia przedmiotem powszechnie obowiązującego poznania obiektywnego?” Analizując „czystą” świadomość, Gadamer wyodrębnia nieświadome tło aktów intencjonalnych, spychając hermeneutykę do roli doktryny bytu w tradycjach dialektyki heglowskiej. Dochodzi do wniosku, że zbyt bliski związek bytu z jego przeszłością jest przeszkodą w historycznym zrozumieniu prawdziwej istoty i wartości. Według Gadamera podstawą poznania historycznego jest zawsze wstępne zrozumienie, które daje tradycja, w ramach której toczy się życie i myślenie. Wstępne zrozumienie jest dostępne do korekty, regulacji, ale całkowicie nie można się go pozbyć. Gadamer uważał myśl bez warunków wstępnych za fikcję, która nie uwzględnia historyczności ludzkiego doświadczenia. Nośnikiem rozumienia jest język, rozumienie językowe, ujawnione w pracach W. Humboldta.

Świadomość – „horyzont nietematyczny” – dostarcza pewnej wstępnej wiedzy na temat podmiotu, która stanowi treść „świata życia”, leżącego u podstaw możliwego wzajemnego zrozumienia jednostek. Zdaniem filozofa w każdym badaniu odległej od nas kultury należy przede wszystkim zrekonstruować „świat życia” tej kultury, w odniesieniu do którego możemy zrozumieć znaczenie poszczególnych jej zabytków. O istnieniu kultury mówią dzieła poetów znających język.

Podstawowe pojęcia filozofii Gadamera to „praktyka”, „życie”, „słowo”, „dialog”. Doświadczenie hermeneutyczne, tj. wejście w czyjeś życie opiera się na pragnieniu zrozumienia „innego”. W sercu gemeneutycznego doświadczenia leży legenda odzwierciedlona w folklorze; doświadczenie życiowe, w tym przeżyte wydarzenia z pokolenia na pokolenie, przechowywane w pamięci ludzi, w legendach, sztuce, kulturze, w użyciu słów. Sztuka, zdaniem Gadamera, może nadać nowy impuls filozofii życia. Tradycje kulturowe przyczyniają się do samozrozumienia i integracji jednostki w społeczeństwie, postulując jej genetyczne zakorzenienie. W ten sposób zamyka się hermeneutyczny krąg, ustanawiając połączenie pokoleń i ich ciągłość; zauważa się epistemologiczną niekompletność doświadczenia hermeneutycznego (przejście w cudzą podmiotowość).

Gadamer pisze: „Człowiek doświadczony jawi się nam jako osoba zasadniczo adogmatyczna, która właśnie dlatego, że tyle doświadczyła i tak wiele się z doświadczenia nauczyła, ma szczególną zdolność zdobywania nowego doświadczenia i uczenia się z tego doświadczenia. jego ostateczne wypełnienie, na którym jest coś z ostatecznego poznania, ale w tej otwartości na doświadczenie, która wynika z samego doświadczenia”[16].

Najważniejsze, co zdobywa się w doświadczeniu, to gotowość do odnowy, zmiany, spotkania z „innym”, które staje się „swoim”. Doświadczenie doświadczeń, błędów, cierpień, zawiedzionych nadziei prowadzi do świadomości własnych ograniczeń, a jednocześnie do otwarcia się skończonego człowieka na światło tego, co uniwersalne, uniwersalne. Otwartość doświadczenia, świadomość, że można się pomylić, prowadzi do poszukiwania prawdy poprzez osobiste zrozumienie, oparte na własnym doświadczeniu. Ale doświadczenie to nie tylko test moralny; sprawdza siłę naszych umiejętności. Doświadczenie jest praktyczne. Uspokaja fantazje i wiąże umysł z rzeczywistością. Na ścieżce wiedzy możesz dojść do prawdziwej wiedzy i zmusić naturę, aby ci służyła.

Gadamer dzieli proces rozumienia na części składowe. Wyróżnia przedrozumienie, które wyrasta ze zwrócenia się do sprawy w formie uprzedzenia, uprzedzenia, uprzedzenia. Tradycja jest zaangażowana we wstępne zrozumienie: zawsze jesteśmy wewnątrz tradycji, uważa filozof. Osoba w percepcji tekstu pozwala mu „mówić”. Jeśli ktoś chce zrozumieć tekst, musi go „posłuchać”.

Hermeneutyka wkracza w ludzką podmiotowość. Zrozumienie nie jest przeniesieniem do obcej podmiotowości. Działa jako przedłużenie jego horyzontu i widok innego „czegoś” we właściwych proporcjach. W Gadamer rzeczy nie mówią tylko dlatego, że nie mają zdolności mówienia. W milczeniu jednak określają strukturę języka, środowisko, w którym człowiek żyje. Rzecz zachowuje się w słowie. Myślenie jest wyjaśnieniem słowa.

Gadamer przywiązuje dużą wagę do rozumienia piękna, które jest dla niego Dobrem. Piękno samo w sobie niesie ze sobą jasność i blask, jest sposobem manifestowania dobra, bytu, podanego w otwartej formie, w proporcjonalności i symetrii. Piękno jest koroną zrozumienia, jego pełnią.

Teoretyczne dziedzictwo Gadamera jest kontrowersyjne. Jego książka „Prawda i metoda” odzwierciedlała cel życia filozofa. Zawiera opis dwóch problemów – prawdy i metody. Przy tej okazji krytycy zadrwili: właściwy tytuł książki nie powinien brzmieć „Prawda i metoda”, ale „Prawda, ale nie metoda”. W jednym z listów do krytyka Gadamer napisał: „W istocie nie proponuję żadnej metody, lecz opisuję to, co istnieje” [17] .

V. A. Kanke, który studiował spuściznę teoretyczną Gadamera, słusznie zauważa: „... Przez lata, które minęły od publikacji Prawdy i metody, ich historyczność została w pełni podkreślona. To znacząco połączyło rozumienie nauk przyrodniczych i humanistycznych. Opozycja hermeneutyki wobec nauk przyrodniczych straciła na ostrości”[18].

8.2. Filozofia Martina Heideggera

Niemiecki myśliciel, który wywarł ogromny wpływ na filozofię XX wieku. Martin Heidegger (1889-1976) rozpoczął karierę jako asystent profesora Edmunda Husserla z Uniwersytetu we Fryburgu. Po przejściu patrona na emeryturę kierował wydziałem. Wraz z dojściem do władzy narodowych socjalistów w Niemczech Husserl popadł w niełaskę za swoje żydowskie pochodzenie, a Heidegger został zmuszony do zdystansowania się od niego.

Heidegger zasłynął jako twórca doktryny ontologii (dosłownie „doktryna bytu”, od gr. gen. ontos – istnienie i logos – słowo, doktryna). Termin „ontologia” pojawia się po raz pierwszy w Leksykonie Filozoficznym Christiana Wolffa (1679-1754). Heidegger w swojej „ontologii fundamentalnej” wyodrębnia „czystą podmiotowość” poprzez analizę istniejącej egzystencji człowieka i dąży do uwolnienia jej od „nieautentycznych” form istnienia. W swoim dziele „Bycie i czas” (1927) stawia pytanie o sens istnienia, który jego zdaniem został „zapomniany” przez tradycyjną filozofię europejską. Po opublikowaniu tej książki Heidegger opublikował dużą liczbę dzieł filozoficznych (ponad 100 tomów), ale na zawsze pozostał wierny ideom zawartym w tej książce. Zyskuje sławę w całym kraju i zostaje wybrany na rektora Uniwersytetu we Fryburgu. Były to lata narastania faszyzmu w Niemczech, a Heidegger był zobowiązany do zwolnienia wszystkich Żydów i socjalistów, z czym nie mógł się zgodzić, więc został zmuszony do opuszczenia stanowiska rektora, ale nadal pozostał członkiem faszystowskiego partii do 1945 r. Następnie władze oskarżyły go o sympatyzowanie z nazizmem, domagały się publicznej skruchy, jednak tak się nie stało, a on urażony zaprzestał działalności wykładowej.

Podsumowując, filozoficzne dziedzictwo Heideggera można zakwalifikować jako głoszenie egzystencjalizmu. Dla niego człowiek jest jedyną istotą, która stawia pytanie o istnienie i szuka w nim sensu. Zrozumienie sensu życia wiąże się z kolei ze świadomością kruchości ludzkiej egzystencji. Rozważając koncepcję autentyczności-nieautentyczności w systemie bytu codziennego, Heidegger zwraca uwagę na fakt, że większość ludzi znaczną część swojego czasu spędza w świecie pracy i społeczeństwie, nie zdając sobie sprawy z możliwości indywidualnej egzystencji. Z punktu widzenia Heideggera troska człowieka o swoje miejsce w hierarchii społecznej i zainteresowanie swoim statusem społecznym determinują jego podporządkowanie „innym”: człowiek musi robić to, co „oni” aprobują i czego żądają (das Man). W trakcie tego konformistycznego zachowania jednostka poddawana jest subtelnemu i często niedostrzegalnemu wpływowi norm i konwencji społecznych oraz zaniedbuje swoją zdolność do angażowania się w niezależne formy aktywności i myślenia. Poddanie i uzależnienie od norm społecznych w życiu codziennym przejawia się przede wszystkim w uśrednianiu zachowań społecznych do poziomu jednorodności i tożsamości, tym samym człowiek uwalnia się od potrzeby indywidualnej egzystencji i odpowiedzialności za swoją indywidualną egzystencję oraz dostosowuje się do społeczeństwa. Tymczasem, jak pisze Heidegger, „istniejąc w nazwanych trybach, jaźń własnej obecności i jaźń obecności innych jeszcze się nie odnalazła i w związku z tym ją utraciła. Ludzie istnieją w sposób nie-ja i nie-własność. ” [19].

Heideggerowska charakterystyka nieautentycznego sposobu ludzkiego zachowania, który dominuje w ich codziennej egzystencji, miała, jego zdaniem, „czysto ontologiczne znaczenie” i jest bardzo daleka od moralizującej krytyki codziennej obecności i „aspiracji kulturowo-filozoficznych”. Pojawia się zasadnicze pytanie dla interpretacji rozważań Heideggera na temat autentyczności-nieautentyczności: czy są to kategorie czysto opisowe, czy wartościujące. Choć wielu interpretatorów Heideggera skłania się ku neutralności wartościującej i ingerencji tych rozumowań myśliciela, panuje opinia, że ​​wprowadzone przez Heideggera rozróżnienie jest całkowicie pozbawione momentów wartościujących. Po pierwsze, pojęcia te mają konotacje wartościujące zarówno w ich codziennym użyciu, jak iw tekstach filozoficznych Kierkegaarda, Nietzschego, Simmla, Schelera, do których sięga rozważana przez Heideggera dychotomia. Po drugie, w opisie Heideggera w Byciu i czasie zawarte są pewne negatywne konotacje „upadku” z „ja” w nieautentyczne sposoby bycia, w szczególności w jego opisie nieautentycznego istnienia jako zaabsorbowania codzienną rutyną. Jednocześnie rozumowanie Heideggera ma także znaczenie poznawcze, opisowe. Inni ludzie, z którymi jednostka mieszka obok, są nie tylko zagrożeniem dla jej indywidualnej egzystencji. Możliwe jest także autentyczne życie w byciu-z-innymi, jeśli człowiek zdoła na nich spojrzeć właśnie jako na „innych”, tj. postrzegać je jako posiadające własną istotę (Dasein), tak jak on ma swoją istotę ludzką. Możliwy jest też inny przypadek: nie postrzegamy ich już jako Dasein. Nasze ciepłe nastawienie do nich zastępuje postawa rywali lub tych, od których jesteśmy zależni. Kiedy inni stają się „nimi”, akt komunikacji zostaje przerwany, dialog staje się pustą rozmową, znika potrzeba prawdziwego zrozumienia. W tym przypadku pytanie, jak być, zostaje zastąpione pytaniem „co robić?”. Reakcja jest uwarunkowana normami klasowymi, etnicznymi, zawodowymi, poziomem naszych dochodów itp. Heidegger opisuje ten przypadek jako „upadek” Dasein.

Przełom w autentyczną egzystencję możliwy jest zdaniem Heideggera na podstawie procesu wyzwolenia i indywidualizacji, podczas którego człowiek odczuwa lęk przed prowadzeniem bezsensownej egzystencji, odczuwa głos sumienia, lęka się śmierci itp. Autentyczność to życie w z niepokojem i z niepokojem to życie z pełnym zrozumieniem naszej niepewności, naszej wolności: świadomość, że umrzemy, uwalnia nas od upadku, budzi nas. Aby być autentycznym, człowiek musi przedłożyć zaangażowanie ponad autentyczne możliwości, zaakceptować swoją wolność, wyjątkowość, skończoność, niepowodzenia, dzięki czemu ma możliwość stworzenia swojego autentycznego siebie. Kluczem do tego projektu, zdaniem Heideggera, jest determinacja. Spotkanie ze śmiercią odsłania radykalną indywidualność ludzkiej egzystencji. Śmierć jest tym, co izoluje jednostki: wyrywa człowieka z anonimowego „Das man”. W śmierci jednostka jest niezastąpiona – nikt nie może za nią umrzeć.

Heidegger w szczególny sposób interpretuje znaczenie historyczności. Łącząc pojęcia „przeszłość historyczna”, „relacje międzyludzkie i pokoleniowe”, zauważa pragnienie ludzi, by prześcignąć przeszłość, pozostając jej oddanym; wybierz bohatera z przeszłości jako wzór. Heidegger proponuje sposób na przekształcenie wyalienowanej, rozproszonej egzystencji w istnienie na ścieżce powtórzenia autentycznych możliwości, stworzenie „etyki wyzwolenia przez autentyczność”.

Refleksje etyczne Heideggera wyróżnia głębia myśli. Charakteryzuje go własny manier, styl filozofowania, czyli jego godność i mądrość, jego autorski styl.

8.3. Metoda alternatyw Karla Poppera

Austriacki filozof, logik i socjolog, członek Koła Wiedeńskiego, Karl Raimund Popper (1945-1902), mieszkający w Wielkiej Brytanii od 1994 roku, sformułował metodę rozwiązywania problemów naukowych poprzez porównywanie i wzajemną krytykę konkurencyjnych teorii. Przedstawił pojęcie falsyfikowalności (obalalności) jako kryterium demarkacji między nauką a „metafizyką”.

Ogólna idea metody Poppera, zwana metodą alternatyw, została sformułowana w pracach „Wiedza obiektywna”, „Logika a rozwój wiedzy naukowej”. Według Poppera ważne jest, aby zawsze szukać alternatyw dla hipotez, które już mamy, a następnie spychać je do siebie, identyfikować i eliminować błędy. Oczekuje się, że uzyskane informacje będą większe niż te zawarte we wszystkich hipotezach łącznie. Istota metody polega więc nie tyle na „krytyce” teorii przez praktykę, ile na spekulatywnym odkrywaniu nowych problemów i schematów ontologicznych. Najciekawsze w tym sensie są właśnie te teorie, które nie przetrwały praktycznych testów – w końcu z porażek można wyciągnąć pożyteczne wnioski, które mogą później przydać się do tworzenia bardziej zaawansowanych teorii. Im więcej nowych nieoczekiwanych problemów pojawia się w procesie celowego porównywania ze sobą alternatywnych hipotez, tym większy, zdaniem Poppera, postęp osiąga nauka.

Nasuwa się jednak pytanie, jaki rodzaj krytyki można uznać za skuteczną? Wymóg spójności wyjaśnień nie oznacza odrzucenia wyjątkowości nauk. Kryterium naukowości jest pojęciem, ale nie każde pojęcie jest powiązane tylko z jednym konkretnym tematem. To, że fizyka i socjologia wpisują się w pojęcie „nauki”, nie przeczy ich wyjątkowości. Zwiększone zainteresowanie wiedzą naukową i wzrost jej wiarygodności, w dużej mierze dzięki pracom Poppera, doprowadziły do ​​powstania w filozofii nauki tzw. szkoły historycznej. Popper, postpozytywista i twórca tak zwanego racjonalizmu krytycznego, zbadał związek między teoriami konkurencyjnymi i kolejnymi. Interpretuje epistemologię ewolucyjną w oparciu o rozwinięty przez siebie krytyczny racjonalizm.

W jaki sposób naukowcy starają się rozwiązywać problematyczne sytuacje naukowe? Przede wszystkim poprzez odkrycie reguł, praw, teorii, których zastosowanie pozwala wyjaśnić i zrozumieć badaną sytuację, przewidzieć nowe i zinterpretować istniejące zdarzenia. To nie przypadek, że Popper wytycza drogę od problemów (sytuacji problemowych) do teorii. Ta ścieżka jest główną autostradą nauki. Jego opanowanie wymaga użycia szeregu terminów, których rozważenie może być istotne. Empiria jako faktograficzny aspekt nauki może: a) potwierdzać lub, jak to ujął Popper, wzmacniać teorię; b) sfałszować. Tak naprawdę demarkacja zawiera oba kryteria: zarówno potwierdzenie, jak i falsyfikację. Zainteresowany problemem potwierdzenia Popper unika używania terminu „prawda”. Zamiast prawdy mówi o wzmocnieniu (potwierdzeniu), a zamiast o fałszu mówi o zafałszowaniu. Kieruje nim chęć jak najdokładniejszego wytyczenia linii demarkacyjnej pomiędzy nauką i nienauką.

Według Poppera nauka postępuje od jednego problemu do drugiego, od mniej głębokiego problemu do głębszego. Celem nauki jest osiągnięcie wysoce informacyjnych treści oraz wysokiego stopnia ich możliwego fałszowania i obalania. Popper przyznaje, że mniej głęboką teorię łatwiej jest sfalsyfikować, ale głębsza teoria musi z definicji wytrzymać spotkania z większą liczbą faktów niż mniej wyspecjalizowana teoria. Teorii grozi ciągłe niebezpieczeństwo falsyfikacji i w tym sensie stopień (prawdopodobieństwo) jej falsyfikacji rośnie.

Surowa teoria jest trudniejsza do obalenia, a hipotezy nienaukowe, takie jak te z arsenału astrologii, generalnie nie są falsyfikowalne naukowo. Jak mówi rosyjskie przysłowie: „Siedmiu mądrych ludzi nie może opanować jednego głupca!”

Naukowiec, w przeciwieństwie do zwykłego laika, stale narażony jest na niebezpieczeństwo zafałszowania i obalenia swoich poglądów. Mając świadomość, że człowiek jest istotą omylną (filibilną), uczony stara się pozbyć tej swojej słabości. Tak, życie naukowe to pasmo problemów, tu niepowodzeń nie da się uniknąć, ale trzeba je – takie jest dążenie naukowca – przezwyciężać, a jest to możliwe jedynie poprzez pogłębianie wiedzy naukowej. Głębia teorii jest jednym z głównych założeń Popperowskiej koncepcji historii nauki.

Wszystkie argumenty Poppera odnoszą się do nauk hipotetyczno-dedukcyjnych. Pozostają one aktualne zarówno w naukach pragmatycznych, jak i logiczno-matematycznych. Porównując dwie teorie, zawsze można, w oparciu o pewne kryteria, preferować jedną teorię od drugiej. Porównując nauki pragmatyczne, na pierwszy plan wysuwa się kryterium efektywności. Porównując np. nauki logiczno-matematyczne, uwzględnia się kryterium spójności i kompletności systemu aksjomatów. Zatem zasada fałszowania nie jest po prostu zasadą przeciwdziałającą weryfikacji; nie jest to sposób na weryfikację prawdziwości wiedzy na poziomie empirycznym. Za jego pomocą Popper stara się rozwiązać problem krytycznej rewizji treści wiedzy naukowej. Niezmiennie podkreśla, że ​​nauka jest procesem dynamicznym, któremu towarzyszy zmiana teorii, które oddziałują na siebie, ale się nie uzupełniają.

8.4. Koncepcja paradygmatów naukowych i rewolucji Thomasa Kuhn

Amerykański fizyk, filozof i historyk nauki Thomas Samuel Kuhn (1922-1996) zyskał sławę dzięki swojej książce „Struktura rewolucji naukowych”, w której nakreślił swoją koncepcję filozofii nauki. Kuhn przedstawił historię nauki jako okresową zmianę paradygmatów (więcej szczegółów w podrozdziale 5.1). W jego teorii termin ten używany jest w dwojakim znaczeniu: po pierwsze, oznacza zespół przekonań, wartości, środków technicznych charakterystycznych dla danej społeczności, po drugie, wskazuje na rozwiązanie zagadki, która może zastąpić jednoznaczne reguły jako podstawę do rozwiązywania nierozwiązanych zagadek w nauce. W pierwszym przypadku termin „działa” jako kategoria socjologiczna, mówimy tu o społeczeństwie naukowców, o ludziach z ich przekonaniami i wartościami (przedmiotami nauki). Charakteryzując je Kuhn pisze: „Naukowcy opierają swoją pracę na modelach wyuczonych w procesie uczenia się i na ich późniejszej prezentacji w literaturze, często nie wiedząc i nie musząc wiedzieć, jakie cechy nadały tym modelom status paradygmatów społeczności naukowej. ”[20 ] . W drugim przypadku realność paradygmatów odkrywa się w procesie ich stosowania. Dominacja paradygmatów to okres „nauki normalnej”, który zawsze kończy się „eksplozją paradygmatu od wewnątrz”.

Kryterium naukowości, jak wiadomo, nie jest niezmienne, niepowtarzalne i arbitralne. Według Kuhna każda nauka przechodzi w swoim rozwoju trzy fazy (okresy): preparadygmat, paradygmat i postparadygmat, co odpowiada etapom genezy nauki, „normalnej” nauki i jej kryzysu. Zmiana paradygmatów dokonuje się poprzez rewolucje w nauce. Dokonuje się poprzez eksplozję, przez katastrofy, przez zniszczenie nieproduktywnych struktur doktrynalnych elity intelektualnej. W związku z tym Kuhn pisze: „Podobnie jak wybór między konkurującymi instytucjami politycznymi, wybór między konkurującymi paradygmatami okazuje się wyborem między niekompatybilnymi modelami życia społecznego”. Niezgodność paradygmatów wynika z faktu, że nowy paradygmat radykalnie zmienia sposób interpretacji wiedzy naukowej. Dzięki intuicji rodzi się nowy paradygmat. Okres przedparadygmatyczny charakteryzuje się konfrontacją między szkołami naukowymi. Wraz z przyjęciem paradygmatu i przejściem do „normalnej” nauki sytuacja się zmienia, szkoły schodzą ze sceny. Jednocześnie ustala się wspólnota stanowisk teoretycznych i metodologicznych wszystkich przedstawicieli tej dyscypliny. Jednak dalszy rozwój nauki prowadzi do identyfikacji faktów, których nie da się wyjaśnić za pomocą dominującego paradygmatu, w „normalnej” nauce zaczyna się kryzys. A potem, podobnie jak w okresie przedparadygmatycznym, środowisko naukowe ponownie rozpada się na szkoły. Rewolucja naukowa kładzie kres dominacji starego paradygmatu; zastąpiony nowym.

Następnie pod wpływem krytyki Kuhn porzucił interpretację szkoły naukowej jako edukacji niezgodnej z „normalną” nauką i paradygmatem. Termin „paradygmat” zajął tak silną pozycję we wszystkich gałęziach wiedzy, że wielu zwolenników Kuhna i badaczy naukowych zaczęło nazywać paradygmat najważniejszym kryterium projektowania. Kuhn za warunek funkcjonowania paradygmatu uważa jego akceptację przez społeczność naukową, która jednoczy naukowców, którzy z reguły należą do tej samej dyscypliny naukowej, pracują w tym samym kierunku naukowym, wyznając wspólne podstawy teoretyczne, zasady, i metody rozwiązywania problemów badawczych. Koncepcja społeczności naukowej była kluczowa dla koncepcji paradygmatu. Dla Kuhna paradygmat jest tym, co jednoczy członków społeczności naukowej: ci, którzy nie uznają paradygmatu, nie mogą być członkami tej społeczności. Przedstawiciele środowiska naukowego mają podobne wykształcenie i umiejętności zawodowe, opanowali tę samą literaturę edukacyjną i wyciągnęli z niej te same wnioski. Czytają te same książki naukowe i mają to samo poczucie odpowiedzialności za realizację wspólnych celów. Mogą należeć do różnych podgrup, takich jak fizyka ciała stałego, fizyka molekularna lub atomowa. Mogą podchodzić do tego samego tematu z różnych punktów widzenia, ale łączy ich w działalności naukowej system ogólnie przyjętych postaw, wartości, motywacji i metod, za pomocą których bada się ich dziedzinę naukową. Ta jedność jest warunkiem koniecznym rozwoju tej dziedziny nauki. Według Kuhna członkowie społeczności naukowej mogą skoncentrować swoją uwagę wyłącznie na najbardziej ezoterycznych zjawiskach, które ich interesują. Raz zaakceptowane paradygmaty uwalniają społeczność naukową od konieczności odbudowy jej podstawowych zasad. Są stosunkowo odizolowani od wymagań ludzi świeckich i życia codziennego.

8.5. Fenomenologia Edmunda Husserla

Niemiecki filozof Edmund Husserl (1859-1938) stał się twórcą fenomenologii – jednego z głównych nurtów filozofii XX wieku. Punktem wyjścia fenomenologii jest jego książka „Badania logiczne” (2 tomy, 1901). Husserl znany jest także jako ostry krytyk sceptycyzmu i relatywizmu w filozofii, którego nosicielem uważał za tzw. psychologizm – przekonanie, że każdy akt poznawczy jest wynikiem struktury świadomości empirycznej (doświadczenia zmysłowego), z czym wiąże się z brakiem prawdy, w zależności od podmiotu poznającego. Husserl uważał, że nauki przyrodnicze i historyczne wymagają pewnego uzasadnienia. Takiego uzasadnienia może udzielić jedynie filozofia jako nauka ścisła, w szczególności nauka o zjawiskach świadomości – fenomenologia.

Świadomość empiryczna, zdaniem Husserla, zawsze okazuje się zniekształcona na skutek podmiotowości, dlatego należy ją oczyścić poprzez redukcję, rozumianą jako wyzwolenie z naturalnych ludzkich warstw podmiotowych. Ta redukcjonistyczna „korekta błędów” daje czystą strukturę przedmiotu wiedzy, którą Husserl nazywa owocem intencjonalności (dosł. „być skierowanym na coś”). W ten sposób Husserl za pomocą racjonalności rozwiązuje główne pytanie, które go niepokoi: o przejrzystość związku podmiotu i przedmiotu - dzięki intencjonalności. Filozofia dla Husserla zaczyna się od odkrycia korelacji między sposobami przekazywania człowiekowi różnych aspektów świata a świadomością o świecie. Otwiera to możliwość szczególnego rodzaju badań, których celem jest badanie nie samej treści merytorycznej relacji człowieka ze światem, ale jego pojawiania się w świadomości – zjawiska.

Badania fenomenologiczne skupiają się szczególnie na zjawisku obiektywności świadomości: byt zależy od tego, jak na to spojrzeć. W konsekwencji najważniejszą cechą i właściwością świadomości, zdaniem Husserla, jest intencjonalność, tj. skupienie świadomości na przedmiocie. Dla niego świadomość jest zawsze „świadomością czegoś”. Intencjonalność oznacza, że ​​każde zjawisko obiektów w świadomości odpowiada swojej własnej strukturze intencjonalnej, składającej się z wielu podobnych, skorelowanych elementów. Organizacja metody fenomenologicznej polega właśnie na badaniu struktury świadomości w powiązaniu z jej istotnymi składnikami. Analiza struktury prowadzona jest w sposób refleksyjny. W tym względzie fenomenologia rozróżnia postawę naturalną od własnej postawy fenomenologicznej: w świecie codziennego myślenia – postawy naturalnej – nasze życie toczy się anonimowo, tj. pozostaje poza doświadczeniem intencjonalnej orientacji na przedmioty. Wejście do intencjonalnej struktury świadomości, do jej immanentnego działania możliwe jest dzięki metodzie redukcji fenomenologicznej. Dzięki tej metodzie mamy do czynienia z prawdziwymi zjawiskami. Redukcja pozwala uwolnić się od naiwności naturalnej postawy świadomości, która polega na tym, że jest ona nastawiona na poznanie obiektów zewnętrznych i interesuje się przede wszystkim przedmiotami postrzeganymi zmysłowo lub poprzez zmysły. Pozwala przełączyć świadomość na badanie własnej aktywności w konstytuowaniu obiektów. I dopiero postawa fenomenologiczna, osiągnięta za pomocą określonej redukcji, pozwala świadomości zwrócić się ku sobie, dlatego fenomenolog bierze w nawias cały realny świat przyrody, który ma stałe znaczenie egzystencjalne.

Czystość doświadczenia fenomenologicznego (odkrycie „czystych” zjawisk) dokonuje się, jeśli przedmiot doświadczenia nie jest „zanieczyszczony”, jeśli przedmiot jest izolowany w swojej czystej postaci, przy braku pokusy widzenia przedmiotu poznania w prosta korespondencja między doświadczeniem zewnętrznym i wewnętrznym: „Głębokie źródło wszystkich urojeń wynika z pierwotnego, pozornie oczywistego zrównania czasowości immanentnej i czasowości obiektywnie rzeczywistej. Immanentna czasowość jest nieodłącznym elementem ludzkiej świadomości jako obraz zewnętrznego czasu fizycznego. Ujmuje czystość przepływu mentalnych doświadczeń, które są istotne lub nieistotne.

Metoda redukcji fenomenologicznej pozwoliła Husserlowi wyjaśnić znaczenie samych różnych przedmiotów - od przedmiotów nieożywionych po własne „ja” i „inny”. Te wzajemnie uzupełniające się aspekty intencjonalności nazywane są terminami „noesis” – tryb świadomości intencjonalnej oraz „noema” – znaczenie obiektywne, obiektywny korelat, reprezentujący poetycką strukturę świadomości i jej strukturę noematyczną, tj. merytoryczne znaczenie przedmiotu.

Jednym z działów filozofii Husserla jest rozważanie etapu metody fenomenologii transcendentalnej. Ujawniając treść swoich badań filozoficznych, Husserl szczególnie skupia się na metodzie badawczej w odniesieniu do metod formowania wiedzy filozoficznej i jej roli w pojmowaniu sensu świata jako całości.

Husserl jest także autorem szeregu prac filozoficznych, wśród których wyróżnia się „Kryzys nauk europejskich” (pierwsze dwie części ukazały się w 1936 r.; później zatytułowane „Kryzys nauk europejskich i fenomenologia transcendentalna”, 1954) . Krytycy przypisują tej pracy takie definicje, jak skala, głębia itp. Książka została napisana w strasznych latach dla Niemiec. Husserl kojarzył nadejście faszyzmu z kryzysem cywilizacji europejskiej. Martwił się o pochodzenie tego kryzysu; widział je w „łonie cywilizacji technogenicznej”, w niezdolności nauki do udzielenia zrozumiałej odpowiedzi na wyzwania obecnej sytuacji na kontynencie. Jego zdaniem ratować świat mogła tylko filozofia. W poszukiwaniu „panacea” Husserl zwraca się do twórczego dziedzictwa Galileusza, którego nazywa „najwybitniejszym myślicielem czasów nowożytnych”. W szczególności pociąga go pomysł Galileusza, że ​​księga natury jest napisana językiem matematyki. Znaczenie tego powiedzenia jest takie, że biorąc pod uwagę jedność idei matematycznych i empiryzmu, nie należy dopuszczać do ich nieuzasadnionego pomieszania. Zasługą Galileusza jest nadanie naukom przyrodniczym statusu matematycznego; Pominięcie Galileusza polega na tym, że nie zwrócił się on ku zrozumieniu oryginalnej procedury semantycznej, która będąc idealizacją całego gruntu życia teoretycznego i praktycznego, afirmowała tę procedurę jako bezpośredni świat zmysłowy, z którego wyłania się świat geometrycznych figur idealnych . To, co jest dane bezpośrednio, nie staje się przedmiotem refleksji. W rezultacie idee matematyczne straciły swoją żywotność.

Świat ludzkiego doświadczenia Husserl nazywa „światem zmysłowym”, co jest skorelowane z intencjonalnością podmiotu. Na tym świecie rozwija się całe ludzkie życie. Rozpoczynając więc swoją filozofię od refleksji nad statusem pojęć arytmetycznych, w których słyszy zew prawdy, Husserl sprowadza poszukiwania do wymagań etycznych, w których ukryta jest główna prawda życia.

Część druga. Filozofia technologii

Temat 9. Filozofia technologii i metodologia nauk technicznych

9.1. Przedmiot, treść i cele filozofii technologii

Pojęcie „technologia” (od greckiego techne – umiejętność, umiejętność, sztuka) oznacza po pierwsze zespół specjalnie opracowanych metod działania; po drugie, zestaw sztucznych materiałów i materialnych środków działania; po trzecie, wiedza o metodach i środkach działania; po czwarte, specyficzny, kulturowo zdeterminowany proces wyrażania woli. Filozofia technologii to powstająca sekcja nauk filozoficznych, której główną treścią jest filozoficzna refleksja nad fenomenem technologii. Filozofia technologii sprowadza się zatem w zasadzie do kwestii zastosowania filozofii do technologii, tj. na pytanie, w jaki sposób modele teoretyczne, prawa o charakterze uniwersalnym, metody, idee zgromadzone przez filozofię zwracają się do technologii jako specjalnego przedmiotu badań.

Początków filozofii techniki można doszukiwać się w dziełach filozofów starożytnych, jednak systematyczne badania filozoficzne nad fenomenem technologii rozpoczęły się dopiero na przełomie XIX i XX wieku. Termin „filozofia technologii” został wprowadzony do użytku naukowego przez niemieckiego naukowca Ernesta Kappa, który w 1877 roku opublikował książkę „Podstawowe kierunki filozofii technologii”. E. Kapp, K. Marx opracowali zasadnicze cechy środków technicznych zgodnie z ideą uprzedmiotowienia. W Rosji podstawy filozoficznego rozumienia technologii położyli N. A. Bierdiajew i P. K. Engelmeyer. A. A. Bogdanow (Malinowski) (1873–1928) w książce „Ogólne nauki organizacyjne” (2 tomy; 1913–1917) jako pierwszy w Rosji i Europie rozważył problem równowagi i chaosu. Z oczywistych względów jego badania były kontynuowane na Zachodzie. W naszym kraju intensywny rozwój filozoficznych problemów techniki rozpoczął się dopiero w latach pięćdziesiątych i sześćdziesiątych XX wieku. Prace te były prowadzone w następujących głównych obszarach:

1) ontologia technologii związana z rozwojem idei K. Marksa (A. A. Zvorykin, S. V. Shukhardin, Yu. S. Meleshchenko, G. N. Volkov itp.);

2) filozofia historii techniki. W tym kierunku opracowano dwie główne wersje. Jedna z nich (A. A. Zvorykin, S. V. Shukhardin i inni) opierała się na zastosowaniu podstawowych idei filozofii marksistowskiej do historii i techniki. Drugi (GN Volkov) rozwinął ideę Marksa uprzedmiotowienia funkcji pracy w odniesieniu do głównych etapów ewolucji technicznej;

3) socjologia technologii, zgodnie z którą omówiono specyfikę rozwoju technologii w różnych warunkach społecznych (G. N. Volkov i inni);

4) futurologia techniczna, skoncentrowana na prognozowaniu postępu technicznego (G. N. Volkov, A. I. Cherepnev i inni);

5) epistemologia technologii w pracach V. V. Chesheva, B. S. Ukraintseva, V. G. Gorohova, V. M. Figurovsky'ego i innych została uznana za specyfikę wiedzy technicznej (obiekt, metodologia, cechy teoretyczne, rodzaje idealnych obiektów, ustawienia wartości).

Podobne trendy rozwinęły się w zachodniej filozofii technologii (F. Rapp, H. Beck i in.), socjologii (E. Toffler, D. Bell, R. Iris i in.) i futurologii (E. Toffler, D. Bell, G. Cann, J.P. Grant, J. Martino i inni).

W pracach Arystotelesa pojęcie „techne” zawarte jest w ogólnej klasyfikacji rodzajów wiedzy. Rozumienie ogólnych problemów filozoficznych z perspektywy technicznej jest dość typowe dla klasycznej tradycji filozoficznej. Filozofia zawsze dążyła do wniosków o charakterze ogólnym, jednak konstruowanie skrajnych abstrakcji opierało się na różnorodnym materiale dostarczanym przez różne obszary wiedzy i działalności. Prace Marksa dotyczą nie tylko maszyn i produkcji maszyn jako takiej, ale także zmian, jakie powodują one w życiu społeczeństwa. N. A. Bierdiajew bada technogeniczne elementy życia, w tym życia duchowego. Następnie kluczowe zapisy jego prac nad technologią potwierdziły w odniesieniu do sytuacji współczesnej prace H. Ellula. Filozofia technologii ukształtowała się jako samodzielny kierunek pod wpływem dzieł M. Heideggera, który istotę technologii starał się odkryć poza nią – w instrumentalności jako takiej, atrybutywnie tkwiącej w człowieku w jego działaniu. Technologia jako sposób odtwarzania aktywności życiowej w dużej mierze determinuje idealną formację, a zatem kulturę; jako specyficzna postawa wobec świata, wpisuje się w postawę człowieka wobec świata jako całości. W odniesieniu do filozofii klasycznej technika jest: a) środkiem ustanawiania (badań, poznania) przez podmiot przedmiotu, a co za tym idzie, środkiem ustanawiania przez sam podmiot; b) granicę podmiotu i przedmiotu w heglowskim sensie „drugiego z obu”, która w pewnym stopniu wyznacza wzajemne oddziaływanie istoty. Technologia określa historycznie specyficzne możliwości rozwiązywania odwiecznych pytań filozoficznych.

9.2. Główne kierunki i wzorce rozwoju filozofii technologii

Starożytny grecki filozof Anaksagoras (500-428 p.n.e.) główną różnicę między człowiekiem a zwierzętami widział w panowaniu człowieka nad własnymi rękami. Arystoteles (384-322 p.n.e.) wyjaśnił tę ocenę swojego poprzednika: ręce zyskują swój status dzięki umysłowi, co czyni człowieka także zwierzęciem politycznym. Arabski myśliciel Ibn Khaldun (1332-1406) w swojej książce „Muqaddima” uznał naturę ludzką za podlegającą prawu przyczynowości, w której człowiek dzięki rozumowi, pracy i nauce nabył „ludzkie zdolności”. Jednocześnie głównym narzędziem człowieka, oprócz mózgu, są jego ręce jako narzędzia pracy. Starożytny rzymski lekarz Galen (ok. 130 - ok. 200) w swoim klasycznym dziele „O częściach ciała ludzkiego” podał pierwszy anatomiczny i fizjologiczny opis całego organizmu, łącznie z rękami.

W filozofii technologii, rozważając historyczne procesy przekształcania człowieka w pracownika (od Homo sapiens do Homo creans), rozwinęły się dwie koncepcje: koncepcja „narzędzia” L. Noireta i koncepcja „pracy” F. Engelsa. Rozważmy je bardziej szczegółowo.

Koncepcja „pistoletu” formowania się człowieka w dziełach Ludwiga Noireta

Ludwig Noiret (1827-1897), kontynuując tradycje Ibn Khaldun, A. Smith i B. Franklin, uważa, że ​​zdolność człowieka do wytwarzania narzędzia jest jego zasadniczą różnicą w stosunku do zwierzęcia. W swoich pracach („Pochodzenie języka”, 1877; „Narzędzie i jego znaczenie w historycznym rozwoju ludzkości”, 1880) Noiret uzasadnia ideę, że dopiero wraz z pojawieniem się narzędzi zaczyna się prawdziwa historia ludzkości. Narzędzie pracy dla Noiret ucieleśnia zasadę kreatywności. Jego zdaniem tworzenie i używanie narzędzi to główne źródła rozwoju ludzkiej świadomości.

W narzędziach pracy człowiek „wyświetla” własne narządy, które do niedawna działały instynktownie. Pomiędzy pragnieniem a wolą człowieka są narzędzia, które służą jego woli, pragnieniom, potrzebom. Noiret przedstawia przyczynowość trójczłonową: pomiędzy podmiotem a przedmiotem szczególne miejsce zajmuje narzędzie pracy pośredniczące w ich interakcji (w tym przypadku myśl Noiret pokrywa się ze stanowiskiem Marksa o maszynach jako organach ludzkiego mózgu). Później mózg ludzki przejmuje funkcję reakcji antycypacyjnej: spekulatywnie antycypuje praktykę, manifestując się jako siła twórcza, tj. rozwija się wraz z narzędziami pracy. Nie możemy jednak zapomnieć o roli ludzkich rąk. W toku pracy narzędzia ręka ulega znacznym zmianom, dzięki czemu nie tylko nabiera uniwersalności, ale także staje się potężnym czynnikiem rozwoju. Ręce działają jak specjalne narzędzie („narzędzia narzędzi”) lub, jak mówi Noiret, „narząd zewnętrznego mózgu” i stają się czynnikiem rozwoju umysłu! Jednocześnie rozwijają oczy, wzrok, funkcjonowanie całego ludzkiego ciała, a przede wszystkim mózgu. Noiret konkluduje: każde obiektywne poznanie składa się z dwóch aktów: ruchu, skierowanego od podmiotu i zdeterminowanego wolą, oraz obiektywnego oporu, tj. opór, jaki obiekt stawia temu ruchowi. Sprzeciwiając się punktowi widzenia, zgodnie z którym człowiekowi początkowo przypisuje się dar abstrakcji, dzięki któremu był on w stanie wybiegać w przyszłość, Noiret pisze: „Myślenie dopiero później osiąga to, co już zostało wypracowane dużo wcześniej dzięki pracy, dzięki działaniu ", tj. Najpierw był czyn, a nie słowo.

„Pracowa” teoria antroposocjogenezy Fryderyka Engelsa

Słynny teoretyk marksizmu, współpracownik twórcy tej nauki, Fryderyka Engelsa (1820-1995), opublikował w 1876 r. pracę pt. „Rola pracy w procesie transformacji małpy w człowieka”, w której znacznie rozwinął poglądy na temat roli pracy w życiu człowieka. Jego zdaniem praca to nie tylko źródło bogactwa. Jej rola jest znacznie szersza: praca była główną i podstawową przyczyną pojawienia się człowieka (tj. przemiany małpy w człowieka), źródłem wszelkiego bogactwa, głównym warunkiem wszelkiego życia ludzkiego. Rewolucyjnym momentem w tym procesie było nagłe nabycie umiejętności chodzenia w pozycji pionowej: nabycie to stało się fatalne w życiu małpy. Wypuszczenie przednich łap zmieniło ich dotychczasowe funkcje (chwytanie podczas wspinania się na drzewa, chodzenie po ziemi) i przygotowało je do pełnienia innych funkcji. Tak pojawiła się ręka! Uwolniwszy się od swoich dotychczasowych funkcji, pisze Engels, ręka „mogła teraz zdobywać coraz więcej nowych umiejętności, a nabyta przez nią większa elastyczność była przekazywana i zwiększana z pokolenia na pokolenie”. Jedną z najbardziej znaczących konsekwencji tego było nabycie umiejętności wytwarzania narzędzi i ich używania. Ludzka dłoń okazuje się nie tylko narządem dotyku, ale także narządem pracy, narzędziem wszelkich narzędzi. Praca doprowadza ten organ ludzki do takiej doskonałości, że stają się dla niego dostępne takie doskonałości, jak muzyka Paganiniego i obrazy Rafaela. Ale ręka jest tylko jednym z elementów całego, bardzo złożonego organizmu ludzkiego, zatem wszystko, co przynosi korzyść ręce, przynosi korzyść całemu ciału. Była jednak jeszcze jedna okoliczność, która znacząco przyczyniła się do „marszu” człowieka w kierunku oczekiwanych przemian. Posiadał wysoko rozwinięte stado, tj. społeczny, instynkt. A wraz z tym, jak pisze Engels, budzi się i rozwija potrzeba mówienia sobie nawzajem. Ale człowiek mógł mówić tylko przy stopniowej poprawie krtani, która jest niezbędna do wymawiania dźwięków artykułowanych.

W ten sposób powstały trzy wielkie osiągnięcia: wyprostowany chód, który otworzył przed człowiekiem więcej przestrzeni do widzenia; kończyny przednie, które można wykorzystać do zupełnie innego celu; Ewolucja krtani, tak ważnego narządu do wymawiania dźwięków i przekazywania sygnałów bliskim, doprowadziła do jakościowych przemian w narządzie myślenia - mózgu, zmysłach. Engels pisze także o istnieniu czynnika o odwrotnym wpływie tych nabytków, który uzupełniał ewolucję biologiczną małp człekokształtnych. Autor odnajduje społeczne konsekwencje tej ewolucji biologicznej, przemiany małpy w człowieka, transformacji łowiectwa w rolnictwo, zdobywania osiadłego życia, umiejętności przekształcania przyrody, siedlisk, obróbki metali itp. Potem pojawia się nauka, kultura i cywilizacja. Człowiek nie ogranicza się zatem do biernego, niezamierzonego wpływu na przyrodę, lecz aktywnie ją zmienia, świadomie dostosowując ją do swoich potrzeb. A to zawdzięcza pracy. Dlatego człowieka porównuje się do technicznego zwierzęcia.

9.3. Główne etapy i społeczne konsekwencje rozwoju technologii

Człowiek żyje w stworzonym przez siebie środowisku technicznym. Tworząc tę ​​„drugą naturę” swojego mieszkania, człowiek tworzy siebie. Ta zasada autokreacji, według Ferdynanda Lassalle'a (1825-1864), jest najgłębszą rzeczą w człowieku. W badaniu filozofii technologii taka cecha osoby ma fundamentalne znaczenie. Oznacza to, że techno-kreatywność jest nieodłącznym elementem człowieka od samego początku.

Twórca rosyjskiej filozofii techniki, PK Engelmeyer, interpretował technologię jako „zdolność do celowego działania na materię”; „sztuka wywoływania pożądanych zjawisk”; działania, które ucieleśniają jakiś pomysł, plan; jako „prawdziwa sztuka”. Karl Jaspers uważał technologię za sposób na wyzwolenie człowieka spod władzy natury, zwiększenie jego dominacji nad nią, poprzez wykorzystanie natury przeciwko samej naturze.

Pierwszy etap rozwoju technologii charakteryzuje się przypadkiem (jak pisał J. Ortega y Gasset, jest to „technika przypadku”): narzędzia nie zostały wymyślone specjalnie, odkrycia były niezamierzone. Na przykład fragment skorupy jajka mógłby zastąpić dłonie i ugasić pragnienie; kamień przywiązany do patyka może zwiększyć siłę uderzenia itp. Naśladując te przypadkowe „racjonalizacje”, człowiek stworzył narzędzia teraz celowo. Ludwig Noiret identyfikuje trzy okoliczności tego procesu. Po pierwsze, prymitywne narzędzie służyło uzupełnieniu czynności fizjologicznych. Po drugie, narzędzia tworzono metodą prób i błędów: łatwiej było znaleźć osobę niż odwrotnie. Po trzecie, prymitywna technologia ze względu na swoją prostotę i rzadkość była powszechnie dostępna: każdy mógł rozpalić ogień, zrobić łuki i strzały itp. Technologia nie odstaje od wszelkiego rodzaju działań. Naturalny podział pracy technicznej istniał jedynie na podstawie różnic wieku i płci. Człowiek – pisze H. Ortega y Gasset – „...nie czuje się jeszcze jak Homo faber” – technologia jest dla niego częścią natury.

Drugi etap rozwoju technologii charakteryzuje się pewnymi komplikacjami. Produkcja narzędzi wymaga obecnie dość dużych umiejętności, dlatego też od ogólnej populacji rzemieślników oddziela się ekspertów w „tajemnicach” wytwarzania narzędzi. Według Marksa w społeczeństwie powstaje warstwa społeczna – siła napędowa postępu technicznego. Jednocześnie sam postęp techniczny nie opierał się na nauce, nie na teoretycznych obliczeniach, ale na umiejętnościach, często przekazywanych w drodze dziedziczenia (z ojca na syna) empirycznie, metodą prób i błędów. Motorem postępu technicznego byli genialni rzemieślnicy, tacy jak Archimedes, którzy idealnie łączyli talenty techniczne z praktycznymi. Ten etap rozwoju technologicznego kończy się wraz z nadejściem New Age i odpowiednio początkiem tzw. ery technologii maszynowej. Czas ten przeszedł do historii jako renesans.

Charakterystyczną cechą renesansu była rehabilitacja roli wiedzy eksperymentalnej, której symbolem było dzieło wielkiego Leonardo da Vinci (1452-1519). Jego powiedzenie „Nauka jest kapitanem, a praktyka żołnierzem” stało się swego rodzaju hasłem nowej ery. W tamtych czasach kościół nadal panował nad duszami i umysłami ludzi, a naukowiec musiał się bronić. W szczególności Leonardo pisał swoje dzieła w odwrotnej kolejności, w odbiciu lustrzanym, tak aby nikt inny nie mógł ich przeczytać oprócz niego. Wdrożenie jego pomysłów w praktyce było trudne. Był także prześladowany przez Kościół. Galileo Galilei (patrz także sekcja 2.2). Jego laboratorium zostało zrównane z ziemią, nauczanie zostało zakazane, a on sam zmarł w nędzy. Galileusz wniósł zasadę matematyczną do podstaw nauki, wprowadził eksperyment myślowy oparty na racjonalnej indukcji i położył podwaliny pod naukę o przyrodzie. Stał się twórcą naukowych nauk przyrodniczych, ufundował zasadę nowoczesnego myślenia europejskiego i przyczynił się do zapomnienia zasady antropocentryzmu. Jego prace „W ruchu”, „Rozmowy i dowody matematyczne” przez długi czas służyły jako metodologia nauki. Z filozoficznego punktu widzenia wiedzę eksperymentalną i wszelką praktyczną działalność człowieka rehabilitował jeden z twórców filozofii czasów nowożytnych Franciszek Bacon (patrz także sekcja 2.2). Poświęcił temu swoje główne dzieło, The New Organon (1620).

Bacon podzielił proces poznania na szereg elementów: przedmiot poznania; zadanie wiedzy; cel wiedzy; metoda wiedzy. Deklarował, że indukcja jest główną i najkrótszą drogą do wiedzy. Zadaniem nauki, według Bacona, jest doświadczenie, jej badanie na podstawie odwołania się do możliwości metody dedukcyjnej, jednak po pierwszych aksjomatach wstępnych wyprowadza się z doświadczenia poprzez indukcję. Bacon stanowczo domagał się, aby teorię i praktykę łączyły silniejsze więzi. Uważał, że trzy wielkie odkrycia, które nie były znane starożytnym, a mianowicie sztuka drukarska, posługiwanie się prochem i igłą żeglarską (czyli kompasem), zmieniły oblicze i kondycję całego świata. Przyczynili się do sprawy edukacji, spraw wojskowych i żeglugi. Fundamentalną ideą nauczania Bacona jest to, że nauka powinna dawać człowiekowi władzę nad naturą, zwiększać jego moc i poprawiać życie. Przyczyną złudzeń umysłu filozof uważał za fałszywe idee, które nazywał „duchami” lub „bożkami”. Wyróżnił cztery typy takich duchów:

1) duchy z rodzaju to zniekształcone odbicia wszystkich rzeczy, które istnieją, ponieważ dana osoba miesza z nimi swoją własną naturę;

2) duchy jaskini – wynikają z indywidualnych cech przedmiotu wiedzy;

3) upiory rynku to urojenia wynikające z nadużycia słów;

4) duchy teatru - fałszywe nauki, które kuszą jak wspaniałe spektakle teatralne.

Prawdziwy naukowiec bierze przykład z pszczoły, która własnymi umiejętnościami wydobywa sok z kwiatów ogrodu i pola i zamienia go w miód. Analiza przyrody Bacona przebiegała wzdłuż dwóch przecinających się linii. Najpierw, odwołując się do Demokryta w poszukiwaniu zasad i początku materii, szukał atomistycznej struktury w rzeczach. Po drugie, poszukiwał prawa formowania się form istnienia materii (konfiguracja, ruch). Uważał, że „… ciało to ruch, rozkład, trudność, jego nieodłączna właściwość”. Bacon nakreślił swoje poglądy społeczne w „Doświadczeniach” i „Nowej Atlantydzie”, w których bronił idei wolnej przedsiębiorczości. Zaproponowana przez filozofa klasyfikacja nauk została zaakceptowana przez francuskich encyklopedystów.

Innym twórcą filozofii i nauki czasów nowożytnych był przedstawiciel klasycznego racjonalizmu Rene Descartes (patrz także sekcja 2.2). W swoich pracach „Dyskursy o metodzie”, „Zasady filozofii” działał jako jeden z twórców „nowej” filozofii i „nowej” nauki, proponując rewizję wszystkich starych tradycji filozoficznych. Koncepcję Bacona o potrzebie zredukowania badań filozoficznych do doświadczenia i obserwacji Kartezjusz uzupełnił propozycją oparcia myślenia filozoficznego na zasadach dowodu, pewności i tożsamości. Tradycyjne formy zdobywania wiedzy Kartezjusz sprzeciwiał się wiedzy opartej na zasadzie wątpliwości. Wiedza naukowa w jego interpretacji jawiła się nie jako przypadek, ale jako jeden niezawodny system. Uważał zasadę cogito ergo sum (myślę, więc jestem) za absolutnie pewną. Ten argument, wywodzący się z platonizmu, niesie ze sobą przekonanie o ontologicznej wyższości doświadczenia inteligibilnego nad zmysłowym. Niemniej jednak „zostawił” ostateczne ustalenie prawdy Bogu. Idąc za Baconem, Kartezjusz wierzył, że można stać się panem natury tylko słuchając jej.

Wkład Kartezjusza w naukę jest ogromny. W matematyce był jednym z twórców geometrii analitycznej, w której posiadał nową koncepcję funkcji; opracował analityczny sposób wyrażania obiektów geometrycznych i ich relacji za pomocą równań algebry. Współczesne równania algebraiczne w dużej mierze zawdzięczają swoje pochodzenie Kartezjuszowi. W mechanice rozwinął zasady względności ruchu i spoczynku, akcji i reakcji; w optyce uzasadnił prawo stałego stosunku sinusów podczas załamania światła, rozwinął matematyczną teorię tęczy i odkrył przyczynę jej występowania; rozwinął ideę naturalnego rozwoju Układu Słonecznego, ze względu na właściwości materii i ruch jej niejednorodnych części. Wśród pytań filozoficznych opracowanych przez Kartezjusza pierwszorzędne znaczenie miały pytania o zadanie i sposób poznania.

W znajomości przyrody i jej praw dokonał znacznego postępu Isaac Newton (1643-1727), który stał się następcą i bojownikiem o ostateczne zatwierdzenie tradycji galilejskich w nauce. Założyciel mechaniki klasycznej i niebieskiej, twórca systemu rachunku różniczkowego i całkowego, autor pracy „Matematyczne zasady filozofii naturalnej”, sformułował prawa i koncepcje mechaniki klasycznej, prawo powszechnego ciążenia, uzasadnione teoretycznie Prawa Keplera, teoria naukowa typu dedukcyjnego. Sformułowana przez niego teza „Nie wymyślam hipotez” stanowiła podstawę krytyki filozofii przyrody. Swoimi pracami Newton położył podwaliny pod mechanistyczny obraz świata i mechanistyczny światopogląd. W pracy „Matematyczne zasady filozofii naturalnej” napisał: „Pożądane byłoby czerpanie z zasad mechaniki i innych zjawisk przyrody”. Newton wymyślił idee niezależnego istnienia materii, przestrzeni i czasu, co manifestowało jego metafizyczny sposób myślenia. Wady mechanistycznego wyjaśniania świata starał się nadrobić za pośrednictwem Boga. Newton nie był naukowcem od fotela. W swoich studiach przyrodniczo-filozoficznych starał się rozwiązać pewne problemy praktyczne. W związku z tym warto zauważyć, że dokonał szeregu swoich odkryć naukowych właśnie w trakcie rozwiązywania podobnych problemów, na przykład w dziedzinie budowy statków i hydromechaniki.

Szeroko znane w tym okresie były prace nad mechaniką starszych rówieśników Newtona Christian Huygens (1629-1695), wynalazca zegara wahadłowego z mechanizmem startowym, a także autor szeregu prac dotyczących teorii wahadła mechanicznego, choć, jak zauważamy, w tym czasie nie można było jeszcze mówić o tworzeniu odrębnych nauk technicznych. Wynalazek odegrał znaczącą rolę w przejściu na technologię maszynową. James Watt (1736-1819) pierwsza na świecie maszyna parowa. Europa wkraczała w erę produkcji maszynowej. Okres ten naznaczony był, jak pisał Marks, przemianą środków produkcji z narzędzi w maszyny. „Jako maszyna środki pracy uzyskują taką materialną formę istnienia, która determinuje zastąpienie ludzkiej mocy siłami natury i empirycznymi rutynowymi technikami - świadomym zastosowaniem nauk przyrodniczych” (Marx. Capital. Vol. 1). Marks widział negatywną stronę tego procesu w tym, że maszyna weszła w konkurencję z robotnikami, którzy byli poddawani cięciom i zwolnieniom, ponieważ nie mogli znieść z nią konkurencji. Dało to początek tendencji do niszczenia maszyn (luddyzm). Pod koniec XVIII - na początku XIX wieku. Pierwsze spontaniczne protesty przeciwko używaniu maszyn odnotowano podczas rewolucji przemysłowej w Wielkiej Brytanii.

Wzrosło zapotrzebowanie na działalność inżynierską, które dotychczas można było zaspokoić jedynie przypadkowymi propozycjami. Teraz era wymagała masowego szkolenia specjalistów inżynieryjnych i technicznych. W 1746 roku otwarto w Paryżu szkołę politechniczną z nową organizacją procesu edukacyjnego, łączącą kształcenie teoretyczne z kształceniem technicznym. Później takie uniwersytety, działające w oparciu o nową podstawę kształcenia – w oparciu o teoretyczne i stosowane nauki przyrodnicze, powstały w USA i wielu krajach Europy.

9.4. Główne kierunki kształtowania się filozofii technologii

Po raz pierwszy ideę stworzenia filozofii techniki, a dokładniej filozofii mechaniki, wyraził angielski chemik i fizyk Robert Boyle (1627-1691). W swojej książce „Właściwości mechaniczne” (1675) próbował sformułować mechanistyczną koncepcję filozoficzną, zamieniając mechanikę w podstawę wszystkiego, co istnieje. W obiegu był też inny pomysł: pomysł stworzenia filozofii przemysłu należał do niemieckiego ekonomisty Johanna Beckmanna (1739-1811). W Szkocji ukazała się książka ekonomisty i inżyniera Andrew Ure (1778-1857) „The Philosophy of Manufactories” (1835), w której autor rozważał niektóre filozoficzne aspekty produkcji manufaktury. Jak widać, europejska myśl filozoficzna bardzo zbliżyła się do stworzenia prawdziwie naukowej filozofii technologii. A jednak na Zachodzie za prawdziwego twórcę tej dyscypliny naukowej uważa się niemieckiego filozofa Ernesta Kappa. Rozważmy bardziej szczegółowo jego koncepcję.

Główne postanowienia filozofii technologii Ernest Kapp

Ernest Capp (1808-1896) jest znany jako jeden z głębokich myślicieli w dziedzinie filozofii technologii. Połączył koncepcję geograficzną w filozofii Karla Rittera z filozofią Karola Marksa, „przemieniając” już wcześniej heglowski idealizm w materializm. W rezultacie powstała solidna praca „Geografia ogólna i porównawcza”. Proces historyczny w jego książce został przedstawiony jako wynik aktywnej interakcji człowieka z jego otoczeniem. Dzięki tej interakcji na przestrzeni wieków człowiek nabywa umiejętność odpowiedniego reagowania na wyzwania natury i przezwyciężania swojej zależności od niej. Dowiedziawszy się od Ludwiga Feuerbacha (1804-1872) o jego antropologicznym podejściu do natury i człowieka, Kapp przedstawił swoje spostrzeżenia w kolejnej książce „Zalegalizowany despotyzm i wolności konstytucyjne”, co wywołało gwałtowne oburzenie władz w Niemczech. Odbył się proces, autor został oskarżony o zniesławienie i wydalony z kraju. Podzielił los K. Marksa z tą jednak różnicą, że wyjechał nie do Anglii, lecz do odległej Ameryki. Osiadł tam wśród swoich, w niemieckiej kolonii w Teksasie, gdzie przez dwadzieścia lat mieszkał jako rolnik, łącząc pracę fizyczną z pracą umysłową: kontynuował badania rozpoczęte w Niemczech. Praca na ziemi dała mu praktyczną możliwość filozoficznego zrozumienia związku między człowiekiem a podmiotem pracy za pomocą narzędzi pracy. Obserwacje te zostały zawarte w jego nowej książce „Podstawy filozofii technologii”, którą opublikował po powrocie do Niemiec. Czytelnicza publiczność dostrzegła w tym dziele naukowym wyraźne ślady wpływu koncepcji antropologicznej Feuerbacha. Połączenie z tą koncepcją pozwoliło autorowi przyjrzeć się bliżej istocie związku rąk ludzkich (antropologia) z narzędziami, co stanowi punkt wyjścia filozoficznej refleksji nad technologią i jej istotą. Po powrocie do domu „na urlopie” pozostał w Niemczech na zawsze, gdyż stan zdrowia nie pozwalał mu na odbycie tak długiej podróży powrotnej. A przedmiot jego badań w pełni pochłonął jego codzienność.

Zainspirowany ideą starożytnego greckiego Protagorasa, że ​​człowiek jest miarą wszystkiego, Kapp zafascynował się sekretnym połączeniem ludzkiego ciała, rąk i aktywności mózgu. Dystansując się od heglowskiego „ja”, skupia swą uwagę na całym cielesnym organizmie – na jego najściślejszych związkach z „ja”, które jedynie w powiązaniu z fizycznością realizuje proces myślenia; jako wspólnik, myśli, istniejąc. Jednocześnie psychologia i fizjologia łączą się ze sobą. A proces ten, jak słusznie zauważa Kapp, zachodzi w obszarze sztucznego środowiska stworzonego przez człowieka: „To, co jest na zewnątrz człowieka, składa się ze stworzeń natury i człowieka”.

Człowiek nie zadowala się tym, co dała mu natura. Cechuje go autokreatywność. „Reformuje” otoczenie na miarę swojej istoty, tak jakby natura, tworząc je, nie przewidziała wszystkiego, opierając się właśnie na swojej autokreacji: „sam to dokończysz”, rzutując swoją wizję na zewnątrz. Kapp pisze: „Zewnętrzny świat pracy mechanicznej, wywodzący się od człowieka, można rozumieć jedynie jako rzeczywistą kontynuację organizmu, jako przeniesienie na zewnątrz wewnętrznego świata idei”. Kapp rozumie „świat wewnętrzny” jako ciało ludzkie. Wynika z tego, że to, co zewnętrzne, jest kontynuacją ciała ludzkiego, a dokładniej mechaniczną imitacją różnych jego organów. Na tym właśnie polega jego koncepcja, zwana projekcją organową. Kapp podkreśla: „Wszystkie środki kultury, niezależnie od tego, czy są wulgarnie materialne, czy mają najbardziej subtelną konstrukcję, są niczym więcej niż projekcjami organów”.

W ten sposób Ernest Kapp stworzył holistyczny obraz projekcji organów, w którym szczegółowo uzasadnia i formułuje tę koncepcję jako główną zasadę ludzkiej działalności technicznej i całej jego twórczości kulturowej jako całości. Wśród ludzkich narządów Kapp przypisuje szczególne miejsce dłoni. Ma potrójny cel: po pierwsze jest naturalnym narzędziem; po drugie służy jako wzór dla narzędzi mechanicznych, a po trzecie odgrywa ważną rolę w produkcji imitatorów materiałów, tj. jest „narzędziem narzędzi”. To z tego naturalnego narzędzia powstają sztuczne narzędzia: młotek jako przedłużenie pięści, kubek do picia zamiast dłoni i tak dalej. W koncepcji projekcji organowej znalazło się również miejsce na podobiznę ludzkich oczu, zaczynając od lupy, przyrządów optycznych; technika akustyczna stała się jak narząd słuchu, na przykład echosonda, która wychwytuje hałas śmigieł zbliżającej się łodzi podwodnej itp. Ale ludzka ręka wyróżnia się spośród wszystkich tych organów: jest, według Kappa, „organem wszystkich organów”.

W opisie pojęcia projekcji narządowej wyróżnia się trzy ważne cechy[21]. Po pierwsze, ze swej natury projekcja narządowa jest procesem ciągłego, przeważnie nieświadomego samopoznania, którego indywidualne akty nie podlegają jednoczesnemu procesowi świadomości. Po drugie, jest to konieczne, ponieważ związek między funkcją mechaniczną a tą formacją organiczną jest ściśle określony. W ten sposób „rozpoznają się” w sobie lupa i ludzkie oko, pompa i serce, fajka i gardło, narzędzie ręczne i ręka itd. Takie połączenie w technologii jest wykorzystywane w najbardziej różnorodny sposób w świadomym przenoszeniu poza granice pierwotnej relacji. Po trzecie, projekcja narządowa w swej bogatej zawartości realizuje się jako proces aktywnej interakcji między narzędziami naturalnymi (wszystkie narządy ludzkie) a narzędziami sztucznymi, podczas której wzajemnie się doskonalą. „W procesie interakcji” – pisze Kapp – „narzędzie wspomagało rozwój naturalnego narządu, a ten z kolei osiągając wyższy stopień sprawności, prowadził do doskonalenia i rozwoju narzędzia” (cyt. za: : Dekret Al-Ani N.M. op.).

Człowiek czyni swoje ciało "łuską" natury i od młodości przyzwyczaja się do używania tego środka. Na przykład pięć palców ręki, dziesięć palców obu rąk daje odpowiednio system piąty i dziesiętny. Obserwacje i wnioski Ernesta Kappa potwierdzają badania innych autorów. W szczególności Yu.R. Mayer (1814-1878), G.L.F. Helmholtz (1821-1894) dokonał porównań między maszyną a człowiekiem, wskazując na ich podobieństwa.

Technologia i prakseologia jako filozofia działania Alfreda Espinas

Francuski socjolog, autor książki „Pochodzenie technologii” (1890), Alfred Espinas (1844-1922), zaniepokoił się brakiem „filozofii działania” w systemie wiedzy filozoficznej. Espinas mógł uważać się za ucznia lub zwolennika filozofii projekcji organów. Nie miał żadnych zastrzeżeń do dość dobrze już znanych w Europie nauk Ernesta Kappa. Świadczy o tym jego stwierdzenie: „Narzędzie jest integralną częścią robotnika, jest kontynuacją organu, jego projekcją na zewnątrz”. Espinas w pełni zgadza się z Kappem, że projekcja narządów była pierwotnie nieświadoma. Jego przejawy widzi w greckich miarach długości: palec, dłoń, pępek, stopa, łokieć – dla Espinasa mają one boskie pochodzenie, dar od Boga. Medycyna, zanim stała się świecka, również przeszła długą drogę istnienia pod auspicjami religii. Choroba była uważana za karę Bożą, dlatego też w świątyniach praktykowano medycynę jako dziedzinę sztuki. Epidemie uważano za przejaw gniewu Bożego, a chorych leczono rytuałami. Sytuacja zmieniła się radykalnie dopiero dzięki pracy Hipokratesa, kiedy choroby zaczęto tłumaczyć przyczynami naturalnymi.

Espinas uważa osobę za produkt psychologicznej i socjologicznej projekcji, która go uosabia. Sztuki użytkowe nie są dziedziczone wraz z cechami ciała. Jako produkt doświadczenia i refleksji są one „wpajane” jednostce przez „przykład i edukację”; w ten sposób dają początek nauce. To właśnie ten proces przekazywania umiejętności autor nazywa tematem technologii.

Espinas wprowadza pojęcia prakseologii (od greckiego praktikos – aktywny) i technologii (od greckiego techne – sztuka, umiejętność, umiejętność oraz logos – słowo, nauczanie). Pierwszy, jego zdaniem, odzwierciedla zbiorowe przejawy woli, przemyślane i arbitralne, najogólniejsze formy działania. Jeśli chodzi o technologię, odnosi tę koncepcję do „dojrzałych sztuk”, które dają początek nauce i „rodzą technologię”. Espinas widzi w technologii trzy istotne cechy, które należy rozpatrywać z trzech punktów widzenia. Po pierwsze, ma na celu analityczny opis zjawiska, uwzględniający specyficzne warunki jego istnienia (czas, miejsce, społeczeństwo). Po drugie, wzorce, warunki i przyczyny poprzedzające zjawisko należy badać z dynamicznego punktu widzenia. Po trzecie, konieczne jest zastosowanie połączenia statycznego i dynamicznego punktu widzenia, umożliwiającego badanie zjawiska w czasie: jego narodzin, apogeum i upadku, które stanowią rytm jego istnienia. Połączenie tych trzech wymiarów tworzy ogólną technologię.

Filozofia technologii P.K. Engelmeyer: technologia jako „prawdziwa kreatywność”

Kontynuatorem tradycji Ernesta Kappa był także syn rosyjskiego szlachcica pochodzenia niemieckiego Piotra Klimentiewicza Engelmeyera (1855-1941). Jego studia z zakresu filozofii techniki zyskały sławę po opublikowaniu kilku artykułów w niemieckich publikacjach, a prawdziwą popularność zyskał po wygłoszeniu referatu na IV Międzynarodowym Kongresie Filozoficznym, który odbył się w Bolonii w 1911 roku. filozofia technologii musi mieć prawo do istnienia. W Rosji w latach 1912-1913. kilka jego prac ukazuje się w odrębnych wydaniach pod ogólnym tytułem „Filozofia technologii”. Historyczny przegląd rozwoju filozofii techniki w interpretacji Engelmeyera stał się możliwy dzięki pracom B. Franklina, E. Hartiga, F. Relo, L. Noireta, J. Cuviera, C. Linnaeusa, M. Mullera , F. Engels, K. Marks i inni poprzednicy. Uwzględniając dorobek europejskiej myśli naukowej, P.K. Engelmeyer konsekwentnie nakreślał swoje poglądy na filozofię techniki i jej przedmiot. Ogólnie można je zredukować do następujących.

1. Doświadczenie i obserwacja są źródłem naszej wiedzy o przyrodzie i dlatego służą jako dowód prawdziwości praw nauki.

2. Doświadczenia i obserwacje wykorzystania technologii do walki z naturą pokazują, że natura musi zostać pokonana przez naturę.

3. Jeśli bez technologii człowiek jest stracony, to bez nauki nie ma technologii.

4. Definicja człowieka jako „zwierzęcia myślącego” (J. Cuvier i C. Linnaeus) wymaga wyjaśnienia, biorąc pod uwagę stanowisko, jakie umysł ludzki wykształcił równolegle z rozwojem języka i narzędzi (L. Noiret i M. Müllera).

5. Zdolność człowieka do tworzenia narzędzi tkwi w samej jego naturze, w jego naturze twórczej.

6. Nauka rodzi się z praktycznego, tj. techniczne, potrzeby życia codziennego.

To ostatnie stanowisko wielokrotnie potwierdzała praktyka. Na przykład Egipcjanie przyszli do wynalezienia geometrii z potrzeby geodezji po każdej powodzi Nilu, alchemia zamieniła się w chemię, astronomia powstała z astrologii itp.

Engelmeyer pozytywnie ocenił pragmatyczną teorię austriackiego fizyka i filozofa Ernest Mach (1838-1916), ograniczający antropomorfizm technologii. Według Macha człowiek czasami buduje myślenie w oparciu nie o zasadę antropomorfizmu, ale o analogię techniczną. Zdaniem Engelmeyera stanowisko to nie przekreśla pomysłów Kappa, a jedynie je uzupełnia. Ale zasada ekonomii myślenia sformułowana przez Macha istnieje i trzeba o tym pamiętać, aby nie wymyślać koła na nowo. W teorii wiedzy Macha najważniejsza jest zasada ekonomii myślenia; tu właśnie przebija się jego pragmatyzm. Samo życie dyktuje niezbędną wiedzę technologii i wyznacza cele. Tylko wiedza, która prowadzi do praktycznych rezultatów, jest cenna w życiu. Zasadniczo pragmatyzm jest pomostem prowadzącym do filozofii technologii. Zatem filozofia technologii nie może stać odwrócona plecami do życia, musi pomagać w budowaniu życia.

Enegelmeyer, rozpatrując kwestię istoty techniki, buduje linię demarkacyjną pomiędzy nauką a technologią. Zapytany, jaka jest między nimi różnica, odpowiada w ten sposób: nauka dąży do prawdy, technologia dąży do korzyści. Technik przychodzi wtedy, gdy naukowiec powiedział już, jaka jest prawda: nauka wie i technologia. Choć oczywiście nie oznacza to końca ich związku. Engelmeyer buduje zbiór wymagań wobec technologii, które musi spełniać, będąc fundamentem kultury. Wypowiadając się na rzecz istnienia w społeczeństwie ludzi o „technicznym” usposobieniu, pisze: „Broń służy jednakowo temu, kto ją posiada; drukarnia obojętnie produkuje zarówno Ewangelię, jak i broszurę obskurantysty; wszystko zależy od ludzie, w których rękach pracuje maszyna.” Jego zdaniem technologia powinna mieć poczucie odpowiedzialności oparte na „formule woli”, której składnikami są „Prawda, Piękno, Dobro, Korzyść”. A gdzieś na uboczu jest „diabelska” wola: „Kłamstwa, brzydota, zło i krzywda”; ta wola zawładnęła Rosją.

Cała droga życia Engelmeyera była związana z Rosją. Po rewolucji październikowej propozycję emigracji na Zachód przyjął dopiero na początku lat 1930. XX wieku. włożył wielkie starania w upowszechnianie wiedzy technicznej, odegrał decydującą rolę w tworzeniu Muzeum Politechnicznego w Moskwie. Był inicjatorem wielu publikacji i sam aktywnie publikował. Jednak wraz z zacieśnianiem się sowieckiego reżimu i narastaniem represji trzeba było myśleć o przetrwaniu. Zakończyły się zajęcia z rozwoju filozoficznych problemów techniki Engelmeyera. Przez jakiś czas gdzieś pod Moskwą hodował konie. W 1941 roku, mało zauważony, zmarł po cichu w swoim moskiewskim mieszkaniu. Pod dominacją filozofii marksistowsko-leninowskiej nie było miejsca na filozofię nauki i techniki.

Technika jako środek „prawdy” i sposób na ujawnienie „ukrytego” (M. Heidegger)

W książce „Bycie i czas” Martin Heidegger stawia pytanie o sens bytu, który – jego zdaniem – został „zapomniany” w filozofii europejskiej. Ponieważ „bycie” dla człowieka jest zjawiskiem przejściowym, w filozofii pojawiła się tendencja do zapomnienia tego zjawiska. Ale dla ludzkości „bycie” jest zjawiskiem, które wiecznie się powtarza i dlatego zawsze ma swoje znaczenie. Na poziomie osobistym doświadczenie faktu tymczasowości istnienia jest dla jednostki bardzo uciążliwe, towarzyszy mu strach, zrozumienie własnej tymczasowości, wyjątkowości, jednorazowego wystąpienia i śmiertelności. Heidegger poświęca się badaniu tego zjawiska. Według Heideggera przeszłość kultury łączy się z teraźniejszością za pomocą języka, który wymaga „reanimacji”: ucierpiała ona na skutek technizacji i w dużej mierze stała się „martwa”. Język przeszłości żyje w kulturze, literaturze, sztuce, architekturze, wreszcie w technologii, pozostając repozytorium, domem „bycia”. Problematyka ta (doświadczenia czasowości istnienia, losy języka w historii itp.) została uwypuklona w jego książce „O kwestii techniki” (1954). Podstawą tej pracy były materiały z wykładów, które wygłaszał w Wyższej Szkole Technicznej w Monachium. Wyjaśniając etymologiczne znaczenie pojęcia „technologia”, Heidegger zwraca uwagę na fakt, że interpretuje się je jako „środek do osiągnięcia celów”, czyli inaczej mówiąc, jako „znaną działalność człowieka”. Uznając poprawność tych definicji, Heidegger zauważa jednocześnie, że poprawność definicji nie oznacza jej prawdziwości. Zadaniem filozofii techniki jest poszukiwanie prawdziwej definicji. A prawda kryje się w pytaniu „co to jest narzędzie?” Poszukując odpowiedzi na to pytanie, autor dochodzi do wniosku, że wszystko zależy od tego, co dokładnie mamy na myśli, mówiąc „narzędzie”. Za tą definicją widzi przyczynowość. Heidegger przywołuje tradycję sięgającą czasów Arystotelesa, aby w filozofii wyróżnić cztery typy przyczynowości:

1) przyczynę materialną (causa materialis), wskazuje źródła artefaktów, np. srebrną miskę na ofiarę;

2) racja formalna (causa formalis), objawia się, gdy np. srebro przybiera kształt estetyczny;

3) przyczyna celowa (causa finalis), gdy kształtowanie spełnia cel;

4) powodujące przyczynę (causa efficiens), tj. tworzenie gotowego produktu.

Na podstawie tej analizy Heidegger dochodzi do wniosku, że istotę technologii jako środka można ujawnić jedynie poprzez zredukowanie instrumentalności do tych czterech aspektów przyczynowości. Powody te w jego rozumieniu nabierają znamiona winy („jesteśmy winni czegoś”), a wszystkie łączy „poczucie winy”. To oni są „winni” wyglądu rzeczy, zwłaszcza srebrnej miski. Poczucie winy może również działać jako powód (w tym przypadku cztery powody). I nazywa to przejście od stanu nieistnienia do stanu obecności „pracą”. W najwyższym sensie dzieło jest poiesis, tj. rzemiosło plus sztuka. Taki proces pracy zawsze oznacza odkrycie tego, co ukryte, które zamienia się w nieskrytość, otwartość. Grecy nazywali to przejście słowem „alateia”, Rzymianie – veritas. Technologia okazuje się więc ostatecznie zarówno rodzajem, jak i metodą odkrywania tego, co ukryte, wydobywania tego, co rzeczywiste z ukrycia.

Heidegger obok słowa episteme (wiedza) umieszcza słowo techne: oba służą ujawnieniu tajemnicy, a techne jest zatem rodzajem „tworzenia prawdy”. Obydwa pojęcia są równoznaczne z wiedzą, pomagają człowiekowi poruszać się po labiryncie pojęć, rozumieć, odkrywać to, co ukryte, czego jeszcze nie dostrzegł. Skrycie nie jest obojętne, intryguje człowieka, nieustannie rzuca mu wyzwanie, daje sygnały, flirtuje... A ta intryga skłania człowieka do skupienia uwagi, wycelowania, postawienia sobie zadania, które Heidegger nazywa „ustawieniem” (Gestell). Podobnie jak Platon, na określenie tego zjawiska używa słowa niezwykły, charakterystyczny. Metodą prezentacji wydobywa realność ze stanu ukrycia i przenosi ją w inny stan – „bycie-obecnym”. Pojęcie „postav” jest dla niego bardzo pojemne. Ma cztery znaczenia. Po pierwsze, jest to przenośny synonim słowa „stawać się”, tj. gdzie wszystko się zaczyna. Po drugie, oznacza to wyznaczenie drogi do ukrytej. Po trzecie, to, co ukryte, podobnie jak prawda, pozostaje w „intymnym związku” z pojęciem wolności, czyli wolności od stanu niewiedzy. Po czwarte, droga do tej wolności jest zawsze obarczona ryzykiem, niebezpieczeństwem (Gefahr). Mówiąc o niebezpieczeństwie, autor ma na myśli, że człowiek nie wie wszystkiego, zawsze pozostaje „sekret istoty”. Głos wcześniejszej prawdy może zostać zagłuszony przez euforię odkrycia. Znajomość „prawdziwie istniejącego” jest jeszcze przed nami. Heidegger podsumowuje: „Im bliżej niebezpieczeństwa, tym jaśniej zaczyna świecić droga do zbawienia!”

Temat 10. Kierunek społeczny i humanitarny w filozofii technologii

10.1. Fundament kierunku humanitarnego w filozofii technologii

Uznanym liderem w badaniach społecznych aspektów postępu technologicznego jest Karol Marks (1818-1883). Pisali o tym H. Bocian, Gunter Ropol, Hans Lenk, poświęcając w swoich pracach całe rozdziały na analizę poglądów Marksa. W szczególności H. Stork nazywa Marksa pionierem w kształtowaniu filozofii techniki jako szczególnego kierunku[22]. Wpływowy filozof technologii nazywa Marksa i współczesnego niemieckiego filozofa Hansa Lenka[23].

W piątym rozdziale Kapitału Marks dokonuje dogłębnej analizy pracy ludzkiej, gdyż to ona jest „konsumowana” (czyli ma wartość użytkową), a środki techniczne są jedynie jej przewodnikiem. Choć Marks popierał prace swojego przyjaciela F. Engelsa na temat roli pracy w procesie rozwoju człowieka, jego sympatie nadal opowiadały się po stronie projekcji organowej E. Kappa. Prawda była dla niego cenniejsza! Marks pisał: „Przedmiot, który człowiek włada bezpośrednio... nie jest przedmiotem pracy, ale środkiem pracy. Tym samym dany przez samą naturę staje się organem jego działania, organem, który łączy się z organami jego ciało, wydłużając w ten sposób, wbrew Biblii, jego naturalne wymiary.” Dla Marksa narzędziami pracy są „zmaterializowana siła wiedzy” [24].

Wyparcie pracy ręcznej przez pracę maszynową doprowadziło do rewolucyjnych przemian w procesie pracy. Marks określił charakter nowej ery poprzez postęp środków pracy, które stanowią nie tylko miarę rozwoju siły roboczej, ale także wskaźnik samych stosunków społecznych. Konsekwencje rewolucji w rozwoju środków pracy, która doprowadziła do wyparcia pracy fizycznej i związanego z tym masowego zwalniania osób zastępowanych przez maszyny, Marks analizuje szczegółowo w ósmym rozdziale Kapitału. Podczas przejścia od technologii rzemieślniczej do technologii maszynowej karłowate narzędzia ludzkiego ciała i energia mięśni zostały zastąpione siłami natury, a tradycyjną wiedzę wykorzystywaną w procesie pracy fizycznej zastąpiono naukową wiedzą przyrodniczą z zakresu nauk ścisłych. Praca przemysłowa wypiera pracę rzemieślniczą, czyniąc maszynę krwawym wrogiem rzemieślnika. Praca „martwa” (maszynowa) całkowicie dominuje nad „żywą” i skutecznie z nią konkuruje, czyniąc ją dodatkiem do produkcji maszynowej. W manufakturze i rzemiośle robotnik sprawia, że ​​narzędzie mu służy, w fabryce natomiast służy maszynie, będącej jej żywym dodatkiem. Po tych zmianach technicznych następuje drugi stopień zależności pracownika: jest on zależny nie tylko od pracodawcy, ale także od środków pracy, co nadaje jego alienacji wymiar wyraźnie techniczny. Bardzo szybko okazuje się, że pracodawca nie potrzebuje już tak dużej liczby pracowników: wiele operacji pracowniczych wykonują „inteligentne” maszyny. Nadchodzi czas masowych zwolnień, miliony pracowników tracą pracę. Maszyna, środek pracy, staje się krwawym wrogiem robotnika. Marks pisze: „Nie ulega wątpliwości, że maszyny same w sobie nie są odpowiedzialne za to, że «uwalniają» robotnika od środków utrzymania”[25]. Powodem jest, zdaniem Marksa, kapitalistyczne użycie maszyn.

Maszyna neutralna aksjologicznie! Jest „wrogo nastawiona” do rzemiosła, nie sama w sobie. Po prostu trafiła w niepowołane ręce i dlatego musi zostać przeniesiona w inne ręce: w ręce bezrobotnych. I wywłaszczyć pracodawcę jako wywłaszczyciela, dając władzę polityczną i ekonomiczną robotnikom, proletariatowi. Taka jest logika nauczania Marksa.

Na uwagę zasługuje jeszcze jeden ważny aspekt w techniczno-filozoficznej koncepcji Marksa, odnoszący się do oceny natury samego postępu technicznego. Trzymając się sztywnej koncepcji dialektycznej w filozofii, Marks uważa, że ​​każdy z elementów systemotwórczych tego procesu musi koniecznie zawierać regresję względną. Mówimy o rozwoju technicznym jako ważnym elemencie postępu społecznego. Pisze przy tej okazji: "W naszych czasach wszystko wydaje się być najeżone swoim przeciwieństwem. Widzimy, że maszyny, które mają cudowną moc zmniejszenia i uczynienia pracy ludzkiej bardziej owocną, przynoszą ludziom głód i wyczerpanie. Nowe, nieznane dotąd źródła bogactwo, dzięki któremu „Niektóre dziwne i niezrozumiałe uroki zamieniają się w źródło ubóstwa. Zwycięstwo techniki jest niejako kupione za cenę moralnej degradacji. Wydaje się, że tak jak ludzkość ujarzmia naturę, człowiek staje się niewolnikiem innych ludzi lub niewolnikiem własnej podłości”.

10.2. Próba porzucenia „siły” technologii na rzecz etyki

Francuski filozof technologii i kulturolog Jacques Ellul (ur. 1912) zyskał sławę wraz z publikacją Technique (1954). Wszystkie prace Ellula poświęcone były analizie i badaniu ówczesnego społeczeństwa technicznego. Główne credo badawcze autora sprowadza się do zakwestionowania Marksowskiej koncepcji decydującej roli sposobu produkcji w historycznym rozwoju społeczeństwa. Według Ellula klasyfikacja epok historycznych powinna opierać się na stopniu rozwoju techniki. Idee te były konsekwentnie omawiane w jego książkach „Towarzystwo techniczne” (1965), „Iluzje polityczne” (1965), „Metamorfoza burżuazji” (1967), „Imperium absurdu” (1980). Ich przedmiotem były problemy współczesnego społeczeństwa technicznego, techniki, osobowości technicznej, polityki, pozycji klas społecznych i sztuki.

Centralnymi pojęciami teorii Ellula są „technologia” i „technofilozofia”. Definiuje technologię jako „zestaw racjonalnie opracowanych metod, które są absolutnie skuteczne w każdym obszarze działalności człowieka”. „Fenomen technologii” według Ellula charakteryzuje się tak ważnymi cechami, jak racjonalność, artefaktowość, samokierowanie, samorozwój, niepodzielność, uniwersalność i autonomia. Te siedem cech, zdaniem autora, stanowi charakterystyczną treść technologii jako głównej dominującej formy działalności człowieka. Zatem to technologia determinuje wszelkie inne formy działalności, całą technologię człowieka i wszystkie struktury społeczne - ekonomię, politykę, edukację, opiekę zdrowotną, sztukę, sport itp.

Ellul postrzega technologię na obecnym etapie jej rozwoju w szerokim światopoglądzie jako rodzaj racjonalności. Zastępuje naturę technosferą, środowiskiem technicznym, zastępując środowisko naturalne. Technologia to siła narzucona z zewnątrz, z którą człowiek musi się liczyć; narzuca się po prostu poprzez istnienie. Technologia jako coś oczywistego, samowystarczalnego, odgrywa bardzo niebezpieczną i ryzykowną grę. W tej grze osoba musi stawiać tylko na te działania, które podejmuje, aby osiągnąć swoje dobre cele i spełnić swoje dobre intencje.

Z punktu widzenia autora technologia ma pomóc ludziom w budowaniu domu tutaj, na Ziemi. Należy aktywnie przeciwdziałać „twierdzeniom” technologii, że ma ona stać się wszechuwarunkowającą i wszechgenerującą zasadą, a jej pragnieniu wszechmocy należy aktywnie przeciwdziałać i poważnie je odrzucić. Etyczna koncepcja wyrzeczenia się władzy technologii, sformułowana przez Ellula, pretenduje do roli takiego przeciwdziałania. Koncepcja ta praktycznie opiera się na bezpośrednim i całkowitym zaprzeczeniu tzw. „imperatywowi technologicznemu”, zgodnie z którym człowiek może, a zatem powinien robić wszystko, co jest dla niego technicznie dostępne i zasadniczo wykonalne. Ellul wręcz żąda porzucenia takiej postawy. Etyka odrzucania potęgi technologii wymaga nie tylko ograniczenia tego imperatywu, ale jego całkowitego zaprzeczenia. Zasadą wyjściową tej koncepcji etycznej jest idea samoograniczenia człowieka, co nieuchronnie prowadzi do zastąpienia „imperatywu technologicznego” postawą przeciwną, zgodnie z którą ludzie muszą zgodzić się między sobą, aby nie robić wszystkiego, co do nich należy. ogólnie technicznie możliwe do wykonania. Postawę tę można nazwać „imperatywem antytechnologicznym”, staje się ona jednocześnie aktualna i fatalna, gdyż na tle niebotycznego wzrostu potęgi technologii pojawia się przekonanie o całkowitym braku sił zewnętrznych zdolnych przeciwstawić się technologii i aktywnie przeciwstawić się jego wszechmoc. Jednak nadal nie ma realnej alternatywy dla technologii, więc trzeba się z nią „dogadać”. W tych warunkach pozostaje jedno: kierować się etyką odrzucania potęgi technologii. Taka etyka wymaga nie tylko powściągliwości, ale także odrzucenia technologii niszczącej osobowość. W tym celu, zdaniem Ellula, konieczna jest rewolucja: tylko ona może zmienić technologię z czynnika zniewolenia człowieka w czynnik jego wyzwolenia. Filozof nazywa tę rewolucję „polityczno-techniczną” - jest to rodzaj utopijnego modelu rozwoju współczesnego społeczeństwa zachodniego.

Rewolucja „polityczno-techniczna” wynika z konieczności rozwiązania pięciu problemów (aspektów) rozwoju społeczeństwa. Po pierwsze, konieczne jest udzielenie nieodpłatnej pomocy krajom „trzeciego świata”, aby dać im możliwość czerpania wszystkich korzyści z zachodniej technologii, samodzielnego budowania własnej historii. Po drugie, należy zaniechać użycia siły w „każdej formie” i „arsenałów wojskowych, które tłumią naszą gospodarkę”, a także całkowicie wyeliminować „scentralizowane państwo biurokratyczne”. Jednocześnie autor uważa, że ​​nie doprowadzi to do spadku organizacji ani zamieszania, ponieważ jego zdaniem nie będzie komu tworzyć zamieszania, nieładu i zamieszania. Następnie musimy powstrzymać wzrost cen i zachęcić małe firmy. Spadek poziomu życia powinien być rekompensowany wzrostem jego jakości. Po trzecie, konieczne jest osiągnięcie wszechstronnego rozmieszczenia umiejętności i zróżnicowania zawodów. Wiąże się z tym rozkwit talentów narodowych, uznanie wszystkich autonomii, stworzenie wolnego i godnego życia dla małych narodów, zapewnienie im podniesienia edukacji, a niekoniecznie tworzenie własnej państwowości. Po czwarte, konieczne jest osiągnięcie gwałtownego skrócenia czasu pracy, zastępując 35-godzinny tydzień pracy dwugodzinną pracą dzienną. Ponadto ma prowadzić propagandę na pytania o sens życia, o nową kulturę, otwieranie przestrzeni na nowy wachlarz zdolności twórczych itp. Wreszcie, po piąte, proponuje się traktowanie ilości czasu „zaoszczędzonego” przez osobę jako kryterium postępu. Wynagrodzenie pracy ma być realizowane nie w pieniądzu, ale poprzez wymianę produktów i niezależnie od ilości zainwestowanej pracy.

Celem rewolucji „polityczno-technicznej” nie jest przejęcie władzy, ale realizacja pozytywnych potencjałów nowoczesnej techniki, zorientowanej na całkowite wyzwolenie człowieka. Społeczno-utopijny projekt Ellul zakłada utworzenie samorządu na poziomie gmin. Ogólnie można odnieść wrażenie, że autor „przepisał” swoją etykę wyrzeczenia się potęgi techniki z krótkiej historii budowy komunizmu w ZSRR. Wszystkie te inicjatywy, polegające na skróceniu czasu pracy, darmowych racjach żywnościowych itp., zostały wdrożone w działaniach KPZR, co doprowadziło ZSRR do całkowitego i ostatecznego upadku. Niemniej jednak historia ma tendencję do powtarzania się, jak pisał Marks, „czasami w formie farsy, teraz w formie tragedii”.

10.3. Rewolucja w technologii i ewolucja w społeczeństwie: technologiczne i filozoficzne poszukiwania szkoły frankfurckiej

Frankfurcka Szkoła Filozofii Technologii jest reprezentowana przez nazwiska znanych rosyjskich filozofów Max Horkheimer (1895-1973) Herbert Marcuse (1898-1979) Teodora Adorno (1903-1969). Szkoła pod tą nazwą powstała w latach 1930-1940 XX wieku. wokół Instytutu Badań Społecznych Uniwersytetu we Frankfurcie nad Menem, kierowanego od 1931 przez Horkheimera. W związku z dojściem nazistów do władzy większość pracowników instytutu została zmuszona do emigracji. Dziedzictwo teoretyczne przedstawicieli Szkoły Frankfurckiej wiąże się z rozwojem idei Maxa Webera, w szczególności z rozwojem krytycznej teorii społeczeństwa, mającej na celu dokonanie „najwyższego osądu o tłumieniu klasowym” w celu stworzenia „społeczeństwo bez niesprawiedliwości”. Sformułowana „krytyczna teoria społeczeństwa” wywodzi się z tego, że człowiek jako istota aktywna, twórcza i wolna w warunkach współczesnego społeczeństwa jest zawiedziona („unicestwiena”), pozbawiona „drugiego wymiaru”, jakim jest jego duchowość. Jednocześnie traci zarówno swoją osobowość, jak i spontaniczność swojego istnienia, oddala się od siebie, swojej prawdziwej istoty. Technologia ponosi pewną część odpowiedzialności za te procesy. Pełni rolę generatora kultury masowej, pozbawionej duchowości, zaprojektowanej do uśrednionych wzorców kulturowych, tj. ich potanienie, na „masowym oszustwie” (T. Adorno).

Według Theodora Adorno w tzw. kulturze „masowej” zatraca się wyjątkowość i niezależność człowieka, następuje zjednoczenie wszystkich ludzi, zamieniając ich w szarą, bezkrytyczną masę. Co więcej, cała kultura jest ograniczona, projektowana jest historyczna całość, wobec człowieka stawiane są żądania, które go zniewalają. W tym przypadku zniewalającym nie jest technologia, ale jej właściciel. Adorno wychodzi z faktu, że w żaden sposób nie można przeciwstawić technologii i humanizmowi: takie przeciwstawienie jest wytworem fałszywej świadomości. Można powiedzieć, że sama przepaść między technologią a humanizmem, choćby nie wiem jak nieuleczalna się okazała, jest przykładem pozoru kreowanego społecznie – pisze Adorno. Filozofa interesuje pytanie: w jaki sposób należy wprowadzić techników w filozofię technologii? Odpowiadając na nie, odrzuca istniejącą wówczas koncepcję, że przedmiotu uczono go jakby z zewnątrz. Sugeruje odwoływanie się do samoświadomości: „Za pomocą naszych środków pojęciowych musimy nakłonić ich do tej samoświadomości”. Ale na tej drodze napotykamy trudności, takie jak „ograniczenia zawodowe, patriotyzm” i poczucie odrzucenia wiedzy humanitarnej. Adorno zauważa, że ​​„techniki postrzegają kulturę z większą trudnością”, gdyż wolą relaks od biznesu, „nie dają się wypchać masowymi produktami dostarczanymi przez przemysł kulturalny”. Z drugiej strony technicy cierpią z powodu jednostronności, oschłości i nieludzkiego charakteru swojej racjonalności. W swojej książce O technologii i humanizmie Adorno podnosi kwestię odpowiedzialności techników za owoce swojej pracy. Zdaniem filozofa przy rozwiązywaniu tego zagadnienia należy wyjść od faktu, że każdy z nas nie może być sobą, a jedynie nosicielem specjalnie przepisanych funkcji. Obszar, który zwykle nazywany jest etyką, jedynie pośrednio przenika do tego, co dzieje się w pracy. Adorno odrzuca możliwość istnienia norm moralnych ingerujących w wiedzę [26] .

Według Adorno sprzeczności między rozumem społecznym a technicznym nie można ignorować, nie można jej po prostu zaprzeczyć, trzeba ją szczegółowo omówić. Ostatecznie pytanie, czy nowoczesna technologia przyniesie ludzkości korzyści, czy szkody, zależy „nie od techników, a nawet od samej technologii, ale od tego, jak jest używana przez społeczeństwo”. Może się okazać, że w określaniu społecznej roli technologii najjaśniejsze myśli zawarte są w marksistowskiej ocenie technologii. W tym aspekcie bardzo ciekawe są sądy Adorno dotyczące problemu „nowego ideału edukacji”. Wierzy, że ten ideał został zniszczony, że kultura nie zdołała stworzyć własnego człowieczeństwa. Kultura płaci za nieprawdę, za pozory, za oderwanie się od humanistycznej idei, że „ludzie zrzucają z siebie kulturę”. Adorno konkluduje: „Dziś tylko w krytyce edukacji, w krytycznej samoświadomości technologii… pojawia się nadzieja na edukację, która nie przypomina już Humboldta, która postawiła sobie niejasne zadanie edukowania jednostki” [27]. ].

Adorno był znakomitym muzykiem, pisarzem i socjologiem. W książce „Negatywna dialektyka”, nie twierdząc, że stworzył zupełnie nową metodologię filozoficzną, próbował pokazać anatomię życia na przykładzie swoich twórczych zainteresowań. Główny wkład Adorno w filozofię tkwi w poglądach estetycznych, w których doświadczenie pojmowania jednostki uważa za nieidentyczne. W filozoficznej i estetycznej koncepcji nowej muzyki jako protokołu utrwalenia „nieoświeconego cierpienia”, w przeciwieństwie do harmonicznej przemiany namiętności charakterystycznej dla klasyków, Adorno koncentruje się na twórczości kompozytorów „nowej szkoły wiedeńskiej”. Pojęcie „nowej muzyki” jest ściśle związane z krytyką masowej, standaryzowanej kultury współczesnej i formującym się w jej łonie „regresywnym słuchem”, który dysocjuje percepcję na elementy stereotypowe. Prace Adorno wywarły pozytywny wpływ na estetykę, muzykologię i ideologię ówczesnych ruchów młodzieżowych.

Problemy socjalizacji jednostki w Niemczech były aktywnie rozważane w pracach innego przedstawiciela Szkoły Frankfurckiej, filozofa i socjologa Jürgen Habermas (ur. 1929). Zwolennik T. Adorno, zwolennik wczesnomieszczańskich idei edukacyjnych, ideolog ruchów studenckich lat 1960., kształtowania się państwa prawa w powojennych Niemczech, Habermas uważany jest za wybitnego przedstawiciela „drugiego pokolenia”. teoretyków szkoły frankfurckiej. W oparciu o koncepcję „wolności i działania komunikacyjnego” kształtuje swój negatywny stosunek do zachodniej filozofii techniki, skłonnej do myślenia technokratycznego. Habermas wyznaje koncepcję, zgodnie z którą technologia jest deklarowana jako siła odbierająca człowiekowi jego wolny duch twórczy, pozbawiając go możliwości swobodnego działania, wyrażania siebie i samoorganizacji, a ostatecznie czyniąc go niewolnikiem jego własne kreacje. Habermas łączy emancypację człowieka z wyparciem „instrumentalnego rozumu”, jego podporządkowaniem umysłowi ludzkiemu jako integralności jednoczącej umysł indywidualny i społeczny. Łączy to z ustanowieniem „demokracji komunikacyjnej” łączącej postęp naukowy i technologiczny z wartościami i normami cywilizacji ludzkiej, „zwrotem językowym” w filozofii i naukach społecznych, co pociąga za sobą odrzucenie subiektywistycznej fenomenologii opartej na na analizie wewnętrznej świadomości czasu. Racjonalność koncentruje się nie w sferze rozumu, ale w językowych formach wzajemnego zrozumienia.

Habermas zestawia paradygmat komunikacyjny z paradygmatem produkcyjnym marksizmu. Prowadzi badania nad teorią działania komunikacyjnego w pięciu głównych obszarach. Po pierwsze, proponują nową teorię społeczeństwa, odmienną od projektu Adorno i Horkheimera. Po drugie, koncepcja racjonalności komunikacyjnej rozwijana jest za pomocą hermeneutyki, różnych teorii języka. Po trzecie, rozwijana jest teoria działania społecznego (komunikacyjnego). Po czwarte, prowadzone są badania w oparciu o nowe koncepcje „świata życia” i „systemu” wraz z analizą ich relacji w perspektywie historycznej. Wreszcie, po piąte, za pomocą tych koncepcji analizowane są trendy i kryzysy nowoczesności.

Stosunek Habermasa do teorii K. Marksa zmieniał się na przestrzeni lat z entuzjastycznego na krytyczny. Marks widział w kapitalizmie cechy upolitycznionego społeczeństwa opartego na pracy kolektywnej. Socjalizm, zdaniem Marksa, musi się stale rozwijać poprzez zarządzanie systemowe. Jednak zdaniem Habermasa problemy dotyczące formy komunikacji pozostawały poza polem widzenia Marksa, ale stanowią klucz do rozsądnej reorganizacji społeczeństwa. Habermas próbował skorygować teorię Marksa za pomocą swojej koncepcji „działania komunikacyjnego”.

Habermas krytykuje także teorię T. Adorno jako mającą wydźwięk pesymistyczny i bezowocną, niezdolną do przezwyciężenia sprzeczności istniejących w społeczeństwie. Jak pisze Habermas, Adorno i Horkheimer próbowali ocalić wymyślony przez siebie „rozum instrumentalny” za pomocą samego rozumu instrumentalnego, tj. narzucać mu zadania, które są oczywiście niemożliwe. W swojej dwutomowej Teorii działania komunikacyjnego Habermas odwołuje się do zasad komunikacji w warunkach działania mowy, rozmowy, dyskusji i dyskursu. W jego rozumieniu dyskurs to coś więcej niż swobodna rozmowa. Jest to dialog oparty na wypowiedzi normatywnej, na poziomie wysokiej dojrzałości teoretycznej, tj. rozmowa „dorosłych” (Mundigkeit), z udziałem jak największej liczby osób. Taki „przyziemny” dialog, dyskurs, niczym komunikacja lekarza z pacjentem, powinien prowadzić do wyleczenia choroby. Zdaniem autorki taki dyskurs jest przykładem, modelem rozwijania kompetencji komunikacyjnej.

Temat 11. Kierunek humanitarno-antropologiczny w filozofii technologii

11.1. Technofilozofia Karla Jaspersa: dominacja nad naturą za pomocą samej natury

niemiecki filozof egzystencjalny, psychiatra Karl Jaspers (1883-1969) był profesorem psychologii na Uniwersytecie w Heidelbergu. W 1937 roku został usunięty ze stanowiska ze względów politycznych. Po wojnie wykładał na uniwersytecie w Bazylei. Do jego głównych dzieł należą „Filozofia” (w 3 tomach, 1932), „Pochodzenie i cel historii” (1949), „Wielcy filozofowie” (w 2 tomach, 1957), monografia „Gdzie Niemcy się poruszają” (1969 ), „Nowoczesne technologie” (wydanie rosyjskie - 1989). Nas interesuje przede wszystkim jego najnowsze dzieło. Po raz pierwszy z punktu widzenia technofilozofii poddaje analizie prace Fichtego, Hegla i Schellinga poświęcone uzasadnieniu tzw. czasu osiowego, który rozpoczął się wraz z pojawieniem się chrześcijaństwa. Cechą charakterystyczną tego czasu jest katastrofalne zubożenie w dziedzinie życia duchowego, człowieczeństwa, miłości przy jednoczesnym wzroście sukcesów w dziedzinie nauki i technologii. Ubóstwo duchowe wielu przyrodników i techników charakteryzuje się ukrytym niezadowoleniem na tle zanikającej ludzkości. Jaspers uważa technologię za całokształt działań, które osoba posiadająca wiedzę wykonuje w celu zdominowania natury, tj. aby nadać swemu życiu „kształt, który pozwoli mu zdjąć ciężar potrzeby i odnaleźć pożądaną formę otoczenia”. Zgadzając się z Marksowską oceną rewolucji przemysłowej, Jaspers pisze o zmianach w relacji człowieka do natury, o jego podporządkowaniu się naturze i konsekwencjach tej „tyranii”. Planeta, jak pisze Jaspers, stała się jedną fabryką!

Jaspers konkretyzuje swoje rozumienie technologii w następujący sposób. Jego zdaniem charakteryzują go dwie cechy: z jednej strony rozum, z drugiej władza. Technologia opiera się na działaniu rozumu, gdyż jest częścią ogólnej racjonalizacji. Ale jednocześnie jest to umiejętność, umiejętność wykorzystania natury przeciwko samej naturze. W tym sensie wiedza jest potęgą, mocą! Głównym znaczeniem technologii jest wyzwolenie człowieka spod władzy natury. Zasadą technologii jest manipulowanie siłami natury w celu realizacji celu człowieka z punktu widzenia jego wzroku.

Jaspers identyfikuje dwa główne typy technologii - technologię wytwarzającą energię i technologię wytwarzającą produkty, a także trzy czynniki, które wpływają na rozwój wiedzy naukowej i technicznej:

1) nauk przyrodniczych, które tworzą własny sztuczny świat i są warunkiem jego dalszego rozwoju;

2) duch wynalazczości, przyczyniający się do doskonalenia istniejących wynalazków;

3) organizacja pracy mająca na celu zwiększenie racjonalizacji działalności naukowej i przemysłowej.

Praca ludzka pojawia się także w wymiarze trójwymiarowym: jako wydatek siły fizycznej, jako zaplanowana czynność i jako istotna własność człowieka. Podsumowując, praca jest systematyczną działalnością mającą na celu przekształcanie przedmiotów pracy za pomocą środków pracy.

Własny świat człowieka - stworzone przez niego sztuczne siedlisko i egzystencja - nie jest wynikiem indywidualnej, ale wspólnej pracy ludzkiej (w końcu indywidualna osoba nie może zrobić wszystkiego!). Jaspers, idąc za Marksem, konkluduje: „Struktura społeczeństwa i życie ludzi we wszystkich jego wymiarach i konsekwencjach zależą od natury pracy i jej podziału”. W toku rozwoju człowieka zmieniła się społeczna ocena pracy. Grecy gardzili pracą fizyczną, uważając ją za los nieświadomych mas. Według wersji chrześcijańskiej człowiek był skazany na zarabianie na chleb w pocie czoła, będącym odpokutowaniem za swój upadek, czyli tzw. praca wiąże się z karą. Wyjątkiem w tym sensie są protestanci, którzy w pracy widzą błogosławieństwo, a zwłaszcza kalwini, którzy uważają pracę za czyn Boży, dowód wybrania. Jednak nawet wśród protestantów stosunek do technologii nie jest tak pozytywny. „W ciągu ostatnich stu lat” – pisze Jaspers – „technologia albo była gloryfikowana, pogardzana, albo traktowano ją z szacunkiem”. Jednak technologia sama w sobie jest neutralna: nie jest ani zła, ani dobra. Wszystko zależy od tego, co można osiągnąć przy jego pomocy. W tym Jaspers opiera się na ludzkiej świadomości. W ten sposób Jaspersowi udało się wyodrębnić szczególną filozoficzną wiarę-intuicję: idea filozoficzna objawia się nam najpierw intuicyjnie, a dopiero potem szuka swego wyrazu w obrazach i pojęciach. Historia przestaje być jedynie historią kultury i cywilizacji, przedstawiając się jako specyficzna forma powszechnej ewolucji. Głównym narzędziem świadomości historycznej i poznania społecznego nie jest już „czysty rozum”, lecz świadomość jednostkowa, która odczuwa swoje zaangażowanie w życie powszechne. Naturalne ludzkie poczucie gatunku, w połączeniu z racjonalno-teoretyczną wiedzą naukową, daje człowiekowi syntetyczną intuicję jako podstawową zaletę w konfrontacji ze spontaniczną naturą procesów kosmicznych i historycznych.

11.2. Technofilozoficzna koncepcja Lewisa Mumforda: doktryna „megamaszyny”

Amerykański filozof i socjolog Lewisa Mumforda (1895-1988), zwolennik „Nowego Ładu” F.D. Roosevelta, później znacząco przekształcił swoje poglądy w stronę konserwatyzmu. Jego liczne prace poświęcone filozofii techniki: „Technologia i cywilizacja” (1934), „Sztuka i technologia” (1952), „Mit maszyny” (2 tomy, 1967-1970). Mumford uważany jest za przedstawiciela negatywnego determinizmu technologicznego. Główną przyczynę wszelkiego zła i wstrząsów społecznych widział w rosnącej przepaści pomiędzy poziomem technologii a moralnością. Postęp naukowy i technologiczny, jaki dokonał się od czasów G. Galileusza i F. Bacona, nazwał „imperializmem intelektualnym”, „ofiarą”, której upadł humanizm i sprawiedliwość społeczna. Nauka jest namiastką religii, a naukowcy są klasą nowych księży – tak Mumford ocenił naukę i jej sługi.

Mumford miał poważne różnice z Marksem co do roli technologii w społeczeństwie. Uważał, że nie da się zrozumieć faktycznej roli technologii, uznając człowieka za „zwierzę produkujące narzędzia”. Starożytny człowiek miał tylko jedną broń – swoje ciało kontrolowane przez mózg, umysł. Jego energia umysłowa przekraczała jego potrzeby, a technologia broni była częścią biotechnologii mózgu. Mumford źródeł tej „dodatkowej energii psychicznej” widzi nie tylko w pracy, ale także w innych elementach zbiorowej egzystencji i komunikacji, takich jak zabawowe, estetyczne i religijne aspekty życia ludzkiego oraz inne formy niepracownicze zdeterminowane doświadczeniem zdobycia środków do życia. Dzieli historię cywilizacji europejskiej na trzy główne etapy. Pierwszy etap (od 1000 do 1750 roku) charakteryzuje się kultywacją tzw. techniki intuicyjnej, związanej z wykorzystaniem siły spadającej wody, wiatru i wykorzystaniem naturalnych materiałów: drewna, kamienia itp., które nie niszczyć naturę, ale żyć z nią w harmonii. Drugi etap (XVIII – XIX w.) opiera się na paleotechnice (czyli technologii kopalnej); jest to empiryczna technika węgla i żelaza. Etap ten charakteryzował się odejściem od natury i próbą dominacji człowieka nad naturą. Mumford nazywa ten okres „cywilizacją górniczą”. Etap trzeci (od końca XIX wieku do współczesności) to końcowa faza funkcjonowania i rozwoju cywilizacji zachodniej, w ramach której przywrócenie zakłóconej w fazie poprzedniej harmonii techniki i przyrody następuje w sposób ściśle podstawa naukowa. Analizie tego okresu Mumford poświęcił swoje książki „The Myth of the Machine” (1969, 1970), „Man as Interpreter” (1950) i inne prace. Dystansując się od popularnych definicji typu „homo faber”, broni pojęcia „homo sapiens”, gdyż istotą człowieka, jego zdaniem, jest myślenie, a podstawą człowieczeństwa jest duch – umysł. Człowiek jest przede wszystkim tłumaczem. Ta cecha osoby objawia się w autokreacji: osoba projektuje siebie i tworzy siebie.

Na uwagę zasługuje podejście Mumforda do historii rozwoju technologii. Wyróżnia jego dwa główne typy: biotechnologię i monotechnologię. Biotechnologia to rodzaj technologii, która koncentruje się na zaspokajaniu potrzeb życiowych oraz naturalnych potrzeb i aspiracji człowieka. Monotechnika koncentruje się przede wszystkim na ekspansji gospodarczej, nasyceniu materiałowym i produkcji wojskowej. Jej celem jest wzmocnienie systemu władzy osobistej, dlatego ma charakter autorytarny. Jest wrogi nie tylko naturze, ale także człowiekowi. Jej autorytarny status sięga początków cywilizacji ludzkiej, kiedy to po raz pierwszy wynaleziono „megamachinę” – nowy typ maszyny do organizacji społecznej, zdolnej do zwiększania potencjału ludzkiego i powodowania zmian we wszystkich aspektach życia.

Maszyna ludzka od samego początku swego istnienia łączyła dwa czynniki: 1) negatywny, przymusowy i destrukcyjny; 2) pozytywny, życiodajny, konstruktywny. Oba te czynniki działały łącznie. Pojęcie maszyny, wywodzące się od Franza Reuleaux (1829-1905), oznacza kombinacje "wysoce wyspecjalizowanych części oporowych, funkcjonujących pod ludzką kontrolą, do zużywania energii i wykonywania pracy". W związku z tym Mumford pisze: „Wielka maszyna pracy pozostała pod każdym względem prawdziwą maszyną, tym bardziej, że jej elementy, choć wykonane z ludzkiego ciała, nerwów i mięśni, zostały zredukowane do elementów czysto mechanicznych i sztywno znormalizowane do wykonywania ograniczone zadania."

Wszystkie typy nowoczesnych maszyn są urządzeniami oszczędzającymi pracę. Oczekuje się od nich wykonania maksymalnej ilości pracy przy minimalnym wysiłku ludzkim. W starożytności nie było mowy o oszczędzaniu pracy i – jak pisze Mumford – w starożytności maszyny można było nazwać urządzeniami wykorzystującymi pracę. Do normalnego funkcjonowania „maszyny ludzkiej” potrzebne były dwa środki: wiarygodna organizacja wiedzy (przyrodzonej i nadprzyrodzonej) oraz rozwinięty system wydawania, wykonywania i sprawdzania wykonania rozkazów. Pierwsza ucieleśniała się w kapłaństwie, bez którego aktywnej pomocy instytucja monarchii nie mogłaby istnieć; drugi dotyczy biurokracji. Obie organizacje były hierarchiczne, z arcykapłanem i królem na szczycie hierarchii. Bez ich połączonych wysiłków instytucja władzy nie mogłaby skutecznie funkcjonować. (Nawiasem mówiąc, ten warunek pozostaje aktualny także dzisiaj.) W konsekwencji pierwszy z tych dwóch środków – wiedza, zarówno naturalna, jak i nadprzyrodzona – musiał pozostać w rękach elity kapłańskiej, tj. być monopolem kapłańskim lub własnością kapłańską. Tylko w takich warunkach, a więc pod ścisłą, całkowitą kontrolą informacji i jej dozowania dla szerokich warstw społeczeństwa, można było zapewnić spójność mega-maszyny i uchronić ją przed zniszczeniem. W przeciwnym razie, tj. kiedy „tajemnice świątyni” zostaną ujawnione i „tajne informacje” zostaną odkryte, „megamaszyna” z pewnością popadnie w ruinę, a ostatecznie zawali się i zginie. W związku z tym Mumford zwraca uwagę na fakt, że język wyższej matematyki w postaci komputeryzacji przywrócił dziś zarówno tajemnicę, jak i monopol wiedzy, wraz z późniejszym odrodzeniem totalitarnej kontroli nad nią. Memford wskazuje także na jeszcze jedną cechę „megamaszyny”: połączenie monopolu władzy z monopolem osobowości. Autorowi marzy się zniszczenie takiej „megamaszyny” we wszystkich jej instytucjonalnych formach. Jego zdaniem od tego zależy, czy technologia będzie funkcjonować „w służbie rozwoju człowieka” i czy świat biotechnologii stanie się bardziej otwarty na człowieka.

11.3. Filozofia technologii J. Ortegi y Gasset: technologia jako wytwarzanie nadmiaru

Filozoficzne poglądy hiszpańskiego publicysty, osoby publicznej i filozofa Jose Ortega i Gasset (1883-1955) powstały pod wpływem koncepcji szkoły marburskiej. Decydującą rolę odegrały w tym idee Hermanna Cohena (1842-1918), Paula Natorpa (1854-1924), Ernsta Cassirera (1874-1945), Nikołaja Hartmanna (1882-1950). Celem szkoły marburskiej była analiza kategorii filozoficznych, koncepcji etycznego socjalizmu. Ortega y Gasset był zafascynowany tezą o samopozycjonowaniu podmiotu poznającego w procesie rozwoju kulturowego. Miał pozytywny stosunek do teorii doświadczenia duchowego jako słuchania życia (M. Heidegger), niepokoił się problemem rozłamu między twórcami kultury a jej „odbiorcami”, negatywnymi skutkami kultury, przejawiającymi się w formie dezorientacji społecznej w systemie „społeczeństwa masowego”. Jego pióro należy do książki „Reflections on Technology” (1933).

Traktując życie jako „potrzebę potrzeb”, Ortega y Gasset bronił autonomii jednostki w jej relacji do własnego losu jako repertuaru działań życiowych. Na tej wyjątkowej liście znajdują się zarówno potrzeby naturalne, organiczne, biologiczne, jak i działania, które te potrzeby zaspokajają. Tak naprawdę w tym asortymencie wszystko jest takie samo zarówno dla zwierząt, jak i ludzi. Różnica polega jednak na tym, że człowiek podejmuje określone działania – sam wytwarza coś, czego w naturze nie ma. To jest jego repertuar. Ale to nie jest jego najważniejsze działanie: uwolniwszy się od deficytu potrzeb życiowych, człowiek ma możliwość poszerzenia zakresu swoich potrzeb, tj. poszerzyć swój repertuar. Z tej właściwości natury ludzkiej autor wnioskuje, że potrzeby ludzkie są sprzeczne. Repertuar potrzeb ludzkich nie pokrywa się z menu potrzeb życiowych. Ta obecna chęć działania według drugiego (rozszerzonego) repertuaru stanowi to, co nazywa się działaniem przekształcającym przyrodę. Aby zaspokoić swoje potrzeby, zadowolić je, człowiek narzuca swoje pragnienia naturze, jeśli nie jest ona jeszcze gotowa, aby im służyć. W ramach tej usługi Ortega y Gasset obserwuje przemianę samej natury. Stawia wymagania wobec człowieka w postaci naturalnych potrzeb. Osoba reaguje na nie, narzucając jej zmiany, przekształcając ją za pomocą technologii. Dokonując tej transformacji, technologia wspiera ludzkie pragnienia. I to połączenie, łączące naturę z człowiekiem i odwrotnie, jest swego rodzaju mediatorem - nadnaturą zbudowaną na „pierwszej” naturze.

Zwierzę ma z góry określoną naturę. Jest istotą nietechniczną – właśnie ze względu na brak w niej zasady czynnej. Człowiek dzięki swemu naturalnemu darowi technicznemu tworzy to, czego mu brakuje, stwarza nowe okoliczności, dostosowując przyrodę do swoich potrzeb. Połączenie człowieka i technologii. Działania techniczne mają na celu, po pierwsze, wynalezienie czegoś, po drugie, zapewnienie warunków, a po trzecie, stworzenie nowych możliwości. Zadaniem technologii jest podejmowanie wysiłków w celu oszczędzania wysiłków. Według autora to właśnie wtedy człowiek staje przed problemem zagospodarowania wolnego czasu po pokonaniu zwierzęcego życia. Dzięki technologii życie ludzkie wykracza poza naturę, człowiek osłabia swoją zależność od natury. Ale pojawia się przed nim nowy problem: jak dalej żyć!? Ortega y Gasset odpowiada na to pytanie w następujący sposób. Rzeczywistość jest taka, że ​​świat zarówno zapewnia wygodę, jak i utrudnia człowiekowi. W takim świecie żyje człowiek; jego istnienie jest otoczone zarówno wygodami, jak i trudnościami. To właśnie nadaje ontologiczne znaczenie ludzkiej egzystencji. Człowiekowi jest przeznaczone być istotą „nadprzyrodzoną”, a zarazem naturalną – centaurem ontologicznym!

Ludzkie „ja” jest więc nieustannym dążeniem do realizacji pewnego projektu, programu istnienia, w tym tego, co jeszcze nie istnieje, a także tego, co musimy stworzyć dla siebie. Okoliczności są dane człowiekowi jako „surowiec” i mechanizm. Technik próbuje odkryć w świecie ukryte urządzenie, które jest mu niezbędne do życia. Dla autora program życia ma charakter nietechniczny, tj. pochodzenie przedtechniczne. Jej korzenie sięgają głęboko w epokę przedtechnicznej inwencji. W konsekwencji prawdopodobieństwo technokracji jest niezwykle niskie: z definicji ludzki technik nie może zarządzać, być najwyższym autorytetem, jego rola jest drugorzędna. Technika zakłada z jednej strony byt, który ma pragnienie, ale nie ma jeszcze projektu, idei, programu, a z drugiej strony istnienie związku między rozwojem technologii a sposobem bycia osoba. W tym kontekście Ortega de Gasset rozważa indyjskiego bodhisattwę, hiszpańskiego hidalgo i angielskiego dżentelmena z lat pięćdziesiątych. Bodhisattwa redukuje swoje potrzeby materialne do minimum i jest obojętny na technologię. Aktywny jest tylko angielski dżentelmen, który stara się jak najpełniej żyć w realnym świecie. W opisie autora pan jest pewny siebie, uczciwy, ma poczucie sprawiedliwości, szczerości, samokontroli, jasnego zrozumienia swoich praw i praw innych, a także swoich obowiązków wobec innych. Taka analiza była potrzebna w celu określenia periodyzacji historii techniki, gdzie stosunek człowieka do człowieka i człowieka do techniki jest niezbędny. Autor identyfikuje trzy istotne etapy historycznego rozwoju techniki:

1) technika przypadku jest historycznie pierwszą formą istnienia technologii, nieodłączną od społeczeństwa prymitywnego i charakterystyczną dla człowieka prehistorycznego. Wyróżnia się prostotą i rzadkością wykonania oraz skrajnie ograniczonymi działaniami technicznymi (pisał o tym L. Noiret i inni);

2) technika rzemieślnicza to technika starożytnej Grecji, przedimperialnego Rzymu, europejskiego średniowiecza. W tym okresie znacznie poszerza się zestaw czynności technicznych, których przyswojenie wymaga specjalnego przeszkolenia, a zaangażowanie w czynności techniczne staje się zawodem i jest dziedziczone;

3) technika ludzka to technika maszynowa z urządzeniami technicznymi, która wywodzi się z drugiej połowy XVIII wieku, kiedy wynaleziono krosno mechaniczne Edmunda Cartwrighta (1743).

Maszyna znacząco zmienia relacje między człowiekiem a narzędziem. Maszyna „działa”, a osoba jej służy. Jest dodatkiem do maszyny. Skutkiem ubocznym tego procesu jest „kryzys pragnień”, brak duchowości. Ortega y Gasset nazywa swoją doktrynę racjonalizmem, choć bliski jest mu egzystencjalizm.

Temat 12. Determinizm technologiczny i technofobia

12.1. Pojęcie determinizmu

Determinizm (z łac. determino - określam) to doktryna związku i współzależności zjawisk rzeczywistości. Rozważa pytania o prawa natury, o wzajemne oddziaływanie natury i społeczeństwa, o siły napędowe rozwoju społecznego, o wpływ społeczeństwa i jego poszczególnych podsystemów na sztukę, naukę, moralność, na kształtowanie się i działalność jednostek ludzkich. Centralnym problemem determinizmu jest kwestia istnienia i działania praw. Uznanie praw w istocie oznacza możliwość naukowego poznania przyrody i społeczeństwa, możliwości nauki, ukierunkowaną naukowo adaptację człowieka do różnych procesów. Przeciwnie, zaprzeczanie prawom stymuluje postrzeganie natury i społeczeństwa jako procesów całkowicie niekontrolowanych i nieprzewidywalnych. W odniesieniu do społeczeństwa taki pogląd często wyrastał z prób utożsamiania specyfiki procesów społecznych z naturalnymi, podkreślania znaczenia działań ludzi, indywidualnej kreatywności dla historii społecznej. Tendencja ta nie została całkowicie przezwyciężona, chociaż uproszczenie praw społecznych jest stymulowane nie przez mechanikę, ale głównie przez biologię.

Szczególną trudnością metodologiczną jest interpretacja praw wynikających z interakcji relacji międzyludzkich. K. Marks uważał więc, że młyn ręczny jest odzwierciedleniem modelu społeczeństwa z władcą na czele, maszyna parowa odpowiada społeczeństwu kapitalizmu przemysłowego (choć analogie te nie są kontynuowane, co wskazuje na ograniczenia takiego determinacja). Zgodnie z koncepcją determinizmu technologicznego wyłania się inny obraz. Taki determinizm nadaje technologii i działalności technicznej absolutny status jako podstawę funkcjonowania i rozwoju społeczeństwa. Jako postawa filozoficzna podnosi technologię do rangi głównej przyczyny, która determinuje wszystkie aspekty życia społecznego i kulturalnego, od ekonomii, polityki po sztukę i filozofię.

W filozofii technologii wyróżnia się dwie główne formy determinizmu technologicznego: technologiczny eudajmonizm (od greckiego eudaimonia – błogość) i technologiczny alarmizm. Kierunek pierwszy eliminuje („usuwa”) wszelkie negatywne skutki działalności technicznej człowieka i dlatego widzi w postępie technicznym jedynie pozytywne aspekty: ubóstwia technologię, absolutyzuje jej znaczenie jako źródła dobrobytu. Drugi kierunek ukazuje sceptyczne podejście do innowacji technicznych: dla niego „wszystko jest złe”; wszystko obiecuje katastrofę i zniszczenie duchowości człowieka, wyobcowanie z własnej istoty itp. Obydwa te kierunki mają swoich zwolenników i apologetów i w każdym z nich jest ziarno prawdy.

12.2. Teoria technokratycznej transformacji społeczeństwa

Urodzony w Norwegii amerykański ekonomista Thorstein Veblen (1857-1929) znany jest jako twórca i teoretyk instytucjonalizmu, zwolennik technokratycznej transformacji społeczeństwa, uwzględniającej wpływ tradycji kulturowych instytucji społecznych. Pojęcie instytucjonalizmu (od łacińskiego institutio – instrukcja) wywodzi się z instytucji – podręczników rzymskich prawników, dających systematyczny przegląd istniejących norm prawnych. W XNUMX-stym wieku instytucje istniały jako zespół różnorodnych stowarzyszeń obywateli (rodzina, partie, związki zawodowe itp.) walczących o podniesienie tradycji i zwyczajów do rangi prawa, konsolidując je w formie instytucji. Analizując naturę tego zjawiska społecznego, Veblen dochodzi do wniosku, że poglądy ludzi pozostają w tyle za zmianami technologii i produkcji.

W swojej teorii klasy czasu wolnego Veblen analizuje antagonizm między pracą produkcyjną a rzucającą się w oczy konsumpcją we współczesnym społeczeństwie, który postrzega jako zinstytucjonalizowane „wypaczenie” instynktu wynalazczego tkwiącego w ludziach. Przedstawia historię jako wynik walki przedsiębiorców w sferze traktowania z przedsiębiorcami w sferze produkcji, z których ci pierwsi są najbardziej reakcyjni. Biznes rodzi własność prywatną, nacjonalizm, ignorancję religijną, dlatego Veblen wzywa do ustanowienia dyktatury w społeczeństwie, na czele z inteligencją techniczną. Według Veblena kapitalizm ostro kontrastuje ze sobą biznes i przemysł. Nie lubi motywu biznesowego opartego na zasadzie „kupno i sprzedaż”. W Teorii klasy czasu wolnego (1899) pisze: „Zwyczaje świata biznesu ukształtowały się pod kierownictwem i wybiórczym działaniem praw drapieżnictwa i pasożytnictwa”. Wyższa klasa społeczeństwa kapitalistycznego jest zasadniczo klasą „pasożytniczą”. Autor sprzeciwia się czynnikowi własności, który pozwala warstwie „pasożytniczej” kąpać się w luksusie bez udziału w tworzeniu bogactwa materialnego. Veblen stawia tej klasie następujące zarzuty: po pierwsze, posiadanie środków produkcji; po drugie, brak udziału w procesie produkcyjnym; po trzecie, bezczynny sposób życia; po czwarte, pasożytnictwo i karczowanie pieniędzy; po piąte, rzucająca się w oczy konsumpcja i marnotrawstwo. Aby przezwyciężyć takie społeczne „pasożytnictwo” Veblen proponuje rewolucję technokratyczną i ustanowienie władzy inteligencji naukowo-technicznej (technokracji), jednak nie dopuszczenie do władzy klasy robotniczej, co według Veblena ma swoje przeciwwskazania. Oferuje własny scenariusz tej technokratycznej rewolucji. Jego zdaniem potężny strajk inżynierów sparaliżowałby stary porządek i zmusiłby „klasę próżniaczą” do dobrowolnej rezygnacji z monopolu władzy na rzecz inteligencji naukowej i technicznej. W „technostrukturze”, w skład której wchodzą inżynierowie, naukowcy, menedżerowie, akcjonariusze, autor dostrzegł siłę napędową takiej technokratycznej rewolucji, której celem jest odebranie własności właścicielowi i przekazanie jej w ręce technokracji.

Intelektualiści w krajach europejskich tak bardzo polubili tę fantazję Veblena, że ​​poparł ją nawet tak wybitny ideolog technokracji jak J. Gilbraith, autor książki „The New Industrial Society”. Ogólnie rzecz biorąc, idee te są zgodne z zewnętrzną krytyką ekonomii politycznej autorstwa Gabriela Tarde (1843-1904). Zwolennikami technokracji Veblena byli J. Gilbraith, D. Bell, W. Rostow, E. Toffler i inni.

12.3. Społeczeństwo „postindustrialne” i „informacyjne”

Koncepcję społeczeństwa postindustrialnego przedstawił amerykański socjolog i politolog Daniel Bell (ur. 1919), profesor na uniwersytetach Harvarda i Columbia. W swojej książce „Nadchodzące społeczeństwo postindustrialne” jako kryterium klasyfikacji państwa jako takiego społeczeństwa postawiono wielkość produktu krajowego brutto (PKB) na mieszkańca. W oparciu o to kryterium zaproponowano również historyczną periodyzację społeczeństw: przedprzemysłowych, przemysłowych i poprzemysłowych. Bell uważa „determinizm aksjologiczny” (teorię natury wartości) za ideologiczną podstawę takiej klasyfikacji. Społeczeństwo przedindustrialne charakteryzuje się niskim poziomem rozwoju produkcji i niewielką kwotą PKB. Ta kategoria obejmuje większość krajów Azji, Afryki i Ameryki Łacińskiej. Kraje europejskie, USA, Japonia, Kanada i kilka innych znajdują się na etapie rozwoju przemysłowego. Etap postindustrialny zaczyna się w XXI wieku.

Według Bella ten etap kojarzony jest głównie z technologią komputerową i telekomunikacją. Opiera się na czterech innowacyjnych procesach technologicznych. Po pierwsze, przejście z systemów mechanicznych, elektrycznych i elektromechanicznych na elektroniczne doprowadziło do niewiarygodnego wzrostu szybkości przesyłania informacji. Na przykład prędkość działania współczesnego komputera mierzona jest w nanosekundach, a nawet pikosekundach. Po drugie, etap ten wiąże się z miniaturyzacją, tj. znacząca zmiana wielkości, „kompresja” elementów konstrukcyjnych przewodzących impulsy elektryczne. Po trzecie, charakteryzuje się cyfryzacją, tj. dyskretna transmisja informacji za pomocą kodów cyfrowych. Wreszcie nowoczesne oprogramowanie pozwala szybko i jednocześnie rozwiązywać różne problemy bez znajomości żadnego specjalnego języka. Społeczeństwo postindustrialne reprezentuje zatem nową zasadę społeczno-technicznej organizacji życia. Bell identyfikuje główne przemiany, jakie dokonały się w społeczeństwie amerykańskim, które wkroczyło w okres rozwoju postindustrialnego: a) do sektora usług włączono nowe gałęzie przemysłu i specjalności (analiza, planowanie, programowanie itp.); b) radykalnie zmieniła się rola kobiet w społeczeństwie – dzięki rozwojowi sektora usług równość kobiet została zinstytucjonalizowana; c) nastąpił zwrot w sferze wiedzy - celem wiedzy stało się zdobywanie nowej wiedzy, wiedzy drugiego rodzaju; d) komputeryzacja rozszerzyła pojęcie „miejsca pracy”. Bell uważa, że ​​główną kwestią przejścia do społeczeństwa postindustrialnego jest pomyślna realizacja następujących czterech równorzędnych czynników: 1) działalność gospodarcza; 2) równość społeczeństwa społecznego i obywatelskiego; 3) zapewnienie rzetelnej kontroli politycznej; 4) zapewnienie kontroli administracyjnej[28].

Według Bella społeczeństwo postindustrialne charakteryzuje się poziomem rozwoju usług, ich przewagą nad wszystkimi pozostałymi rodzajami działalności gospodarczej w całkowitym wolumenie PKB i, co za tym idzie, liczbą osób zatrudnionych w tym obszarze (do 90% ludności pracującej). W tego rodzaju społeczeństwie organizacja i przetwarzanie informacji i wiedzy jest szczególnie ważne. Sercem tych procesów jest komputer – techniczna podstawa rewolucji telekomunikacyjnej. Według definicji Bella rewolucję tę charakteryzują następujące cechy:

1) prymat wiedzy teoretycznej;

2) dostępność technologii intelektualnej;

3) wzrost liczby nośników wiedzy;

4) przejście od produkcji towarów do produkcji usług;

5) zmiany charakteru pracy;

6) zmiana roli kobiet w systemie pracy.

Pojęcie społeczeństwa postindustrialnego zostało również omówione w pracach E. Tofflera, J. K. Gilbraitha, W. Rostowa, R. Arona, Z. Brzezińskiego i innych. Alvin Toffler (ur. 1928) społeczeństwo postindustrialne oznacza wejście krajów w trzecią falę ich rozwoju. Pierwsza fala to faza rolnicza, która trwała około 10 tysięcy lat. Druga fala związana jest z przemysłowo-fabryczną formą organizacji społecznej, która doprowadziła do powstania społeczeństwa masowej konsumpcji i umasowienia kultury. Trzecia fala charakteryzuje się przezwyciężeniem odczłowieczonych form pracy, utworzeniem nowego rodzaju pracy i, w związku z tym, nowego typu pracownika. Niewola pracy, jej monotonia i warsztatowy charakter stają się przeszłością. Praca staje się pożądana i twórczo aktywna. Pracownik Trzeciej Fali nie jest przedmiotem wyzysku, dodatkiem do maszyn; jest niezależny i zaradny. Miejsce narodzin Trzeciej Fali to USA, czas narodzin to lata 1950. XX wieku.

W dobie społeczeństwa postindustrialnego istotnej transformacji uległo także pojęcie kapitalizmu. Charakterystyka kapitału jako kategorii ekonomicznej, która odpowiada różnym formom reprodukcji społecznej, jest historycznie zdeterminowana przez kształtowanie się społeczeństwa typu przemysłowego. W społeczeństwie postindustrialnym ekonomiczne formy kapitału jako samorosnącej wartości ujawniają się w nowy sposób w informacyjnej teorii wartości: o wartości ludzkiej działalności i jej wynikach determinują nie tylko i nie tyle koszty pracy , ale poprzez ucieleśnioną informację, która staje się źródłem wartości dodanej. Następuje ponowne przemyślenie informacji i jej roli jako cechy ilościowej niezbędnej do analizy rozwoju społeczno-gospodarczego. Informacyjna teoria wartości charakteryzuje nie tylko ilość informacji zawartej w wyniku działalności produkcyjnej, ale także poziom rozwoju produkcji informacji jako podstawy rozwoju społeczeństwa. Struktury społeczno-gospodarcze społeczeństwa informacyjnego kształtują się w oparciu o naukę jako bezpośrednią siłę wytwórczą. W tym społeczeństwie faktycznym agentem staje się „osoba, która wie, rozumie” – „Homo intelligeens”. Tym samym ekonomiczne formy kapitału, a także ściśle z nim związany kapitał polityczny, który odgrywał w przeszłości ważną rolę, w coraz większym stopniu uzależnione są od form pozaekonomicznych, przede wszystkim od kapitału intelektualnego i kulturowego.

D. Bell wymienia pięć głównych problemów, które są rozwiązywane w postindustrialnym społeczeństwie:

1) połączenie telefonicznych i komputerowych systemów łączności;

2) zastępowanie papieru środkami komunikacji elektronicznej, w tym w takich obszarach jak bankowość, poczta, usługi informacyjne oraz zdalne kopiowanie dokumentów;

3) rozszerzenie usługi telewizyjnej poprzez systemy kablowe; zastąpienie transportu przez telekomunikację z wykorzystaniem filmów wideo i systemów telewizji wewnętrznej;

4) reorganizacja przechowywania informacji i systemów jej żądania w oparciu o komputery i interaktywną sieć informacyjną (Internet);

5) rozbudowę systemu edukacji opartego na uczeniu komputerowym; wykorzystanie łączności satelitarnej do edukacji mieszkańców wsi; wykorzystanie płyt wideo do edukacji domowej.

W procesie informatyzacji społeczeństwa Bell dostrzega także aspekt polityczny, traktując informację jako środek do osiągnięcia władzy i wolności, co implikuje konieczność państwowej regulacji rynku informacyjnego, tj. rosnąca rola władzy państwowej i możliwość planowania narodowego. W strukturze planowania krajowego wyróżnia następujące opcje: a) koordynacja w zakresie informacji (zapotrzebowanie na siłę roboczą, inwestycje, lokale, serwis komputerowy itp.); b) modelowanie (na przykład wzorem V. Leontieva, L. Kantorovicha); c) planowanie orientacyjne (stymulowanie lub zwalnianie metodą polityki kredytowej) itp.

Bell z optymizmem patrzy na perspektywę rozwoju świata na drodze przejścia od „społeczeństwa narodowego” do formowania się „społeczeństwa międzynarodowego” w postaci „zorganizowanego ładu międzynarodowego”, „integralności czasoprzestrzennej, ze względu na globalność”. komunikacji”. Zauważa jednak, że „… hegemonia USA w tej dziedzinie nie może nie stać się najpoważniejszym problemem politycznym w nadchodzących dziesięcioleciach”. Jako przykład Bell przytacza problemy dostępu do skomputeryzowanych systemów opracowanych w zaawansowanych społeczeństwach przemysłowych z perspektywą stworzenia globalnej sieci banków danych i usług.

Daniel Bell nazywał siebie socjalistą w ekonomii, liberałem w polityce i konserwatystą w kulturze, był jednym z czołowych przedstawicieli amerykańskiego neokonserwatyzmu w polityce i ideologii.

12.4. Technofobia jako sposób demonizowania technologii

Technofobia, czyli strach przed technologią, to postawa, według której technologia jest postrzegana jako główna przyczyna alienacji człowieka od natury, od samego siebie. Stanowisko to wyraża negatywny stosunek do technologii: wszystkie kłopoty i nieszczęścia pochodzą z niej, z technologii. Technofobia pojawiła się w roku, w którym narodziła się technologia, a to wiązało się z możliwością wykorzystania technologii zarówno w dobrym, jak i szkodliwym celu. Elementy demonizacji technologii odnaleźć można w prymitywnych mitach; w tekstach biblijnych, takich jak Wieża Babel, zakazany owoc i Upadek; w legendzie o Prometeuszu, który ukradł bogom ogień i dał go ludziom, za co został przeklęty i ukarany; na obraz kulawego boga Hefajstosa, który swoim niezdarnym chodem wywoływał „niekontrolowany śmiech bogów”. Dedal Bacona, „niezwykle utalentowany, ale podły człowiek”, łączył w sobie zarówno dobrego, jak i złego geniusza. Podobnie współczesna filozofia technologii zauważa zarówno dobre, jak i złe zasady: technologia jest ambiwalentna! Z jednej strony technologia działa jako czynnik wyzwolenia człowieka, z drugiej strony jest przyczyną jego śmierci, gdy odważy się przekroczyć niebezpieczną granicę w swojej relacji z „bogami” (siłami natury). Jak widzimy, okazuje się to jednocześnie błogosławieństwem dla człowieka i jego przekleństwem.

W średniowiecznej Europie technofobia zyskała silny impuls w postaci propagowanej przez Kościół idei o szatańskim pochodzeniu innowacji technicznych. Utalentowani wynalazcy, architekci, budowniczowie i inne osoby zajmujące się prawdziwą działalnością twórczą były otwarcie lub skrycie oskarżane o zmowę z diabłem, któremu rzekomo zaprzedali swoje dusze. Ich uogólniony obraz znajduje później żywy wyraz w bohaterze książki „Historia doktora Fausta” – niemieckiej opowieści ludowej opowiadającej historię czarodzieja, który zawarł sojusz z diabłem i ostatecznie został z nim zabrany. W dobie prymitywnej akumulacji kapitału w Europie technofobia nabiera nowego wymiaru, który można określić jako społeczno-ekonomiczny. Cechowa forma organizacji pracy, powszechna w tamtym okresie, mogła przetrwać jedynie przeciwstawiając się postępowi technicznemu, gdyż swobodny rozwój techniki nieuchronnie prowadziłby do zniszczenia i likwidacji tradycyjnej produkcji. Dopuszczalne były zatem innowacje techniczne jedynie w zakresie, w jakim nie stwarzały zagrożenia dla istnienia organizacji warsztatowej. W przeciwnym razie zostały zniszczone lub zakazane, a na ich twórcach stosowano represje. Wiadomo na przykład, że wynalazca maszyny taśmowej utonął na polecenie władz miasta Gdańska (obecnie Gdańsk), a jego maszyna została zakazana na dwa stulecia. W USA technofobia w postaci fobii maszynowej ujawniła się nawet podczas Wielkiego Kryzysu (1920-1930).

francuski encyklopedysta Jean-Jacques Rousseau (1712-1778) napisali, że technika, podobnie jak nauka, odkrywa i aktualizuje te tajemnice natury, które są z natury złe dla człowieka. Ostrzegł: "Wiedz raz na zawsze, że natura chciała cię chronić przed nauką, tak jak matka wyrywa niebezpieczną broń z rąk swojego dziecka. Wszystkie sekrety, które przed tobą ukrywa, są złem, przed którym cię chroni , a trudność w nauce jest jednym z jej niemałych dobrych uczynków.Ludzie są rozpieszczeni, ale byliby jeszcze gorsi, gdyby mieli nieszczęście urodzić się naukowcami” („Emiel, czyli O wychowaniu”, 1762). We współczesnej filozofii niekontrolowany rozwój technologii jest uważany za jeden z głównych czynników tłumiących ludzką indywidualność i realnie zagrażających jej istnieniu. Daniel Bell przewidział, że „pociąg historii musi zjechać z torów w przyszłości, ponieważ po wyczerpaniu wszystkich zasobów energii ludzkość nie będzie już w stanie rozwiązywać narastających problemów i odpowiadać na wyzwania przyszłości”. Alvin Toffler przekonywał, że Stany Zjednoczone po przezwyciężeniu kryzysu drugiej fali na przełomie XXI wieku. wkracza w erę trzeciej fali: „…Żyjemy w świecie, który stracił kontrolę i pewnie zmierza w kierunku katastrofy… tylko postindustrialny poziom rozwoju technologicznego może zapewnić rozwiązanie wszystkich problemów istnienie nowoczesnej ludzkości i dalszy normalny rozwój społeczeństwa ludzkiego”. Autor wyjaśnia: „Rozpadające się społeczeństwo przemysłowe zależy całkowicie od szybkiej, ukierunkowanej i efektywnej informacji, od zasobów energetycznych i niezawodnego systemu monetarnego, których przestarzałe struktury nie są już w stanie zapewnić”[29].

Cywilizacja pierwszej fali nagradzała pewne cechy i zdolności, zwłaszcza siłę nagich mięśni. Cywilizacja przemysłowa, czyli cywilizacja drugiej fali, opłacała różne zawody. Cywilizacja trzeciej fali będzie również płacić więcej za niektóre cechy i zdolności niż inne. Tym przejściom od jednej fali do drugiej towarzyszy historycznie zwiększona konkurencja międzynarodowa, dumping i nieoczekiwane spadki produkcji. Wraz ze wzrostem poziomu technologii potrzebnych jest mniej pracowników do utrzymania działalności przemysłu, tj. Czas na bezrobocie technologiczne. Nowoczesne wymagania kwalifikacyjne wymagają bardziej złożonych informacji zawodowych. Ponieważ wymaga to czasu, powstaje sytuacja tzw. bezrobocia informacyjnego. Restrukturyzacja sektorów gospodarki podczas przechodzenia z drugiej fali do trzeciej fali tworzy strukturalne bezrobocie z powodu strukturalnych przekształceń procesu technologicznego.

Masowe bezrobocie, bez jakiejkolwiek formy dotacji lub innej formy dochodu, stwarza niebezpieczną polityczną niestabilność. Sytuacja ta rodzi chęć wsparcia i zachowania starej gospodarki minionej fali. Alvin Toffler w swojej książce „Flashing with the Future” pisze w związku z tym: „Nie możemy się cofać. Musimy skupić się na rozwoju sektora trzeciej fali, nawet jeśli stwarza to poważną walkę z przemysłami drugiej fali i związkami zawodowymi”. Zalecenia naukowe Tofflera sprowadzają się do następujących głównych punktów. Po pierwsze, konieczne jest przemyślenie takich pojęć jak „miejsce pracy”, „zatrudnienie”, „bezrobocie”. Po drugie, konieczne jest przygotowanie podstawowych sektorów Drugiej Fali (telekomunikacja, biotechnologia, programowanie, informatyka, elektronika itp.) do płynnego przejścia do nowych warunków pracy. Po trzecie, konieczne jest stworzenie sprzyjających warunków do tworzenia tych podstawowych gałęzi przemysłu. Po czwarte, wysiłki muszą być skoncentrowane na wymyślaniu i rozpowszechnianiu usług, które są nową podstawą i kluczem do przyszłego zatrudnienia. Po piąte, niezbędne jest ciągłe uczenie się. Może być sam w sobie głównym pracodawcą, a także gigantycznym konsumentem sprzętu wideo, komputerów, gier, filmów i innych produktów, które również zapewniają zatrudnienie. Po szóste, system masowej edukacji powinien zostać gruntownie zmieniony. Nowoczesne szkoły zatrudniają zbyt wielu pracowników fabrycznych do pracy, która już nie będzie istniała. Po siódme, należy zadbać o tworzenie dodatkowych miejsc pracy dla tych, którzy nie znajdą miejsca w systemie trzeciej fali. Wreszcie, po ósme, konieczne jest zapewnienie każdemu minimalnego gwarantowanego dochodu (poprzez rodziny, szkoły, firmy i inne możliwe kanały). Gospodarka trzeciej fali musi być zgodna z wymogami i zasadami humanizmu i moralności.

Zachodni futurolodzy, zajmujący się prognozowaniem perspektyw rozwoju społeczeństwa postindustrialnego, uważają, że kryzys współczesnej cywilizacji nie ma charakteru lokalnego, lecz ogólnego, a dodatkowo jego źródła mają komponent techniczny. Ich zdaniem ludzkość pędzi w kierunku pewnej i być może totalnej katastrofy. Technika, oparta wyłącznie na nauce i jej osiągnięciach, nabrała charakteru elementu dominującego i praktycznie niezależnego, przekształciła się w absolutnie niekontrolowany, anarchiczny czynnik, który może położyć kres istnieniu ludzkości. Dziś człowiek stoi przed alternatywą: albo zmienić się jako jednostka i jako część ludzkiej wspólnoty, albo zniknąć z powierzchni ziemi. Powstają koncepcje, aby uratować przynajmniej część ludzkości, jeśli nie da się uratować wszystkich. Doktrynę globalnego katastrofizmu ekologicznego popierają tacy badacze jak D. Meadows, J. Forrester, Paul Ehrlich itp. Mniej udramatyzowaną formę technofobii można prześledzić w pracach L. Mumforda, J. Ellula, G. Marcuse'a, T. Adorno i innych renomowanych badaczy na Zachodzie. Ich zdaniem droga do zbawienia wiedzie przez zmianę autorytarnej rzeczywistości społecznej, przez zniszczenie autorytarnej „monotechniki”, zniszczenie „megamaszyny” (L. Mumford). Jest też taka recepta: podporządkować dalszy rozwój techniki zasadzie racjonalności i użyteczności, nieszkodliwości dla teraźniejszości i przyszłości, zgodnie z mottem J.J. Rousseau „Powrót do natury!”

Theodor Adorno pisał o kosztach technicyzacji świadomości. Jego zdaniem z jednej strony praca techników jest niezwykle rygorystyczna i racjonalna. Z drugiej strony szczególnie cierpią z powodu jednostronności, oschłości i nieludzkiego charakteru tej racjonalności. Dlatego szczególnie ważne jest dla nich, aby starali się zrzucić „balast rozsądku i krytyki” we wszystkich obszarach, które nie są bezpośrednio taką pracą techniczną. Jednak nadal nie powinni godzić się z podziałem życia na połowę „rozsądną”, która wiąże się z zawodem, i część „nieodpowiedzialną”, która wiąże się z czasem wolnym. I. Weizbaum w swojej książce „O potędze komputera i bezsilności umysłu” zastanawiał się nad umasowieniem nieodpowiedzialności, nad odpowiedzialnością z racji obowiązku, nad potrzebą rozliczalności wobec odpowiedzialności moralnej i etycznej. A. Jonas w książce „Zasada odpowiedzialności. Doświadczenie etyki dla cywilizacji technologicznej” pisze o konieczności przejścia od odpowiedzialności zorientowanej na przeszłość do odpowiedzialności za siebie zorientowanej na przyszłość, która jest zdeterminowana zdolnością do kontroli i zdolnością dzierżyć władzę. Według Friedricha Rapa postęp technologiczny wymaga nieuniknionej ceny, którą trzeba zapłacić. Tę nieuchronność spowodowaną technologią można złagodzić, ale nie można jej zasadniczo wyeliminować, ponieważ ma ona swoje własne podstawy. Warto pamiętać, że „natura non nisi parendo vincitur” Bacona[30] jest aktualna także dzisiaj. Naprawdę: technologia jest martwa bez ludzi, którzy ją opanowali...

Temat 13. Cechy nieklasycznych dyscyplin naukowych i technicznych

13.1. Natura, specyfika i istota współczesnej wiedzy naukowej i technicznej

Określenie natury nauki wiąże się z odpowiedzią na pytanie, od czego się ona zaczyna. Według K. Poppera „nauka zaczyna się od problemów, a następnie od nich rozwija się, aż do konkurencyjnych teorii, które są poddawane krytycznej ocenie”. Jednak H. G. Gadamer nie zgadza się z tym orzeczeniem. Uważa, że ​​problemy sprowadzają się do alternatywnych opinii, do pytań zbyt ogólnych. Dla hermeneutyki Gadamera nauka zaczyna się od pytania o jej znaczenie społeczne, tj. z rozwiązaniem pewnej sytuacji, która ujawnia brak informacji, gdy jest pytanie, ale nie ma odpowiedzi. Popper sugeruje odejście od problemów w kierunku prawdy. Opanowanie tej ścieżki wymaga znajomości zasad ruchu: znaków i terminów. Na przykładzie praktyki stomatologicznej V.A. Kanke wyjaśnia to w następujący sposób: „jeśli ból zęba ma charakter okresowy i pojawia się tylko podczas jedzenia, oznacza to obecność próchnicy w zębie”. Matematyk może wyjaśnić tę sytuację za pomocą wzoru. Humanista wyjaśni logicznym rozumowaniem: ból ostry, tępy, nie do zniesienia, lekko niepokojący. Możemy stwierdzić: wszystkie nauki, niezależnie od ich specyfiki, charakteryzują się w takim czy innym stopniu tą samą cechą - zjednoczeniem tego, co ogólne i indywidualne, poprzez rozumowanie naukowe.

Możliwy jest też inny tok rozumowania: wczoraj na dyskotece było tak dobrze, jak nigdy wcześniej, tj. mówimy o stanie, który jest wyjątkowy, niepowtarzalny i pozornie nie mający nic wspólnego z generałem. Można się temu sprzeciwić: mówiący faktycznie porównuje swoje stany emocjonalne, które miały miejsce w różnych momentach, i tutaj nie może obejść się bez podkreślenia generała i jego stopniowania („jak nigdy wcześniej”). Konkret jest znany na tle generała! Takie równanie obiecuje ogromne korzyści, ponieważ wiele podobnych, podobnych zjawisk obejmuje jeden schemat.

Zgodnie z opinią nominalisty, który zaprzecza ontologicznemu znaczeniu pojęć ogólnych (uniwersaliów), podstawą postulowania realności tego, co ogólne, jest niezrozumienie działania abstrakcji identyfikacji. W obronie swojego stanowiska może powołać się na rozbieżność obliczeń teoretycznych z danymi eksperymentalnymi – taka jest natura idealizacji umysłowej, która zniekształca rzeczywistość. Idealizacjami są na przykład koncepcje punktu, ciała absolutnie sztywnego, gazu doskonałego i komunizmu. W rzeczywistości nie ma obiektów punktowych, ciał absolutnie sztywnych ani idealnego komunizmu. Kiedy jednak naukowe idealizacje zaczynają być produktywnie wykorzystywane, pojawiają się cholernie trudne pytania. Zrozumienie istoty wyidealizowanej reprodukcji badanego zjawiska okazało się problemem nierozwiązalnym. W idealizacji występuje pewien stopień zgrubienia rzeczywistości, chociaż idealizacja w nauce przyczynia się do rozwoju dokładnej wiedzy teoretycznej. Idealizacja to mentalne konstruowanie pojęć na temat obiektów, które nie istnieją i nie mogą zostać zrealizowane w rzeczywistości, ale takie, dla których istnieją prototypy w realnym świecie. Cechą idealizacji naukowej odróżniającą ją od sterylnej fantazji jest to, że generowane w niej wyidealizowane obiekty, pod pewnymi warunkami, są interpretowane w kategoriach nieideologizowanych (rzeczywistych obiektów). Problem idealizacji w nauce istnieje od czasów John Locke, który kochał abstrakcję. V.V. Kudryavtsev wyjaśnia: „Jeśli abstrakcyjny przedmiot ma przynajmniej te właściwości, które znajdują odzwierciedlenie w jego koncepcji, to wyidealizowany przedmiot ma tylko te właściwości”. V. A. Kanke uważa, że ​​„idealizacja naukowa jest formą uwypuklenia tego, co ogólne, i co ważne, w pewnym zakresie abstrakcji... Idealizacja nie szorstkuje, ani nawet nie „rozmywa” rzeczywistości, ale pozwala na jej uwypuklenie. …aspekty wspólne” [31].

Jako kryterium charakteru naukowego V.V. Ilyin uważa następujący zestaw warunków: we współczesnej nauce „wynik uzyskany na podstawie konstruktywnej procedury, eksperymentu matematycznego, eksperymentu naturalnego i uporządkowania informacji naukowych uważa się za naprawdę dokładny i rygorystyczne”[32]. Należy zauważyć, że głównym zadaniem nauki jest zdobywanie obiektywnej, społecznie użytecznej wiedzy. Płaszczyzna poznawcza nauki to praca umysłowa oparta na działaniach poszukiwawczych, eksperymentalnych, technicznych i analitycznych. Działalność naukową charakteryzują następujące cechy:

1) uniwersalność – przebiega jako ogólna współpraca kulturalna współczesnych i poprzedników;

2) unikatowość - innowacyjne procedury rozszerzania syntezy są unikalne, ekskluzywne, niepowtarzalne. Myśl rodzi się nie z myśli, ale ze sfery motywowanej. Twórczość, wyobraźnia nie mają reguł, zawierają tylko ślady historii;

3) produktywność bezwartościowa - twórczym działaniom nie można przypisać ekwiwalentów kosztów;

4) personifikacja – wolna produkcja duchowa jest zawsze osobista; techniki twórcze są indywidualne; „osobowość zbiorowa” w nauce powstaje w bardzo rutynowych kontekstach uzasadniania i certyfikacji;

5) dyscyplina – etos obywatelski reguluje naukę jako instytucję społeczną, etos epistemologiczny reguluje naukę jako badania naukowe;

6) demokracja - ochrona krytyki i wolność myśli;

7) wspólnotowość - twórczość to współtworzenie, wiedza krystalizuje się w różnych kontekstach komunikacji, nadawania znaczeń (partnerstwo, dialog, dyskusja), skupiona na wartościowej, równej i równej świadomości. Na taką sferę jak „republika naukowców” składają się wszelkiego rodzaju „niewidzialni” koledzy, salony, loże, stowarzyszenia, laboratoria, wydziały, redakcje i inne małe i duże formy regulujące regulację łatwej wymiany wiedza[33] .

Specyfika dyscyplin naukowo-technicznych jest wciąż na etapie doprecyzowania. Mają względną niezależność w stosunku do nauk przyrodniczych, choć czasami są identyfikowane. Nauki techniczne nie są kontynuacją nauk przyrodniczych. Metody nauk przyrodniczych i nauk technicznych są zasadniczo różne. Nauki inżynieryjne dostarczają obrazu ludzkich działań, konstrukcji artefaktów technicznych i zapewniają efektywne wykorzystanie tych artefaktów zgodnie z ludzkimi preferencjami. Nauki przyrodnicze odpowiadają na pytanie, czym jest natura. Nauki techniczne badają pytanie, co człowiek może zrobić z naturalnego materiału, aby złagodzić swój los. W naukach przyrodniczych racjonalność techniczna to celowość, którą cechuje pragmatyczny porządek.

Niemiecki filozof technologii Günter Ropol w poszukiwaniu odpowiedzi na pytanie, czy technologia jest problemem filozoficznym, zwrócił się do twórczego dziedzictwa swego rodaka Immanuela Kanta. Jak wiecie, Kant we wstępie do Logiki przekonywał, że dziedzina filozofii to cztery pytania, na które musi odpowiedzieć:

1) Co mogę wiedzieć?

2) co mam zrobić?

3) na co mogę liczyć?

4) czym jest osoba?

Filozofia współczesna, jak pisze Ropol, uzasadnia swoją nazwę tylko wtedy, gdy włącza w zakres swoich refleksji także technologię. A problemy technologii można uznać za bardzo owocnie w odpowiedzi na pytania Kanta. Więc...

Co ja wiem? Pytanie to adresowane jest do problemu prawdy, wiedzy, która jako odbicie świata jest wynikiem kontemplatywnego postrzegania: „rozumieć znaczy wytwarzać” (mówiło to już za Kartezjusza). Najwyraźniej problem leży w wiedzy! Pragmatyczne porządkowanie to projekt, który krok po kroku przybliża do osiągnięcia celu, którym może być albo teoria wytwarzania technicznego artefaktu, albo teoria zapewnienia jego skutecznego, optymalnego funkcjonowania. Przyrodoznawstwo buduje się według praw odpowiedniej prawdy, nauki techniczne - według praw efektywności i użyteczności. W naukach technicznych, a nie przyrodniczych dominuje metoda pragmatyczna. Niestety, często ta okoliczność jest źle rozumiana.

Co powinienem zrobić? Odpowiedź na to pytanie wiąże się z możliwością uzasadnienia moralnego, z legitymizacją. Technologia, jak wiadomo, może też stać się źródłem zła, nie tylko dobra. Chodzi o moralność, o odpowiedzialność człowieka za ludzkość. W technice jest wiele możliwości, które należy porzucić w niepamięć. Ignorowanie specyfiki nauk technicznych nie mija bez śladu, inżynierowie i technicy zamieniają się w fizyków, dziedzina techniczna ubożeje. W naukach technicznych nigdy nie ograniczają się one do opisu tego czy innego artefaktu technicznego czy łańcuchów technologicznych, dominuje tu niezmiennie zainteresowanie użytecznością, wydajnością, niezawodnością, bezpieczeństwem i celowością kontynuowania eksploatacji urządzeń technicznych.

Na co mogę liczyć? Był czas, kiedy ufali Bogu. Ale w naszych czasach to nie wystarczy. Nie ma potrzeby przerzucania naszej odpowiedzialności na Bożą Opatrzność, podczas gdy słabo kontrolowany rozwój technologii nadal zanieczyszcza ziemię, powietrze i wodę, całą naszą planetę, powiększając dziurę ozonową, powodując ocieplenie klimatu ze wszystkimi smutnymi konsekwencjami, które z tego wynikają. Postęp technologiczny zapiera dech w piersiach! Zagrażają także ludzkiej suwerenności. Okazuje się, że ludzkie nadzieje można usprawiedliwić przy pomocy technologii, ale przy pomocy tej samej technologii można też zawieść.

Kim jest osoba? Odpowiedź na to pytanie jest związana z trzema poprzednimi. Ma na celu samozrozumienie osoby, tj. na jego samoświadomość, w której implicite obecne jest zjawisko odpowiedzialności. W tej samoświadomości i samozrozumieniu bardzo cienka warstwa należy do samoświadomości technicznej. Dotyczy to w równym stopniu moralności, samoświadomości całych zbiorowości, narodów, ludów. Pole czynników moralnych ma tendencję do rozszerzania się. Jak widać, filozofia techniki nie jest oderwana od jej aspektów antropologicznych.

13.2. Społeczno-filozoficzne cechy badań teoretycznych w dyscyplinach naukowo-technicznych

System „nauka – technika” obejmuje całość podstawowych dyscyplin naukowych, wiedzę o bezpośrednim zastosowaniu ich wyników, całość nauk technicznych i wreszcie samą technikę. Dyscypliny techniczne początkowo obejmują na przykład elektrotechnikę, matematykę, teorię mechanizmów i maszyn itp. Aspekt techniczny widoczny jest również w tych naukach, które wcześniej nie miały zastosowania technicznego, w szczególności w naukach biologicznych: w pracach nad inżynierią genetyczną, nad rearanżacją komórki żywego organizmu oraz w szeregu innych badań, w rozwoju biotechnologii. Gwałtownie wzrosło wyposażenie techniczne nauk geologicznych. O ile w przeszłości były one ukierunkowane głównie na badanie powierzchni ziemi, a ich praktyczne zastosowanie ograniczało się do poszukiwania minerałów, to dziś kompleks nauk geologicznych jest ściśle związany z problematyką zmiany przyrody pod wpływem działalności człowieka. Takie działy geologii, jak geochemia, geofizyka itp., są bezpośrednio wykorzystywane w aktywnej transformacji przyrody i opracowywaniu sposobów przezwyciężania negatywnych konsekwencji wpływu człowieka na przyrodę.

J. Ortega y Gasset słusznie zauważył związek między technologią a twórczą, przemieniającą naturą człowieka: „Działania techniczne wcale nie implikują celu, jakim jest bezpośrednie zaspokojenie potrzeb, do odczuwania których zmusza natura lub okoliczności. Wręcz przeciwnie, cel działań technicznych jest przekształcenie okoliczności prowadzące w miarę możliwości do znacznego ograniczenia roli przypadku, zniszczenia potrzeb i wysiłków związanych z ich zaspokojeniem”[34]. Człowiek za pomocą technologii przystosowuje naturę do siebie.

Nauka w swej najgłębszej istocie jest sposobem na opanowanie świata. Dąży do prawdy. A prawda, jak pisał Arystoteles, jest „zgodnością naszej wiedzy o rzeczach z samymi rzeczami”. Poznanie prawdy nie jest celem samym w sobie! Staje się odskocznią do tworzenia urządzeń technicznych. Aby zostać panem natury, trzeba to wiedzieć. Natura zostaje podbita przez posłuszeństwo.

Należy zauważyć, że okres czasu pomiędzy momentem dokonania teoretycznego odkrycia a stworzeniem na jego podstawie nowych urządzeń technicznych wykazuje stałą tendencję do zmniejszania się. Na przykład angielski fizyk, badacz atomowy Ernest Rutherford (1871-1937) uważał, że jego badania mają charakter czysto poznawczy i nie należy od nich oczekiwać praktycznych wyników. W 1933 r. powiedział: „Każdy, kto spodziewa się uzyskać energię z transformacji atomów, gada bzdury”. Ale dziesięć lat później produkcja energii atomowej została przeniesiona na praktyczną płaszczyznę! Odkrywca najwyraźniej może nie być świadomy konsekwencji swojego odkrycia. Skrócenie czasu od wynalazku do jego wdrożenia aktualizuje problem społecznej odpowiedzialności naukowca.

W badaniach teoretycznych nad filozofią technologii istnieje zainteresowanie identyfikacją różnic między nauką a technologią. Zauważono, że nie wszystkie gałęzie techniki są bliskie nauce, chociaż istnienie związku jest oczywiste. W szczególności toczy się debata na temat definicji filozoficznego i naukowego statusu biologii jako modelu technologii.

Dyskusje o społecznej odpowiedzialności nauki też się nie kończą. Pod tym względem pryncypialne podejście do problemów społecznych, zademonstrowane przez Alberta Einsteina, pozostaje aktualne. W latach 1930. pisał do swojego przyjaciela fizyka Maxa von Laue: "Nie podzielam twojego punktu widzenia, że ​​człowiek nauki w szeroko rozumianych sprawach politycznych, tj. ludzkich, powinien milczeć. Widzisz to w warunkach Niemiec dokąd prowadzi taka powściągliwość. Czy nie brakuje w tym poczucia odpowiedzialności? Gdzie bylibyśmy teraz, gdyby tak myśleli i działali ludzie tacy jak Giordano Bruno, Spinoza, Voltaire, Humboldt? Rozwój nauki wielokrotnie generował i będzie generował etyczne problemy odpowiedzialności. Technologiczna moc człowieka, która rozrosła się do nieskończoności, może prowadzić do takiego ryzyka, że ​​potrzebne będą nowe poglądy etyczne na problem interakcji człowieka z naturą. Na przykład niemiecki filozof technologii Hans Lenk, rozważając taki rozwój sytuacji, proponuje przejście do koncepcji odpowiedzialności prewencyjnej z naciskiem na odpowiedzialność za siebie jako na umiejętność kontrolowania sytuacji.

13.3. Rozwój systemowych i cybernetycznych pomysłów na technologię

Jak wiadomo, system jest integralnym obiektem składającym się z elementów pozostających we wzajemnych relacjach (patrz rozdział 3.2). Angielski filozof i socjolog, jeden z twórców pozytywizmu Herbert Spencer (1820-1903) stosowali funkcjonalne analogie między procesami organizmu i społeczeństwa. Biorąc pod uwagę, że „społeczeństwo jest organizmem”, wyszedł od organicznego połączenia części i względnej niezależności całości i części zarówno w organizmie, jak iw społeczeństwie. W wyniku konsekwentnej analogii dochodzi do wniosku, że postępowi zróżnicowania strukturalnego towarzyszy w obu przypadkach postępujące różnicowanie funkcji. Idee Spencera rozwinęły się w strukturalizmie (A.R. Radcliffe-Brown, C. Levi-Strauss, M. Foucault, J. Lacan itp.) oraz w funkcjonalizmie (E. Durkheim, B. K. Malinovsky, R. Merton).

Jeśli strukturalizm analizuje strukturę jako niezmienną cechę relacji z systemem (funkcjonalność elementów jest jedynie przesłanką wyjściową), to funkcjonalność polega na rozpatrywaniu części konstrukcji ze względu na jej znaczenie funkcjonalne. Pojawienie się ogólnej teorii systemów (termin wprowadził L. von Bertalanffy w 1933 r.) prowadzi do stworzenia metodologicznych przesłanek do ukształtowania się nowego systemu pojęć („system”, „całość”, „integralność”, „element „, „struktura”, „funkcja”, „funkcjonowanie”, „zachowanie celowe”, „cel systemu”, „sprzężenie zwrotne”, „efekt integralny”, „równowaga”, „zdolność adaptacji”), dla których głównym rozróżnieniem jest brak już „część – całość”, ale „system – otaczający świat”. Przyjęcie nowego rozróżnienia w teorii systemów powoduje, że głównymi problemami stają się problemy systemów otwartych, w szczególności ich zewnętrzne zróżnicowanie i zachowanie granic. W ramach ogólnej teorii systemów wyłania się nowa dziedzina nauki – cybernetyka, której zadaniem jest badanie zachowania systemów otwartych za pomocą sprzężenia zwrotnego. Podstawowe zasady ogólnej teorii systemów i idee cybernetyczne znalazły swój największy wyraz w strukturze funkcjonalizmu amerykańskiego socjologa Talcott Parsons (1902-1979).

Według Parsonsa system jest uniwersalnym sposobem organizowania życia społecznego. Każdy system społeczny ma fizyczną podstawę, w której rolę pełnią jednostki. Pełnią one określone funkcje, w procesie interakcji organizują się i łączą w kolektywy, a te z kolei rządzone są zgodnie z coraz wyższymi rzędami uogólnionych i zinstytucjonalizowanych norm. Na szczycie systemu znajduje się społeczeństwo jako jeden system, zorganizowany jako integralny kolektyw polityczny i zinstytucjonalizowany na podstawie jednego lub mniej lub bardziej zintegrowanego systemu wartości. Poprzez włączenie do systemu wystandaryzowanych norm i wartości, a także działań jednostek w postaci przypisanych ról, badacz jest w stanie uznać aktywność indywidualną za zdeterminowaną cechami systemu. Struktury pojawiają się jako produkt interakcji społecznych i realizują się w działaniach jednostek jako wykonawców ról.

Funkcjonalizm strukturalny kładzie nacisk na integrację jednostek z systemem społecznym i podporządkowanie ich integralności funkcjonalnej w celu utrzymania jej zrównoważonej i trwałej samozachowania. Dlatego analiza systemu społecznego wiąże się przede wszystkim z identyfikacją podstawowych wymagań funkcjonalnych, które nadają całości elementów własność integralności. Parsons wyszedł z czterech warunków funkcjonalnych: adaptacja, orientacja na cel, integracja, utrzymanie próbki. Spełnienie tych warunków jest gwarancją stabilności systemu.

Wraz z rozwojem cybernetyki drugiego rzędu zaproponowano autopojezę jako podstawową cechę systemu, tj. zdolność systemu do samoreprodukowania. Autopoiesis podkreśla autonomię żywych systemów w ich relacji ze środowiskiem. Takie systemy charakteryzują się zdolnością do ciągłego samoodnawiania się. Ponieważ pełnią one tylko funkcje wymagane przez samą strukturę systemu, są zwykle nazywane autoodniesieniami. Wiodącą różnicą dla autopoetycznych systemów autoodniesienia jest różnica tożsamości. W szczególności niemiecki socjolog i filozof Niklas Luhmann (1927-1998), w oparciu o biologiczną teorię samoodniesienia U. Maturana i F. Vareli oraz matematyczną teorię informacji, rozwinęli teorię systemów samoodniesienia. Według Luhmanna systemy społeczne, w przeciwieństwie do systemów fizykochemicznych i biologicznych, są konstruowane na podstawie znaczenia. A to ostatnie jest rozumiane jako przetwarzanie różnic. Systemy społeczne składają się z komunikacji i są konstytuowane przez ich znaczenie, dlatego pojęcie komunikacji musi być postawione u podstaw produkcji i samoreprodukcji społeczeństwa. Społeczeństwo, traktowane jako komunikacja społeczna, jako strumień samoreprodukujących się komunikatów, odzwierciedla specyfikę systemu społecznego, który wydaje się samoreprodukować i samoobserwować. Źródłem porządku są procesy nieodwracalne. W warunkach wysoce nierównowagowych może nastąpić przejście od nieporządku, chaosu do porządku. Mogą powstawać nowe dynamiczne stany materii, odzwierciedlające interakcję danego układu z otoczeniem. Ilya Prigogine nazwał te nowe struktury rozpraszającymi, ponieważ ich stabilność zależy od rozpraszania energii i materii.

Teorie nierównowagowej dynamiki i synergii wyznaczają nowy paradygmat ewolucji systemu, przezwyciężając termodynamiczną zasadę postępującego przesuwania się w kierunku entropii. Z punktu widzenia tego nowego paradygmatu porządek, równowagę i stabilność systemu osiągają stałe dynamiczne procesy nierównowagi. Optymizm cybernetyczny opiera się na kilku założeniach:

a) ontologiczne – inteligentne zachowanie można przedstawić w postaci zestawu dobrze zdefiniowanych niezależnych elementów;

b) epistemologiczny – ludzie działają według reguł heurystycznych, nieświadomie wykonując pewną sekwencję operacji, które można sformalizować i odtworzyć na komputerze;

c) psychotechniczne – przejawy ducha i duszy są epifenomenami doświadczania semantycznych procesów informacyjnych, które są całkowicie zakodowane i odtwarzalne;

d) biologiczno-ewolucyjny – ludzki mózg jest urządzeniem sterującym, dużym komputerem do przetwarzania informacji. Dzięki długiej ewolucji mózg otrzymał szereg zalet, takich jak ciągłość, asocjatywność, myślenie systemowe, ale można je również wdrożyć technicznie.

Filozoficzna i wewnątrznaukowa analiza krytyczna omówionych powyżej postaw w latach 1980. i 1990. XX wieku. doprowadziło do znacznego spadku optymistycznych oczekiwań. Tak więc w jednym z twierdzeń J. von Neumanna (1903-1957) stwierdza się, że istnieje próg złożoności, powyżej którego każdy model układu sterowania jest oczywiście bardziej skomplikowany niż układ modelowany. Dlatego budowa takiego modelu staje się bezsensowna. Istnieją także argumenty pozanaukowe, mające na celu krytykę powyższych założeń cybernetycznego optymizmu na temat ludzkiego myślenia i działania (aspekty psychologii, etyki, ideologii i politologii). W połowie XX wieku. Twórcy cybernetyki podnieśli kwestię autonomii technologii cybernetycznej, możliwości naruszenia autonomii ludzkiej woli, determinizmu ludzkiego życia przez sztuczną inteligencję. W tym samym czasie amerykański socjolog, laureat Nagrody Nobla, Herberta Szymona (ur. 1916) w swoim dziele „Sciences of the Artificial” (1969) ukazał ograniczenia racjonalności cybernetycznej. Udowodnił, że filozoficzne zagadnienia cybernetyki są jedynie szczególnym przypadkiem filozofii technologii.

Z historii rozwoju techniki wiemy, że przeszła ona przez trzy etapy – od imitacji form naturalnych, przez projektowanie organów ludzkiego ciała, po opanowanie procesów informacyjnych i cybernetyczną konstrukcję modeli myślenie i psychika. W przyszłości cybernetyka może należeć, jak pisze F. Dessauer, do rozwiązywania bardziej fundamentalnych problemów, które przesuwają świat w kierunku społeczeństwa informacyjnego.

Temat 14. Społeczna ocena technologii jako stosowana filozofia technologii

14.1. Polityka naukowo-techniczna a problem zarządzania postępem naukowo-technicznym

Potencjał naukowy i jego struktura. Realne możliwości, jakie ma społeczeństwo do prowadzenia badań naukowych i wykorzystywania ich wyników w polityce społecznej, stanowią jego potencjał naukowy. Społeczność światowa okresowo stara się określić poziom potencjału naukowego na świecie i w poszczególnych państwach. I tak na przykład w latach 1960. W dokumentach Organizacji Europejskiej Współpracy Gospodarczej i Rozwoju (OECD) oraz w materiałach UNESCO podejmowano podobne próby uwzględnienia zasobów naukowych krajów. Opracowano także metodę obliczeniową. Zgodnie z nią potencjał naukowy obejmuje ogół zasobów, którymi państwo dysponuje suwerennie w celu dokonywania odkryć naukowych oraz rozwiązywania problemów krajowych i międzynarodowych stawianych przez naukę. Kryteriami oceny potencjału naukowego są wskaźniki i osiągnięcia ilościowe i jakościowe. Badanie potencjału naukowego społeczeństwa z perspektywy filozoficznej jest krokiem w kierunku pogłębienia społeczno-filozoficznej refleksji nauki. Filozofia potrzebuje tego do pełniejszego poznania nauki i rozwoju bardziej zaawansowanych form zarządzania postępem naukowo-technicznym. Nauka jest jednym z ważnych zasobów społecznych społeczeństwa, wiedza naukowa jest jego zasobem informacyjnym. Ale wiedza ma tendencję do starzenia się. Obecność aktualnej wiedzy (podstawy) bezpośrednio wpływa na stan jej potencjału, dlatego nauka ma tendencję do posiadania pewnego rodzaju „schowka” – tajemnic (na czarną godzinę!). Dotyczy to głównie badań podstawowych.

Nośnikami potencjału naukowego są ludzie, kadra naukowa wraz z systemem ich szkolenia. Drugim składnikiem potencjału naukowego są materialne i materialne elementy nauki, stanowiące jej materialną podstawę: budynki, urządzenia, usługi pomocnicze, przyrządy, komputery i technika komputerowa, bez których współczesna nauka jest nie do pomyślenia. Trzecim elementem potencjału naukowego są pieniądze, czyli wysokość dofinansowania. Czwartym czynnikiem „działającym” na utrzymanie potencjału nauki jest jasne planowanie, wyznaczanie aktualnego kierunku rozwoju nauki, czynniki organizacyjne itp. Szczególną rolę w nauce odgrywa informacyjne wspomaganie działalności naukowej, jej organizacja i zarządzanie.

Znaczenie potencjału naukowego dla rozwoju społeczeństwa. Czasami pojawiają się przejściowe trudności w społeczeństwie, spadek produkcji i tak dalej. Aby przezwyciężyć te negatywne zjawiska w różnych krajach, istnieją moje własne, sprawdzone empirycznie przepisy. Na przykład w latach 1965-1968. W Japonii postawiono zadanie edukowania osób kreatywnych. Eksperci rządowi w tamtych latach przekonywali, że aby Japonia mogła utrzymać wysokie tempo wzrostu, należałoby stworzyć system edukacji technicznej, który umożliwiłby kultywowanie zdolności twórczych, a nie kultywowanie zdolności dostrzegania lub kopiowania osiągnięć technicznych innych krajów. Uważano, że szkolnictwo wyższe w tym zakresie ma swoją specyfikę, której nie można ignorować w procesie edukacyjnym i pedagogicznym. Znaczna część przedmiotu szkolnictwa wyższego ma abstrakcyjne treści o wysokim i najwyższym poziomie duchowym, intelektualnym i kulturowym. Od takiego „podmiotu” trudno (a czasem wręcz niemożliwe) oczekiwać natychmiastowego efektu praktycznego i zwrotu materialnego. Zastąpienie zainteresowania materialnego duchowym i emocjonalnym jest możliwe tylko wtedy, gdy oprócz odpowiednio wysokiego poziomu kultury ogólnej i specjalnej, uczniowie mają również odpowiedni poziom szacunku dla samej kultury ludzkości. A to z kolei jest niemożliwe bez odpowiedniego rozwinięcia („napełnij lampę”) i zrozumienia („zapal lampę”) fenomenu kultury jako superzłożonego, systemowego zjawiska nieliniowego. Realizacji tego właśnie celu służy współczesna filozofia techniki jako dyscypliny akademickiej, w skład której wchodzi m.in. koncepcja kulturologii synergicznej, która jest aktywnie rozwijana w systemie uniwersytetów w krajach zachodnich.

angielski ekonomista Friedrich von Hayek (1898-1993) napisał: „Większość kroków w ewolucji kultury została wykonana przez jednostki, które zerwały z tradycyjnymi zasadami i wprowadziły nowe formy zachowania. Nie zrobiły tego, ponieważ zrozumiały zalety nowego. nowe formy zostały utrwalone tylko wtedy, gdy grupy, które je przyjęły, prosperowały i rosły przed innymi”[35]. Hayek uważał, że proces cywilizacyjny jest możliwy tylko poprzez podporządkowanie wrodzonych zwierzęcych instynktów irracjonalnym zwyczajom, nieświadomie, spontanicznie powstającym memom, w wyniku których powstają uporządkowane grupy ludzkie o coraz większych rozmiarach.

Obiecujące cele państwa obejmują poprawę jakości życia ludności, zagwarantowanie praw i wolności jednostki, sprawiedliwość społeczną, postęp społeczny i kulturalny w całym społeczeństwie. Należy zauważyć, że w rozwiązywaniu tych problemów państwo stale doskonali formy administracji publicznej, co oznacza tworzenie jak najkorzystniejszych warunków realizacji praw człowieka i obywatela. Problemy te są rozwiązywane poprzez przybliżenie władzy jak najbliżej osoby za pomocą nowoczesnych środków komunikacji. Odwrotną stroną tej polityki społecznej jest „dostępność” osoby do władzy nawet w najbardziej oddalonych terytorialnie regionach od struktur władzy.

Praktyka zarządzania w systemie procesu naukowo-technicznego sprawia, że ​​koncepcja inżynierii systemowej Bogdanowa jest istotna. Domowy filozof i polityk A. A. Bogdanow (Malinowski) (1873-1928) zyskał sławę dzięki krytyce, jakiej poddał go W.I. Lenin w książce „Materializm i empiriokrytyka” (podręcznik z czasów władzy sowieckiej). Jeszcze na początku XX wieku. Bogdanow przewidział rozwój technologii w kierunku cybernetyki i inżynierii systemów (według Bogdanowa – „tektologii”), co przewidywało przeniesienie zasad zarządzania technologią do zarządzania społeczeństwem. Wierzono, że tendencja ta ostatecznie doprowadzi do zniesienia państwa i polityki, w wyniku czego zwycięży technokracja, bez biurokratycznej arbitralności, bez biurokracji i awanturnictwa. Istnieje pewna różnica między cybernetyką a technokracją. Polega ona na tym, że w czasach technokracji administracja publiczna jest utożsamiana z obsługą maszyny, co wiąże się z usunięciem norm prawnych i moralnych. Choć niektóre elementy zarządzania technokratycznego nie są sprzeczne z zasadą efektywności, wadą tego typu zarządzania jest eliminowanie samorządności, wymazywanie szczebli zarządzania, samorządności, wyborów, opinii publicznej, które odnoszą się do instytucji demokracji. Problemy te mają charakter ogólnoeuropejski, żeby nie powiedzieć uniwersalny. Są to także problemy współczesnej Rosji.

14.2. Etyka inżynierska a odpowiedzialność naukowca

Etyka jest koncepcją kultury ogólnej; jedna z najstarszych gałęzi filozofii. Reguluje wzajemne obowiązki ludzi wobec siebie. Z etyki jednostka otrzymuje wskazówki moralne dotyczące tego, jak żyć, czym się kierować, do czego dążyć (patrz także podrozdział 7.5). Profesjonalna i stosowana definicja etyki w odniesieniu do zawodu inżyniera oznacza, że ​​nic, co ludzkie, nie jest inżynierowi obce. Termin „etyka” wprowadził Arystoteles w swojej obszernej książce „Etyka nikomachejska”, co oznacza, że ​​greckie słowo ethika oznacza usposobienie, charakter, cnoty ludzkie, odnoszące się do charakteru człowieka, jego przymiotów duchowych. Klasyfikując nauki, Arystoteles umieścił etykę pomiędzy polityką a psychologią. Jego etyka zawierała instrukcje moralne i nauki na różne okazje w życiu. Zatem celem etyki jest nie tylko wiedza, ale także działania: bada się ją nie tylko pod kątem wiedzy, ale także cnót.

Jako filozofia moralności etyka przeszła długą drogę rozwoju. Myśliciele wszechczasów próbowali poszerzyć jego treść. Na przykład Immanuel Kant kładł nacisk na pojęcia obowiązku, obowiązku i odpowiedzialności. W miarę jak człowiek wnika w tajemnice natury, wzrasta jego odpowiedzialność za posiadanie tych tajemnic. Przy synergicznym współdziałaniu wielu osób uosobienie odpowiedzialności staje się trudne w przypadku, gdy rozwój technologii przekracza próg odpowiedzialności. Na przykład, kto jest odpowiedzialny za kwaśne deszcze? Na ocieplenie klimatu? Topniejące polarne czapy lodowe, podnoszący się poziom mórz i związane z tym powodzie? Kiedy każdy jest odpowiedzialny za wszystko, kiedy każdy jest odpowiedzialny za cały świat, wtedy nikt nie jest odpowiedzialny za nic.

Co to znaczy „być odpowiedzialnym”? To znaczy - być gotowym lub zobowiązanym do udzielenia odpowiedzi komuś i na coś. Badania z zakresu filozofii prawa odnotowują odpowiedzialność przyczynową za działania z tytułu obowiązku, zgodnie z którą ktoś odpowiada za niepożądany lub szkodliwy stan rzeczy. Istnieje odpowiedzialność za umiejętność wykonywania zadania lub roli, umiejętność rozwiązywania problemu, rozumienia, planowania, realizacji, oceny zdarzeń, posiadanie odpowiednich cech poznawczych i kierowniczych, kwalifikacji i wreszcie odpowiedzialność przed odpowiednimi władzami. Odpowiedzialność moralna jest zawsze indywidualna, nie jest określona w ścisłych ramach, nie jest kontrolowana przez zewnętrzne normy. Nosicielem odpowiedzialności moralnej może być jednostka, nie można jej sensownie przypisać stowarzyszeniom i organizacjom formalnym, chociaż nie jest odizolowana od zbiorowości. Etyka zwykle wskazuje na sumienie, przed którym człowiek ma odpowiedź - ostatnią deskę ratunku do odpowiedzialności. Jednak jego prywatny charakter utrudnia intersubiektywne podejście do niego.

Odpowiedzialność ma wymiar etyczny. To coś więcej niż głos sumienia jako „fakt rozumu moralnego” (I. Kant). Na przykład etyka pracownika Ministerstwa Sytuacji Nadzwyczajnych (MES) afirmuje idee relatywizmu, pluralizmu i tolerancji w układzie „jednostka – społeczeństwo”, „dobro – zło”. Samo wyznaczenie celu kolektywu paramilitarnego zakłada wzajemne przystosowanie się kultur ogólnych cywilizacyjnych i specyficznych zawodowo, które pozostają istotne w zmieniającym się świecie. W nawiązaniu do kultury zawodowej pracownika Ministerstwa Sytuacji Nadzwyczajnych charakterystycznymi cechami są: sprawiedliwość, patriotyzm, umiejętność uznania pierwszeństwa generała nad osobistym i wynikająca z niego idea służby, miłosierdzie, umiejętność empatia, tolerancja wobec innych ludzi, narodów, kultur, prymat zasady duchowej i moralnej nad materialno-pragmatyczną. Wartości te można porównać z ustalonymi wartościami cywilizacji światowej, do których zalicza się humanizm i antropocentryzm, wolność sumienia, wolność jednostki, prawa człowieka, poszanowanie własności, dobrobyt materialny itp. Rzecz w tym, że w aspekcie globalnym może i powinno być zapotrzebowanie nie tylko na wartości cywilizacji zachodniej, ale także na wartości kultury rosyjskiej i kultur innych narodów Rosji. W nowym systemie wartości priorytetami powinien być zrównoważony rozwój, zdrowy tryb życia, inteligencja, wrodzony talent, profesjonalizm, kompromis i partnerstwo społeczne, uczciwość i zaangażowanie, wzajemne zaufanie, tolerancja i pluralizm, przestrzeganie prawa itp.

W kontekście realiów współczesnego świata takie sądy można oczywiście odbierać jako utopijne, jednak dla takiego podejścia nie ma rozsądnej alternatywy. A jeśli dostrzeżemy możliwość wpływu mentalnego na proces ewolucyjny, to nie możemy nie dostrzec ogromnej roli, jaką wezwano do odegrania specjalnego szkolnictwa wyższego w kształtowaniu nowego systemu wartości. W swoim rozwoju musi stawić czoła nadmiernemu wzrostowi i złożoności środowiska technologicznego i informacyjnego. Szybki rozwój systemu edukacji, jego przekształcenie w jedną z największych sfer działalności człowieka, oddzielenie edukacji od jej historycznych korzeni, niedojrzałość polityki społeczno-kulturowej w dziedzinie edukacji – to wszystko jest chorobą czasów.

Problemy etyki inżynierskiej sięgają do sprzeczności szkolnictwa wyższego. Jej powstanie jest bezpośrednio związane z formowaniem się sowieckiej inteligencji naukowej. Wszystko, co przydarzyło się inteligencji naukowej w Rosji w czasach sowieckich, wpisuje się w koncepcję formacji, a nie formacji (w tym przypadku oznacza to „jeszcze nie obecny”, nieuformowany). W latach władzy sowieckiej, jak wiadomo, inteligencja naukowa, doświadczając wpływu modernizacji, niejednokrotnie znalazła się na skraju utraty tożsamości, tożsamości. Naukowcy byli uważani za twórców dominującej ideologii klasy robotniczej, ale jednocześnie kierowani byli przez klasę robotniczą, nie mając własnego głosu, często odsiadując wyroki przed popełnieniem przestępstwa. Byli jednocześnie w pozycji specjalisty i szkodnika, komunisty i wroga ludu, sowieckiego naukowca i wykorzenionego kosmopolity, michurinisty i darwinisty. Wymogi podyktowane modernizacją uznawały zależność tylko od instytutu nauki, ale etyka inżynierska została stłumiona przez ignorancję „hegemona”. Konflikty częściej występowały na poziomie indywidualnym, ale nie były rzadkością na poziomie zbiorowym: przypomnijmy losy rodzimych genetyków w latach 1930.-1940, filozofów (1950-1970), socjologów (1920-1930; 1960). . Wszystko to było z inteligencją sowiecką i to było całkiem niedawno. I wydaje się, że nie ma do tego powrotu.

Nie ma nieprzekraczalnej granicy między etyką obywatelską a etyką inżynierską, ponieważ inżynierów rekrutuje się spośród obywateli. Nie ma jeszcze spisanych zasad etyki inżynierskiej (być może dlatego, że nie zdążono ich jeszcze napisać). Jednak program zajęć z filozofii techniki zakłada istnienie standardów etycznych działalności inżynierskiej. I istnieje naprawdę. Jak wiadomo, księga natury napisana jest precyzyjnym, oszczędnym językiem – językiem matematyki. Zatem mechanika ujawnia zasadę najmniejszego działania lub najkrótszej ścieżki. Potwierdza się zasada „brzytwy Ockhama” [36], gdzie liczba elementów w konstruowaniu teorii powinna być minimalna. Podręcznik G. G. Skvornyakova-Pisareva „Nauka statystyczna, czyli mechanika” (1722) określa treść pojęć wprowadzonych do użytku codziennego: wynalazek, ciało, rdzeń, nakrętka itp. oraz jedność werbalnych i modalnych aspektów myślenia a działanie ujawnia istotne powiązania obiektu.

Możemy także mówić o bardziej złożonym procesie kształtowania specjalnego typu współczesnego człowieka o orientacji naukowo-technicznej. W tym miejscu pojawia się pytanie o teorię dwóch kultur – technicznej i humanitarnej. Obecnie wpływ rozwoju technologicznego na człowieka i jego sposób życia jest mniej zauważalny niż wpływ na przyrodę. Niemniej jednak jest to znaczące. Niekontrolowane zmiany w przyrodzie stały się jednym z najdokładniej zbadanych tematów, gdy stało się jasne, że człowiek i przyroda nie mają czasu na przystosowanie się do szybkiego rozwoju cywilizacji technicznej. Niespodziewanie dla wielu okazało się, że działalność inżynierska, wiedza przyrodnicza i technologia w znaczący sposób wpływają na przyrodę i ludzi, zmieniając ich. W związku z tym D.I. Kuzniecow pisze: "Współczesne myślenie ludzkie zaczęło postrzegać naturę inaczej niż, powiedzmy, dwieście lat temu. Współczesny człowiek już myśli o naturze jako o technologii. Dlatego bardzo ważna jest zmiana tradycyjnego obrazu naukowego i inżynieryjnego świata, zastępując je nowymi wyobrażeniami o naturze, technologii, metodach rozwiązywania problemów, godnej egzystencji człowieka. Aby technologia nie zniszczyła i nie okaleczyła ludzkości, ludzie muszą zrozumieć zarówno naturę technologii, jak i konsekwencje rozwoju technicznego. Jednak bez wszechstronnej edukacji humanitarnej i prawnej nie da się rozwiązać tego problemu”[37].

Technologia odsłania humanitarny wygląd inżyniera, odsłania ukryte istnienie człowieka w świecie obrazów, wzorów, rytmów i znaczeń, dlatego tak ważne jest skupienie się nie tylko na procedurach poznawczych, ale także na aspekcie aksjologicznym oceniającej technologię, gdzie najwyższe możliwości człowieka i wzorce zachowań są przykładem przywiązania do prawdy. Wzbogacanie wiedzy technicznej o treści z zakresu filozofii, psychologii, ekonomii, estetyki technicznej i ergonomii poszerza wpływ działalności technicznej na życie społeczne i duchowe. Jednocześnie postęp technologiczny rodzi wiele problemów, które wymagają nowego zastosowania etyki, aby uniknąć sytuacji ryzykownych. Hans Lenk, wiceprezes Europejskiej Akademii Nauk, podsumowuje te trendy w następującej kolejności.

1. Wzrasta liczba osób, u których wystąpiły skutki uboczne interwencji technicznych.

2. Skala niszczenia systemu przyrodniczego pod wpływem działalności człowieka stale rośnie, nabierając zasięgu globalnego.

3. Pogorszenie się sytuacji medycznej, biologicznej i środowiskowej aktualizuje problem odpowiedzialności za nienarodzone pokolenia.

4. Osoba coraz częściej doświadcza manipulacji typu społecznego i medyczno-farmakologicznego. W konsekwencji tego rodzaju eksperymentów na ludziach zaostrzają się problemy etyczne takich badań.

5. W wyniku ingerencji w kod genetyczny człowiekowi grozi przekształcenie w „obiekt technologii”.

14.3. Społeczna ocena technologii oraz ekspertyza społeczna i środowiskowa

Społeczna ocena technologii polega na określeniu jakościowych zmian w jej rozwoju, obejmujących całą technosferę. Tego rodzaju ocena jest zbliżona do koncepcji przeszacowania, której konsekwencją jest skok w rozwoju jej istotnych elementów. Technologia, energia i systemy informacyjne zmieniają się. Historia techniki zna kilka etapów takiego przewartościowania. Najbardziej znaczące w znaczeniu materiałowo-technicznym były przejścia od technologii narzędziowej do technologii maszynowej, a od niej do technologii zautomatyzowanej. Punktem wyjścia dla takich rewolucyjnych zmian jest energia: opanowanie mocy pary, elektryczności i energii atomowej. Wszystkie te zmiany reprezentują okresowe zmiany siły oddziaływania na przyrodę: od energii mięśniowej do energii technicznej. Przejścia między nimi oznaczały rewolucje techniczne i naukowe. W rozwoju zdolności człowieka do oddziaływania na przyrodę nastąpiły dwa duże skoki: 1) rewolucja neolityczna, związana z przejściem od zbieractwa do rolnictwa, wyposażonego w odpowiednie środki pracy; 2) rewolucja spowodowana pojawieniem się produkcji maszynowej, podczas której skala wpływu społeczeństwa na przyrodę dramatycznie wzrosła dzięki zasadniczo nowym środkom technicznym i stała się porównywalna ze skalą procesów geologicznych, a nawet kosmicznych. W ujęciu społecznym przemiany te sprowadzały się do rewolucji technicznej, co oznacza, że ​​stały się podstawą jakościowych przemian społeczeństwa. Opanowanie technologii produkcji żelaza w krajach europejskich było równoznaczne z opanowaniem systemu irygacyjnego w Azji, z tą jednak różnicą, że ten ostatni nie przyspieszył rozwoju, ale go utrwalił. Podstawą rewolucji technicznej są zmiany technologiczne: produkcja maszynowa rzemieślnika z Londynu lub Manchesteru dała początek kapitalizmowi. Za tym wszystkim stoi człowiek, który nie znosi technologii, bo ona go wszędzie wypiera, a człowiek sam (jak pisał E. Kapp – homo sapiens technicus) odnajduje się w technologii. Wszelkie rewolucje społeczne następowały w wyniku stagnacji technicznej, popychając tym samym rewolucję w technologii i nauce. Taka stagnacja pojawia się, gdy w danym społeczeństwie osiągana jest adekwatność organizacji technosfery, organizacji społecznej i politycznej. Charakterystycznymi oznakami stagnacji są: a) intensywny rozwój technologii, odrzucenie zasadniczo nowych rzeczy w technosferze; b) gigantomania techniczna.

Obecny etap rozwoju technologii nazywany jest często rewolucją naukowo-technologiczną (STR). Większość źródeł krajowych twierdzi, że główną cechą rewolucji naukowo-technologicznej jest przekształcenie nauki w bezpośrednią siłę produkcyjną. Zauważmy jednak, że przymiot ten jest po pierwsze wyrażeniem przenośnym, gdyż nauka nie może być dosłownie siłą wytwórczą. Po drugie, nie wskazuje to na rewolucyjny charakter współczesnej sceny, ponieważ rozwój technologii na podstawach naukowych rozpoczął się w epoce rewolucji przemysłowej XVIII wieku. W tym sensie można mówić o wzmocnieniu istniejącego trendu w rozwoju technologii, a nie o radykalnej zmianie. Rewolucyjny charakter polega raczej na tym, że powstanie industrializmu w sensie technicznym zakłada jakościową zmianę w organizacji pracy, podczas której tradycyjne dla maszynizmu przypisanie każdemu robotnikowi wąskiej częściowej operacji ustępuje miejsca pracy stosunkowo holistycznej, obejmującej szereg operacji, a tym samym przywraca wartość i atrakcyjność pracy żywej.

Odrzucenie technologii i jej potępienie wynikają z różnych źródeł, takich jak miłość do natury i proste życie; potrzeba jasnego wyobrażenia o stanie rzeczy; względy ekonomiczne dotyczące zapasów surowców i utylizacji odpadów; poczucie sprawiedliwości protestujące przeciwko temu, że pewne grupy ludzi żyją znacznie lepiej niż inne, a także chęć zmian ustrojowych, które mogłyby doprowadzić do fundamentalnej przemiany struktury społecznej. Wszystko to ma wpływ na stosunek do technologii, na wymagania ustanowienia zasady zerowego wzrostu, podczas gdy władze przeciwnie, obawiają się powolnego wzrostu gospodarki i rozwoju technologii. Niemiecki antropolog techniki Hans Sachse wyjaśnia tę sytuację w następujący sposób.

1. Istnieje pewna nieuchronność wzrostu. Pożądane dochody planowane są na najbliższe lata. Aby to zrobić, inwestuje się pieniądze, inwestycje, biorąc pod uwagę oczekiwany dochód. Zatrzymanie tego procesu, utrzymanie gospodarki na stałym poziomie jest równoznaczne z jej upadkiem: stagnacja przerodzi się w upadek.

2. Żądania ubogich - wyrównanie poziomu dochodów. Uważa się jednak, że redystrybucja nie doprowadzi do znaczącej poprawy sytuacji ubogich. Na przykład w USA przy wyrównaniu zużycia energii elektrycznej bogaci musieliby zrezygnować z 5/6 swojego zużycia, podczas gdy biedni otrzymywaliby tylko 1/6 obecnego poziomu. Czy gra jest warta świeczki?

3. Możliwość samostanowienia narodów zależy niemal wyłącznie od ich potencjału technicznego i gospodarczego. Gdyby jakikolwiek naród (państwo) jednostronnie zatrzymał swój rozwój, z pewnością uzależniłby się od innych narodów. Wezwania do ograniczenia wzrostu uzasadnione są troską o środowisko. Jednak argument ten jest postrzegany jako fortel krajów uprzemysłowionych, mający na celu utrzymanie biednych krajów z dala od postępu technologicznego. Istnieją jednak naturalne ograniczenia rozwoju technicznego – brak surowców. Wniosek jest jasny: postępu technologicznego nie da się zatrzymać, tak jak nie da się zatrzymać czasu.

Z drugiej strony istnieje ryzyko nadmiernej konsumpcji. Państwa „opiekuńcze” to kraje, które zapewniają ubezpieczenie zdrowotne, zwiększony czas wolny, wielką migrację ludzi na słoneczne plaże, mnóstwo informacji w telewizji itp. Wszystko to ostatecznie staje się hamulcem dalszego postępu, ponieważ dana osoba jest już pozbawiona inicjatywy , niezależność. Całkowite zaspokojenie jego prymitywnych potrzeb pozostawia poczucie pustki, bezsensu istnienia i rodzi obojętność, frustrację lub agresywność. Powstaje problem: jak wykorzystać cenne narzędzie technologii do nowych zadań, które prowadzą jeszcze dalej? Rozwiązanie polega na wykorzystaniu zasady intensywnego rozwoju technologii poprzez intensywne podnoszenie poziomu życia biednych. Według Sachse poszerzy to zakres świadomości, zwiększy żywotność, intensywność życia i doprowadzi do autentycznej egzystencji. Jednak tak świetlana perspektywa stanie się rzeczywistością tylko wtedy, gdy: 1) zostaną stworzone możliwości rozwoju edukacyjnego i zawodowego dla ludności pracującej; 2) podwyższyć poziom badań naukowych w całym zakresie wiedzy naukowej; 3) podwyższyć poziom wyposażenia technicznego procesu uczenia się; 4) zapewnić usprawnienie i poprawę poziomu technologii komunikacyjnych w celu pogłębienia stosunków międzyludzkich na całym świecie.

Ekspertyza społeczna i środowiskowa projektów naukowych, technicznych i ekonomicznych wiąże się z ekspercką oceną procesów i zjawisk, których nie można bezpośrednio zmierzyć. Opiera się na opiniach specjalistów i zapośrednicza problem odpowiedzialności naukowca, nauki wobec społeczeństwa. Przewidywalna przeszłość pokazuje, że sytuacja nie zmieniła się na lepsze w systemie środowiska człowieka nastawionego na utrzymanie jego aktywnej długowieczności. Zmiany społeczne ostatnich lat spowodowały lub pogłębiły istniejące wcześniej negatywne tendencje. Tak więc pogorszenie stanu środowiska ekologicznego doprowadziło do wzrostu czynników ryzyka dla życia ludzkiego. Utracono uwagę na kwestie środowiskowe, które niekorzystnie wpływają na zdrowie ludzkie. Istota kryzysu ekologicznego nie doczekała się naukowego wyjaśnienia pod kątem wpływu na zdrowie człowieka.

14.4. Postęp naukowo-techniczny a koncepcja zrównoważonego rozwoju

Postępu naukowo-technicznego (STP) nie można zrozumieć bez odniesienia go do wymiarów czasoprzestrzennych, tj. do czasu postklasycznego lub postnieklasycznego etapu rozwoju. Daniel Bell uznał to za banał „trzeciej rewolucji technologicznej” z jej możliwymi konsekwencjami społecznymi. W. Dizard, za Arnoldem Toynbee, przedstawił go w kategoriach „ery informacyjnej”, łączącej postęp naukowo-techniczny z ewolucją elektronicznej sieci informacyjnej zdolnej połączyć w całość cały świat. Bell badał zjawisko postępu naukowo-technicznego jako nadejście ery „jajogłowych”. Jednak „jajogłowi” (Peter Sterns, Michael Harrington i in.) kwestionują tę ocenę ze stanowiska najbardziej wnikliwego krytyka społeczeństwa przemysłowego XX wieku, Lewisa Mumforda. Stany Zjednoczone uważane są za jedyny kraj, który dokonał trzyetapowej transformacji od społeczeństwa rolniczego do przemysłowego, a stamtąd do takiego, którego nazwa nie jest jeszcze jasno określona. Ale główną cechą tego społeczeństwa jest to, że zajmuje się ono głównie produkcją, przechowywaniem i rozpowszechnianiem informacji. Badacze tego nurtu R. Durrendorf nazywają Stany Zjednoczone postkapitalistycznymi, A. Etzioni – postmodernistycznymi, K. Boulding – postcywilizacyjnymi, G. Kahn – postekonomicznymi, S. Ahlstrom – postprotestanckimi, R. Soydenberg – posthistoryczny, R. Barnett proponuje nazwać USA „społeczeństwem post-naftowym”. Jest to zbiór definicji, z których każda ma swoją własną podstawę i twierdzi, że jest samowystarczalna.

D. Bell, wyznający koncepcję społeczeństwa postindustrialnego, jednoczącego wszystkich „jajogłowych”, nie napawa optymizmem co do przyszłości tego społeczeństwa. W swojej krytycznej ocenie współczesnych Stanów Zjednoczonych L. Mumford posunął się jeszcze dalej, dostrzegając niebezpieczne przechylenie w stronę establishmentu wojskowo-przemysłowego, który zmonopolizował całą sferę informacyjną, i represyjnego systemu biurokracji. Tak zwane społeczeństwo informacyjne jest owocem współczesnego postępu technologicznego, jednak jego teoretycy nie chcą nadać mu jednoznacznej charakterystyki. Pionier informatyki John von Neumann zauważa, że ​​społeczeństwo to systematycznie rozszerza swoje wpływy na obszary polityczne, gospodarcze i kulturalne. Jednak postępowy ruch jest wyraźnie widoczny w produkcji i dystrybucji informacji, rozszerzaniu usług informacyjnych dla przemysłu i rządu oraz tworzeniu szerokiej sieci mediów informacyjnych skierowanych do konsumentów. Uważa się, że korzystne jest zachowanie czujności wobec tej tendencji.

W Rosji deklarowany przez nas temat postępu naukowo-technicznego najpełniej jest eksplorowany w monografii VV Iljina „Filozofia nauki”[38].

Według Ilyina rozwój nauki to permanentny wzrost jej potencjału treściowego: instrumentalnego, kategorycznego, faktycznego, z którego w efekcie dokonuje się odpowiedniego wniknięcia w naturę rzeczy, opartego na dowodach opanowania prawdy. Istnieją dwa sposoby rozwoju wiedzy: ewolucyjny (ekstensywny) i rewolucyjny (intensywny). Rozwój ewolucyjny nie oznacza radykalnego odnowienia teoretycznego zasobu wiedzy. Odbywa się to w wyniku dostosowania ogólnej teorii do rozwiązania poszczególnych problemów poprzez dodanie odpowiednich założeń, scalenie ze specyficzną teorią formalizmu matematycznego, wprowadzenie nowych założeń (ulepszenie heliocentryzmu Keplera) itp. Główną cechą rozwoju ewolucyjnego jest obecność dedukcyjnego związku między teoriami podstawowymi i pochodnymi. Rewolucyjny rozwój nauki zakłada istotne odnowienie i modyfikację jej arsenału pojęciowego. Polega na pogłębianiu dotychczasowych wyobrażeń o istocie badanych zjawisk. Przyczyny rewolucji w nauce są następujące: z jednej strony każdemu ewolucyjnemu rozwojowi towarzyszy przebudowa podstaw logicznych, które wyczerpują immanentne możliwości samorozwoju, z drugiej zaś niemożność obecnej teorii przyswoić dostępne fakty empiryczne. To, co jej się przydarzyło, to tak zwana „nasycenie” (nasycenie dwutlenkiem węgla). W rezultacie teoria traci swój potencjał predykcyjny. Operacyjne wykorzystanie teorii staje się niemożliwe. Warunkiem rewolucji w nauce jest, po pierwsze, samo-wyczerpanie, brak potencjału heurystycznego, opis, przewidywanie zjawisk; po drugie „zmęczenie” teorią, jej niezdolność do rozwiązywania problemów wewnątrzteoretycznych; po trzecie, sprzeczności, antynomie i inne niedoskonałości dyskredytujące tradycyjne algorytmy stawiania i rozwiązywania problemów.

To są warunki wstępne. Ale to nie wystarczy na rewolucję. Potrzebujemy powodów! Musi powstać nowy pomysł, wskazujący kierunek restrukturyzacji istniejącej wiedzy, nawet jeśli jest w powijakach. Nie można uzyskać nowej teorii jako logicznej konsekwencji starej. Relację między starym a nowym można opisać jedynie w kategoriach zasady korespondencji (N. Bohr). Podsumowanie ewolucyjnych modeli rozwoju zaproponowanych przez K. Poppera, I. Lakatosa i T. Kuhna, austriackiego metodologa nauki E. Ezer doszedł do wniosku, że w historii nauki realizują się cztery główne typy przejść fazowych: 1) od przedteoretycznego etapu nauki do teorii pierwotnej; 2) z jednej teorii na alternatywną (zmiana paradygmatu); 3) z dwóch odrębnie powstałych i równolegle rozwijających się teorii szczegółowych do jednej teorii uniwersalnej; 4) od teorii wizualnej opartej na doświadczeniu zmysłowym do abstrakcyjnej teorii niewizualnej z całkowitą zmianą podstawowych pojęć[39].

Koncepcja zrównoważonego rozwoju. W codziennym użyciu pojęcie „rozwoju” jest ściśle związane z pojęciem postępu. Ale w sferze użycia słów filozoficznych i naukowych ujmuje istnienie systemu jako jedności postępu i regresu, odnowy i zniszczenia, autoafirmacji i autodestrukcji. Filozoficzne rozumienie rozwoju opiera się początkowo na tradycyjnych opozycjach ruchu i spoczynku, zmienności i stabilności, transformacji i zachowania, systemowości, nieliniowości i niekonsekwencji rozwoju. Pojęcie zrównoważonego rozwoju obejmuje zachowanie, reprodukcję systemu, samozmianę, jego współzmianę z innymi systemami. System nie jest napędzany przez człowieka, on się do niego dostosowuje.

Charakter rozwoju wiedzy naukowej VV Ilyin uważa za proces akumulacji wiedzy. Jego koncepcja nawiązuje do teorii T. Kuhna, K. Poppera iw mniejszym stopniu P. Feyerabenda. W tych podejściach istnieją koncepcyjne, kategoryczne różnice. Teoria postępu nauki zaproponowana przez V.V. Ilyin wyróżnia się głębią argumentacji oraz większą szczegółowością prezentacji i dowodów.

Temat 15. Problem odpowiedzialności w filozofii nauki i techniki

W życiu zawsze istniały sprzeczności między tym, co powinno być, a tym, co jest. Ta dolegliwość życia codziennego wpływa również na problem odpowiedzialności związanej z funkcjonowaniem technologii, z rozwiązaniem problemu korzyści i szkody. Niemiecki fizyk, laureat Nagrody Nobla Max Born (1882-1970) podkreślali, że w prawdziwej nauce i jej etyce zaszły zmiany, które uniemożliwiły utrzymanie starego ideału służenia wiedzy dla niej samej. Byliśmy przekonani, że to nigdy nie może przerodzić się w zło, ponieważ poszukiwanie prawdy jest dobrem samym w sobie. To był piękny sen, z którego obudziły nas światowe wydarzenia. amerykański fizyk Robert Oppenheimer (1904-1967), twórca bomby atomowej, był jeszcze bardziej nietolerancyjny, oświadczając, że fizycy po amerykańskich bombardowaniach atomowych japońskich miast w 1945 roku stracili niewinność i po raz pierwszy poznali grzech. Poczucie winy zmusiło go do porzucenia pomysłu stworzenia bomby wodorowej. Władze USA zareagowały na tę decyzję, usuwając go z wszelkiej działalności naukowej i pozbawiając dostępu do informacji niejawnych. Niemiecki socjolog i ekonomista mówił o potrzebie proaktywnej oceny różnych konsekwencji rozwoju technologicznego. Werner Sombart (1883-1941). W swojej książce „Niemiecki socjalizm” w dziale „Reining Technology” wysunął ideę, że wprowadzeniu nowej technologii zawsze będzie towarzyszyć, a nawet poprzedzona wartościową analizą jej możliwych konsekwencji. Stanowisko to, popierane przez wielu jego zwolenników, stało się jedną z najważniejszych tez filozofii techniki, a uświadomienie sobie żywotnego znaczenia jej praktycznej realizacji doprowadziło do utworzenia w 1972 roku na Kongresie Amerykańskim pierwszej oficjalnej struktury ocena technologii „Biuro oceny technologii” („Biuro oceny technologii”). Później podobne organizacje pojawiły się w Szwecji (1973), Kanadzie (1975) i wielu innych krajach rozwiniętych.

„Ojciec” cybernetyki Norbert Wiener (1894-1964) w swojej działalności naukowej nie ograniczał się do odmowy jakiejkolwiek współpracy z amerykańskim kompleksem wojskowo-przemysłowym, ale także nakłaniał kolegów do pójścia za jego przykładem. W Cybernetics, czyli Control and Communication in the Animal and Machine (1948), w pełni świadomy faktu, że ta nowa nauka „prowadzi do postępu technologicznego, który stwarza… wielkie możliwości dla dobra i zła”, wezwał swoich kolegów do porzucić badania w cybernetyce. Wiener wysunął zasadę, że konieczne jest (a) upewnienie się, że opinia publiczna zrozumiała ogólny kierunek i znaczenie tych badań oraz (b) „ograniczenie własnej działalności do takich niewojennych dziedzin, jak fizjologia i psychologia”. Nie możemy przytaczać podobnych przykładów z sowieckiej rzeczywistości ze względu na jej tajność. Wierzymy jednak, że miały miejsce. Chociaż istnieją inne przykłady, kiedy szarlatani w nauce byli za nimi.

W 1945 roku w Stanach Zjednoczonych grupa inżynierów jądrowych zwróciła się do swojego sekretarza obrony, Henry'ego L. Stimsona, z raportem ostrzegającym, że energia jądrowa jest obarczona nieskończenie większymi niebezpieczeństwami niż wszystkie poprzednie wynalazki i że nie mogą uniknąć bezpośredniej odpowiedzialności za to, jak ludzkość wykorzystuje swoje bezinteresowne wynalazki. W 1957 r. III Konferencja Pugwash w Wiedniu wydała deklarację wzywającą naukowców do wkładu w edukację ludzi i szerzenia wśród nich zrozumienia niebezpieczeństw związanych z dalszym rozwojem nauki i techniki. W 1974 r. „Deklaracja z Góry Karmel w sprawie technologii i odpowiedzialności moralnej”, poparta przez naukowców z całego świata, stwierdziła moralną i etyczną porażkę wykorzystania energii atomowej do celów wojskowych. W latach siedemdziesiątych grupa genetyków i mikrobiologów nałożyła moratorium na niektóre eksperymenty i badania, gdy okazało się, że uzyskane przez nich hybrydowe molekuły można wykorzystać do ingerencji w geny żywego organizmu ludzkiego. W 1970 roku grupa naukowców pod kierunkiem Paula Berga zorganizowała w Asilomar (USA) międzynarodową konferencję z udziałem 1975 genetyków z całego świata. Opracowano system środków ostrożności, aby zagwarantować bezpieczeństwo tej linii badań dla ludzkiego życia.

Tak aktywne inicjatywy stały się możliwe dzięki temu, że czasy samotnego naukowca już minęły. Odkrycia naukowe i wdrożenia były efektem zbiorowego poszukiwania wiedzy. Podstawowe badania naukowe wymagają koncentracji wysiłków w powiązanych obszarach badań naukowych. Na tle tych procesów filozofia technologii nie mogła ograniczać się do obserwacji zewnętrznych. Karl Jaspers jako jeden z pierwszych zwrócił uwagę na ówczesną sytuację. Ogłaszał, że technologia jest ideologicznie neutralna w systemie walki między dwoma systemami światowymi i proponował zrzucić odpowiedzialność za jej skutki wyłącznie na samych ludzi. Deklarował, że technologia jest pochodną systemu społecznego, zrzucając na niego pełną odpowiedzialność. Jego teza „Nie ma tak naprawdę istniejącej technologii, która byłaby neutralna pod względem wartości” stała się mottem nauki i technologii. Jaspers rozwinął problematykę komunikacji w powiązaniu z problematyką wolności i prawdy. Komunikacja jednostki, jej związek z innymi stanowi strukturę jego własnego bytu, jego istnienia, twierdzi filozof. Istnienie człowieka w koncepcji Jaspersa, podobnie jak u Heideggera, zawsze polega na „byciu z” (innymi). Bez komunikacji nie ma i nie może być wolności. Odmowa istnienia to możliwość uprzedmiotowienia siebie i zdobycia w ten sposób bytu posiadającego uniwersalność. Jaspers odróżnia wolną egzystencję od ślepej woli możliwością komunikowania się z innymi, możliwością bycia „usłyszanym”. Egzystencji nie można zdefiniować, nie można „komunikować się” z innymi bytami i to wystarczy, aby istniała jako rzeczywistość, a nie jako subiektywna iluzja. Komunikacja jest sposobem tworzenia rozumu, wprowadzaniem zrozumienia, „oświecenia” z jednej strony i istnienia, wprowadzaniem samego bytu, który należy ogarnąć, z drugiej. Z punktu widzenia Jaspersa komunikacja to komunikacja, w której człowiek nie odgrywa „rol” przygotowanych dla niego przez społeczeństwo, ale odkrywa, jaki jest sam „aktor”. Egzystencjalna koncepcja Jaspersa jest przeciwieństwem „komunikacji masowej”, w której jednostka gubi się, rozpuszczając w tłumie. Jaspers rozważa także samą prawdę w powiązaniu z komunikacją: komunikacja jest środkiem dochodzenia do prawdy, komunikacją „w prawdzie”. W ślad za Jaspersem M. Heidegger, A. Huning i S. Florman potwierdzili ideę niezależności technologii od systemów społecznych i politycznych.

Jak wiecie, intencjonalność (tj. aspiracja) jest pojęciem tkwiącym wyłącznie w ludzkiej świadomości. Koncepcja ta jest pozytywnie uwzględniana w badaniach J. Searle. Jednak zaczęto ją kwestionować po pojawieniu się komputera zdolnego do uczenia się i adaptacji do środowiska zewnętrznego, a w konsekwencji do zmiany samego programu swojego zachowania, gdy wymagają tego zmieniające się warunki środowiskowe (tak jakby komputery miały jakieś pragnienia ich własny). W rezultacie odpowiedzialność za działania technologii zaczęła być przerzucana z osoby na system. Tło społeczne takiej logiki jest zrozumiałe, ale bardzo niebezpieczne.

wniosek

Podręcznikowi jako rodzajowi literatury zawsze stawiane były pewne wymagania metodologiczne: jasność i klarowność prezentacji materiału, jego struktura, ogólna aktualność i aktualność głównych postanowień, zgodność jego treści z określonymi standardami danej dyscypliny przyjętymi w społeczność zawodowa. Mamy nadzieję, że osiągnięto niezbędny poziom zgodności z tymi wymaganiami zawartymi w podręczniku szkoleniowym. Chociaż oczywiście metodyczne, literackie i znaczące cechy stylistyczne książki nie umknęły uważnemu czytelnikowi w porównaniu z podręcznikami innych autorów. Wynika to jedynie z chęci zaprezentowania materiałów edukacyjnych w jak najbardziej przystępny sposób i przekazania ich czytelnikowi.

Nakreślając główne założenia filozofii nauki i technologii jako całości, trzymaliśmy się krajowych tradycji budowania kursu, co znalazło odzwierciedlenie w pracach P.P. Gaidenko, V.V. Ilyina, T.G. Leshkevicha, T.T. Matyash, V.P. Kokhanovsky, T.V. Fathi , N.M. Al-Ani i inni autorzy. Szczególne znaczenie metodologiczne w naszym badaniu miały fundamentalne prace akademika Rosyjskiej Akademii Nauk V.S. Stepina. W interesie czytelnika uznalibyśmy za celowe odtworzenie niektórych idei akademika jako pioniera w tej dziedzinie filozofii nauki, przedstawionych w jego monografii „Wiedza teoretyczna”[40].

1. Wiedza teoretyczna powstaje w wyniku historycznego rozwoju kultury i cywilizacji. Jej podstawowe próbki reprezentuje wiedza filozoficzna, która była jedyną formą teorii teoretycznej na etapie przednaukowym.

2. Nauka rozwinięta, w przeciwieństwie do przednauki, nie ogranicza się do modelowania tylko tych obiektywnych relacji, które są już zawarte w rzeczywistej praktyce produkcji i codziennym doświadczeniu. Jest w stanie wyjść poza granice każdego historycznie określonego rodzaju praktyki i otworzyć przed ludzkością nowe obiektywne światy, które dopiero w przyszłych stadiach rozwoju cywilizacji mogą stać się obiektami masowego praktycznego rozwoju. Kiedyś Leibniz scharakteryzował matematykę jako naukę o możliwych światach. Zasadniczo tę cechę można przypisać dowolnej podstawowej nauce.

3. Przełomy do nowych obiektywnych światów stają się możliwe w rozwiniętej nauce dzięki specjalnemu sposobowi generowania wiedzy. Na etapie przednaukowym modele przekształceń obiektów objętych działaniem zostały stworzone poprzez praktykę schematyzowania. Przedmioty działania praktycznego zostały w poznaniu zastąpione przedmiotami idealnymi, abstrakcjami, którymi operuje myślenie. W rozwiniętej nauce, chociaż ta metoda jest stosowana, traci swoją dominującą pozycję. Najważniejsza jest metoda budowania wiedzy, w której najpierw tworzy się niejako odgórnie modele obiektywnych relacji rzeczywistości w stosunku do praktyki. Obiekty idealne, które pełnią rolę elementów takich modeli, nie powstają poprzez abstrahowanie własności i relacji obiektów rzeczywistej praktyki, lecz są konstruowane na zasadzie operowania z wytworzonymi wcześniej obiektami idealnymi. Struktura (sieć powiązań), w którą są zanurzone, również nie jest wydobywana bezpośrednio z praktyki (poprzez abstrahowanie i schematyzowanie rzeczywistych połączeń obiektów), ale jest przekazywana z wcześniej ustalonych obszarów wiedzy. Stworzone w ten sposób modele pełnią funkcję hipotez, które następnie, po uzyskaniu uzasadnienia, przekształcają się w teoretyczne schematy badania przedmiotu. To właśnie badania teoretyczne, oparte na względnie niezależnym działaniu wyidealizowanych obiektów, są w stanie odkrywać nowe obszary tematyczne, zanim zaczną być one opanowane przez praktykę. Teoretyzowanie działa jako rodzaj wskaźnika rozwiniętej nauki.

4. Teoretyczna metoda badań i odpowiednio przejście od przednauki do nauk ścisłych we właściwym tego słowa znaczeniu urzeczywistniały się najpierw w matematyce, potem w naukach przyrodniczych, a na końcu w naukach technicznych, społecznych i humanistycznych . Każdy z tych etapów rozwoju nauki ma swoje uwarunkowania społeczno-kulturowe. Kształtowanie się matematyki jako nauki teoretycznej wiązało się z kulturą starożytnego polis, ugruntowanymi w niej wartościami dyskusji publicznej, ideałami uzasadnienia i dowodów odróżniających wiedzę od opinii.

Przesłankami nauk przyrodniczych, łączących opis matematyczny z eksperymentem, było ukształtowanie się głównych uniwersaliów światopoglądowych kultury technogenicznej: rozumienie człowieka jako bytu aktywnego, aktywnego, który przemienia świat; rozumienie działania jako procesu twórczego, który daje człowiekowi władzę nad przedmiotami; stosunek do wszelkiego rodzaju pracy jako wartości; rozumienie przyrody jako naturalnie uporządkowanego pola przedmiotów, które przeciwstawia się człowiekowi; interpretacja celów wiedzy jako równoważne rozumienie praw przyrody itp. Wszystkie te wartości i znaczenia życiowe, które ukształtowały się w epoce Renesansu, Reformacji i wczesnego Oświecenia, były radykalnie odmienne od dominującego w kulturach tradycjonalistycznych rozumienia człowieka, natury, ludzkiej działalności i wiedzy.

W dalszym rozwoju cywilizacji technogenicznej, na etapie jej rozwoju przemysłowego, powstają przesłanki do powstania technicznych nauk społecznych i humanistycznych. Intensywny rozwój produkcji przemysłowej generuje potrzebę wynajdywania i powielania coraz to nowych urządzeń inżynierskich, co stwarza bodźce do tworzenia nauk technicznych z ich nieodłącznym teoretycznym poziomem badań. W tym samym okresie historycznym stosunkowo szybka transformacja struktur społecznych, zniszczenie tradycyjnych więzi społecznych, zastępowanych przez relacje „właściwej zależności”, pojawienie się nowych praktyk i typów dyskursu obiektywizującego ludzkie cechy, stwarzają warunki wstępne dla formowania nauk społecznych i humanistycznych.

Istnieją warunki i potrzeby znalezienia sposobów racjonalnego regulowania standaryzowanych funkcji i działań jednostek należących do określonych grup społecznych, sposobów zarządzania różnymi obiektami i procesami społecznymi. W kontekście tych potrzeb powstają pierwsze programy budowy nauk o społeczeństwie i człowieku.

5. Wiedza naukowa jest złożonym, rozwijającym się systemem, w którym w miarę postępu ewolucji powstają nowe poziomy organizacji. Działają odwrotnie na wcześniej ustalone poziomy i przekształcają je. W procesie tym stale zmieniają się nowe techniki i metody badań teoretycznych oraz zmienia się strategia badań naukowych. Nauka w swoich rozwiniętych formach jawi się jako dyscyplinarnie zorganizowana wiedza, w której poszczególne gałęzie – dyscypliny naukowe (matematyka, nauki przyrodnicze – fizyka, chemia, biologia itp.; nauki techniczne i społeczne) funkcjonują jako względnie autonomiczne podsystemy oddziałujące na siebie. Dyscypliny naukowe powstają i rozwijają się nierównomiernie. Kształtują się w nich różne rodzaje wiedzy, z których część przeszła już dość długą drogę teoretyzowania i ukształtowała przykłady rozwiniętych teorii matematycznych, inne natomiast dopiero wkraczają na tę drogę.

Za wyjściową jednostkę metodologicznej analizy struktury wiedzy teoretycznej należy przyjąć nie pojedynczą teorię w jej relacji do doświadczenia (jak stwierdzono w tzw. koncepcji standardowej), ale dyscyplinę naukową. Strukturę wiedzy dyscypliny naukowej wyznacza poziom organizacji teorii o różnym stopniu ogólności – fundamentalnych i szczegółowych (lokalnych), ich powiązania między sobą oraz ze złożonym poziomem badań empirycznych (obserwacje i fakty), a także jako ich związek z podstawami nauki. Podstawy nauki są czynnikiem systemotwórczym dyscypliny naukowej. Obejmują one:

1) specjalny naukowy obraz świata (ontologia dyscyplinarna), który wprowadza uogólniony obraz przedmiotu tej nauki w jej głównych cechach systemowo-strukturalnych;

2) ideały i normy badawcze (ideały i normy opisu i wyjaśniania, dowody i uzasadnienia oraz ideały struktury i organizacji wiedzy), które określają uogólniony schemat metody poznania naukowego;

3) filozoficzne podstawy nauki, które uzasadniają przyjęty obraz świata, a także ideały i normy nauki, dzięki którym rozwijane przez naukę idee o rzeczywistości i sposobach jej poznania są włączane w nurt kultury przenoszenie.

Podstawy nauki mają obok komponentu dyscyplinarnego także komponent interdyscyplinarny. Tworzy ją ogólnonaukowy obraz świata jako szczególna forma systematyzacji wiedzy naukowej, która tworzy całościowy obraz Wszechświata, życia, społeczeństwa i człowieka (ontologie dyscyplinarne pojawiają się w relacji do ogólnonaukowego obrazu świata jako jej aspekt lub fragment), a także szczególna warstwa treści ideałów, norm wiedzy i filozoficznych podstaw nauki, która podkreśla niezmienne cechy charakteru naukowego, przyjęte w określonej epoce historycznej. Interdyscyplinarny składnik podstaw nauki zapewnia interakcję różnych nauk, transfer idei i metod z jednej nauki do drugiej. Wiedza teoretyczna funkcjonuje i rozwija się jako złożony system interakcji interdyscyplinarnych i interdyscyplinarnych.

6. Strukturę treści teorii naukowych określa systemowa organizacja wyidealizowanych (abstrakcyjnych) obiektów (konstruktorów teoretycznych). Stwierdzenia języka teoretycznego formułowane są bezpośrednio w stosunku do konstruktów teoretycznych i dopiero pośrednio, ze względu na ich związek z rzeczywistością pozajęzykową, opisują tę rzeczywistość. W sieci abstrakcyjnych obiektów teorii naukowej można wyróżnić specjalne podsystemy, zbudowane z niewielkiego zestawu podstawowych konstrukcji. W swoich powiązaniach tworzą teoretyczne modele badanej rzeczywistości. Modele te są zawarte w teorii i tworzą jej wewnętrzny „szkielet”. Modele tego rodzaju, stanowiące rdzeń teorii, można nazwać schematami teoretycznymi. Należy je odróżnić od modeli analogowych, które służą do konstruowania teorii, są jej „rusztowaniem” i nie są jej częścią.

W rozwiniętej teorii można znaleźć fundamentalny schemat teoretyczny, w stosunku do którego formułuje się podstawowe prawa teorii, oraz poszczególne schematy teoretyczne, w stosunku do którego formułuje się prawa o mniejszym stopniu ogólności, wyprowadza się z te. Schematy te i odpowiadające im prawa tworzą hierarchię poziomów. W ramach wiedzy teoretycznej dyscypliny naukowej poszczególne prywatne schematy teoretyczne i prawa mogą mieć niezależny status. Historycznie poprzedzają rozwinięte teorie. Schematy teoretyczne są mapowane na naukowy obraz świata (ontologia dyscyplinarna) i materiał empiryczny wyjaśniany przez teorię. Oba te odwzorowania są ustalane za pomocą specjalnych stwierdzeń, które charakteryzują abstrakcyjne obiekty teorii w kategoriach obrazu świata oraz w kategoriach wyidealizowanych eksperymentów opartych na rzeczywistym doświadczeniu. Ostatnie stwierdzenia to definicje operacyjne. Mają złożoną strukturę i nie ograniczają się do opisów rzeczywistych sytuacji pomiarowych, chociaż takie opisy zawierają w swoim składzie.

Połączenie aparatu matematycznego ze schematem teoretycznym odwzorowanym na naukowym obrazie świata zapewnia jego interpretację semantyczną, a połączenie schematu teoretycznego z doświadczeniem zapewnia interpretację empiryczną.

7. Schematy teoretyczne odgrywają ważną rolę we wdrażaniu teorii, co jest realizowane nie tylko metodami wnioskowania dedukcyjnego z wykorzystaniem operacji formalnych, ale także w sposób konstruktywny genetycznie, poprzez eksperymenty myślowe ze schematami teoretycznymi. Idea funkcjonowania teorii jako systemu hipotetyczno-dedukcyjnego wymaga istotnej korekty. W teoriach, które nie należą do typu systemów sformalizowanych, wyprowadzenie ich teoretycznych konsekwencji z podstawowych praw obejmuje złożone procesy przekształcania schematów teoretycznych, redukcji fundamentalnego schematu teoretycznego do poszczególnych. Taka redukcja łączy dedukcyjne i indukcyjne metody badawcze i stanowi podstawę do rozwiązywania problemów teoretycznych, z których część jest ujęta w teorii jako próbki paradygmatyczne (T. Kuhn).

Idee dotyczące struktury schematów teoretycznych i genetycznie konstruktywne techniki konstruowania teorii pozwalają w znacznym stopniu skonkretyzować problem próbek postawiony przez Kuhna jako obowiązkowy element struktury teorii nauk eksperymentalnych.

8. Problem formowania się teorii i jej aparatu pojęciowego pojawia się przede wszystkim jako problem genezy schematów teoretycznych. Takie schematy są najpierw tworzone jako hipotezy, a następnie potwierdzane doświadczeniem. Konstruowanie schematów teoretycznych jako hipotez odbywa się poprzez przenoszenie abstrakcyjnych obiektów z innych obszarów wiedzy teoretycznej i łączenie tych obiektów w nową „sieć relacji”. Ta metoda tworzenia modeli hipotetycznych może być realizowana w dwóch wersjach: poprzez sensowne operacje na pojęciach oraz poprzez rozwijanie hipotez matematycznych (w drugim przypadku wraz z hipotetycznymi równaniami wprowadza się domyślnie model hipotetyczny w celu wstępnej interpretacji równania). W tworzeniu hipotetycznej wersji schematu teoretycznego aktywną rolę odgrywają podstawy nauki. Określają formułowanie problemów i zadań oraz dobór środków niezbędnych do postawienia hipotezy. Podstawy nauki funkcjonują jako globalny program badawczy, który kieruje dociekaniami naukowymi.

9. Przy konstruowaniu modeli hipotetycznych obiekty abstrakcyjne otrzymują nowe cechy, ponieważ są wprowadzane w nowym systemie relacji. Uzasadnianie hipotetycznych modeli doświadczeniem zakłada, że ​​należało uzyskać nowe cechy obiektów abstrakcyjnych jako idealizację opartą na tych nowych eksperymentach, dla wyjaśnienia których stworzono model. Proponuje się, aby tę procedurę nazwać metodą konstruktywnego uzasadniania schematu teoretycznego. Z reguły schematy, które przeszły tę procedurę, zyskują nową treść w porównaniu z ich pierwotną hipotetyczną wersją. Ukazane w obrazie świata, prowadzą do zmian w tym obrazie. Dzięki tym wszystkim operacjom następuje rozwój koncepcji naukowych. W tworzeniu aparatu pojęciowego teorii decydującą rolę odgrywa nie tylko awans, ale także uzasadnienie hipotezy. Z kolei uzasadnienie hipotez i ich przekształcenie w teorię stwarza środki do przyszłych badań teoretycznych.

10. Metoda konstruktywnego uzasadnienia pozwala zidentyfikować „słabe punkty” w teorii, a tym samym zapewnia skuteczną restrukturyzację wiedzy naukowej. Otwiera możliwość adekwatnej weryfikacji spójności wiedzy teoretycznej, umożliwiając odkrywanie ukrytych paradoksów w teorii, zanim ujawnią się one przez spontaniczny przebieg rozwoju wiedzy. Metodę konstruowalności należy traktować jako rozwinięcie racjonalnych elementów zasady obserwowalności.

11. Odkrycie procedury „konstruktywnego uzasadniania” umożliwia rozwiązanie problemu genezy paradygmatycznych próbek problemów teoretycznych. Konstrukcja rozwiniętej teorii odbywa się jako etapowa synteza i uogólnienie poszczególnych schematów teoretycznych i praw. W każdym kolejnym kroku tego uogólnienia weryfikowane jest zachowanie dotychczasowej treści konstruktywnej, co automatycznie wprowadza redukcje uogólniającego schematu teoretycznego do poszczególnych. Na końcowym etapie syntezy teoretycznej, kiedy powstaje fundamentalny schemat teoretyczny i formułowane są podstawowe prawa teorii, weryfikacja ich konstruktywnego znaczenia jest przeprowadzana jako konstrukcja na podstawie uzyskanego podstawowego schematu teoretycznego wszystkich poszczególnych teorii teoretycznych. schematy przez nią zasymilowane. W rezultacie powstają wzorce paradygmatyczne rozwiązywania problemów teoretycznych. Dalszy rozwój teorii i poszerzanie zakresu jej zastosowania obejmują w jej skład nowe modele. Ale podstawowe pozostają te, które powstały w procesie formowania teorii. Teoria zachowuje ślady swojej minionej historii, odtwarzając główne etapy jej powstawania jako typowe zadania i modele ich rozwiązywania.

12. Strategie poszukiwań teoretycznych zmiany w historycznym rozwoju nauki. Zmiany te pociągają za sobą restrukturyzację podstaw nauki i charakteryzują się rewolucjami naukowymi. Można wyróżnić dwa rodzaje takich rewolucji. Pierwszy z nich, opisany przez Thomasa Kuhna, wiąże się z pojawieniem się anomalii i kryzysów spowodowanych ekspansją nauki na nowe obszary tematyczne. Ich mechanizmy można określić, biorąc pod uwagę strukturę podstaw nauki i procedury stałej korelacji z podstawami powstających teorii. Drugi typ, bardzo słabo analizowany w literaturze metodologicznej, może powstać bez anomalii i kryzysów, dzięki interakcjom interdyscyplinarnym. W tym przypadku dokonuje się transferu z jednej nauki do drugiej różnych elementów ontologii dyscyplinarnych, ideałów i norm oraz podstaw filozoficznych. Tego rodzaju paradygmatyczne „przeszczepienie” prowadzi do przeformułowania dotychczasowych zadań dyscypliny naukowej, sformułowania nowych problemów i pojawienia się nowych sposobów ich rozwiązywania. Przykładem pierwszego typu rewolucji naukowej jest powstanie teorii względności i mechaniki kwantowej. Przykładem drugiego jest pojawienie się dyscyplinarnej zorganizowanej nauki pod koniec XVIII – pierwszej połowy XIX wieku, a także współczesne „procesy wymiany” pomiędzy cybernetyką, biologią i językoznawstwem.

13. Restrukturyzacja podstaw nauki w okresach rewolucji naukowych dokonuje się z jednej strony pod presją nowego materiału empirycznego i teoretycznego powstającego w ramach dyscyplin naukowych, z drugiej zaś pod wpływem czynników społeczno-kulturowych. Rewolucje naukowe stanowią swego rodzaju punkt rozwidlenia w rozwoju wiedzy, w którym odkrywane są różne możliwe kierunki (scenariusze) rozwoju nauki. Z nich realizowane są te kierunki (programy badawcze), które nie tylko zapewniają pozytywną zmianę empiryczną i teoretyczną problemów (I. Lakatos), ale także wpisują się w kulturę epoki i są spójne z możliwymi modyfikacjami znaczenia jej ideologii uniwersalia. W zasadzie wraz z innymi zwrotami w historycznym rozwoju kultury i cywilizacji można by realizować inne (potencjalnie możliwe) nauki historyczne. W okresach rewolucji naukowych kultura niejako wybiera spośród wielu możliwych scenariuszy przyszłej historii nauki te, które najlepiej odpowiadają jej podstawowym wartościom.

14. W dobie światowych rewolucji naukowych, kiedy odbudowywane są wszystkie elementy fundamentów nauki, zmienia się typ racjonalności naukowej. Można wyróżnić trzy główne typy historyczne: naukę klasyczną, nieklasyczną i postnieklasyczną. Nauka klasyczna uważa, że ​​warunkiem uzyskania prawdziwej wiedzy o przedmiocie jest eliminacja (wykluczenie, usunięcie) w teoretycznym wyjaśnianiu i opisie wszystkiego, co dotyczy podmiotu, jego celów i wartości, środków i operacji jego działania. Nauka nieklasyczna (jej przykładem jest kwantowa fizyka względna) uwzględnia związek pomiędzy wiedzą o przedmiocie a naturą środków i operacji działania, w ramach którego obiekt jest odkrywany i poznawany. Jednak powiązania z wartościami i celami wewnątrznaukowymi i społecznymi nadal nie są przedmiotem refleksji naukowej, chociaż w sposób dorozumiany determinują naturę wiedzy (decydują, co dokładnie i jak podkreślamy i rozumiemy w świecie). Postnieklasyczny typ racjonalności naukowej poszerza pole refleksji nad działaniem. Uwzględnia korelację zdobytej wiedzy o przedmiocie nie tylko z charakterystyką środków i operacji działania, ale także z jego strukturami wartościowo-celowymi. Jednocześnie zostaje wyraźny związek między celami wewnątrznaukowymi a wartościami i celami nienaukowymi, społecznymi. W kompleksowych badaniach złożonych, samorozwijających się systemów, które coraz częściej stają się dominującymi przedmiotami współczesnej nauk przyrodniczych i technologii (obiekty ekologii, genetyki i inżynierii genetycznej, kompleksy techniczne „człowiek – maszyna – środowisko”, nowoczesne systemy informacyjne itp.), wyjaśnienie powiązań wewnątrznaukowych i wartości społecznych odbywa się poprzez społeczną analizę odpowiednich programów badawczych. Historyzm przedmiotów współczesnych nauk przyrodniczych i refleksja nad wartościowymi podstawami badań łączą nauki przyrodnicze, społeczne i humanistyczne. Ich opozycja, aktualna w XIX wieku, w naszych czasach w dużej mierze straciła na znaczeniu.

Pojawienie się nowego typu racjonalności nie niszczy historycznie poprzednich typów, lecz ogranicza pole ich działania. Każdy nowy typ racjonalności naukowej wprowadza nowy system ideałów i norm wiedzy, który zapewnia rozwój odpowiedniego typu obiektów systemowych: systemów prostych, złożonych, rozwijających się historycznie (samorozwijających się). W związku z tym zmienia się kategoryczna siatka filozoficznych podstaw nauki - rozumienie rzeczy, procesu, przestrzeni, czasu, przyczynowości itp. (komponent ontologiczny). Wreszcie, wraz z pojawieniem się nowego typu racjonalności, zmieniają się ideologiczne zastosowania nauki. Na klasycznych i nieklasycznych etapach swojego rozwoju nauka znajdowała oparcie jedynie w wartościach cywilizacji technogenicznej i odrzucała wartości kultur tradycjonalistycznych jako z nią sprzeczne. Nauka postnieklasyczna ucieleśnia ideały „otwartej racjonalności” i aktywnie uczestniczy w poszukiwaniu nowych wytycznych ideologicznych, które wyznaczają strategie współczesnego rozwoju cywilizacyjnego. Ujawnia proporcjonalność swoich osiągnięć nie tylko do wartości i priorytetów kultury technogenicznej, ale także do szeregu idei filozoficzno-światopoglądowych rozwiniętych w innych tradycjach kulturowych (idee światopoglądowe tradycyjnych kultur Wschodu oraz idee filozofii rosyjski kosmizm). Nauka postnieklasyczna jest organicznie włączona we współczesne procesy kształtowania się myślenia planetarnego i dialogu kultur, stając się jednym z najważniejszych czynników interakcji międzykulturowych między Zachodem a Wschodem.

literatura

1. Agashin, E. Moralny wymiar nauki i techniki / E. Agashin. M., 1998.

2. Globalne problemy wartości uniwersalnych. M., 1990.

3. Zotov, A. F. Nowoczesna filozofia zachodnia / A. F. Zotov. M., 2001.

4. Kazin, A. V. Nauka w lustrze filozofii / A. V. Kazin. M., 1990.

5. Koyre, A. Eseje z historii myśli filozoficznej / A. Koyre. M., 1980.

6. Kosareva, LN Socjokulturowa geneza nauki: filozoficzny aspekt problemu / LN Kosareva. M., 1989.

7. Lektorsky, V. A. Epistemologia klasyczna i nieklasyczna / V. A. Lektorsky. M., 2000.

8. Moiseev, N. N. Nowoczesny racjonalizm / N. N. Moiseev. M., 1995.

9. Nikiforov, A. L. Filozofia nauki. Historia i metodologia / A. L. Nikiforov. M., 1998.

10. Ogurtsov, A.P. Dyscyplinarna struktura nauki / A.P. Ogurtsov. M., 1988.

11. Zasady przyrodoznawstwa historycznego. XX wiek. M., 2001.

12. Współczesna filozofia nauki: czytelnik. M., 1996.

13. Tradycje i rewolucje w rozwoju nauki. M., 1991.

14. Filozofia i metodologia nauki / wyd. V. I. Kuptsova. M., 1996.

Uwagi

  1. Myślę, więc jestem.
  2. Ogólnie rzecz biorąc, mitologia jest formą świadomości społecznej, sposobem rozumienia natury i rzeczywistości społecznej na wczesnych etapach rozwoju społecznego. Podstawą mitologii była niemożność odróżnienia się człowieka od otoczenia, nierozerwalność myślenia, jego nieoddzielność od sfery emocjonalnej, a konsekwencją są takie zjawiska, jak metaforyczne porównania obiektów naturalnych i kulturowych, humanizacja środowiska naturalnego , animacja fragmentów kosmosu.
  3. Filozofia eleatyczna powstała w wyniku połączenia pitagorejskiego systemu kategorii, będącego w istocie przekształconą strukturą mitu, z naukowo zaprojektowaną, a także zmitologizowaną matematyką pitagorejską (głównie arytmetyczną).
  4. Patrz: Polanyi M. Wiedza osobista / M. Polanyi. - M., 1985.
  5. Szerzej: Noiret L. Narzędzie pracy i jego znaczenie w historii rozwoju człowieka. Kijów, 1925.
  6. Kanke V. A. Podstawowe nurty filozoficzne i koncepcje nauki: podręcznik. dodatek / V. A. Kanke. M., 2004. S. 242-243.
  7. Tam.
  8. Więcej szczegółów zob.: Porus, VN Nauka. Kultura / V. N. Porus. M., 2002.
  9. Leshkevich, T.G. Filozofia nauki / T.G. Leshkevich. M., 2006. S. 137.
  10. Bell, D. Ramy społeczne społeczeństwa informacyjnego / D. Bell // Nowa fala technokratyczna na Zachodzie. M., 1986. S. 333.
  11. Tam.
  12. Feyerabend, P. Struktura rewolucji naukowych / P. Feyerabend. M., 1977. S. 109.
  13. Patrz: Popper, K. Logic a rozwój wiedzy naukowej / K. Popper. M., 1983. S. 332.
  14. Bierdiajew, N. A. Los Rosji / N. A. Bierdiajew. M., 1990. S. 248-249.
  15. Fayol, A. Management to nauka i sztuka / A. Fayol, G. Emerson, F. Taylor, G. Ford. M., 1992. S. 12.
  16. Gadamer, H.G. Prawda i metoda / H.G. Gadamer. M., 1988. S. 419.
  17. Tam. S. 586.
  18. Kanke, V.A. Podstawowe kierunki filozoficzne i koncepcje nauk / V. A. Kanke. M. : Logos, 2004. S. 89.
  19. Heidegger, M. Byt i czas / M. Heidegger. M., 1997. S. 128.
  20. Kuhn, T. Struktura rewolucji naukowych / T. Kuhn. M., 1977. S. 63.
  21. Patrz: Al-Ani, N.M. Filozofia technologii: podręcznik. dodatek / N.M. Al-Ani. SPb., 2004. S. 34.
  22. Patrz: Stork, H. Einfuhrung in die Philosophie der Technik / H. Stork. Darmstadt, 1977.
  23. Zobacz: Lenk, H. Refleksje o nowoczesnych technologiach / H. Lenk. M., 1996.
  24. Marks, K. Kapitał / K. Marks. T. 1. S. 171.
  25. Tam. S. 173.
  26. Po więcej szczegółów patrz: Philosophy of technology in Germany: [monografia zbiorowa]. M., 1989.
  27. Tam. S. 370.
  28. Więcej szczegółów zob.: Bell, D. Trzecia rewolucja technologiczna i jej możliwe konsekwencje społeczno-gospodarcze / D. Bell. M., 1990.
  29. Patrz: Toffler, E. Nowa fala technokratów na Zachodzie / E. Toffler. M., 1986. S. 97.
  30. Przyrodę zdobywa się tylko przez poddanie się jej (łac.).
  31. Kanke, dekret V.A. op. s. 219.
  32. Ilyin, VV Filozofia Nauki / VV Ilyin. M., 2003. S. 73.
  33. Tam. S. 84.
  34. Ortega y Gasset, X. Refleksje nad technologią // Ortega y Gasset X. Wybrane prace / X. Ortega y Gasset. M., 2000. S. 172.
  35. Hayek, F.A. Society of the Free / F.A. Hayek. M., 1990. S. 309.
  36. Ockham (Ockham, Occam) William (ok. 1285-1349), angielski filozof scholastyk, logik i pisarz kościelno-polityczny, główny przedstawiciel nominalizmu XIV wieku, mnich franciszkański. Zgodnie z zasadą „brzytwy Ockhama” pojęcia, których nie da się zredukować do wiedzy intuicyjnej i eksperymentalnej, należy usunąć z nauki.
  37. Kuzniecow, D. I. Kryzys klasycznej inżynierii i humanistycznych ideałów edukacji technicznej // Filozofia i przyszłość cywilizacji. Vol. 4 / IV Kongres Filozoficzny. M. : Wydawnictwo Uniwersytetu Moskiewskiego, 2005. S. 497.
  38. Ilyin, dekret VV. op. M., 2003.
  39. Zobacz: Ezer, E. Logika historii nauki // Pytania filozofii. 1995. Nr 10. S. 37-44.
  40. Patrz: Stepin, V.S. Wiedza teoretyczna / V.S. Stepin. M., 2000. S. 703-714.

Autorzy: Khabibullin K.N., Korobov V.B., Lugovoi A.A., Tonkonogov A.V.

Polecamy ciekawe artykuły Sekcja Notatki z wykładów, ściągawki:

Prawo podatkowe. Notatki do wykładów

Proces karny. Kołyska

Endokrynologia. Notatki do wykładów

Zobacz inne artykuły Sekcja Notatki z wykładów, ściągawki.

Czytaj i pisz przydatne komentarze do tego artykułu.

<< Wstecz

Najnowsze wiadomości o nauce i technologii, nowa elektronika:

Maszyna do przerzedzania kwiatów w ogrodach 02.05.2024

We współczesnym rolnictwie postęp technologiczny ma na celu zwiększenie efektywności procesów pielęgnacji roślin. We Włoszech zaprezentowano innowacyjną maszynę do przerzedzania kwiatów Florix, zaprojektowaną z myślą o optymalizacji etapu zbioru. Narzędzie to zostało wyposażone w ruchome ramiona, co pozwala na łatwe dostosowanie go do potrzeb ogrodu. Operator może regulować prędkość cienkich drutów, sterując nimi z kabiny ciągnika za pomocą joysticka. Takie podejście znacznie zwiększa efektywność procesu przerzedzania kwiatów, dając możliwość indywidualnego dostosowania do specyficznych warunków ogrodu, a także odmiany i rodzaju uprawianych w nim owoców. Po dwóch latach testowania maszyny Florix na różnych rodzajach owoców wyniki były bardzo zachęcające. Rolnicy, tacy jak Filiberto Montanari, który używa maszyny Florix od kilku lat, zgłosili znaczną redukcję czasu i pracy potrzebnej do przerzedzania kwiatów. ... >>

Zaawansowany mikroskop na podczerwień 02.05.2024

Mikroskopy odgrywają ważną rolę w badaniach naukowych, umożliwiając naukowcom zagłębianie się w struktury i procesy niewidoczne dla oka. Jednak różne metody mikroskopii mają swoje ograniczenia, a wśród nich było ograniczenie rozdzielczości przy korzystaniu z zakresu podczerwieni. Jednak najnowsze osiągnięcia japońskich badaczy z Uniwersytetu Tokijskiego otwierają nowe perspektywy badania mikroświata. Naukowcy z Uniwersytetu Tokijskiego zaprezentowali nowy mikroskop, który zrewolucjonizuje możliwości mikroskopii w podczerwieni. Ten zaawansowany instrument pozwala zobaczyć wewnętrzne struktury żywych bakterii z niesamowitą wyrazistością w skali nanometrowej. Zazwyczaj ograniczenia mikroskopów średniej podczerwieni wynikają z niskiej rozdzielczości, ale najnowsze odkrycia japońskich badaczy przezwyciężają te ograniczenia. Zdaniem naukowców opracowany mikroskop umożliwia tworzenie obrazów o rozdzielczości do 120 nanometrów, czyli 30 razy większej niż rozdzielczość tradycyjnych mikroskopów. ... >>

Pułapka powietrzna na owady 01.05.2024

Rolnictwo jest jednym z kluczowych sektorów gospodarki, a zwalczanie szkodników stanowi integralną część tego procesu. Zespół naukowców z Indyjskiej Rady Badań Rolniczych i Centralnego Instytutu Badań nad Ziemniakami (ICAR-CPRI) w Shimla wymyślił innowacyjne rozwiązanie tego problemu – napędzaną wiatrem pułapkę powietrzną na owady. Urządzenie to eliminuje niedociągnięcia tradycyjnych metod zwalczania szkodników, dostarczając dane dotyczące populacji owadów w czasie rzeczywistym. Pułapka zasilana jest w całości energią wiatru, co czyni ją rozwiązaniem przyjaznym dla środowiska i niewymagającym zasilania. Jego unikalna konstrukcja umożliwia monitorowanie zarówno szkodliwych, jak i pożytecznych owadów, zapewniając pełny przegląd populacji na każdym obszarze rolniczym. „Oceniając docelowe szkodniki we właściwym czasie, możemy podjąć niezbędne środki w celu zwalczania zarówno szkodników, jak i chorób” – mówi Kapil ... >>

Przypadkowe wiadomości z Archiwum

Sztuczne kiełbasy wieprzowe 27.12.2022

Firma Meatable zaprezentowała kiełbaski wieprzowe hodowane w laboratorium.

Holenderska firma biotechnologiczna Meatable została założona w 2018 roku. Startup wykorzystuje hodowane mięso wyhodowane w laboratorium z hodowli komórkowej.

Kiełbasy wieprzowe to pierwszy produkt Meatable, a ta sama technologia może być wykorzystana do hodowli wołowiny i produktów z kurczaka.

Meatable planuje wprowadzić produkt do 2025 roku. Singapur jest jedynym krajem, w którym można oficjalnie sprzedawać mięso laboratoryjne.

Wiadomości o nauce i technologii, nowa elektronika

 

Ciekawe materiały z bezpłatnej biblioteki technicznej:

▪ sekcja witryny Medycyna. Wybór artykułu

▪ artykuł Błogosławieństwo powietrza. Popularne wyrażenie

▪ Artykuł Jak doszło do procesu z ławą przysięgłych? Szczegółowa odpowiedź

▪ Artykuł Cutter. Opis pracy

▪ artykuł Zagrożenie pożarowe urządzeń gospodarstwa domowego, telewizorów i sprzętu radiowego. Encyklopedia elektroniki radiowej i elektrotechniki

▪ artykuł Opalizująca moneta. Sekret ostrości

Zostaw swój komentarz do tego artykułu:

Imię i nazwisko:


Email opcjonalny):


komentarz:





Wszystkie języki tej strony

Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn

www.diagram.com.ua

www.diagram.com.ua
2000-2024