Menu English Ukrainian Rosyjski Strona główna

Bezpłatna biblioteka techniczna dla hobbystów i profesjonalistów Bezpłatna biblioteka techniczna


Notatki z wykładów, ściągawki
Darmowa biblioteka / Katalog / Notatki z wykładów, ściągawki

Informatyka. Notatki z wykładu: krótko, najważniejsze

Notatki z wykładów, ściągawki

Katalog / Notatki z wykładów, ściągawki

Komentarze do artykułu Komentarze do artykułu

Spis treści

  1. symbolika
  2. Ogólne podstawy teoretyczne informatyki (Pojęcie informatyki. Pojęcie informacji. System kodowania informacji. Kodowanie informacji tekstowej. Kodowanie informacji graficznej. Kodowanie informacji dźwiękowej. Tryby i metody transmisji informacji. Technologia informacyjna. Etapy rozwoju technologii informacyjnej. Powstanie komputerów i technologii komputerowych. Ewolucja rozwoju komputerów osobistych. Struktura współczesnych systemów komputerowych).
  3. Technologie komputerowe do przetwarzania informacji (Klasyfikacja i projektowanie komputerów. Architektura komputera. Pamięć w komputerach osobistych. Pojęcie oprogramowania sterującego i systemowego komputera. Podstawowy system wejścia-wyjścia (BIOS. Pojęcie pamięci CMOS RAM)
  4. Architektura sprzętowa i programowa technologii kompatybilnych z IBM (Mikroprocesory. Płyty główne. Magistrale, interfejsy. Narzędzia sterujące urządzeniami zewnętrznymi. Urządzenia do przechowywania informacji. Kontrolery i monitory wideo. Urządzenia wejściowe informacji. Urządzenia wyjściowe informacji. Urządzenia do transmisji informacji. Inne urządzenia peryferyjne)
  5. Podstawy pracy użytkownika w środowisku operacyjnym komputera osobistego (Systemy operacyjne. Klasyfikacja oprogramowania. Cel systemów operacyjnych. Ewolucja i charakterystyka systemów operacyjnych. System operacyjny nowych technologii. Architektura WINDOWS NT. Instalacja WINDOWS NT. Rejestracja i konfiguracja systemu operacyjnego WINDOWS NT. Cechy systemu WINDOWS 2000 system operacyjny Sieciowe systemy operacyjne Rodzina systemów operacyjnych UNIX System operacyjny Linux Rodzina sieciowych systemów operacyjnych Novell)
  6. Podstawy pracy w środowisku lokalnych i globalnych sieci komputerowych (Ewolucja sieci komputerowych. Podstawowe elementy programowe i sprzętowe sieci. Rodzaje sieci lokalnych. Organizacja struktury domenowej sieci. Podejście wielopoziomowe. Protokół. Interfejs. Stos protokołów. Organizacja kont. Zarządzanie grupami użytkowników. Zarządzanie polityką bezpieczeństwa Zarządzanie zasobami sieciowymi Usługi sieciowe Narzędzia zapewniające interakcję z innymi sieciowymi systemami operacyjnymi Organizacja pracy w sieci hierarchicznej Organizacja sieci peer-to-peer i technologia pracy w nich Typy modemów w sieciach Instalacja i konfiguracja modemu Organizacja połączenia ze zdalnym komputerem osobistym Praca z programami przełączającymi Praca z faksami modem)
  7. Sieci internetowe (Pojawienie się Internetu. Możliwości Internetu. Oprogramowanie do pracy w Internecie. Przesyłanie informacji w Internecie. System adresowania. Adresowanie i protokoły w Internecie. Problemy pracy w Internecie z tekstami cyrylicy. Nawiązywanie połączenia z dostawca (wejście do Internetu) World Wide Web lub WORLD WIDE WEB Intranet Tworzenie strony internetowej za pomocą Front Page Zasoby informacji plikowych FTP Poczta elektroniczna (E-mail) Wiadomości lub konferencje E-commerce Online sklep, systemy płatności internetowych, aukcje internetowe, bankowość internetowa, ubezpieczenia internetowe, giełda internetowa, marketing internetowy, reklama internetowa)
  8. Podstawy pracy z aplikacjami ogólnego przeznaczenia (Definicja programów użytkowych. Edytory tekstu. Procesory arkuszy kalkulacyjnych. Pojęcie programów powłoki. Edytory graficzne. Pojęcie i struktura banku danych. Programy organizatora. Programy do przygotowywania prezentacji. Praca w Internecie z aplikacjami MS OFFICE. Etapy rozwiązywania problemów Używając komputera)
  9. Specjalistyczne profesjonalne narzędzia programowe (Informatyczne systemy zarządzania organizacyjnego i gospodarczego. Nowoczesne technologie informacyjne w systemach zarządzania organizacyjnego i gospodarczego. Systemy informacyjne zarządzania organizacyjnego i gospodarczego. Działalność biurowa w systemach zarządzania organizacyjnego i gospodarczego. Środki organizacyjne, techniczne i peryferyjne systemów informatycznych. Pojęcie grafiki biznesowej. Zastosowanie grafiki w biznesie. Program grafiki biznesowej MS GRAPH. Ogólna charakterystyka technologii tworzenia oprogramowania aplikacyjnego. Oprogramowanie aplikacyjne. Technologia systemowego projektowania oprogramowania. Nowoczesne metody i narzędzia tworzenia oprogramowania aplikacyjnego).
  10. Podstawy algorytmizacji i programowania (Pojęcie algorytmu. Systemy programowania. Klasyfikacja języków programowania wysokiego poziomu. System VBA. Język programowania VBA)
  11. Podstawy bezpieczeństwa informacji (Ochrona informacji jako wzorzec rozwoju systemów komputerowych. Obiekty i elementy ochrony w komputerowych systemach przetwarzania danych. Środki identyfikacji i kontroli dostępu do informacji. Kryptograficzne metody ochrony informacji. Wirusy komputerowe. Programy antywirusowe. Ochrona oprogramowania Zapewnienie bezpieczeństwa danych na komputerze offline.Bezpieczeństwo danych w środowisku interaktywnym)
  12. Bazy danych (Pojęcie bazy danych. Systemy zarządzania bazami danych. Hierarchiczne, sieciowe i relacyjne modele reprezentacji danych. Postrelacyjne, wielowymiarowe i obiektowe modele reprezentacji danych. Klasyfikacje systemów zarządzania bazami danych. Języki dostępu do baz danych. Internetowe bazy danych)

symbolika

ALU - jednostka arytmetyczno-logiczna.

ACS - zautomatyzowane systemy sterowania.

ADC - przetworniki analogowo-cyfrowe.

LSI to duży układ scalony.

VZU - zewnętrzne urządzenie pamięci masowej.

Pamięć jest urządzeniem pamięci masowej.

IPS - systemy wyszukiwania informacji.

HDD to dysk twardy.

RAM to pamięć o dostępie swobodnym.

OP-RAM.

System operacyjny – system operacyjny.

ROM to pamięć tylko do odczytu.

PC - komputery osobiste.

PPO - oprogramowanie aplikacyjne.

PPP - pakiet programów użytkowych.

CAD - system komputerowego wspomagania projektowania.

DBMS - system zarządzania bazą danych.

UU - urządzenie sterujące.

CPU - jednostka centralna.

DAC - przetworniki cyfrowo-analogowe.

KOMPUTER - komputery elektroniczne.

Temat 1. Ogólne podstawy teoretyczne informatyki

1.1. Pojęcie informatyki

Informatyka (z francuskiego informacja - informacja + automatique - automatyzacja) ma szeroki zakres zastosowań. Główne kierunki tej dyscypliny naukowej to:

▪ rozwój systemów i oprogramowania komputerowego;

▪ teoria informacji, która bada procesy polegające na transmisji, odbiorze, przetwarzaniu i przechowywaniu informacji;

▪ metody umożliwiające tworzenie programów rozwiązywania problemów wymagających od człowieka pewnego wysiłku intelektualnego (wnioskowanie logiczne, rozumienie mowy, percepcja wzrokowa itp.);

▪ analiza systemu, która polega na badaniu przeznaczenia projektowanego systemu i określeniu wymagań, jakie musi spełniać;

▪ metody animacji, grafiki komputerowej, multimediów;

▪ telekomunikacja (globalne sieci komputerowe);

▪ różne zastosowania, które mają zastosowanie w produkcji, nauce, edukacji, medycynie, handlu, rolnictwie itp.

Najczęściej uważa się, że informatyka składa się z dwóch rodzajów środków:

1) techniczny – sprzęt komputerowy;

2) oprogramowanie – cała gama istniejących programów komputerowych.

Czasami istnieje inna główna gałąź - narzędzia algorytmiczne.

We współczesnym świecie rola informatyki jest ogromna. Obejmuje nie tylko sferę produkcji materialnej, ale także intelektualny, duchowy aspekt życia. Wzrost produkcji sprzętu komputerowego, rozwój sieci informatycznych, pojawienie się nowych technologii informacyjnych znacząco wpływa na wszystkie sfery społeczeństwa: produkcję, naukę, edukację, medycynę, kulturę itp.

1.2. Pojęcie informacji

Słowo „informacja” po łacinie oznacza informację, wyjaśnienie, prezentację.

Informacja to informacja o obiektach i zjawiskach otaczającego świata, ich właściwościach, cechach i stanie, postrzegana przez systemy informacyjne. Informacja nie jest cechą komunikatu, ale relacji między komunikatem a jego analizatorem. Jeśli nie ma konsumenta, przynajmniej potencjalnego, nie ma sensu mówić o informacji.

W informatyce informacja jest rozumiana jako pewien ciąg oznaczeń symbolicznych (liter, cyfr, obrazów i dźwięków itp.), które niosą ładunek semantyczny i są przedstawione w formie zrozumiałej dla komputera. Taki nowy znak w takim ciągu znaków zwiększa zawartość informacyjną komunikatu.

1.3. System kodowania informacji

Kodowanie informacji służy ujednoliceniu formy prezentacji danych należących do różnych typów, w celu automatyzacji pracy z informacją.

Kodowanie to wyrażanie danych jednego typu za pomocą danych innego typu. Na przykład naturalne języki ludzkie można uznać za systemy kodowania pojęć do wyrażania myśli za pomocą mowy, a alfabety to także systemy kodowania składników językowych za pomocą symboli graficznych.

W technice komputerowej stosuje się kodowanie binarne. Podstawą tego systemu kodowania jest reprezentacja danych za pomocą sekwencji dwóch znaków: 0 i 1. Znaki te nazywane są cyframi binarnymi (cyfra binarna) lub w skrócie bitem (bit). Jeden bit może zakodować dwie koncepcje: 0 lub 1 (tak lub nie, prawda lub fałsz itp.). Za pomocą dwóch bitów można wyrazić cztery różne koncepcje, a za pomocą trzech bitów można zakodować osiem różnych wartości.

Najmniejszą jednostką kodowania informacji w technice komputerowej po bicie jest bajt. Jego stosunek do bitu odzwierciedla następującą zależność: 1 bajt = 8 bitów = 1 znak.

Zwykle jeden bajt koduje jeden znak informacji tekstowej. Na tej podstawie w przypadku dokumentów tekstowych rozmiar w bajtach odpowiada rozmiarowi leksykalnemu w znakach.

Większą jednostką informacji kodowania jest kilobajt, powiązany z bajtem w następującym stosunku: 1 Kb = 1024 bajty.

Inne, większe jednostki kodowania informacji to symbole otrzymane przez dodanie przedrostków mega (Mb), giga (GB), tera (Tb):

1 MB = 1 048 580 bajtów;

1 GB = 10 737 740 000 bajtów;

1 TB = 1024 GB.

Aby zakodować liczbę całkowitą w systemie binarnym, weź liczbę całkowitą i podziel ją na pół, aż iloraz będzie równy jeden. Zbiór reszt z każdego dzielenia, zapisywany od prawej do lewej wraz z ostatnim ilorazem, będzie binarnym odpowiednikiem liczby dziesiętnej.

W procesie kodowania liczb całkowitych od 0 do 255 wystarczy użyć 8 bitów kodu binarnego (8 bitów). Użycie 16 bitów pozwala na zakodowanie liczb całkowitych od 0 do 65 535, a użycie 24 bitów - ponad 16,5 miliona różnych wartości.

Do kodowania liczb rzeczywistych stosuje się kodowanie 80-bitowe. W takim przypadku liczba jest najpierw konwertowana do postaci znormalizowanej, na przykład:

2,1427926 = 0,21427926? 101;

500 000 = 0,5? 106.

Pierwsza część zakodowanej liczby nazywana jest mantysą, a druga część to charakterystyka. Główna część 80 bitów jest zarezerwowana do przechowywania mantysy, a pewna ustalona liczba bitów jest zarezerwowana do przechowywania charakterystyki.

1.4. Kodowanie informacji tekstowych

Informacje tekstowe są kodowane w kodzie binarnym poprzez oznaczenie każdego znaku alfabetu przez określoną liczbę całkowitą. Za pomocą ośmiu cyfr binarnych można zakodować 256 różnych znaków. Ta liczba znaków wystarcza do wyrażenia wszystkich znaków alfabetu angielskiego i rosyjskiego.

We wczesnych latach rozwoju technologii komputerowej trudności w kodowaniu informacji tekstowych spowodowane były brakiem niezbędnych standardów kodowania. Obecnie wręcz przeciwnie, istniejące trudności związane są z mnogością jednocześnie funkcjonujących i często sprzecznych standardów.

W przypadku języka angielskiego, który jest nieoficjalnym międzynarodowym środkiem komunikacji, trudności te zostały rozwiązane. Amerykański Instytut Standardów opracował i wprowadził system kodowania ASCII (American Standard Code for Information Interchange).

Aby zakodować alfabet rosyjski, opracowano kilka opcji kodowania:

1) Windows-1251 - wprowadzony przez Microsoft; biorąc pod uwagę powszechne stosowanie systemów operacyjnych (OS) i innych produktów programowych tej firmy w Federacji Rosyjskiej, stało się to powszechne;

2) KOI-8 (kod wymiany informacji, ośmiocyfrowy) - kolejne popularne kodowanie alfabetu rosyjskiego, powszechne w sieciach komputerowych na terytorium Federacji Rosyjskiej iw rosyjskim sektorze Internetu;

3) ISO (International Standard Organization - International Institute for Standardization) - międzynarodowy standard kodowania znaków w języku rosyjskim. W praktyce kodowanie to jest rzadko stosowane.

Ograniczony zestaw kodów (256) stwarza trudności twórcom ujednoliconego systemu kodowania informacji tekstowych. W efekcie zaproponowano kodowanie znaków nie 8-bitowymi liczbami binarnymi, ale liczbami o dużym bicie, co spowodowało rozszerzenie zakresu możliwych wartości kodu. 16-bitowy system kodowania znaków nazywa się uniwersalnym - UNICODE. Szesnaście bitów pozwala na unikalne kody dla 65 536 znaków, co wystarcza, aby zmieścić większość języków w jednej tablicy znaków.

Pomimo prostoty proponowanego podejścia, praktyczne przejście do tego systemu kodowania nie mogło zostać wdrożone przez bardzo długi czas z powodu braku zasobów komputerowych, ponieważ w systemie kodowania UNICODE wszystkie dokumenty tekstowe automatycznie stają się dwa razy większe. Pod koniec lat 1990. środki techniczne osiągnęły wymagany poziom, rozpoczęto stopniowe przenoszenie dokumentów i oprogramowania do systemu kodowania UNICODE.

1.5. Kodowanie informacji graficznych

Istnieje kilka sposobów kodowania informacji graficznych.

Podczas oglądania czarno-białego obrazu graficznego przez szkło powiększające można zauważyć, że zawiera on kilka drobnych kropek, które tworzą charakterystyczny wzór (lub raster). Współrzędne liniowe i indywidualne właściwości każdego z punktów obrazu można wyrazić za pomocą liczb całkowitych, więc metoda kodowania rastrowego opiera się na wykorzystaniu kodu binarnego do reprezentacji danych graficznych. Znanym standardem jest redukcja czarno-białych ilustracji w postaci kombinacji punktów z 256 odcieniami szarości, czyli do zakodowania jasności dowolnego punktu potrzebne są 8-bitowe liczby binarne.

Kodowanie kolorowych obrazów graficznych opiera się na zasadzie dekompozycji dowolnego koloru na podstawowe składowe, które są używane jako trzy kolory podstawowe: czerwony (Red), zielony (Green) i niebieski (Blue). W praktyce przyjmuje się, że każdy kolor postrzegany przez ludzkie oko można uzyskać za pomocą mechanicznej kombinacji tych trzech kolorów. Ten system kodowania nazywa się RGB (od pierwszych liter kolorów podstawowych). Gdy do kodowania grafiki kolorowej używane są 24 bity, tryb ten nosi nazwę True Color.

Każdy z kolorów podstawowych jest odwzorowywany na kolor, który uzupełnia kolor podstawowy na biały. W przypadku dowolnego koloru podstawowego kolorem dopełniającym będzie ten, który jest utworzony przez sumę pary innych kolorów podstawowych. W związku z tym spośród dodatkowych kolorów można wyróżnić cyjan (Cyan), magenta (Magenta) i żółty (Yellow). Zasada rozkładu dowolnego koloru na jego składniki składowe jest stosowana nie tylko w przypadku kolorów podstawowych, ale także dodatkowych, to znaczy dowolny kolor można przedstawić jako sumę składników cyjan, magenta i żółty. Ta metoda kodowania kolorami jest stosowana w druku, ale wykorzystuje również czwartą farbę - czarną (Black), więc ten system kodowania jest oznaczony czterema literami - CMYK. Do reprezentacji kolorowej grafiki w tym systemie używane są 32 bity. Ten tryb jest również nazywany pełnym kolorem.

Zmniejszając liczbę bitów używanych do kodowania koloru każdego punktu, zmniejsza się ilość danych, ale zauważalnie zmniejsza się zakres kodowanych kolorów. Kodowanie kolorowej grafiki za pomocą 16-bitowych liczb binarnych jest nazywane trybem High Color. Podczas kodowania informacji o kolorze grafiki przy użyciu 8 bitów danych można przesłać tylko 256 odcieni. Ta metoda kodowania kolorami nazywana jest indeksem.

1.6. Kodowanie dźwięku

Obecnie nie ma jednego standardowego systemu kodowania informacji dźwiękowych, ponieważ techniki i metody pracy z informacjami dźwiękowymi zaczęły się rozwijać w porównaniu z najnowszymi metodami pracy z innymi rodzajami informacji. Dlatego wiele różnych firm zajmujących się kodowaniem informacji stworzyło własne standardy korporacyjne dotyczące informacji audio. Ale wśród tych standardów korporacyjnych wyróżniają się dwa główne obszary.

Metoda FM (Frequency Modulation) opiera się na założeniu, że teoretycznie każdy złożony dźwięk można przedstawić jako rozkład na sekwencję prostych sygnałów harmonicznych o różnych częstotliwościach. Każdy z tych sygnałów harmonicznych jest regularną falą sinusoidalną i dlatego może być opisany numerycznie lub zakodowany. Sygnały dźwiękowe tworzą widmo ciągłe, czyli są analogowe, dlatego ich rozkład na szeregi harmoniczne i prezentacja w postaci dyskretnych sygnałów cyfrowych odbywa się za pomocą specjalnych urządzeń - przetworników analogowo-cyfrowych (ADC). Konwersja odwrotna, niezbędna do odtworzenia dźwięku zakodowanego kodem numerycznym, odbywa się za pomocą przetworników cyfrowo-analogowych (DAC). W wyniku takich przekształceń sygnałów audio dochodzi do utraty informacji związanej z metodą kodowania, przez co jakość zapisu dźwięku metodą FM zwykle nie jest zadowalająca i odpowiada jakości brzmienia najprostszych elektrycznych instrumentów muzycznych z kolor charakterystyczny dla muzyki elektronicznej. Jednocześnie metoda ta zapewnia całkowicie zwarty kod, dlatego była szeroko stosowana w latach, gdy zasoby technologii komputerowej były wyraźnie niewystarczające.

Główną ideą metody syntezy wave-table (Wave-Table) jest to, że w przygotowanych wcześniej tablicach znajdują się próbki brzmieniowe dla wielu różnych instrumentów muzycznych. Te próbki dźwiękowe są nazywane próbkami. Kody numeryczne, które są osadzone w próbce, wyrażają takie cechy, jak rodzaj instrumentu, numer jego modelu, wysokość, czas trwania i intensywność dźwięku, dynamikę jego zmian, niektóre elementy środowiska, w którym dźwięk jest obserwowany, oraz inne parametry charakteryzujące cechy dźwięku. Ponieważ w próbkach używane są prawdziwe dźwięki, jakość zakodowanej informacji dźwiękowej jest bardzo wysoka i zbliża się do brzmienia prawdziwych instrumentów muzycznych, co jest bardziej zgodne z obecnym poziomem rozwoju nowoczesnej technologii komputerowej.

1.7. Tryby i metody przekazywania informacji

Do prawidłowej wymiany danych pomiędzy węzłami sieci lokalnej wykorzystywane są pewne tryby przesyłania informacji:

1) transmisja simpleksowa (jednokierunkowa);

2) transmisja półdupleksowa, w której odbiór i transmisja informacji przez źródło i odbiornik odbywają się naprzemiennie;

3) transmisja dupleksowa, w której realizowana jest równoległa transmisja jednoczesna, tj. każda stacja jednocześnie nadaje i odbiera dane.

W systemach informatycznych bardzo często stosowana jest transmisja danych w trybie dupleksowym lub szeregowym. Przydzielać synchroniczne i asynchroniczne metody szeregowej transmisji danych.

Metoda synchroniczna różni się tym, że dane są przesyłane w blokach. Aby zsynchronizować działanie odbiornika i nadajnika, na początku bloku wysyłane są bity synchronizacji. Następnie przesyłane są dane, kod wykrycia błędu oraz symbol wskazujący na zakończenie transmisji. Ta sekwencja tworzy standardowy schemat transmisji danych dla metody synchronicznej. W przypadku transmisji synchronicznej dane przesyłane są zarówno jako symbole, jak i strumień bitów. Kod wykrywania błędów to najczęściej cykliczny nadmiarowy kod wykrywania błędów (CRC), który jest określany przez zawartość pola danych. Za jego pomocą można jednoznacznie określić wiarygodność otrzymanych informacji.

Do zalet metody synchronicznego przesyłania danych należą:

▪ wysoka wydajność;

▪ niezawodny wbudowany mechanizm wykrywania błędów;

▪ duża prędkość przesyłania danych.

Główną wadą tej metody jest kosztowny interfejs sprzętowy.

Metoda asynchroniczna różni się tym, że każdy znak jest przesyłany w osobnym pakiecie. Bity startowe ostrzegają odbiornik o rozpoczęciu transmisji, po czym przesyłany jest sam znak. Bit parzystości służy do określenia ważności transmisji. Bit parzystości to jeden, gdy liczba jedynek w znaku jest nieparzysta, a zero, gdy są jedynki. Ostatni bit, zwany „bitem stopu”, sygnalizuje koniec transmisji. Ta sekwencja tworzy standardowy schemat przesyłania danych dla metody asynchronicznej.

Zalety asynchronicznej metody transferu to:

▪ niedrogi (w porównaniu do synchronicznego) sprzęt interfejsowy;

▪ prosty, sprawdzony układ przeniesienia napędu.

Wady tej metody obejmują:

▪ utrata jednej trzeciej szerokości pasma transmisji bitów usług;

▪ niska prędkość transmisji w porównaniu do metody synchronicznej;

▪ brak możliwości określenia wiarygodności odebranej informacji za pomocą bitu parzystości w przypadku wielokrotnych błędów.

Metoda transferu asynchronicznego stosowana jest w systemach, w których wymiana danych następuje od czasu do czasu i nie jest wymagana duża prędkość przesyłu danych.

1.8. Technologia informacyjna

Informacja jest jednym z najcenniejszych zasobów społeczeństwa, dlatego proces jej przetwarzania, a także zasoby materialne (np. ropa naftowa, gaz, minerały itp.) można postrzegać jako rodzaj technologii. W takim przypadku obowiązują następujące definicje.

Zasoby informacyjne to zbiór danych, które mają wartość dla przedsiębiorstwa (organizacji) i pełnią rolę zasobów materialnych. Należą do nich teksty, wiedza, pliki danych itp.

Technologia informacyjna to zestaw metod, procesów produkcyjnych oraz narzędzi programowych i sprzętowych, które są połączone w łańcuch technologiczny. Łańcuch ten zapewnia gromadzenie, przechowywanie, przetwarzanie, wyprowadzanie i rozpowszechnianie informacji w celu zmniejszenia złożoności korzystania z zasobów informacyjnych, a także zwiększenia ich niezawodności i wydajności.

Zgodnie z definicją przyjętą przez UNESCO, informatyka to zespół powiązanych ze sobą dyscyplin naukowych, technologicznych i inżynierskich, które badają metody efektywnej organizacji pracy osób zajmujących się przetwarzaniem i przechowywaniem informacji, a także techniką i metodami komputerowymi do organizowania i interakcji z ludźmi i urządzeniami produkcyjnymi.

System metod i procesów produkcyjnych określa techniki, zasady i działania, które regulują projektowanie i użytkowanie oprogramowania i sprzętu do przetwarzania danych. W zależności od konkretnych zadań aplikacji, które należy rozwiązać, stosuje się różne metody przetwarzania danych i środki techniczne. Istnieją trzy klasy technologii informatycznych, które umożliwiają pracę z różnymi rodzajami obszarów tematycznych:

1) globalny, obejmujący modele, metody i narzędzia formalizujące i umożliwiające korzystanie z zasobów informacyjnych społeczeństwa jako całości;

2) podstawowe, przeznaczone do określonego obszaru zastosowania;

3) konkretne, realizujące przetwarzanie określonych danych przy rozwiązywaniu zadań funkcjonalnych użytkownika (w szczególności zadań związanych z planowaniem, rozliczaniem, analizą itp.).

Głównym celem technologii informacyjnej jest wytwarzanie i przetwarzanie informacji w celu ich analizy i podjęcia na jej podstawie odpowiedniej decyzji, która przewiduje realizację dowolnego działania.

1.9. Etapy rozwoju technologii informatycznych

Istnieje kilka punktów widzenia na rozwój technologii informatycznych z wykorzystaniem komputerów. Inscenizacja odbywa się na podstawie następujących znaków podziału.

Przydział etapów dotyczących problemów procesu informatyzacji społeczeństwa:

1) do końca lat 1960. - problem przetwarzania dużych ilości informacji w warunkach ograniczonych możliwości sprzętowych;

2) do końca lat 1970. - backlog oprogramowania z poziomu rozwoju sprzętu;

3) od początku lat 1980. - problemy maksymalnego zaspokojenia potrzeb użytkownika i stworzenia odpowiedniego interfejsu do pracy w środowisku komputerowym;

4) od początku lat 1990. - opracowanie porozumienia i ustanowienie standardów, protokołów komunikacji komputerowej, organizacji dostępu do informacji strategicznych itp.

Podział etapów według przewagi, jaką przynosi technologia komputerowa:

1) od początku lat 1960. - wydajne przetwarzanie informacji podczas wykonywania rutynowej pracy z naciskiem na scentralizowane kolektywne wykorzystanie zasobów centrum komputerowego;

2) od połowy lat 1970. - pojawienie się komputerów osobistych (PC). Jednocześnie zmieniło się podejście do tworzenia systemów informatycznych – orientacja przesuwa się w stronę indywidualnego użytkownika wspierającego jego decyzje. Stosowane jest zarówno scentralizowane, jak i zdecentralizowane przetwarzanie danych;

3) od początku lat 1990. - rozwój technologii telekomunikacyjnej do rozproszonego przetwarzania informacji. Systemy informacyjne służą organizacji do walki z konkurencją.

Podział etapów według rodzajów narzędzi technologicznych:

1) do drugiej połowy XIX wieku. - „manualna” technologia informacyjna, w której narzędziami były pióro, atrament, papier;

2) z końca XIX wieku. - technologia „mechaniczna”, której narzędziami była maszyna do pisania, telefon, dyktafon, poczta;

3) 1940-1960 XX wiek - technologia „elektryczna”, której narzędziami były duże komputery elektroniczne (komputery) i związane z nimi oprogramowanie, elektryczne maszyny do pisania, kserokopiarki, przenośne dyktafony;

4) od początku lat 1970. - technologia „elektroniczna”, której głównymi narzędziami są duże komputery i tworzone na ich podstawie zautomatyzowane systemy sterowania (ACS) oraz systemy wyszukiwania informacji (IPS), które wyposażone są w szeroką gamę systemów oprogramowania;

5) od połowy lat 1980. - technologia „komputerowa”, głównym zestawem narzędzi jest komputer PC z szeroką gamą standardowych produktów oprogramowania do różnych celów.

1.10. Pojawienie się komputerów i technologii komputerowej

Od wielu stuleci ludzie próbują tworzyć różne urządzenia ułatwiające obliczenia. W historii rozwoju komputerów i technologii komputerowych jest kilka ważnych wydarzeń, które zadecydowały o dalszej ewolucji.

w latach 40. XVII wiek B. Pascal wynalazł urządzenie mechaniczne, którego można było używać do dodawania liczb.

Pod koniec XVIIIw. G. Leibniz stworzył mechaniczne urządzenie do dodawania i mnożenia liczb.

W 1946 roku wynaleziono pierwsze komputery typu mainframe. Amerykańscy naukowcy J. von Neumann, G. Goldstein i A. Berne opublikowali pracę, w której przedstawili podstawowe zasady tworzenia uniwersalnego komputera. Od końca lat 1940. zaczęły pojawiać się pierwsze prototypy takich maszyn, zwanych umownie komputerami pierwszej generacji. Komputery te były wykonane na lampach próżniowych i pod względem wydajności pozostawały w tyle za nowoczesnymi kalkulatorami.

W dalszym rozwoju komputerów wyróżnia się następujące etapy:

▪ druga generacja komputerów – wynalezienie tranzystorów;

▪ trzecia generacja komputerów - tworzenie układów scalonych;

▪ czwarta generacja komputerów – pojawienie się mikroprocesorów (1971).

Pierwsze mikroprocesory zostały wyprodukowane przez firmę Intel, co doprowadziło do powstania nowej generacji komputerów PC. W związku z masowym zainteresowaniem takimi komputerami, które pojawiło się w społeczeństwie, IBM (International Business Machines Corporation) opracował nowy projekt ich stworzenia, a Microsoft opracował oprogramowanie dla tego komputera. Projekt zakończył się w sierpniu 1981 roku, a nowy komputer stał się znany jako IBM PC.

Opracowany model komputera stał się bardzo popularny iw ciągu kilku następnych lat szybko wyparł z rynku wszystkie poprzednie modele IBM. Wraz z wynalezieniem IBM PC zaczęto produkować standardowe komputery kompatybilne z IBM PC, które stanowią większość współczesnego rynku komputerów PC.

Oprócz komputerów kompatybilnych z IBM PC istnieją inne typy komputerów przeznaczone do rozwiązywania problemów o różnej złożoności w różnych obszarach działalności człowieka.

1.11. Ewolucja rozwoju komputerów osobistych

Rozwój mikroelektroniki doprowadził do powstania mikrominiaturowych zintegrowanych elementów elektronicznych, które zastąpiły diody i tranzystory półprzewodnikowe i stały się podstawą rozwoju i wykorzystania komputerów PC. Komputery te miały szereg zalet: były kompaktowe, łatwe w obsłudze i stosunkowo tanie.

W 1971 roku Intel stworzył mikroprocesor i4004, aw 1974 i8080, co miało ogromny wpływ na rozwój technologii mikroprocesorowej. Firma ta do dziś pozostaje liderem rynku w produkcji mikroprocesorów do komputerów PC.

Początkowo komputery PC były opracowywane w oparciu o 8-bitowe mikroprocesory. Jednym z pierwszych producentów komputerów z 16-bitowym mikroprocesorem był IBM, aż do lat 1980. specjalizującej się w produkcji dużych komputerów. W 1981 roku po raz pierwszy wypuściła komputer PC wykorzystujący zasadę otwartej architektury, co umożliwiło zmianę konfiguracji komputera i poprawę jego właściwości.

Pod koniec lat 1970 a inne duże firmy w wiodących krajach (USA, Japonia itp.) zaczęły opracowywać komputery PC oparte na 16-bitowych mikroprocesorach.

W 1984 roku pojawił się Apple TIKMacintosh - konkurent dla IBM. W połowie lat 1980. pojawiły się komputery oparte na 32-bitowych mikroprocesorach. Obecnie dostępne są systemy 64-bitowe.

W zależności od rodzaju wartości głównych parametrów i biorąc pod uwagę zastosowanie wyróżnia się następujące grupy sprzętu komputerowego:

▪ superkomputer – unikalny superwydajny system służący do rozwiązywania złożonych problemów i dużych obliczeń;

▪ serwer – komputer udostępniający własne zasoby innym użytkownikom; istnieją serwery plików, serwery wydruku, serwery baz danych itp.;

▪ komputer osobisty – komputer przeznaczony do użytku w biurze lub w domu. Użytkownik może konfigurować, konserwować i instalować oprogramowanie dla tego typu komputera;

▪ profesjonalna stacja robocza - komputer o ogromnej wydajności, przeznaczony do profesjonalnej pracy w określonym obszarze. Najczęściej jest dostarczany z dodatkowym wyposażeniem i specjalistycznym oprogramowaniem;

▪ laptop – komputer przenośny o mocy obliczeniowej komputera PC. Może przez pewien czas funkcjonować bez zasilania z sieci elektrycznej;

▪ komputer kieszonkowy (organizator elektroniczny) o wymiarach nie większych od kalkulatora, z klawiaturą lub bez klawiatury, o funkcjonalności zbliżonej do laptopa;

▪ komputer sieciowy – komputer do użytku służbowego z minimalnym zestawem urządzeń zewnętrznych. Wsparcie operacyjne i instalacja oprogramowania odbywają się centralnie. Służy także do pracy w sieci komputerowej oraz do funkcjonowania w trybie offline;

▪ terminal – urządzenie wykorzystywane podczas pracy w trybie offline. Terminal nie zawiera procesora służącego do wykonywania poleceń, wykonuje jedynie operacje polegające na wprowadzeniu i przesłaniu poleceń użytkownika do innego komputera i zwróceniu wyniku użytkownikowi.

Rynek nowoczesnych komputerów i liczba produkowanych maszyn jest zdeterminowana potrzebami rynku.

1.12. Struktura współczesnych systemów komputerowych

W strukturze dzisiejszego komputera PC, takiego jak IBM PC, istnieje kilka głównych komponentów:

▪ jednostka systemowa organizująca pracę, przetwarzająca informacje, wykonująca obliczenia i zapewniająca komunikację człowieka z komputerem. Jednostka systemowa komputera PC zawiera płytę główną, głośnik, wentylator, zasilacz, dwa napędy dyskowe;

▪ płytka systemowa (płyta główna), na którą składa się kilkadziesiąt układów scalonych o różnym przeznaczeniu. Układ scalony oparty jest na mikroprocesorze, który przeznaczony jest do wykonywania obliczeń na programie przechowywanym na urządzeniu pamięci masowej i ogólnego sterowania komputerem. Szybkość komputera zależy od szybkości procesora;

▪ Pamięć komputera, która jest podzielona na wewnętrzną i zewnętrzną:

a) pamięć wewnętrzna (główna) to urządzenie pamięci masowej powiązane z procesorem i przeznaczone do przechowywania używanych programów i danych biorących udział w obliczeniach. Pamięć wewnętrzna dzieli się na operacyjną (pamięć o dostępie swobodnym - RAM) i stałą (pamięć tylko do odczytu - ROM). Pamięć o dostępie swobodnym przeznaczona jest do odbierania, przechowywania i wydawania informacji, a pamięć trwała służy do przechowywania i wydawania informacji;

b) pamięć zewnętrzna (zewnętrzne urządzenie magazynujące – ESD) służy do przechowywania dużych ilości informacji i wymiany ich z pamięcią RAM. Z założenia VCU są oddzielone od centralnych urządzeń PC;

▪ karta dźwiękowa (karta audio), służąca do odtwarzania i nagrywania dźwięku;

▪ karta graficzna (karta graficzna), która umożliwia odtwarzanie i nagrywanie sygnału wideo.

Zewnętrzne urządzenia wejściowe w komputerze obejmują:

a) klawiatura - zestaw czujników, które wyczuwają nacisk na klawisze i zamykają jakiś obwód elektryczny;

b) mysz – manipulator ułatwiający pracę z większością komputerów. Istnieją myszy mechaniczne, optyczno-mechaniczne i optyczne, a także przewodowe i bezprzewodowe;

c) skaner – urządzenie umożliwiające wprowadzanie do komputera tekstu, obrazów, fotografii itp. w postaci graficznej.

Zewnętrznymi urządzeniami wyjściowymi informacji są:

a) monitor służący do wyświetlania różnego rodzaju informacji na ekranie. Rozmiar ekranu monitora jest mierzony w calach jako odległość między lewym dolnym a prawym górnym rogiem ekranu;

b) drukarka służąca do drukowania tekstu i grafiki przygotowanych na komputerze. Istnieją drukarki igłowe, atramentowe i laserowe.

Zewnętrzne urządzenia wejściowe służą do udostępniania komputerowi informacji, które użytkownik ma. Głównym zadaniem zewnętrznego urządzenia wyjściowego jest przedstawienie dostępnych informacji w przystępnej dla użytkownika formie.

Temat 2. Technologie komputerowe do przetwarzania informacji

2.1. Klasyfikacja i rozmieszczenie komputerów

Komputer (z angielskiego komputer - kalkulator) to programowalne urządzenie elektroniczne, które może przetwarzać informacje, wykonywać obliczenia i wykonywać inne zadania. Komputery dzielą się na dwa główne typy:

1) cyfrowe, oceniające dane w postaci liczbowych kodów binarnych;

2) analogowe, analizujące stale zmieniające się wielkości fizyczne, które są analogami obliczonych wielkości.

Obecnie słowo „komputer” odnosi się do komputera cyfrowego.

Podstawą komputerów jest hardware (Hardware) składający się z elementów i urządzeń elektronicznych i elektromechanicznych. Zasada działania komputerów polega na wykonywaniu programów (oprogramowania), które są z góry określone i jasno określone przez sekwencję operacji arytmetycznych, logicznych i innych.

Strukturę dowolnego komputera określają ogólne zasady logiczne, na podstawie których wyróżnia się w nim następujące główne urządzenia:

▪ pamięć składająca się z przenumerowanych komórek;

▪ procesor, który składa się z jednostki sterującej (CU) i jednostki arytmetyczno-logicznej (ALU);

▪ urządzenie wejściowe;

▪ urządzenie wyjściowe.

Urządzenia te są połączone kanałami komunikacyjnymi, które przesyłają informacje.

2.2. Architektura komputerowa

Architektura komputera charakteryzuje się cechami maszyny, które wpływają na jej interakcję z użytkownikiem. Architektura definiuje zestaw właściwości i cech maszyny, które programista musi znać, aby efektywnie wykorzystywać komputer do rozwiązywania problemów.

Z kolei architektura określa zasady organizacji systemu obliczeniowego i funkcje centralnego urządzenia obliczeniowego. Nie pokazuje jednak, w jaki sposób zasady te są realizowane wewnątrz maszyny. Architektura nie zależy od programowo niedostępnych zasobów maszynowych. Jeśli komputery mają tę samą architekturę, to każdy program w kodzie maszynowym napisany dla jednego komputera działa w ten sam sposób na innym komputerze z takimi samymi wynikami.

Aby wykonywać swoje funkcje, każdy komputer wymaga minimalnego zestawu bloków funkcjonalnych.

Architektura dzisiejszych komputerów ma klasyczne cechy, ale są pewne różnice. W szczególności urządzenie pamięci masowej (pamięć) pierwszych komputerów o klasycznej strukturze zostało podzielone na dwa typy:

1) wewnętrzny, zawierający informacje, które były w nim przetwarzane w pewnym momencie;

2) zewnętrzny, który jest repozytorium wszelkich informacji niezbędnych do działania komputera.

W toku postępu technologicznego wzrosła liczba poziomów w hierarchii pamięci komputerów.

Jednostka arytmetyczno-logiczna i jednostka sterująca tworzą jedną jednostkę zwaną jednostką centralną. Lista urządzeń wejściowych i wyjściowych obejmuje różne napędy magnetyczne, optyczne i magnetooptyczne, skanery, klawiaturę, mysz, joystick, drukarki, plotery itp. Struktura nowoczesnego komputera PC składa się z dwóch głównych części: centralnej i peryferyjnej, natomiast zwyczajowo odnosi się do centralnej części centralnego procesora i pamięci wewnętrznej.

Jednostka centralna (CPU) to urządzenie przetwarzające dane i realizujące programową kontrolę tego procesu. Procesor centralny składa się z jednostki ALU, jednostki sterującej, a czasami z własnej pamięci procesora; najczęściej realizowany jest w postaci dużego układu scalonego i nazywany jest mikroprocesorem.

Pamięć wewnętrzna to urządzenie przeznaczone do przechowywania informacji w specjalnie zakodowanej formie.

Pamięć o dostępie swobodnym lub pamięć o dostępie swobodnym (RAM) to procesor współpracujący z pamięcią wewnętrzną. Pamięć RAM służy do odbierania, przechowywania i wydawania wszystkich informacji, które są wymagane do wykonywania operacji w CPU.

Zewnętrzne urządzenia pamięci masowej są potrzebne do przechowywania dużych ilości informacji, które nie są obecnie używane przez procesor. Należą do nich: napędy dysków magnetycznych, napędy taśm magnetycznych, napędy optyczne i magnetooptyczne.

Pamięć wirtualna to połączenie pamięci RAM, VZU oraz zestawu oprogramowania i sprzętu.

Konfiguracja komputera to pewna kompozycja jego urządzeń z uwzględnieniem ich cech.

Operacja wejściowa to przekazanie informacji z urządzeń peryferyjnych do centralnych, operacja wyjściowa to proces przekazania informacji z urządzeń centralnych do peryferyjnych.

Interfejsy to interfejsy, które komunikują się w komputerach między urządzeniami PC.

2.3. Pamięć w komputerach osobistych

Moc komputera zależy od jego architektury i jest determinowana nie tylko częstotliwością taktowania procesora. Wydajność systemu zależy również od szybkości pamięci i przepustowości magistrali.

Sposób interakcji procesora i OP zależy od pamięci komputera i chipsetu zainstalowanego na płycie systemowej.

Urządzenia pamięci służą do przechowywania informacji. Ich funkcje obejmują jego nagrywanie i odczytywanie. Łącznie te funkcje są określane jako dostęp do pamięci.

Jedną z najważniejszych cech pamięci jest pojemność i czas dostępu. Najczęściej pamięć zawiera wiele identycznych elementów pamięci. Takie elementy służyły wcześniej jako rdzenie ferrytowe, które połączono w bitową matrycę pamięci. Obecnie elementami pamięci OP są duże układy scalone (LSI).

Podczas przetwarzania informacji przez procesor możliwy jest dostęp do dowolnej komórki OP, na tej podstawie nazywa się to pamięcią o dostępie swobodnym lub RAM. Zazwyczaj komputery PC mają OP, który jest wykonywany na mikroukładach typu dynamicznego, z komórkami złożonymi w matrycę.

W pamięci typu statycznego informacje są przechowywane na statycznych przerzutnikach. W przypadku pamięci statycznej cykle regeneracji i operacje przeładowania nie są stosowane, tj. czas dostępu do pamięci statycznej jest znacznie krótszy niż do pamięci dynamicznej. Szybkość procesora w dużym stopniu zależy od szybkości używanego systemu operacyjnego. Jednocześnie wpływa na wydajność całego systemu. Aby zaimplementować jeden element pamięci dynamicznej, wymagane są 1-2 tranzystory, dla statycznej - 4-6, tj. koszt pamięci statycznej znacznie przewyższa koszt dynamiczny. Na tej podstawie komputer PC najczęściej używa dynamicznego typu pamięci RAM, a w celu poprawy wydajności systemu - ultraszybkiej lub pamięci podręcznej. Pamięć superszybka jest wykonana na elementach typu statycznego. W takim przypadku blok danych przetwarzanych przez procesor jest umieszczany w pamięci podręcznej, ale dostęp do pamięci RAM jest możliwy tylko wtedy, gdy potrzebne są dane, które nie są zawarte w pamięci podręcznej. Zastosowanie pamięci podręcznej umożliwia koordynację działania procesora i systemu operacyjnego na elementach typu dynamicznego pod względem szybkości.

Układy scalone pamięci są produkowane w niewielkich ilościach przez firmy japońskie, koreańskie, amerykańskie i europejskie.

Pamięć tylko do odczytu lub ROM jest przeznaczona do przechowywania systemu BIOS, co z kolei sprawia, że ​​oprogramowanie jest niezmienne w architekturze płyty głównej. Ponadto BIOS zawiera niezbędny zestaw programów we / wy, które zapewniają działanie urządzeń peryferyjnych.

Oprócz programów I/O, ROM zawiera:

▪ program testujący przy włączaniu komputera POST;

▪ program bootloader realizujący funkcję ładowania systemu operacyjnego z dysku.

Ze względu na spadające ceny pamięci flash ROM elementy pamięci BIOS są używane do przechowywania informacji, w których informacje można usunąć elektrycznie lub za pomocą promieniowania ultrafioletowego. W tej chwili do tych celów najczęściej używana jest pamięć flash, która umożliwia wprowadzanie poprawek do BIOS-u.

2.4. Koncepcja oprogramowania dowodzenia i systemu komputerowego

Każdy program komputerowy to ciąg pojedynczych poleceń. Polecenie to opis operacji wykonywanej przez komputer. Zwykle instrukcja ma swój własny kod (symbol), dane źródłowe (operandy) i wynik. Zestaw poleceń, które wykonuje dany komputer to system poleceń dla danego komputera.

Oprogramowanie komputerowe to zestaw programów, procedur i instrukcji oraz dokumentacji technicznej z nimi związanej, które umożliwiają wykorzystanie komputera do rozwiązywania określonych zadań.

Ze względu na obszary zastosowań oprogramowanie komputerowe dzieli się na systemowe i aplikacyjne.

Oprogramowanie systemowe lub ogólnie oprogramowanie pełni rolę „organizatora” wszystkich komponentów komputera, a także podłączonych do niego urządzeń zewnętrznych.

Oprogramowanie systemowe składa się z dwóch komponentów:

1) system operacyjny - cały zespół programów sterujących, które są interfejsem między komponentami komputera PC i zapewniają najbardziej efektywne wykorzystanie zasobów komputera. System operacyjny jest ładowany po włączeniu komputera;

2) media – pomocnicze programy utrzymania ruchu.

Narzędzia obejmują:

▪ programy do diagnostyki komputera - sprawdzają konfigurację komputera i funkcjonalność jego urządzeń; Przede wszystkim dyski twarde są sprawdzane pod kątem błędów;

▪ programy do optymalizacji dysku - zapewniają szybszy dostęp do informacji przechowywanych na dysku twardym poprzez optymalizację rozmieszczenia na nim danych. Proces optymalizacji danych na dysku twardym jest lepiej znany jako proces defragmentacji dysku;

▪ programy do czyszczenia dysku - wyszukują i usuwają niepotrzebne informacje (na przykład pliki tymczasowe, tymczasowe pliki internetowe, pliki znajdujące się w koszu itp.);

▪ programy pamięci podręcznej dysku - przyspieszają dostęp do danych na dysku poprzez organizację bufora pamięci podręcznej w systemie operacyjnym komputera zawierającego najczęściej używane obszary dysku;

▪ programy do dynamicznej kompresji dysków - zwiększają ilość informacji przechowywanych na dyskach twardych poprzez ich dynamiczną kompresję. Działania tych programów nie są zauważalne dla użytkownika, pojawiają się jedynie poprzez zwiększenie pojemności dysku i zmianę szybkości dostępu do informacji;

▪ programy pakujące (lub archiwizatory) - pakują dane na dyskach twardych poprzez zastosowanie specjalnych metod kompresji informacji. Programy te pozwalają zwolnić znaczną ilość miejsca na dysku poprzez kompresję informacji;

▪ programy antywirusowe – zapobiegają zakażeniu wirusem komputerowym i eliminują jego skutki;

▪ systemy programistyczne – zestaw programów automatyzujących proces programowania skryptów komputerowych.

Oprogramowanie aplikacyjne to specjalny program, który służy do rozwiązywania pewnych praktycznych problemów. Obecnie programiści opracowali wiele aplikacji wykorzystywanych w matematyce, rachunkowości i innych dziedzinach nauki.

2.5. Podstawowy system wejścia/wyjścia (BIOS). Zrozumienie pamięci RAM CMOS

Podstawowy system wejścia-wyjścia (BIOS) jest z jednej strony integralną częścią sprzętu, az drugiej strony jednym z modułów oprogramowania systemu operacyjnego. Pojawienie się tej nazwy wynika z faktu, że BIOS zawiera zestaw programów I / O. Za pomocą tych programów system operacyjny i aplikacje mogą wchodzić w interakcje z różnymi urządzeniami samego komputera, a także z urządzeniami peryferyjnymi.

Jako integralna część sprzętu, system BIOS w komputerze PC jest zaimplementowany jako pojedynczy układ scalony zainstalowany na płycie głównej komputera. Większość nowoczesnych kart wideo i kontrolerów pamięci masowej ma własny system BIOS, który uzupełnia system BIOS. Jednym z twórców BIOS-u jest IBM, który stworzył NetBIOS. Tego oprogramowania nie można kopiować, więc inni producenci komputerów zostali zmuszeni do korzystania z układów BIOS innych firm. Konkretne wersje systemu BIOS są powiązane z chipsetem (lub chipsetem) znajdującym się na płycie głównej.

Jako moduł oprogramowania systemu operacyjnego, system BIOS zawiera program testowy POST (Power On Self Test), gdy komputer jest włączony. Po uruchomieniu tego programu testowane są główne komponenty komputera (procesor, pamięć itp.). Jeśli komputer ma problemy z włączeniem zasilania, tj. BIOS nie może ukończyć wstępnego testu, powiadomienie o błędzie pojawi się w postaci serii sygnałów dźwiękowych.

„Niezmienna” pamięć CMOS RAM przechowuje informacje o konfiguracji komputera (ilość pamięci, rodzaje dysków itp.). Są to informacje, których potrzebują moduły oprogramowania BIOS. Pamięć ta oparta jest na pewnego typu strukturach CMOS (CMOS - Complementary Metal Oxide Semiconductor), które charakteryzują się niskim poborem mocy. Pamięć CMOS jest nieulotna, ponieważ jest zasilana baterią umieszczoną na płycie systemowej lub baterią ogniw galwanicznych zamontowaną na obudowie jednostki systemowej.

Zmiana ustawień w CMOS odbywa się za pomocą programu SETUP. Można go wywołać, naciskając specjalną kombinację klawiszy (DEL, ESC, CTRL-ESC lub CRTL-ALT-ESC) podczas rozruchu (niektóre BIOS-y umożliwiają uruchomienie programu SETUP w dowolnym momencie, naciskając CTRL-ALT-ESC). W AMI BIOS najczęściej odbywa się to poprzez naciśnięcie klawisza DEL (i przytrzymanie go) po naciśnięciu przycisku RESET lub włączeniu komputera.

Temat 3. Architektura sprzętowa i programowa technologii kompatybilnych z IBM

3.1. mikroprocesory

Jednostka centralna jest integralną częścią każdego komputera. Jest to zwykle duży układ scalony, który jest kryształem krzemu w obudowie z tworzywa sztucznego, ceramiki lub cermetu, na którym znajdują się wyprowadzenia do odbioru i wydawania sygnałów elektrycznych. Funkcje procesora są realizowane przez mikroprocesory. Dokonują obliczeń, przenoszą dane między wewnętrznymi rejestrami oraz kontrolują przebieg procesu obliczeniowego. Mikroprocesor współpracuje bezpośrednio z OP i kontrolerami płyty głównej. Głównym nośnikiem informacji w nim są rejestry.

Integralną częścią mikroprocesora są:

▪ ALU, składający się z kilku bloków, na przykład jednostki przetwarzającej liczby całkowite i jednostki przetwarzania zmiennoprzecinkowego;

▪ urządzenie sterujące generujące sygnały sterujące w celu wykonania poleceń;

▪ rejestry wewnętrzne.

Działanie każdej jednostki mikroprocesorowej opiera się na zasadzie przenośnika, która jest następująca. Realizacja każdej instrukcji maszynowej podzielona jest na odrębne etapy, a wykonanie kolejnej instrukcji programu można rozpocząć przed zakończeniem poprzedniej. Dlatego mikroprocesor wykonuje jednocześnie kilka poleceń programu po kolei, a czas wykonania bloku poleceń jest kilkakrotnie skrócony. Architektura superskalarna to architektura oparta na zasadzie potoku. Jest to możliwe, jeśli w mikroprocesorze jest kilka jednostek przetwarzających.

W programie mogą znajdować się polecenia przekazania sterowania, których wykonanie uzależnione jest od wyników wykonania poprzednich poleceń. W nowoczesnych mikroprocesorach, przy zastosowaniu architektury potokowej, zapewnione są mechanizmy przewidywania przejść. Innymi słowy, jeśli w kolejce instrukcji pojawi się instrukcja skoku warunkowego, to przed określeniem flagi skoku przewiduje się, która instrukcja zostanie wykonana jako następna. Wybrana gałąź programu jest wykonywana w potoku, jednak wynik jest rejestrowany dopiero po obliczeniu znaku przejścia, gdy przejście jest wybrane poprawnie. W przypadku błędnego wyboru gałęzi programu mikroprocesor cofa się i wykonuje poprawne operacje zgodnie z obliczonym znakiem przejścia.

Ważnymi cechami mikroprocesora są:

▪ jego wydajność, która w dużej mierze zależy od częstotliwości taktowania mikroprocesora;

▪ architektura mikroprocesora, która określa, jakie dane może przetwarzać, jakie instrukcje maszynowe wchodzą w skład zestawu wykonywanych przez niego poleceń, w jaki sposób dane są przetwarzane oraz ile pamięci wewnętrznej posiada mikroprocesor.

Struktura mikroprocesora może zawierać pamięć podręczną (superoperacyjną), zapewniającą szybszy transfer informacji niż OP. Istnieje pamięć podręczna pierwszego poziomu, która jest zwykle wbudowana w ten sam układ i działa z tą samą częstotliwością co mikroprocesor; Pamięć podręczna drugiego poziomu - współdzielona, ​​gdy instrukcje i dane są przechowywane razem, oraz dzielona, ​​gdy są przechowywane w różnych miejscach.

Podczas rozwiązywania złożonych problemów matematycznych i fizycznych niektóre komputery przewidują użycie specjalnego urządzenia zwanego koprocesorem matematycznym. Urządzenie to jest wyspecjalizowanym układem scalonym współpracującym z procesorem i przeznaczonym do wykonywania operacji matematycznych zmiennoprzecinkowych.

3.2. Płyty systemowe. Magistrale, interfejsy

Główna elektroniczna część komputera jest strukturalnie umieszczona w jednostce systemowej. Jednostka systemowa może mieć kilka rozmiarów i typów, na przykład komputer stacjonarny, wieża. Różne komponenty komputera wewnątrz jednostki systemowej znajdują się na płycie systemowej, zwanej płytą główną.

Płyta główna odgrywa znaczącą rolę, ponieważ działanie komputera w dużej mierze zależy od jego właściwości. Istnieje kilka typów płyt głównych, które są zwykle zaprojektowane dla określonych mikroprocesorów. Wybór płyty głównej w dużej mierze determinuje możliwości przyszłej rozbudowy komputera. Wybierając płytę główną, weź pod uwagę następujące cechy:

▪ możliwe typy stosowanych mikroprocesorów z uwzględnieniem częstotliwości ich pracy;

▪ liczba i rodzaj złączy magistrali systemowej;

▪ opłata podstawowa;

▪ możliwość rozbudowy pamięci RAM i cache;

▪ możliwość aktualizacji podstawowego systemu wejścia/wyjścia (BIOS).

Płyta systemowa zawiera jeden lub więcej układów scalonych. Zarządzają komunikacją między procesorem, pamięcią i urządzeniami we/wy. Nazywa się je chipsetem systemowym.

Intel 440LX, Intel 440BX cieszą się największym zainteresowaniem wśród mikroukładów. Największym producentem płyt głównych jest firma Intel, która wprowadziła większość nowinek technologicznych i technicznych do płyt głównych. Jednak produkty Intela nie są tanie.

Bezpośrednio na płycie głównej znajduje się magistrala systemowa, która służy do przesyłania informacji między procesorem a resztą podzespołów komputera. Za pomocą magistrali odbywa się zarówno wymiana informacji, jak i przesyłanie adresów oraz sygnałów serwisowych.

Komputery kompatybilne z IBM PC pierwotnie korzystały z 16-bitowej magistrali działającej z częstotliwością 8 MHz. Po pojawieniu się nowych mikroprocesorów i szybkich urządzeń peryferyjnych zaproponowano nowy standard - magistralę MCA o wyższej częstotliwości taktowania. Zawierał funkcje arbitrażu, aby uniknąć sytuacji konfliktowych, gdy kilka urządzeń współpracuje ze sobą. Ta magistrala ma zwiększoną przepustowość i osiągnęła większą zwartość, a szerokość magistrali to MCA-16 i 32.

W 1989 roku opracowano magistralę EISA, która faktycznie stała się dodatkiem do ISA. Magistrala ta była stosowana głównie w wysokowydajnych serwerach i profesjonalnych stacjach roboczych o wysokich wymaganiach wydajnościowych.

Od 1991 r. w celu zwiększenia wydajności systemu stosuje się tak zwane magistrale lokalne. Podłączyli procesor bezpośrednio do kontrolerów urządzeń peryferyjnych, zwiększając w ten sposób ogólną prędkość komputera. Wśród lokalnych autobusów najbardziej znana jest magistrala VL, która była skoncentrowana na komputerach PC z mikroprocesorami z rodziny i486, chociaż może również współpracować z procesorami Pentium.

Niezależna od procesora magistrala PCI działa z częstotliwością zegara 33 MHz i zapewnia wysoką szybkość przesyłania danych. Specjalnie dla tej magistrali wydano wiele adapterów do urządzeń peryferyjnych - kart graficznych, kontrolerów dysków, kart sieciowych itp.

Do pracy z danymi graficznymi i wideo opracowano magistralę AGP, która jest szybsza niż PCI. Magistrala AGP bezpośrednio łączy kartę graficzną z pamięcią RAM komputera, co jest bardzo ważne podczas pracy z aplikacjami wideo, dwu- i trójwymiarowymi; Działa na częstotliwości 66 MHz.

Urządzenia peryferyjne są podłączane do magistrali systemowej za pomocą kontrolerów lub adapterów. Adaptery to specjalne płytki, które są różne dla różnych typów urządzeń peryferyjnych.

3.3. Sterowanie urządzeniami zewnętrznymi

Urządzenia zewnętrzne zapewniają wejście, wyjście i gromadzenie informacji w komputerze PC, współdziałają z procesorem i systemem operacyjnym poprzez system lub magistralę lokalną, a także poprzez porty wejścia-wyjścia. Znajdują się one zarówno na zewnątrz jednostki systemowej (klawiatura, mysz, monitor, drukarka, modem zewnętrzny, skaner), jak i wewnątrz niej (napędy dysków, kontrolery urządzeń, wewnętrzne faksmodemy). Często urządzenia zewnętrzne nazywane są urządzeniami peryferyjnymi, chociaż w wąskim znaczeniu termin „peryferia” oznacza część urządzeń, które zapewniają wejście i wyjście informacji (klawiatury, wskaźniki, skanery, drukarki itp.).

Większość urządzeń zewnętrznych dla komputerów PC zgodnych z IBM jest kontrolowana przez kontrolery zainstalowane w gniazdach rozszerzeń na płycie głównej. Kontroler to płytka sterująca pracą określonego typu urządzeń zewnętrznych i zapewniająca ich komunikację z płytą systemową. Większość kontrolerów to systemowe karty rozszerzeń, z wyjątkiem kontrolerów portów oraz napędów dyskietek i dysków twardych, które są wbudowane bezpośrednio w płytę główną. We wczesnych komputerach PC kompatybilnych z IBM kontrolery te były zwykle umieszczane na oddzielnej płycie zwanej multiplate lub multicard. Czasami inne kontrolery są wbudowane w płytę główną w laptopach, w tym karty wideo i karty dźwiękowe.

Karty rozszerzeń, zwane kartami rozszerzeń, są instalowane na płycie głównej. Przeznaczone są do podłączania dodatkowych urządzeń do magistrali PC, a płyta główna ma zwykle od 4 do 8 gniazd rozszerzeń. Zgodnie z bitowością procesora i parametrami zewnętrznej magistrali danych płyty głównej są to 8-, 16- i 32-bitowe.

Karty rozszerzające dzielą się na dwa typy:

1) pełnowymiarowy, tj. tej samej długości co płyta główna;

2) półwymiarowy, tj. dwa razy krótszy.

W gniazdach rozszerzeń można zainstalować dowolne karty rozszerzeń, jeśli są one kompatybilne z magistralą pod względem sterowania, bitowości i zasilania.

Port szeregowy przesyła informacje po jednym bicie na raz, a urządzenia takie jak mysz, modem zewnętrzny i ploter są podłączane przez porty szeregowe.

Najważniejsze typy kart rozszerzeń to:

1) adaptery wideo (niezbędne do normalnego funkcjonowania komputera);

2) modemy wewnętrzne (wymagane do korzystania z modemów wewnętrznych);

3) karty dźwiękowe (przeznaczone do systemów multimedialnych);

4) Adaptery LAN (wymagane podczas korzystania z komputera w środowisku sieci lokalnej).

Oprócz powyższego stosowane są inne rodzaje kart rozszerzeń:

▪ kontrola skanera;

▪ sterowanie streamerem;

▪ interfejs SCSI;

▪ kontrolery urządzeń rzeczywistości wirtualnej;

▪ ADC;

▪ urządzenia do odczytu kodów kreskowych;

▪ sterowanie piórem świetlnym;

▪ połączenia z komputerami typu mainframe;

▪ tablice akceleratorów.

Komputer PC posiada specjalne kontrolery I/O, które realizowane są poprzez porty I/O.

Port szeregowy przesyła informacje po jednym bicie na raz, podczas gdy port równoległy przesyła informacje bajt po bajcie. Porty szeregowe łączą urządzenia, takie jak mysz, modem zewnętrzny i ploter.

3.4. Akumulatory informacji

Urządzenie przeznaczone do długotrwałego przechowywania znacznych ilości informacji nazywane jest dyskiem lub zewnętrznym urządzeniem pamięci masowej, urządzeniem pamięci masowej.

W zależności od lokalizacji w komputerze wyróżnia się dyski:

1) zewnętrzne, które znajdują się poza jednostką systemową i mają własną obudowę, zasilacz, a także przełącznik i kabel;

2) wewnętrzne, które znajdują się na stojaku montażowym jednostki systemowej komputera. Urządzenia te nie posiadają własnej obudowy i podłączane są do kontrolera pamięci oraz zasilacza PC.

Zgodnie z metodą zapisu rozróżnia się urządzenia o dostępie swobodnym i urządzenia o dostępie sekwencyjnym.

Główne typy dysków to:

▪ stacje dyskietek;

▪ dyski magnetyczne (HDD), dysk twardy;

▪ urządzenia pamięci masowej na wymiennych płytach CD.

W stacjach dyskietek (dyskietkach) informacje są zapisywane wzdłuż ścieżek podzielonych na oddzielne sektory. Między tymi sektorami istnieją luki międzysektorowe. W zależności od rodzaju urządzenia i nośnika oraz sposobu ich oznaczenia dobiera się liczbę ścieżek i sektorów oraz wielkość sektora.

Zasada działania takich napędów polega na tym, że dyskietka zainstalowana w napędzie obraca się z prędkością 300-360 obr./min, co zapewnia dostęp do żądanego sektora. Zapisywanie specjalnych informacji kontrolnych na dysku nazywa się formatowaniem.

Dyski twarde to kilka metalowych dysków umieszczonych na tej samej osi i zamkniętych w szczelnej metalowej obudowie. Płyty te należy sformatować przed użyciem. Na dyskach twardych informacje znajdują się na ścieżkach, a wewnątrz ścieżek - na sektorach. Zestaw ścieżek na opakowaniu dysków magnetycznych o tych samych numerach nazywa się walcem.

Wśród głównych cech HDD są:

▪ pojemność informacyjna;

▪ gęstość zapisu;

▪ liczba utworów;

▪ czas dostępu (milisekundy);

▪ gabaryty zewnętrzne;

▪ dyski CD wielokrotnego zapisu;

▪ urządzenia pamięci masowej na wymiennych dyskach magnetycznych o dużej pojemności;

▪ napędy dysków magnetooptycznych.

Napędy takie podłącza się do magistrali systemowej za pomocą różnego rodzaju interfejsów, w tym elementów połączeniowych oraz pomocniczych obwodów sterujących potrzebnych do podłączenia urządzeń.

Wymienne napędy CD są używane podczas korzystania z systemów multimedialnych. Napędy te (CD-ROM) przystosowane są do odczytu informacji z płyt CD zawierających do 700 MB. Nagrywanie na takich dyskach odbywa się jednorazowo przy użyciu specjalnego sprzętu.

Napędy CD-RW, w przeciwieństwie do napędów CD-R, umożliwiają wielokrotny zapis.

Wymienne napędy dysków magnetycznych o dużej pojemności są przeznaczone do zapisywania do 200 MB lub więcej informacji na dysku wymiennym.

Napędy na dyskach magnetooptycznych wykorzystują autorski schemat odczytu i zapisu informacji, co zapewnia dużą pojemność informacyjną nośnika oraz niezawodność przechowywania zapisanych informacji. Nagrywanie na tych nośnikach odbywa się przez długi czas, a odczyt jest wystarczająco szybki.

Urządzenia do zapisu i odczytu informacji cyfrowych na kasecie z taśmą magnetyczną nazywane są streamerami. Są to napędy taśmowe. Służą do archiwizacji kopii zapasowych informacji. Do pozytywnych cech takich zapisów należy zaliczyć dużą ilość przechowywanych informacji oraz niski koszt przechowywania danych.

3.5. Kontrolery wideo i monitory

Urządzenia, które wyświetlają informacje na ekranie monitora, nazywane są kartami wideo lub kontrolerami wideo. Kontroler wideo to karta rozszerzeń, która zapewnia tworzenie obrazu na ekranie monitora za pomocą informacji przesyłanych z procesora.

Kontrolery wideo są podłączone do komputera za pomocą specjalnych lokalnych magistrali PCI lub AGP. Interfejs AGP służy do przyspieszenia wymiany danych między procesorem a kartą graficzną. Wiele kart graficznych jest zaprojektowanych do podłączania do płyty głównej za pomocą złącza AGP.

Informacje są wyświetlane w trybie tekstowym lub graficznym. Tryb tekstowy wykorzystuje obraz danych znak po znaku na ekranie monitora, a dane obrazu są przechowywane w pamięci ROM. Obrazy po włączeniu zasilania komputera są nadpisywane z pamięci ROM do OP. Podczas pracy w trybie graficznym stosowane jest wyświetlanie informacji punkt po punkcie na ekranie, przy czym każdy punkt ekranu jest modelowany przez liczbę bitów charakteryzujących kolor każdego z wyświetlanych punktów. W trybie VGA każda kropka jest określona przez sekwencję czterech bitów, więc każda kropka może być wyświetlana w jednym z 16 = 24 możliwych kolorów. Graficzne modelowanie ekranu można wykonać za pomocą różnych zestawów punktów, zarówno w pionie, jak iw poziomie.

Nowoczesne karty wideo nazywane są akceleratorami graficznymi, ponieważ mają specjalne układy scalone, które pozwalają przyspieszyć przetwarzanie dużych ilości danych wideo. Również te akceleratory graficzne nazywane są akceleratorami, mają własny wyspecjalizowany mikroprocesor i pamięć. Rozmiar tej pamięci jest ważny, ponieważ tworzy ona kompletną graficzną bitmapę ekranu. W trakcie swojej pracy karta wideo korzysta z własnej pamięci, ale nie działa.

Jednak do wysokiej jakości reprodukcji obrazu nie wystarczy mieć pamięć wideo o wymaganej ilości. Ważne jest, aby monitor mógł wyświetlać obraz w trybach wysokiej rozdzielczości, a oprogramowanie ustawiające obrazowanie mogło obsługiwać odpowiedni tryb wideo.

Komputery stacjonarne wykorzystują monitory kineskopowe, wyświetlacze ciekłokrystaliczne (LCD) i rzadziej monitory plazmowe.

Podczas pracy w środowiskach graficznych należy używać monitorów o przekątnej ekranu co najmniej 15-17 cali. Do głównych parametrów monitorów należą:

▪ maksymalna rozdzielczość;

▪ długość przekątnej;

▪ odległość pomiędzy pikselami;

▪ liczba klatek na sekundę;

▪ stopień zgodności z normami bezpieczeństwa środowiskowego.

Obraz jest uważany za lepszej jakości, jeśli odległość między pikselami jest minimalna, a liczba klatek na sekundę jest wysoka. Przy częstotliwości co najmniej 75 Hz zapewniony jest poziom komfortu obrazu dla oka. Idealna częstotliwość odświeżania to 110 Hz, przy której obraz jest postrzegany jako całkowicie nieruchomy. Liczba klatek na sekundę nie jest stała, tzn. podczas pracy z wyższą rozdzielczością ten sam monitor używa mniejszej liczby klatek na sekundę. Rodzaj zastosowanej karty wideo również wpływa na jakość obrazu, ponieważ niedrogie modele mogą nie obsługiwać odpowiedniej częstotliwości.

Komputery osobiste wykorzystują wyświetlacze LCD i TFT, a także wyświetlacze z podwójnym skanowaniem ekranu. Wyświetlacze TFT są najbardziej obiecujące, ale dość drogie. Rozdzielczość wyświetlaczy TFT to 640x480, aw droższych komputerach przenośnych - 800x600 pikseli i rzadziej 1024x768.

3.6. Urządzenia wejściowe

Głównym standardowym urządzeniem wejściowym w komputerze PC jest klawiatura. W jego obudowie znajdują się kluczowe czujniki, układy deszyfrujące oraz mikrokontroler. Każdy klucz odpowiada określonemu numerowi seryjnemu. Po naciśnięciu klawisza informacja o tym przekazywana jest do procesora w postaci odpowiedniego kodu. Kod ten jest interpretowany przez sterownik - specjalny program, który akceptuje znaki wprowadzane z klawiatury.

Na klawiaturze znajdują się klawisze, które nie wysyłają żadnego kodu do procesora i służą do przełączania stanu specjalnych wskaźników stanu klawiatury.

Aby zaoszczędzić miejsce, laptopy i komputery kieszonkowe używają klawiatur z niewielką liczbą klawiszy.

Układ klawiszy na klawiaturze odpowiada standardowi łacińskich maszyn do pisania.

Manipulatory współrzędnych to urządzenia do wprowadzania współrzędnych. Należą do nich myszy, trackballe i wskaźniki.

Mysz jest podłączona do komputera przez port szeregowy. Podczas ruchu myszką informacja o rodzaju tego ruchu przekazywana jest do sterownika, który zmienia położenie kursora myszki na ekranie. Dzięki temu możliwe jest informowanie programu aplikacyjnego o aktualnych wartościach jego współrzędnych. Mysz odgrywa szczególną rolę podczas pracy z informacjami graficznymi w edytorach graficznych, systemach projektowania wspomaganego komputerowo. Najczęściej używane są lewy i prawy przycisk myszy. Zwykle programy śledzą pojedyncze i podwójne kliknięcia lewego przycisku myszy, a także pojedyncze kliknięcia prawego przycisku myszy.

Trackball to kulka wbudowana w klawiaturę, która różni się od myszy tym, że nie trzeba jej przesuwać po powierzchni roboczej.

Wskaźnik jest analogiem joysticka i jest umieszczony na klawiaturze.

Trackballe i wskaźniki są najczęściej używane w laptopach, podczas gdy PDA używają ekranu dotykowego jako urządzenia do wprowadzania współrzędnych.

Skanery to urządzenia służące do wprowadzania informacji graficznych do komputera. Istnieją skanery ręczne, płaskie i rolkowe; czarno-białe i kolorowe.

Za pomocą ręcznego skanera konieczne jest przesuwanie go po powierzchni arkusza, z którego pobierany jest obraz. Oddzielne elementy obrazu można wprowadzać w częściach i łączyć w wymaganej kolejności za pomocą specjalnych programów.

Skanery płaskie są łatwe w użyciu, bardziej wydajne niż skanery ręczne i droższe. Podczas pracy z takimi skanerami na tablecie skanera kładzie się rozłożoną książkę, która samodzielnie odczytuje całą kartkę. Skanery te mają wysoką rozdzielczość, dlatego służą do wprowadzania fotografii i skomplikowanych ilustracji do komputera.

Skanery rolkowe są również łatwe w użyciu i przeznaczone do ciągłego odczytu informacji z nośników rolkowych, na przykład podczas analizy danych eksperymentalnych.

Skanery można podzielić na czarno-białe i kolorowe. Skanery czarno-białe są używane głównie do skanowania informacji tekstowych, a skanery kolorowe do grafiki.

Digitizery to urządzenia do punktowego wprowadzania współrzędnych obrazów graficznych, które są wykorzystywane w automatycznych systemach projektowania, grafice komputerowej i animacji. To urządzenie umożliwia wprowadzanie skomplikowanych obrazów, takich jak rysunki, mapy itp., z dużą dokładnością.

Po złożeniu digitizer jest tabletem zawierającym płaszczyznę roboczą z nałożoną na nią siatką współrzędnych. Posiada panel kontrolny oraz specjalny pióro świetlne podłączone do tabletu. Digitizer jest podłączony do komputera kablem przez port.

3.7. Urządzenia wyjściowe informacji

Urządzenia drukujące obejmują drukarki, które drukują tekst i grafikę na papierze, kliszy i innych nośnikach. Drukarki podłącza się do komputera za pomocą portu równoległego lub portu USB, a do komputera można jednocześnie podłączyć wiele drukarek. Drukarki sieciowe nazywane są drukarkami o zwiększonej wydajności, zdolnymi do jednoczesnej obsługi kilku komputerów podłączonych do niej w ogólnej kolejce.

Istnieją drukarki płatkowe, termiczne, specjalistyczne, igłowe, atramentowe i laserowe.

Drukarki klapowe i termiczne są obecnie rzadko używane, stosuje się specjalne drukarki do drukowania na powierzchni części, tkaninie, szkle itp. Najczęściej używane drukarki igłowe, atramentowe i laserowe.

Drukarki igłowe składają się z głowicy drukującej, która porusza się wzdłuż papieru; w głowie są cienkie pręty, które poruszają się za pomocą elektromagnesu. „Wyrzucenie” określonej kombinacji igieł uderza w taśmę barwiącą, która odciska na papierze obraz określonego zestawu kropek. Dzięki sekwencyjnemu zestawowi drukowanych kropek uzyskuje się zarys określonego znaku. Drukarki igłowe wyróżniają się szerokością karetki: „szerokie” stosuje się przy druku na papierze A3, a „wąskie” na papierze A4.

Drukowanie w drukarkach igłowych odbywa się w następujących trybach:

▪ draft – druk niskiej jakości;

▪ NLQ - druk wysokiej jakości;

▪ grafika.

Najczęściej drukarki igłowe mają następujący zestaw rozmiarów czcionek:

▪ pica – 10 znaków/cal;

▪ elita - 12 znaków/cal;

▪ odstępy proporcjonalne - proporcjonalne, gdy szerokość różnych liter nie jest taka sama, w efekcie może być ich różna liczba na cal.

Oprócz czarno-białych drukarek stosuje się również kolorowe drukarki igłowe.

Drukarki atramentowe, w przeciwieństwie do drukarek igłowych, nie stosują zasady drukowania igieł. Zamiast tego wykorzystują wyrzucanie mikroskopijnych kropelek atramentu przez dysze głowicy drukarki. To znacznie poprawia szybkość i jakość druku w trybach graficznych.

Spośród drukarek kolorowych najczęściej spotykane są drukarki trój- i czterokolorowe, a najtańsze to drukarki z jednym wkładem zużywanym na raz.

Drukarki laserowe różnią się od innych tym, że obraz w nich jest tworzony przez wiązkę laserową na światłoczułym bębnie wewnątrz drukarki. W miejscu, w którym wiązka oświetla powierzchnię bębna, powstaje wyładowanie elektryczne, które przyciąga drobinki pyłu zaschniętej farby. Po zetknięciu się bębna z papierem toner topi się i pozostawia na papierze odcisk kropki, tworząc obraz.

Drukarki laserowe charakteryzują się wysoką jakością druku i dużą szybkością, ale są droższe niż inne drukarki.

Plotery lub plotery to urządzenia służące do rysowania skomplikowanych grafik. Plotery mogą być dwojakiego rodzaju: płaskie i rolkowe. Arkusz w ploterze jest zamocowany jak na desce kreślarskiej, a pióro rysunkowe porusza się w dwóch współrzędnych wzdłuż całego arkusza. W ploterze rolkowym pisak rysunkowy porusza się tylko wzdłuż arkusza, a papier jest ciągnięty tam iz powrotem przez rolkę transportową, dzięki czemu plotery rolkowe są znacznie bardziej kompaktowe.

3.8. Urządzenia do przesyłania informacji. Inne urządzenia peryferyjne

Urządzenie konwertujące informacje przesyłane między komputerami przez sieć telefoniczną nazywa się modemem.

Podstawą tego procesu jest konwersja danych otrzymanych z procesora z postaci cyfrowej na sygnał analogowy o wysokiej częstotliwości.

Istnieją modemy:

▪ wewnętrzna, czyli karta rozszerzeń instalowana w jednym z wolnych gniazd rozszerzeń na płycie systemowej;

▪ zewnętrzne, podłączane za pomocą specjalnego złącza do portu szeregowego komputera.

Jedną z najważniejszych cech modemu jest maksymalna szybkość przesyłania/odbioru danych, którą zapewnia, mierzona w bodach (jednostka szybkości przesyłania danych mierzona w bitach na sekundę). Obecnie modemy działają z maksymalną prędkością 28 kbodów i wyższą.

Faksmodem posiada funkcje odbierania i wysyłania wiadomości faksowych. Najczęściej nowoczesne modemy to faksmodemy, dlatego terminy „modem” i „faksmodem” są uważane za synonimy.

Obecnie stosowane są urządzenia, które mogą jednocześnie przesyłać dane i głos przez linie telefoniczne w oparciu o technologię DSVD. Najpopularniejsze modemy w Rosji to USRobotics, ZyXEL, GVC.

Zasilanie komputera jest wyłączane w sytuacjach awaryjnych. Około 80% awarii komputerów jest wynikiem awarii zasilania, dlatego stosuje się zasilacze bezprzerwowe (UPS), aby zabezpieczyć je przed przepięciami lub przerwami w dostawie prądu.

Zasilacz bezprzerwowy zawiera stabilizator napięcia, wbudowane akumulatory i alternator. W przypadku awarii zasilania urządzenie to przełącza napięcie na siebie i przez pewien czas zasila komputer, co zapewnia stabilną pracę komputera. To urządzenie jest w stanie utrzymać normalne zasilanie komputera przez 3-20 minut.

Interaktywny system komputerowy, który zapewnia syntezę tekstu, grafiki, dźwięku, mowy i obrazów wideo, nazywa się multimediami. System multimedialny to komputer, którego główne urządzenia spełniają współczesne wymagania. Taki komputer musi być wyposażony w napęd CD, kartę dźwiękową, głośniki lub słuchawki. Płyta CD jest jednym z głównych nośników pamięci w systemach multimedialnych, na którym zapisywane są encyklopedie, gry i programy edukacyjne. Płyty CD są czasem wygodniejsze niż książki, znalezienie potrzebnych informacji za pomocą specjalnego oprogramowania staje się łatwiejsze i szybsze.

Adaptery audio służą do odtwarzania, nagrywania i przetwarzania dźwięku, takie jak karty dźwiękowe i karty dźwiękowe. Urządzenia te przetwarzają cyfrowe dane komputerowe na analogowy sygnał audio i odwrotnie; karta dźwiękowa mieści kilka różnych urządzeń, które pozwalają na stworzenie studia nagraniowego w oparciu o komputer PC. Główne cechy adapterów audio to: głębia bitowa, liczba kanałów odtwarzania (mono lub stereo), zastosowana zasada syntezy, możliwość rozbudowy i kompatybilność. Jakość dźwięku zależy również od rodzaju kart dźwiękowych i systemów akustycznych. Wystarczającą jakość dźwięku zapewniają dowolne głośniki aktywne, a lepszy dźwięk uzyskuje się podłączając kartę dźwiękową do wejścia wzmacniacza domowego systemu audio.

Temat 4. Podstawy pracy użytkownika w środowisku operacyjnym komputera osobistego

4.1. Systemy operacyjne

System operacyjny to cały szereg programów sterujących, które służą jako interfejs między komponentami komputera i zapewniają najbardziej wydajną realizację zasobów komputera. System operacyjny jest podstawą programu systemowego, który jest ładowany podczas włączania komputera.

Główne funkcje systemu operacyjnego obejmują:

▪ otrzymywanie poleceń lub zadań od użytkownika komputera PC;

▪ akceptowanie i stosowanie żądań programów w celu uruchamiania i zatrzymywania innych programów;

▪ ładowanie do systemu operacyjnego programów odpowiednich do wykonania;

▪ ochrona programów przed wzajemnym wpływem, zapewnienie bezpieczeństwa danych itp.

Według rodzajów interfejsu użytkownika (zestaw technik zapewniających interakcję użytkowników komputerów PC z jego aplikacjami) wyróżnia się następujące systemy operacyjne:

a) interfejs poleceń - wydawanie na ekran monitora systemowego monitu o wprowadzenie poleceń z klawiatury (np. MS-DOS OS);

b) interfejs WIMP (lub interfejs graficzny - graficzna reprezentacja obrazów przechowywanych na dysku twardym (na przykład system operacyjny Windows w różnych wersjach);

c) Interfejs SILK (Speech Image Language Knowledge) – wykorzystanie poleceń głosowych do interakcji między użytkownikiem komputera a aplikacjami. Ten typ systemu operacyjnego jest obecnie w fazie rozwoju.

Zgodnie z trybem przetwarzania zadania wyróżnia się następujące systemy operacyjne:

a) zapewnienie trybu jednoprogramowego, tj. metody organizacji obliczeń, w której w jednym czasie są w stanie wykonać tylko jedno zadanie (np. MS-DOS);

b) praca w trybie wieloprogramowym, gdy organizacja obliczeń na maszynie jednoprocesorowej stwarza wrażenie wykonywania kilku programów.

Różnica między trybem wieloprogramowym a wielozadaniowym polega na tym, że w trybie wieloprogramowym równolegle uruchamianych jest kilka aplikacji, a użytkownik nie musi martwić się organizacją swojej pracy, funkcje te przejmuje system operacyjny. W trybie wielozadaniowości równoczesne wykonywanie i interakcja aplikacji muszą być zapewnione przez programistów aplikacji.

Zgodnie z obsługą trybu wielu użytkowników, system operacyjny dzieli się na:

a) dla jednego użytkownika (MS-DOS, wczesne wersje Windows i OS / 2);

b) multiuser (sieć) (Windows NT, Windows 2000, Unix).

Główną różnicą między systemem operacyjnym dla wielu użytkowników a systemem operacyjnym dla jednego użytkownika jest dostępność środków ochrony informacji każdego użytkownika przed nielegalnym dostępem innych użytkowników.

4.2. Klasyfikacja oprogramowania

Oprogramowanie to zestaw programów i związanej z nimi dokumentacji przeznaczonej do rozwiązywania problemów na komputerze PC. Jest dwojakiego rodzaju: systemowe i stosowane.

Oprogramowanie systemowe przeznaczone jest do sterowania komputerem, tworzenia i wspomagania wykonywania innych programów użytkownika oraz świadczenia użytkownikowi wszelkiego rodzaju usług.

Oprogramowanie aplikacyjne to zestaw programów, które umożliwiają wykonywanie określonych operacji.

Oprogramowanie zwykle dzieli się na systemy operacyjne, systemy usługowe, narzędzia programowe i systemy utrzymania.

System operacyjny zarządza działaniem wszystkich urządzeń PC i procesem wykonywania programów aplikacyjnych oraz monitoruje stan sprzętu PC, procedurę rozruchu, zarządzanie systemem plików, interakcję użytkownika z komputerem, ładowanie i uruchamianie programów użytkowych, przydzielanie zasobów komputera, takich jak jak pamięć RAM, czas procesora i urządzenia peryferyjne między aplikacjami.

Obecnie zamiast systemu operacyjnego z rodziny DOS używany jest system operacyjny nowej generacji, którego głównymi cechami wyróżniającymi są:

▪ wielozadaniowość – możliwość zapewnienia realizacji kilku programów jednocześnie;

▪ rozbudowany interfejs graficzny;

▪ wykorzystanie mikroprocesorów;

▪ stabilność i bezpieczeństwo operacyjne;

▪ całkowita niezależność od sprzętu;

▪ kompatybilność ze wszystkimi typami aplikacji stworzonych dla MS DOS.

Systemy usług zapewniają systemowi operacyjnemu więcej możliwości i zapewniają użytkownikowi zestaw różnych usług dodatkowych. Ten typ systemu obejmuje powłoki, narzędzia i środowiska operacyjne.

Powłoka systemu operacyjnego to produkt programowy, który sprawia, że ​​komunikacja użytkownika z komputerem jest wygodniejsza.

Narzędzia to programy narzędziowe, które zapewniają użytkownikowi pewne dodatkowe usługi,

Zadaniem programu sprawdzającego dysk jest sprawdzenie poprawności informacji zawartych w tablicach alokacji plików dyskowych oraz wyszukanie uszkodzonych bloków dyskowych.

Kompaktor dysków (lub defragmentator dysków) służy do tworzenia i utrzymywania skompresowanych dysków. Dysk kompaktowy to plik na konwencjonalnej fizycznej dyskietce lub dysku twardym, który jest kompresowany podczas zapisu i odbudowywany podczas odczytu.

Program do tworzenia kopii zapasowych danych na dysku przeznaczony jest do pracy w trzech trybach: tworzenia kopii zapasowej, odzyskiwania oraz porównywania danych źródłowych z ich kopiami zapasowymi.

Archiwizatory obejmują programy, które mogą znacznie zmniejszyć „objętość” zajmowaną przez określony dokument. Archiwizatory służą do oszczędzania miejsca w pamięci.

Program Monitor systemu służy do analizy szczytowego wykorzystania procesora i innych zasobów.

Programy antywirusowe to zintegrowane narzędzia do wykrywania i eliminowania wirusów komputerowych.

Narzędzia programowe to produkty programowe używane do tworzenia oprogramowania.

Programy serwisowe służą do zarządzania pracą różnych systemów komputerowych, pozwalają monitorować poprawność jego funkcjonowania, a także przeprowadzać diagnostykę.

4.3. Przeznaczenie systemów operacyjnych

Rodzaj systemu operacyjnego określa wygląd systemu komputerowego, na który składają się procesory, pamięć, zegary, różnego rodzaju dyski, napędy taśm magnetycznych, drukarki, sprzęt do komunikacji sieciowej itp. System operacyjny służy do zarządzania wszystkimi zasobami komputera , zapewniając maksymalną efektywność jego funkcjonowania. Główną funkcją systemu operacyjnego jest dystrybucja procesorów, pamięci, innych urządzeń i danych między procesami obliczeniowymi, które konkurują o te zasoby. Zarządzanie zasobami obejmuje następujące zadania:

1) planowanie zasobów, czyli ustalenie komu, kiedy i w jakiej ilości należy przeznaczyć ten zasób;

2) kontrola stanu zasobu, tj. utrzymywanie informacji operacyjnej o tym, czy zasób jest zajęty, czy nie, jaka część zasobu została już rozdysponowana, a jaka część jest wolna.

Systemy operacyjne są klasyfikowane według cech implementacji algorytmów zarządzania zasobami komputerowymi, obszarów użytkowania i wielu innych cech.

4.4. Ewolucja i charakterystyka systemów operacyjnych

Lampowe urządzenia komputerowe powstały w połowie lat 1940. XX wieku. W tym czasie system operacyjny nie był używany, wszystkie zadania były rozwiązywane ręcznie przez programistę za pomocą panelu sterowania.

W połowie lat pięćdziesiątych. wynaleziono i zaczęto stosować elementy półprzewodnikowe, w związku z tym pierwsze języki algorytmiczne i pierwsze programy systemowe - kompilatory, a następnie pojawiły się pierwsze systemy przetwarzania wsadowego. Systemy te stały się pierwowzorem nowoczesnych systemów operacyjnych i były pierwszymi programami systemowymi do zarządzania procesem obliczeniowym.

W latach 1965-1980 nastąpiło przejście na układy scalone.

Pojawienie się LSI doprowadziło do gwałtownego obniżenia kosztów mikroukładów. Komputer stał się dostępny dla jednostki, co doprowadziło do początku ery PC.

Do połowy lat 1980. charakteryzuje się rozwojem sieci komputerów PC z sieciowymi lub rozproszonymi systemami operacyjnymi.

System operacyjny jest główną częścią oprogramowania sieciowego, zapewnia środowisko do działania aplikacji i decyduje o tym, jak wydajnie będą one działać. Głównym wymaganiem stawianym nowoczesnym systemom operacyjnym jest możliwość wykonywania podstawowych funkcji, w szczególności sprawnego zarządzania zasobami oraz zapewnienie wygodnego interfejsu dla użytkownika i programów użytkowych. System operacyjny ma zaimplementować przetwarzanie wieloprogramowe, pamięć wirtualną, obsługę interfejsu wielu okien itp. Poza funkcjonalnością, na system operacyjny nakładane są również wymagania rynkowe.

1. Rozszerzalność. System powinien być napisany w taki sposób, aby można go było łatwo dodawać i zmieniać bez naruszania jego integralności.

2. Przenośność. Bez większych trudności system operacyjny powinien zostać przeniesiony z jednego typu sprzętu na inny.

3. Niezawodność i odporność na awarie. System operacyjny musi być chroniony przed błędami wewnętrznymi i zewnętrznymi, awariami i awariami; jego działania powinny być przewidywalne, a aplikacje nie powinny go niszczyć.

4. Kompatybilność. System musi mieć środki do uruchamiania aplikacji napisanych dla innych systemów operacyjnych. Interfejs użytkownika systemu musi być zgodny z istniejącymi systemami i standardami.

5. Bezpieczeństwo. System musi mieć środki chroniące zasoby niektórych użytkowników przed innymi.

6. Wydajność. System powinien działać tak szybko, jak pozwala na to sprzęt.

Sieciowy system operacyjny jest oceniany według następujących kryteriów:

▪ możliwość udostępniania plików i drukarek z dużą wydajnością;

▪ sprawne wykonywanie programów aplikacyjnych zorientowanych na architekturę klient-serwer, w tym programów aplikacyjnych producentów;

▪ dostępność warunków pracy na różnych platformach i przy różnym sprzęcie sieciowym;

▪ zapewnienie integracji z Internetem, tj. obsługa odpowiednich protokołów i oprogramowania serwerów WWW;

▪ zdalny dostęp do sieci;

▪ organizacja wewnętrznej poczty elektronicznej, telekonferencji;

▪ dostęp do zasobów w rozproszonych geograficznie, wieloserwerowych sieciach z wykorzystaniem usług katalogowych i nazewniczych.

4.5. System operacyjny nowych technologii

Przykładem nowego systemu operacyjnego jest Microsoft Windows NT, który jest szybkim 32-bitowym systemem sieciowym z graficznym interfejsem użytkownika i wbudowanymi narzędziami sieciowymi. Ten system operacyjny jest zorientowany na sieć.

Aby komunikować się między zdalnymi lokalizacjami za pomocą usługi dostępu zdalnego, na obu końcach połączenia wymagane są modemy, drukarki, napędy taśmowe i inne urządzenia.

System operacyjny Windows NT ma funkcje wymienione poniżej.

1. Przenośność, czyli możliwość pracy na procesorach CISC i RISC.

2. Wielozadaniowość, czyli możliwość wykorzystania jednego procesora do uruchamiania wielu aplikacji lub wątków.

3. Przetwarzanie wieloprocesorowe, które obejmuje wiele procesorów zdolnych do jednoczesnego wykonywania wielu wątków, po jednym dla każdego procesora w komputerze.

4. Skalowalność, czyli możliwość automatycznego wykorzystania pozytywnych cech dodanych procesorów. Na przykład, aby przyspieszyć działanie aplikacji, system operacyjny może automatycznie podłączyć dodatkowe identyczne procesory. Skalowalność systemu Windows NT zapewnia:

▪ wieloprocesorowość komputerów lokalnych, tj. obecność kilku procesorów, pomiędzy którymi interakcja odbywa się poprzez pamięć współdzieloną;

▪ wieloprocesorowość symetryczna, która polega na jednoczesnym wykonywaniu aplikacji na kilku procesorach;

▪ rozproszone przetwarzanie informacji pomiędzy kilkoma komputerami w sieci, realizowane w oparciu o koncepcję zdalnych wywołań procedur, co wspiera architekturę klient-serwer.

5. Architektura klient-serwer, która łączy stację roboczą dla jednego użytkownika i serwery ogólnego przeznaczenia dla wielu użytkowników (w celu rozłożenia obciążenia przetwarzania danych między nimi). Ta interakcja jest zorientowana obiektowo; obiektem wysyłającym wiadomość jest klient, a obiektem odbierającym wiadomość jest serwer.

6. Architektura obiektu. Obiekty to obiekty katalogów, procesów i wątków, obiekty sekcji i segmentów pamięci, obiekty portów. Typ obiektu obejmuje typ danych, zestaw atrybutów oraz listę operacji, które można na nim wykonać. Obiektami można zarządzać za pomocą procesów systemu operacyjnego, tj. Poprzez określoną sekwencję działań, które definiują odpowiedni program i składają się na zadanie.

7. Rozszerzalność, która wynika z otwartej architektury modułowej, która pozwala dodawać nowe moduły do ​​wszystkich poziomów systemu operacyjnego. Modułowa architektura ułatwia łączność z innymi produktami sieciowymi, a komputery z systemem Windows NT mogą wchodzić w interakcje z serwerami i klientami z innych systemów operacyjnych.

8. Niezawodność i odporność na awarie, determinowana faktem, że architektura chroni system operacyjny i aplikacje przed zniszczeniem.

9. Kompatybilność, czyli zdolność systemu Windows NT w wersji 4 do obsługi aplikacji MS DOS, Windows 3.x, OS/2 oraz posiadania szerokiej gamy urządzeń i sieci.

10. Domenowa architektura sieci, która determinuje grupowanie komputerów w domeny.

11. Wielopoziomowy system bezpieczeństwa, który został stworzony w celu zapewnienia bezpieczeństwa systemu operacyjnego, aplikacji, informacji przed zniszczeniem, nielegalnym dostępem, nieprofesjonalnymi działaniami użytkowników. Działa na poziomie użytkownika, komputerów lokalnych i sieciowych, domen, obiektów, zasobów, sieciowej transmisji informacji, aplikacji itp.

4.6. Architektura WINDOWS NT

System operacyjny Windows NT ma architekturę modułową.

Pierwszy moduł – tryb użytkownika – pozwala użytkownikowi na interakcję z systemem. Poziom ten obejmuje podsystemy środowiskowe i podsystem bezpieczeństwa. Zbiór podsystemów instrumentalnych obsługujących różne typy programów użytkownika nazywany jest podsystemem środowiska. Do podsystemów tych zalicza się NT-32 obsługujący 16- i 32-bitowe aplikacje Windows i DOS, podsystem kontrolujący interfejs użytkownika Windows NT itp. Podsystem bezpieczeństwa zapewnia legalne logowanie użytkownika do systemu.

Drugi moduł - tryb jądra - zapewnia bezpieczne uruchamianie aplikacji użytkownika. Na tym poziomie wyróżnia się trzy rozbudowane moduły: wykonywanie usług, jądro oraz poziom abstrakcji sprzętowych.

Interakcja pomiędzy rdzeniem podsystemu a podsystemami środowiska odbywa się poprzez wykonywanie usług składających się z usługi systemowej oraz usługi trybu jądra. Usługa systemowa to interfejs między podsystemami środowiska aplikacji a usługami trybu jądra. Usługa trybu jądra składa się z następujących modułów oprogramowania:

▪ menedżer wejścia/wyjścia, który pozwala zarządzać procesami wejścia/wyjścia informacji;

▪ menedżer obiektów, który zarządza operacjami systemowymi wykonywanymi na obiektach (użytkowanie, zmiana nazwy, usuwanie, ochrona obiektu);

▪ kierownik kontroli bezpieczeństwa, gwarantujący bezpieczeństwo systemu;

▪ sposoby wywoływania lokalnych procedur wspierających działanie aplikacji użytkownika i podsystemów środowiska oraz zapewniających wymianę informacji;

▪ menedżer pamięci wirtualnej, czyli usługa zarządzająca pamięcią fizyczną i wirtualną;

▪ menedżer procesów, który reguluje działanie procesów (tworzenie, usuwanie, rejestrowanie); dystrybucja przestrzeni adresowej i innych zasobów pomiędzy procesami.

Wszystkimi procesami systemowymi steruje jądro Windows NT, które odpowiada również za optymalne działanie systemu.

Część systemu zapewniająca niezależność wyższych poziomów systemu operacyjnego od specyfiki i różnic konkretnego sprzętu nazywana jest warstwą abstrakcji sprzętu. Ten moduł zawiera wszystkie informacje dotyczące sprzętu.

Graficzny interfejs użytkownika został zaprojektowany tak, aby zapewnić komfort pracy użytkownika podczas pracy z systemem Windows NT. Interfejs ten jest przejrzysty, prosty, wygodny podczas uruchamiania programów, otwierania i zapisywania plików, pracy z plikami, dyskami i serwerami sieciowymi. Graficzny interfejs użytkownika w systemie Windows NT jest oparty na podejściu zorientowanym obiektowo. Praca użytkownika w tym podejściu skupia się głównie na dokumentach, a nie na programach. Ładowanie dowolnego dokumentu odbywa się poprzez otwarcie pliku zawierającego ten dokument, przy jednoczesnym automatycznym ładowaniu programu, za pomocą którego został utworzony otwierany plik.

Interfejs użytkownika systemu Windows NT zawiera następujące elementy: „Pulpit”; "Pasek zadań"; „Menu startowe”; "Menu kontekstowe"; „System menu aplikacji Windows NT”; skróty: „Mój komputer”, „Miejsca sieciowe”, „Kosz”, „Internet Explorer”, „Skrzynka odbiorcza”, „Portfolio”; "Okno"; „Czcionki”; „System pomocy Windows NT”. Pulpit zawiera skróty przedstawiające programy, dokumenty i urządzenia. Skróty umożliwiają szybki dostęp do programów, folderów, dokumentów, urządzeń na komputerze lub w sieci.

4.7. Instalacja WINDOWSNT

Instalacja ma na celu rozwiązanie problemów w poniższej kolejności.

1. Wybór systemu plików, który ma być używany. Jeśli instalujesz system Windows NT Server, musisz zdecydować, czy chcesz używać modelu domeny, czy modelu grupy roboczej. Podczas instalacji należy określić rolę odgrywaną przez komputer z systemem Windows NT Server: podstawowy lub zapasowy kontroler domeny, serwer plików, drukarkę lub serwer aplikacji.

2. Utworzenie zestawu wymaganych protokołów instalowanych domyślnie. Jeśli wybierzesz typ instalacji Express Setup, możesz później zainstalować inne protokoły.

3. Przygotowanie podanego hasła.

4. Wybór typu używanej karty sieciowej, typ adaptera dysku, konfiguracja karty dźwiękowej.

5. Określenie typu i modelu drukarki oraz portu jej podłączenia podczas instalacji systemu Windows NT i sterowników drukarki.

6. Testowanie sprzętu pod kątem przydatności do użytku za pomocą testów diagnostycznych.

7. Sprawdzenie zgodności wszystkich urządzeń komputerowych z systemem Windows NT

Podczas instalacji systemu Windows NT program instalacyjny monituje o opcje instalacji, które należy zainstalować na dysku twardym, a następnie kopiuje używane pliki, tworzy i wyświetla menu startowe.

Instalacja Windows NT może być:

▪ początkowe, jeśli na komputerze nie był wcześniej instalowany żaden system lub istniejący system operacyjny wymaga całkowitej wymiany;

▪ możliwość aktualizacji, gdy system Windows NT jest zainstalowany w stosunku do poprzedniej wersji, przy jednoczesnym zachowaniu istniejącego systemu operacyjnego. Zastępuje to wszystkie istniejące pliki systemu Windows NT i zachowuje ustawienia rejestru, których dane są powiązane z ładowaniem aplikacji i identyfikatorami zabezpieczeń.

Instalacja systemu Windows NT rozpoczyna się od uruchomienia narzędzia winnt.exe, które jest 16-bitową aplikacją działającą w systemach DOS, Windows NT itp. W przypadku aktualizacji uruchamiana jest 32-bitowa wersja tego pliku, winnt32.exe .

Istnieje kilka sposobów instalacji systemu Windows NT:

▪ z płyty CD-ROM kompatybilnej z HCL przy użyciu dyskietek startowych;

▪ CD, jeśli istnieje system operacyjny bez dysków startowych;

▪ dysk dostępny w lokalnej sieci komputerowej.

Jeśli dysk CD-ROM jest urządzeniem zgodnym z HCL, system Windows NT jest instalowany przy użyciu dyskietek rozruchowych.

Jeśli na komputerze jest zainstalowany wcześniej system operacyjny, a dysk CD-ROM nie jest urządzeniem zgodnym z HCL, zawartość odpowiedniego folderu jest kopiowana na dysk twardy. Za pomocą klucza instalator kopiuje pliki na dysk twardy z dowolnego innego nośnika, z wyjątkiem dysków startowych. Pliki te zostaną uruchomione po ponownym uruchomieniu komputera.

Dzięki obsłudze karty sieciowej i protokołów sieciowych Windows NT możliwe jest uruchomienie programu instalacyjnego bez użycia dodatkowych kluczy. Pliki i katalogi dystrybucyjne mogą znajdować się na płycie CD-ROM lub dysku twardym serwera. Jeśli karta sieciowa lub protokół nie jest obsługiwany przez system Windows NT, należy skopiować cały katalog dystrybucyjny na dysk twardy komputera.

Jeśli jakikolwiek system operacyjny nie był wcześniej zainstalowany na komputerze, dysk rozruchowy dla użytkownika można utworzyć za pomocą narzędzia administratora klienta systemu Windows NT Server. Ten dysk inicjuje rozruch systemu DOS i staje się możliwe skopiowanie plików dystrybucyjnych na dysk.

4.8. Rejestracja i konfiguracja systemu operacyjnego WINDOWS NT

Główne informacje o składzie systemu Windows NT znajdują się w rejestrze (specjalnej bazie danych), który zawiera informacje o: zainstalowanych programach, bibliotekach i sterownikach; o powiązaniach między dokumentami i programami, w których powstały; parametry kontrolujące działanie komputerów podłączonych do sieci lokalnych lub globalnych.

Podczas korzystania z rejestru istnieje możliwość modyfikacji konfiguracji systemu operacyjnego. Ten sam rezultat można uzyskać za pomocą interfejsu użytkownika, na przykład za pośrednictwem panelu sterowania. Rejestr odzwierciedla wszystkie zmiany, ale przed wprowadzeniem w nim zmian należy wykonać kopię zapasową systemu i wydrukować jego główne elementy. Rejestr może być edytowany przez użytkownika zarejestrowanego w grupie Administratorzy.

Informacje o systemie lokalnym znajdują się w następujących podrozdziałach:

1) SYSTEM (system) – informacje związane z uruchamianiem systemu, ładowaniem sterowników urządzeń;

2) Sprzęt (sprzęt) – informacja o zainstalowanym sprzęcie, wyświetlająca ich aktualny stan;

3) Oprogramowanie (oprogramowanie) – informacje o ustawieniach oprogramowania;

4) Menedżer konta bezpieczeństwa SAM (menedżer konta bezpieczeństwa) - informacje o użytkowniku lokalnym, kontach grupowych i wartości domeny;

5) BEZPIECZEŃSTWO – informacja o zabezpieczeniach stosowanych przez system bezpieczeństwa tego komputera.

Dzięki takiej architekturze rejestru system Windows NT może utrzymywać uniwersalny magazyn wszystkich informacji i zapewniać rozproszony, ale bezpieczny dostęp do nich przez sieć. Całkowity rozmiar plików rejestru systemu Windows NT 4 jest ograniczony do 2 GB lub nieprzydzielonego miejsca na dysku w woluminie systemowym. Możliwość zamiany cech i wartości podsekcji oraz kluczy rejestru pozwala na zmianę systemu operacyjnego Windows NT, w szczególności:

▪ zwiększyć szybkość pulpitu poprzez ustawienie liczby ikon przechowywanych w pamięci i pliku pamięci podręcznej;

▪ zmieniać liczbę, rozmiar i kolor ikon wyświetlanych na ekranie oraz inne ustawienia powłoki systemu operacyjnego;

▪ zastąp Eksploratora Windows menedżerem programów lub inną powłoką;

▪ zmienić wygląd standardowych ikon na pulpicie i w menu startowym.

Aby wybrać inny typ usługi systemowej, sterownika urządzenia lub sterownika pliku, należy ustawić żądane opcje w odpowiednim kluczu rejestru.

Rejestr pozwala zwiększyć wydajność pracy z pamięcią, a mianowicie poprawić wykorzystanie pamięci fizycznej i wirtualnej w systemie Windows NT. Można to zrobić, zwiększając rozmiar pamięci podręcznej plików.

Korzystanie z rejestru pomaga w zarządzaniu wieloma składnikami sieciowymi, ale nie wszystkie usługi sieciowe mogą być uruchomione w systemie. Korzystając z narzędzi, możesz zidentyfikować aktywne komponenty i umieścić je na górze listy komponentów dostępu do sieci, co doprowadzi do znacznego wzrostu wydajności systemu. Ten sam program określa poziom zajętości OP, a jeśli nie ma wystarczającej ilości pamięci, może zmienić liczbę użytkowników uzyskujących dostęp do serwera.

Przy dużej liczbie żądań istnieje możliwość zmiany ilości wątków. Zwiększenie tej wartości poprawia wydajność systemu.

Narzędzia i odpowiednie protokoły są używane do instalowania i konfigurowania dostępu zdalnego. To samo narzędzie służy do konfigurowania użycia portu.

4.9. Cechy systemu operacyjnego WINDOWS 2000

Oprogramowanie Windows 2000 może być używane w komputerach stacjonarnych i klastrach serwerów z symetrycznym przetwarzaniem wieloprocesorowym. Proces takiego przetwarzania wspierany jest przez podsystem pamięci masowej o pojemności milionów terabajtów oraz pamięć RAM o pojemności setek gigabajtów. System operacyjny Windows 2000 obejmuje cztery sieciowe systemy operacyjne, które koncentrują się na rozwiązywaniu różnego rodzaju zadań użytkownika:

1) Windows 2000 Professional – sieciowy system operacyjny przeznaczony dla komputerów biurowych i mobilnych. System ten jest ulepszoną wersją systemu Windows NT Workstation 4.0, charakteryzującą się zwiększoną niezawodnością i bezpieczeństwem;

2) Windows 2000 Server to uniwersalny sieciowy system operacyjny obsługiwany przez 4-procesorowe serwery i 4 GB pamięci RAM, przeznaczony dla małych i średnich organizacji. Windows 2000 Server wykorzystuje najlepsze funkcje systemu Windows 2000 Server 4.0 i ustanawia nowy standard niezawodności, integracji systemu operacyjnego, usług katalogowych, aplikacji, sieci internetowych, usług drukowania i dostępu do plików;

3) Windows 2000 Advanced Server to wyspecjalizowany system operacyjny obsługiwany przez 8-procesorowe serwery i 8 GB pamięci RAM. Służył do pracy jako serwer aplikacji, brama internetowa itp.;

4) Windows 2000 Datacenter Server – system obsługujący architektury 32-procesorowe i 64 GB RAM. Używany do rozwiązywania zadań wymagających dużej ilości zasobów, jest w stanie rozwiązać wszystkie zadania systemu Windows 2000 Advanced Server i problemy wymagające wysokiego poziomu skalowalności.

Skalowalność i wydajność systemu Windows 2000 jest świetna w porównaniu z resztą, co osiągnięto dzięki rozszerzeniu fizycznej przestrzeni adresowej, co pozwala procesorowi zaadresować 64 GB pamięci RAM; obsługa systemów 32-procesorowych; stosowanie specjalnych ustawień oprogramowania podczas rezerwowania i blokowania pamięci, które zmniejszają konkurencję między procesorami o zasoby itp.

System Windows 2000 został wzbogacony o narzędzia, takie jak Zaawansowane przywracanie systemu, Kreator naprawy niezgodności sterowników i Menedżer składników, które ułatwiają pracę administratora i zwiększają jego bezpieczeństwo.

W systemie Windows 2000 zaimplementowana jest zasada ograniczania do zera czasu nieplanowanych przestojów systemu w przypadku ich wystąpienia, czyli maksymalnego wspomagania administratora w identyfikacji tych przyczyn. W tym celu wbudowane są mechanizmy zwiększające niezawodność system i administratorzy otrzymują nowe narzędzia do przywracania systemu w przypadku awarii.

Jeśli awaria jest spowodowana instalacją nieprawidłowych sterowników, administrator musi uruchomić system w trybie awaryjnym, czyli wybrać jeden z czterech możliwych trybów uruchamiania: standardowy, sieciowy, wiersz poleceń lub przywracanie usługi Active Directory.

W trybie awaryjnym administrator może sprawdzić poprawność dowolnych sterowników, a także może zmienić domyślne wartości parametrów sterownika i klucza usługi w gałęziach rejestru konfiguracyjnego, które je definiują.

Innym narzędziem do odzyskiwania systemu jest konsola odzyskiwania, używana podczas uruchamiania z dysku CD lub dyskietek rozruchowych w celu przywrócenia systemu lub wymiany uszkodzonych plików jądra systemu.

4.10. Sieciowe systemy operacyjne

Sieciowy system operacyjny (Network Operation System – NOS) to zbiór systemów operacyjnych poszczególnych komputerów, które kontaktują się ze sobą w celu wymiany informacji i udostępniania zasobów według jednolitych reguł (protokołów). Ponadto takim systemem jest system operacyjny oddzielnej stacji roboczej, która zapewnia jej obsługę sieciową.

Sieciowy system operacyjny zawiera następujące narzędzia:

1) zarządzanie lokalnymi zasobami PC (np. dystrybucja OP pomiędzy uruchomionymi procesami);

2) udostępnianie własnych zasobów i usług do użytku ogólnego (część serwerowa OS);

3) żądania dostępu do zdalnych zasobów i usług oraz korzystania z nich (kliencka część systemu operacyjnego);

4) powiadamianie w sieci (środki łączności).

Każdy z sieciowych systemów operacyjnych musi sprawnie zarządzać zasobami, zapewniać wygodny wielookienkowy interfejs użytkownika itp. Od lat 1990-tych. Na sieciowe systemy operacyjne zaczęto nakładać pewne standardowe wymagania:

▪ możliwość rozbudowy;

▪ przenośność;

▪ wystarczająca niezawodność;

▪ kompatybilność;

▪ bezpieczeństwo;

▪ produktywność.

W zależności od funkcji przypisanych sieciowym systemom operacyjnym dzielą się one na systemy zaprojektowane specjalnie dla sieci peer-to-peer oraz systemy dla sieci z serwerem dedykowanym. Komputery serwerowe powinny używać systemów operacyjnych zoptymalizowanych pod kątem określonych funkcji serwera. Dlatego w sieciach z serwerami dedykowanymi często stosuje się systemy sieciowe, które składają się z kilku opcji systemu operacyjnego różniących się możliwościami części serwerowych.

Ze względu na skalę obsługiwanych sieci sieciowe systemy operacyjne dzielą się na następujące typy:

1) sieci działów, które tworzą niewielką grupę pracowników określonego przedsiębiorstwa lub organizacji. Głównym zadaniem takiego systemu jest proces udostępniania lokalnych zasobów;

2) sieci na poziomie kampusu, które łączą kilka sieci działów przedsiębiorstwa w oddzielnym budynku lub na jednym terytorium w jedną sieć lokalną. Główną funkcją takich systemów jest zapewnienie pracownikom niektórych działów dostępu do informacji i zasobów sieci innych działów;

3) sieci korporacyjne (lub sieci korporacyjne), które obejmują wszystkie sieci lokalne pojedynczego przedsiębiorstwa zlokalizowane na różnych terytoriach. Sieci korporacyjne to globalne sieci komputerowe. Systemy operacyjne na tym poziomie muszą obsługiwać szerszy zestaw usług.

4.11. Rodzina systemów operacyjnych UNIX

Projekt systemu UNIX (Uniplex Information and Computing Services) został stworzony przez K. Thompsona i D. Ritchiego w Bell Labs firmy AT&T ponad 20 lat temu. Opracowany przez nich system operacyjny został zaimplementowany w asemblerze. Początkowo pracownik Bell Labs, B. Kernigan, nazwał ten system „UNICS”. Jednak wkrótce stał się znany w skrócie jako „UNIX”.

W 1973 roku D. Ritchie opracował język programowania wysokiego poziomu C (C), a system UNIX został wkrótce przepisany w tym języku. Po publikacji D. Ritchiego i K. Thompsona w 1974 roku w czasopiśmie CACM system UNIX zaczął być używany wszędzie.

Głównym problemem systemu operacyjnego rodziny UNIX jest niekompatybilność różnych wersji. Próby ujednolicenia wersji UNIX-a zakończyły się niepowodzeniem, gdyż najczęściej używane były dwie niekompatybilne wersje tego systemu: linia AT&T - UNIX System V oraz linia Berkeley - UNIX BSD. Wiele firm opartych na tych wersjach opracowało własne wersje systemu UNIX: SunO- i Solaris firmy Sun Microsystems, AIX firmy IBM, UnixWare firmy Novell itp.

Jedna z najnowszych wersji UNIX System V Release 4 łączy w sobie najlepsze cechy linii UNIX System V i UNIX BSD, ale ta wersja systemu jest niekompletna, ponieważ brakuje w niej narzędzi systemowych niezbędnych do pomyślnego korzystania z systemu operacyjnego.

Wspólne cechy każdego systemu operacyjnego UNIX to:

1) tryb wielu użytkowników wraz ze sposobem zabezpieczenia danych przed dostępem osób nieupoważnionych;

2) implementacja przetwarzania wieloprogramowego w trybie z podziałem czasu, która opiera się na wykorzystaniu algorytmów wielozadaniowości z wywłaszczaniem; zwiększenie poziomu wieloprogramowości;

3) ujednolicenie operacji wejścia-wyjścia w oparciu o rozszerzone użycie pojęcia „pliku”;

4) hierarchiczny system plików tworzący jedno drzewo katalogów niezależnie od liczby fizycznych urządzeń służących do umieszczania plików;

5) przenośność systemu, która jest realizowana poprzez napisanie jego głównej części w języku C;

6) różne sposoby interakcji między procesami, na przykład za pośrednictwem sieci;

7) buforowanie dysku w celu skrócenia średniego czasu dostępu do plików.

4.12. System operacyjny Linux

System operacyjny Linux oparty jest na projekcie L. Torvalda, studenta Uniwersytetu Helsińskiego, który wykorzystuje program Minix. L. Thorvald opracował wydajną wersję systemu UNIX na PC dla użytkowników Minix i nazwał ją Linux. W 1999 roku wydał wersję 0.11 Linuksa, która stała się wirusowa w Internecie. W kolejnych latach ten system operacyjny został sfinalizowany przez innych programistów, którzy wprowadzili do niego funkcje i funkcje właściwe dla standardowych systemów UNIX. Po pewnym czasie Linux stał się jednym z najpopularniejszych projektów UNIXowych końca XX wieku.

Główną zaletą systemu operacyjnego Linux jest to, że można go używać na komputerach o dowolnej konfiguracji - od komputerów stacjonarnych po potężne serwery wieloprocesorowe. System ten jest w stanie wykonywać wiele funkcji tradycyjnych dla systemów DOS i Windows, takich jak zarządzanie plikami, zarządzanie programami, interakcja z użytkownikiem itp. System Linux jest szczególnie wydajny i elastyczny, zapewniając komputerowi szybkość i wydajność systemu UNIX, a jednocześnie wszystkie zalety nowoczesnych komputerów osobistych. Jednocześnie Linux (podobnie jak wszystkie wersje systemu UNIX) jest wieloużytkownikowym i wielozadaniowym systemem operacyjnym.

System operacyjny Linux stał się dostępny dla wszystkich, ponieważ jest projektem niekomercyjnym iw przeciwieństwie do systemu UNIX jest rozprowadzany wśród użytkowników bezpłatnie w ramach Fundacji Wolnego Oprogramowania. Z tego powodu ten system operacyjny często nie jest uważany za profesjonalny. W rzeczywistości można go opisać jako komputerową wersję profesjonalnego systemu operacyjnego UNIX. Zaletą systemu operacyjnego UNIX jest to, że jego rozwój i późniejszy rozwój odbywał się równolegle z trwającą od kilkudziesięciu lat rewolucją w informatyce i komunikacji. Na bazie systemu UNIX powstały zupełnie nowe technologie. Sam system UNIX jest zbudowany w taki sposób, że można go modyfikować w celu tworzenia różnych wersji. Dlatego istnieje wiele różnych oficjalnych wariantów systemu UNIX, a także wersji, które odpowiadają określonym zadaniom. System operacyjny Linux opracowany w tym kontekście można uznać za kolejną wersję systemu UNIX, która została stworzona specjalnie dla komputerów PC.

System operacyjny Linux ma kilka wydań, ponieważ każdy producent na swój sposób uzupełnia system i jego oprogramowanie, wypuszczając następnie pakiet z własną edycją tego systemu. Jednocześnie różne edycje mogą zawierać zmodyfikowane wersje programów i nowe oprogramowanie.

4.13. Rodzina sieciowych systemów operacyjnych firmy Novell

Jedną z pierwszych firm produkujących zarówno sprzęt, jak i oprogramowanie dla sieci lokalnych był Novell. W tej chwili koncentruje się na oprogramowaniu LAN. Novell jest najlepiej znany ze swojej rodziny sieciowych systemów operacyjnych NetWare, które koncentrują się na sieciach z dedykowanymi serwerami.

Novell skupił się na opracowaniu wysoce wydajnej części serwerowej NetWare OS, aby zapewnić najwyższą możliwą prędkość zdalnego dostępu do plików dla tej klasy komputerów i poprawić bezpieczeństwo danych. W przypadku serwerów po stronie swoich systemów firma Novell opracowała wyspecjalizowany system operacyjny zoptymalizowany pod kątem operacji na plikach i wykorzystujący wszystkie funkcje procesorów Intel x386 i nowszych. Istnieje kilka etapów ewolucji sieciowych systemów operacyjnych firmy Novell:

1) 1983 - powstaje pierwsza wersja NetWare;

2) 1985 - pojawił się system Advanced NetWare v 1.0, rozszerzający funkcjonalność serwera;

3) 1986 - wersja 2.0 systemu Advanced NetWare, która różni się od poprzednich wyższą wydajnością i możliwością łączenia różnych sieci na poziomie łącza. Ten system operacyjny zapewniał możliwość podłączenia do jednego serwera do czterech sieci o różnych topologiach;

4) 1988 - OS NetWare v2.15, który dodał obsługę komputerów Macintosh do NetWare;

5) 1989 - pierwsza wersja 32-bitowego systemu operacyjnego dla serwerów z mikroprocesorem 80386 - NetWare 386 v3.0;

6) 1993 - OS NetWare v4.0, który stał się pod wieloma względami rewolucyjnym nowym produktem.

Wersje NetWare v4.xx mają następujące funkcje:

▪ posiadać specjalizowany system zarządzania zasobami sieciowymi (NetWare Directory Services - NDS);

▪ zarządzanie pamięcią odbywa się tylko przez jeden obszar;

▪ nowy system Data Storage Management zawiera trzy komponenty: fragmentację bloków, czyli dzielenie bloków danych na podbloki (Block Suballocation); pakowanie plików (kompresja plików); przenoszenie danych (migracja danych);

▪ zawiera wbudowaną obsługę protokołu migracji pakietów;

▪ wszystkie komunikaty systemowe i interfejs wykorzystują specjalny moduł;

▪ Narzędzia do zarządzania systemem operacyjnym NetWare v4.xx są obsługiwane przez interfejs DOS, Windows i OS/2.

Wady w NetWare v4.0x uniemożliwiły mu zdobycie rynku. NetWare v4.1 stał się bardziej rozpowszechniony. Linie NetWare v5.x i NetWare v6 wyewoluowały z NetWare v4.x.

Temat 5. Podstawy pracy w lokalnych i globalnych sieciach komputerowych

5.1. Ewolucja sieci komputerowych

Koncepcja sieci komputerowych jest logiczną konsekwencją ewolucji technologii komputerowej. Pierwsze komputery w latach 1950 były duże, nieporęczne i drogie. Ich głównym celem była niewielka liczba wybranych operacji. Komputery te nie były używane do interaktywnej pracy użytkownika, ale były używane w trybie przetwarzania wsadowego.

Systemy przetwarzania wsadowego były zwykle oparte na komputerze typu mainframe, który jest potężnym i niezawodnym komputerem ogólnego przeznaczenia. Użytkownicy przygotowywali perforowane karty zawierające dane i polecenia programu i przesyłali je do centrum komputerowego. Operatorzy wprowadzali te karty do komputera i następnego dnia przekazywali wyniki użytkownikom. Jednocześnie jedna nieprawidłowo wypełniona karta może doprowadzić do co najmniej dziennego opóźnienia.

Dla użytkowników znacznie wygodniejszy byłby interaktywny tryb pracy, który implikuje możliwość szybkiego zarządzania procesem przetwarzania danych z poziomu terminala. Jednak na tym etapie to tryb wsadowy był najbardziej wydajnym sposobem wykorzystania mocy obliczeniowej, ponieważ pozwalał na wykonanie większej liczby zadań użytkownika w jednostce czasu niż jakiekolwiek inne tryby. Na pierwszy plan wysunęła się wydajność najdroższego urządzenia komputerowego, jakim był procesor, ze szkodą dla wydajności posługujących się nim specjalistów.

Na początku lat 1960 spadły koszty produkcji procesorów i pojawiły się nowe sposoby organizacji procesu obliczeniowego, które pozwalają uwzględniać interesy użytkowników. Rozpoczął się rozwój interaktywnych, wieloterminalowych systemów podziału czasu. W tych systemach na komputerze pracowało jednocześnie kilku użytkowników. Każdy z nich otrzymał do dyspozycji terminal, który ułatwiał mu komunikację z komputerem. Jednocześnie czas reakcji systemu obliczeniowego był na tyle krótki, że użytkownik nie zauważył równoległej pracy z komputerem innych użytkowników. Dzieląc w ten sposób komputer, użytkownicy mogli korzystać z dobrodziejstw informatyzacji za stosunkowo niewielką opłatą.

Terminale wychodzące z centrum komputerowego były rozproszone po całym przedsiębiorstwie. Chociaż moc obliczeniowa pozostała całkowicie scentralizowana, wiele operacji, takich jak wprowadzanie i wyprowadzanie danych, zostało rozproszonych. Te scentralizowane systemy z wieloma terminalami stały się zewnętrznie bardzo podobne do sieci lokalnych. W rzeczywistości każdy użytkownik postrzegał pracę przy terminalu typu mainframe w podobny sposób, jak obecnie pracuje przy komputerze PC podłączonym do sieci. Miał dostęp do współdzielonych plików i urządzeń peryferyjnych i był przekonany, że jest jedynym właścicielem komputera. Wynikało to z faktu, że użytkownik mógł uruchomić potrzebny mu program w dowolnym momencie i uzyskać wynik niemal natychmiast.

Tym samym systemy wieloterminalowe działające w trybie współdzielenia czasu były pierwszym krokiem w kierunku tworzenia sieci lokalnych. Jednak przed pojawieniem się sieci lokalnych nadal trzeba było przebyć długą drogę, ponieważ systemy wieloterminalowe, chociaż miały zewnętrzne cechy systemów rozproszonych, nadal zachowały scentralizowany charakter przetwarzania informacji i potrzebę przedsiębiorstw tworzenie lokalnych sieci do tego momentu jeszcze nie dojrzało. Wynikało to z faktu, że w jednym budynku nie było po prostu nic do sieci. Wysoki koszt komputerów uniemożliwił firmom zakup wielu komputerów. W tym okresie obowiązywało tzw. prawo Grosza, empirycznie odzwierciedlające ówczesny poziom techniki. Zgodnie z tym prawem wydajność komputera była proporcjonalna do kwadratu jego kosztu, dlatego za tę samą kwotę bardziej opłacało się kupić jedną potężną maszynę niż dwie słabsze, ponieważ ich całkowita moc okazała się znacznie niższa niż moc drogiej maszyny.

Jednak potrzeba połączenia komputerów, które znajdowały się w dużej odległości od siebie w tym czasie, była dość dojrzała. Rozwój sieci komputerowych rozpoczął się od rozwiązania prostszego problemu – dostępu do komputera z terminali oddalonych od niego o wiele setek, a nawet tysięcy kilometrów. Terminale były podłączone do komputerów za pośrednictwem sieci telefonicznych za pośrednictwem modemów. Takie sieci umożliwiały wielu użytkownikom zdalny dostęp do współdzielonych zasobów kilku potężnych komputerów klasy superkomputerów. Potem pojawiły się systemy, w których oprócz zdalnych połączeń typu terminal-komputer, stosowano również zdalne połączenia typu komputer-komputer. Komputery potrafiły wymieniać dane automatycznie, co jest podstawowym mechanizmem każdej sieci komputerowej. W oparciu o ten mechanizm pierwsze sieci organizowały usługę wymiany plików, synchronizacji baz danych, poczty elektronicznej i inne, które obecnie stały się tradycyjnymi usługami sieciowymi.

Tak więc, chronologicznie, globalne sieci komputerowe były pierwszymi, które zostały opracowane i zastosowane. To właśnie podczas budowy sieci globalnych zaproponowano i opracowano prawie wszystkie podstawowe idee i koncepcje istniejących sieci komputerowych, na przykład wielopoziomową budowę protokołów komunikacyjnych, technologię komutacji pakietów i routing pakietów w sieciach kompozytowych.

W latach siedemdziesiątych nastąpił przełom technologiczny w produkcji podzespołów komputerowych, co zaowocowało powstaniem LSI. Ich niski koszt i ogromna funkcjonalność pozwoliły stworzyć minikomputery, które stały się prawdziwymi konkurentami dla komputerów typu mainframe. Prawo Grosza przestało obowiązywać, ponieważ dziesięć minikomputerów było w stanie wykonywać niektóre zadania znacznie szybciej niż jeden komputer typu mainframe, a taki minikomputer kosztował mniej.

Małe oddziały przedsiębiorstw mogły teraz kupować dla siebie komputery. Minikomputery były w stanie wykonywać zadania zarządzania sprzętem technologicznym, magazynem i rozwiązywania innych problemów odpowiadających poziomowi działu przedsiębiorstwa, czyli pojawiła się koncepcja dystrybucji zasobów komputerowych w całym przedsiębiorstwie, ale jednocześnie wszystkie komputery o jedna organizacja nadal działała niezależnie.

Z czasem potrzeby użytkowników komputerów rosły, pojawiła się potrzeba możliwości wymiany danych z innymi blisko oddalonymi od siebie komputerami. Z tego powodu firmy i organizacje zaczęły korzystać z połączenia swoich minikomputerów i opracowały oprogramowanie niezbędne do ich interakcji. W efekcie doprowadziło to do powstania pierwszych sieci lokalnych. Nadal znacznie różniły się one od nowoczesnych sieci, w szczególności interfejsem urządzenia. Początkowo do łączenia ze sobą komputerów stosowano szeroką gamę niestandardowych urządzeń z własnymi metodami prezentacji danych na liniach komunikacyjnych, własnymi typami kabli itp. Urządzenia takie mogły łączyć tylko te typy komputerów, dla których zostały zaprojektowane. Ta sytuacja stworzyła duże pole do kreatywności studentów. Nazwy wielu projektów kursów i dyplomów były poświęcone urządzeniu interfejsowemu.

W 1980 sytuacja w sieciach lokalnych zaczęła się diametralnie zmieniać. Pojawiły się standardowe technologie łączenia komputerów z siecią - Ethernet, Arcnet, Token Ring. Silny impuls do ich rozwoju dał komputer PC. Te masowe produkty stały się idealnymi elementami do budowy sieci. Z jednej strony były dość wydajne i zdolne do pracy z oprogramowaniem sieciowym, az drugiej strony musiały połączyć swoją moc obliczeniową, aby rozwiązać złożone problemy. Komputery osobiste zaczęły dominować w sieciach lokalnych, nie tylko jako komputery klienckie, ale także jako centra przechowywania i przetwarzania danych, czyli serwery sieciowe, wypierając jednocześnie minikomputery i komputery typu mainframe z ich zwykłych ról.

Konwencjonalne technologie sieciowe sprawiły, że proces budowania sieci lokalnej ze sztuki stał się przykrym obowiązkiem. Do tworzenia sieci wystarczyło zakupić karty sieciowe o odpowiednim standardzie, np. Ethernet, standardowy kabel, połączyć adaptery i kabel ze standardowymi złączami oraz zainstalować dowolny z dostępnych sieciowych systemów operacyjnych, takich jak NetWare, na komputer. Teraz sieć zaczęła działać, a podłączenie nowego komputera nie spowodowało problemów. Połączenie następowało naturalnie, jeśli zainstalowano na nim kartę sieciową tej samej technologii.

Sieci lokalne w porównaniu z globalnymi wprowadziły wiele nowych technologii organizacji pracy użytkowników. Dostęp do współdzielonych zasobów stał się znacznie wygodniejszy, ponieważ użytkownik mógł po prostu przeglądać listy dostępnych zasobów, zamiast zapamiętywać ich identyfikatory czy nazwy. Podczas łączenia się ze zdalnym zasobem można było z nim pracować za pomocą poleceń już znanych użytkownikowi do pracy z lokalnymi zasobami. Konsekwencją i jednocześnie motorem takiego postępu było pojawienie się dużej liczby użytkowników nieprofesjonalnych, którzy w ogóle nie musieli uczyć się specjalnych (i raczej skomplikowanych) poleceń do pracy w sieci. Twórcy sieci lokalnych otrzymali możliwość korzystania ze wszystkich tych udogodnień wraz z pojawieniem się wysokiej jakości kablowych linii komunikacyjnych, za pomocą których nawet karty sieciowe pierwszej generacji mogły zapewnić szybkość przesyłania danych do 10 Mb / s.

Jednak twórcy globalnych sieci nie podejrzewali takich prędkości, ponieważ musieli korzystać z dostępnych kanałów komunikacji. Wynikało to z faktu, że układanie nowych systemów kablowych dla sieci komputerowych o długości tysięcy kilometrów wiązałoby się z ogromnymi inwestycjami kapitałowymi. Dostępne były wówczas jedynie kanały komunikacji telefonicznej, słabo przystosowane do szybkiej transmisji danych dyskretnych – prędkość 1200 bit/s była dla nich dobrym osiągnięciem. Z tego powodu ekonomiczne wykorzystanie przepustowości kanałów komunikacyjnych stało się głównym kryterium efektywności metod transmisji danych w sieciach globalnych. W takich warunkach różne procedury przejrzystego dostępu do zdalnych zasobów, które są standardem dla sieci lokalnych, przez długi czas pozostawały nieosiągalnym luksusem dla sieci globalnych.

Obecnie sieci komputerowe stale ewoluują i to dość szybko. Separacja między sieciami lokalnymi i globalnymi stale się zmniejsza, głównie ze względu na pojawienie się szybkich kanałów komunikacji terytorialnej, które nie ustępują jakością systemom kablowym sieci lokalnych. W sieciach globalnych pojawiły się usługi dostępu do zasobów, które są równie wygodne i przejrzyste, jak usługi sieci lokalnych. Takie przykłady masowo pokazuje najpopularniejsza globalna sieć – Internet.

Przekształceniu ulegną również sieci lokalne. Pasywny kabel łączący komputery został zastąpiony przez różnego rodzaju sprzęt komunikacyjny - przełączniki, routery, bramki. Dzięki zastosowaniu takiego sprzętu możliwe stało się budowanie dużych sieci korporacyjnych, które obejmują tysiące komputerów i mają złożoną strukturę. Nastąpiło ponowne zainteresowanie dużymi komputerami. Stało się tak, ponieważ po opadnięciu euforii na temat łatwości pracy z pecetami stało się jasne, że systemy składające się z setek serwerów są trudniejsze w utrzymaniu niż kilka dużych komputerów. Dlatego na nowym etapie ewolucji komputery typu mainframe powracają do korporacyjnych systemów komputerowych. Jednocześnie są to pełnoprawne węzły sieciowe obsługujące Ethernet czy Token Ring, a także stos protokołów TCP/IP, który dzięki Internetowi stał się de facto sieciowym standardem.

Pojawił się kolejny ważny trend, który w równym stopniu dotyczy zarówno sieci lokalnych, jak i globalnych. Zaczęli przetwarzać informacje, które wcześniej były nietypowe dla sieci komputerowych, takie jak głos, obrazy wideo i rysunki. Doprowadziło to do konieczności zmian w działaniu protokołów, sieciowych systemów operacyjnych i sprzętu komunikacyjnego. Trudność przesyłania tych informacji multimedialnych przez sieć wynika z jej wrażliwości na opóźnienia w przypadku transmisji pakietów danych. Opóźnienia najczęściej powodują zniekształcenie takich informacji w węzłach końcowych sieci. Ponieważ konwencjonalne usługi sieci komputerowych, takie jak przesyłanie plików lub poczta e-mail, generują ruch niewrażliwy na opóźnienia, a wszystkie elementy sieci zostały wymyślone z myślą o tym, pojawienie się ruchu w czasie rzeczywistym stało się dużym problemem.

W tej chwili problemy te są rozwiązywane na różne sposoby, na przykład za pomocą technologii ATM specjalnie zaprojektowanej do przesyłania różnych rodzajów ruchu. Jednak pomimo ogromnych wysiłków czynionych w tym kierunku, nadal jest to dalekie od akceptowalnego rozwiązania problemu i wiele pozostaje do zrobienia w tej dziedzinie, aby osiągnąć fuzję technologii nie tylko dla sieci lokalnych i globalnych, ale także dla technologii dowolnych sieci informatycznych - komputera, telefonu, telewizji itp. Pomimo faktu, że dziś ten pomysł wydaje się wielu nierealny, eksperci uważają, że warunki wstępne dla takiego stowarzyszenia już istnieją. Opinie te różnią się jedynie oszacowaniem przybliżonych terminów takiego stowarzyszenia – terminy te określane są od 10 do 25 lat. Jednocześnie uważa się, że podstawą syntezy będzie stosowana obecnie w sieciach komputerowych technologia komutacji pakietów, a nie stosowana w telefonii technologia komutacji łączy.

5.2. Główne komponenty programowe i sprzętowe sieci

W wyniku choćby pobieżnego rozważenia działania sieci staje się jasne, że sieć komputerowa jest złożonym zbiorem powiązanych ze sobą i spójnie funkcjonujących komponentów programowych i sprzętowych. Badanie sieci jako całości polega na badaniu zasad działania poszczególnych jej elementów, wśród których są:

1) komputery;

2) sprzęt łączności;

3) systemy operacyjne;

4) aplikacje sieciowe.

Całe oprogramowanie i sprzęt sieci można opisać za pomocą modelu wielowarstwowego. Pierwsza to warstwa sprzętowa standaryzowanych platform komputerowych. W tej chwili komputery różnych klas są szeroko iz powodzeniem stosowane w sieciach - od komputerów osobistych po komputery typu mainframe i superkomputery. Zestaw komputerów sieciowych należy porównać ze zbiorem różnych zadań, które rozwiązuje sieć.

Druga warstwa to sprzęt komunikacyjny. Chociaż komputery odgrywają kluczową rolę w przetwarzaniu informacji w sieciach, urządzenia komunikacyjne, takie jak okablowanie, wzmacniacze, mosty, przełączniki, routery i koncentratory modułowe, zaczęły odgrywać ważną rolę. Obecnie urządzenie komunikacyjne może być złożonym, dedykowanym wieloprocesorem, który musi być konfigurowany, optymalizowany i administrowany. Aby dokonać zmian w zasadach działania urządzeń komunikacyjnych, konieczne jest przestudiowanie wielu protokołów stosowanych zarówno w sieciach lokalnych, jak i rozległych.

Trzecią warstwą, która tworzy platformę programową sieci, jest system operacyjny. Rodzaj koncepcji zarządzania lokalnymi i rozproszonymi zasobami leżącymi u podstaw sieciowego systemu operacyjnego decyduje o wydajności całej sieci. Projektując sieć należy wziąć pod uwagę, jak łatwo ten system może współpracować z innymi systemami operacyjnymi sieci, na ile jest w stanie zapewnić bezpieczeństwo i ochronę danych oraz w jakim stopniu pozwala na zwiększenie liczby użytkownicy.

Czwarta, najwyższa warstwa narzędzi sieciowych obejmuje różne aplikacje sieciowe, takie jak sieciowe bazy danych, systemy pocztowe, narzędzia do archiwizacji danych, systemy automatyzacji współpracy itp. Ważna jest znajomość zakresu możliwości, jakie aplikacje zapewniają różnym aplikacjom, a także że są kompatybilne z innymi aplikacjami sieciowymi i systemem operacyjnym.

5.3. Rodzaje sieci lokalnych

Aby połączyć ze sobą dwa komputery, łączy się je specjalnym kablem typu null-modem. Ten kabel jest podłączany, gdy komputer jest wyłączony, a dla każdej metody połączenia należy użyć innego typu kabla.

Jeśli używane jest bezpośrednie połączenie z komputerem, istnieją dwa rodzaje ich interakcji:

1) dostęp bezpośredni, w którym możliwy jest jedynie transfer informacji z jednego komputera na drugi;

2) zdalne sterowanie, w ramach którego możliwe jest wykonanie programu hostowanego na innym komputerze.

Przy bezpośrednim dostępie jeden z komputerów jest nadrzędnym, a drugi podrzędnym. Zarządza pracą połączonych ze sobą komputerów, użytkownika z hosta PC. W takim przypadku ważne jest wykonanie następujących czynności przygotowawczych:

▪ instalacja komponentów oprogramowania Klienta, Protokołu, Usług;

▪ instalacja usługi dostępu do plików i drukarek sieciowych Microsoft. Flagę należy sprawdzić na komputerze udostępniającym zasoby. Pliki na tym komputerze można udostępniać;

▪ zapewnienie dostępu na poziomie zasobu;

▪ definicja jako współdzielone zasoby serwera PC uczestniczącego w wymianie;

▪ połączenie komputera klienckiego z udostępnionymi zasobami informacyjnymi.

Wszystkie akcje na poleceniu Połączenie bezpośrednie są wykonywane przez Kreatora połączenia bezpośredniego przy użyciu kolejnych okien dialogu Połączenie bezpośrednie. Okna te wskazują, który z komputerów jest podrzędnym, a który nadrzędnym; port używany do komunikacji; hasło logowania do użycia.

W ostatnim oknie Połączenie bezpośrednie, jeśli parametry są ustawione poprawnie, kliknij przycisk Odbierz polecenia na komputerze hosta i przycisk Zarządzaj na komputerze podrzędnym. Następnie komputer nadrzędny może korzystać z udostępnionych zasobów komputera podrzędnego i całej sieci lokalnej, jeśli komputer podrzędny jest podłączony do sieci.

Dzięki zdalnemu sterowaniu serwer jest niejako przedłużeniem klienta. Podstawowy schemat synchronizacji obejmuje następujące kroki:

1) kombinacja komputerów stacjonarnych i przenośnych. Komputer stacjonarny musi być hostem, a foldery zawierające niezbędne pliki muszą być udostępnione;

2) kopiowanie plików z komputera stacjonarnego na komputer przenośny w folderze Portfolio;

3) odłączenie komputera przenośnego od stacjonarnego i dalsza edycja plików w folderze Portfolio;

4) ponowne podłączenie komputera przenośnego do komputera stacjonarnego, z którego pierwotnie skopiowano pliki źródłowe do folderu Portfolio. W takim przypadku komputer przenośny musi być komputerem podrzędnym, a foldery z plikami źródłowymi na komputerze stacjonarnym muszą być udostępnione;

5) otwarcie folderu Portfolio i wykonanie polecenia Portfolio/Odśwież. Jeśli oryginalne pliki pozostały niezmienione w ciągu ostatniego okresu, wszystkie zmodyfikowane pliki w folderze Portfolio zostaną automatycznie skopiowane w miejsce oryginalnych. W przypadku plików zmodyfikowanych na komputerze stacjonarnym zostanie wyświetlone ostrzeżenie, po którym należy wybrać jedną z następujących czynności:

▪ aktualizacja na laptopie;

▪ aktualizacja na komputerze stacjonarnym;

▪ anulowanie aktualizacji.

Nie wszystkie obiekty można zsynchronizować za pomocą polecenia Portfolio/Aktualizuj, ale tylko grupę plików zaznaczoną w folderze.

5.4. Organizacja struktury domenowej sieci

Gdy komputery są połączone w sieć na platformie Windows NT, są one grupowane w grupy robocze lub domeny.

Grupa komputerów, które tworzą blok administracyjny i nie należą do domen, nazywana jest komputerem roboczym. Powstaje na platformie Windows NT Workstation. Każdy komputer w grupie roboczej zawiera własne informacje o budżetach użytkowników i grup i nie udostępnia ich innym komputerom w grupie roboczej. Członkowie będący członkami grup roboczych logują się tylko do stacji roboczej i mogą przeglądać katalogi innych członków grupy roboczej przez sieć. Komputery w sieci peer-to-peer tworzą grupy robocze, które powinny być tworzone w oparciu o strukturę organizacyjną przedsiębiorstwa: grupa robocza księgowości, grupa robocza działu planowania, grupa robocza działu personalnego itp.

Grupę roboczą można utworzyć w oparciu o komputery z różnymi systemami operacyjnymi. Członkowie tej grupy mogą pełnić rolę zarówno użytkowników zasobów, jak i ich dostawców, czyli są równi. Prawo do zapewniania innym komputerom dostępu do wszystkich lub niektórych zasobów lokalnych będących w ich dyspozycji należy do serwerów.

Gdy w sieci znajdują się komputery o różnej pojemności, najbardziej produktywny komputer w konfiguracji sieciowej może pełnić rolę niewydzielonego serwera plików. Jednocześnie może przechowywać informacje, które są stale potrzebne wszystkim użytkownikom. Pozostałe komputery pracują w trybie klienta sieciowego.

Podczas instalowania systemu Windows NT na komputerze należy określić, czy jest on członkiem grupy roboczej, czy domeny.

Logiczne zgrupowanie jednego lub więcej serwerów sieciowych i innych komputerów, które mają wspólny system bezpieczeństwa i informacje w postaci centralnie zarządzanej bazy danych budżetów użytkowników, nazywa się domeną. Każda z domen posiada indywidualną nazwę.

Komputery należące do tej samej domeny mogą znajdować się w sieci lokalnej lub w różnych krajach i kontynentach. Można je łączyć różnymi liniami fizycznymi, takimi jak telefon, światłowód, satelita itp.

Każdy komputer w domenie ma swoją własną nazwę, która z kolei musi być oddzielona kropką od nazwy domeny. Członkiem tej nazwy jest komputer, a domena tworzy w pełni kwalifikowaną nazwę domeny dla tego komputera.

Kontroler domeny to organizacja struktury domeny w sieci, ustanowienie w niej pewnych reguł oraz zarządzanie interakcjami między użytkownikiem a domeną.

Komputer z systemem Windows NT Server i jednym udostępnionym katalogiem do przechowywania informacji o budżetach użytkowników i zabezpieczeniach całej domeny nazywany jest kontrolerem domeny. Jego zadaniem jest zarządzanie w domenie interakcją pomiędzy użytkownikiem a domeną.

Wszystkie zmiany w informacjach o budżetach domeny są selekcjonowane, zapisywane w bazie katalogu i na bieżąco replikowane do domen zapasowych przez główny kontroler domeny. Zapewnia to scentralizowane zarządzanie systemem bezpieczeństwa.

Stosowanych jest kilka modeli budowy sieci o architekturze domenowej:

▪ model jednodomenowy;

▪ model z domeną master;

▪ model z kilkoma domenami głównymi;

▪ model relacji całkowicie opartych na zaufaniu.

5.5. Podejście wielopoziomowe. Protokół. Interfejs. stos protokołów

Komunikacja między urządzeniami w sieci to złożone zadanie. Aby go rozwiązać, stosuje się uniwersalną technikę - dekompozycję, która polega na podzieleniu jednego złożonego zadania na kilka prostszych zadań-modułów. Dekompozycja polega na jasnej definicji funkcji każdego modułu, który rozwiązuje konkretny problem, oraz interfejsów między nimi. W rezultacie uzyskuje się logiczne uproszczenie zadania, dodatkowo możliwa staje się transformacja poszczególnych modułów bez zmiany reszty systemu.

Podczas dekompozycji czasami stosuje się podejście wielopoziomowe. W tym przypadku wszystkie moduły są podzielone na poziomy, które tworzą hierarchię, tj. istnieją poziomy nadrzędne i leżące u podstaw. Moduły tworzące każdy poziom są uformowane w taki sposób, że w celu wykonania swoich zadań wysyłają żądania tylko do tych modułów, które bezpośrednio przylegają do niższych poziomów. Jednak wyniki pracy wszystkich modułów należących do określonego poziomu mogą być przenoszone tylko do modułów sąsiedniego wyższego poziomu. Przy tej hierarchicznej dekompozycji problemu konieczne jest jasne zdefiniowanie funkcji każdego poziomu i interfejsów między poziomami. Interfejs ustanawia zestaw funkcji zapewnianych przez niższą warstwę warstwie wyższej. W wyniku dekompozycji hierarchicznej uzyskuje się znaczną niezależność poziomów, czyli możliwość ich łatwej wymiany.

Sposoby interakcji w sieci można również przedstawić w postaci hierarchicznie zorganizowanego zestawu modułów. W tym przypadku moduły niższego poziomu są w stanie w szczególności rozwiązać wszystkie problemy związane z niezawodną transmisją sygnałów elektrycznych pomiędzy dwoma sąsiednimi węzłami. Moduły wyższego poziomu utworzą transport komunikatów w całej sieci, używając do tego celu narzędzi niższego poziomu. Na najwyższym poziomie znajdują się moduły zapewniające użytkownikom dostęp do różnych usług, w tym usługi plików, usługi drukowania itd. Jest to jednak tylko jeden z wielu możliwych sposobów podziału ogólnego zadania organizacji sieci na prywatne , mniejsze podzadania.

Wielopoziomowe podejście stosowane do opisu i realizacji funkcji systemu jest stosowane nie tylko w odniesieniu do obiektów sieciowych. Ten model działania jest stosowany na przykład w lokalnych systemach plików, jeśli przychodzące żądanie dostępu do pliku jest przetwarzane kolejno przez kilka poziomów programu, przede wszystkim przez poziom najwyższy, który sekwencyjnie analizuje złożoną nazwę symboliczną pliku plik i określa unikalny identyfikator pliku. Następny poziom odnajduje po unikalnej nazwie wszystkie pozostałe cechy pliku: adres, atrybuty dostępu itp. Następnie na niższym poziomie sprawdzane są prawa dostępu do tego pliku, a następnie po obliczeniu współrzędnych pliku obszaru zawierającego niezbędne dane, następuje fizyczna wymiana z urządzeniem zewnętrznym za pomocą sterownika dysku.

Wielopoziomowa reprezentacja narzędzi interakcji sieciowej ma swoją specyfikę, która jest związana z faktem, że w wymianie komunikatów uczestniczą dwie maszyny, czyli w tym przypadku powinna być zorganizowana skoordynowana praca dwóch „hierarchii”. Podczas przesyłania komunikatów obaj uczestnicy wymiany sieciowej muszą zaakceptować wiele umów. Np. muszą uzgadniać poziomy i kształty sygnałów elektrycznych, jak określać długość komunikatów, uzgadniać sposoby sprawdzania ważności, itp. Stąd porozumienia muszą być akceptowane na wszystkich poziomach, od najniższego, jakim jest poziomy transmisji bitów, do bardzo wysokich, jakie wykonuje usługa dla użytkowników sieci.

Moduły, które implementują protokoły sąsiednich warstw i znajdują się w tym samym węźle, również współpracują ze sobą zgodnie z dobrze zdefiniowanymi normami i przy użyciu ustandaryzowanych formatów komunikatów. Reguły te nazywane są interfejsem. Interfejs to zestaw usług, które dana warstwa udostępnia warstwie sąsiedniej. W rzeczywistości protokół i interfejs definiują to samo pojęcie, ale tradycyjnie w sieciach przypisano im różne zakresy: protokoły przypisują reguły interakcji modułów tego samego poziomu w różnych węzłach, a interfejsy definiują moduły sąsiednich poziomów w tym samym węźle .

Środki każdego z poziomów muszą wypracować, po pierwsze, własny protokół, a po drugie, interfejsy z sąsiednimi poziomami.

Hierarchicznie zorganizowany zestaw protokołów, który jest wystarczający do zorganizowania interakcji węzłów w sieci, nazywany jest stosami protokołów komunikacyjnych.

Protokoły komunikacyjne mogą być implementowane zarówno programowo, jak i sprzętowo. Protokoły niższych warstw są najczęściej implementowane przez kombinację oprogramowania i sprzętu, podczas gdy protokoły wyższych warstw są zwykle implementowane wyłącznie w oprogramowaniu.

Moduł oprogramowania, który implementuje protokół, jest często nazywany w skrócie protokołem. W tym przypadku relacja między protokołem – formalnie zdefiniowaną procedurą a protokołem – modułem oprogramowania realizującym tę procedurę jest podobna do relacji między algorytmem rozwiązania określonego problemu a programem rozwiązującym ten problem.

Ten sam algorytm można zaprogramować z różnymi stopniami wydajności. Podobnie protokół może mieć kilka implementacji oprogramowania. Na tej podstawie, porównując protokoły, należy wziąć pod uwagę nie tylko logikę ich pracy, ale także jakość rozwiązań programistycznych. Ponadto jakość całego zestawu protokołów składających się na stos wpływa na efektywność interakcji między urządzeniami w sieci, w szczególności na to, jak racjonalnie rozłożone są funkcje między protokołami różnych poziomów oraz jak dobrze funkcjonują interfejsy między nimi. zdefiniowane.

Protokoły są organizowane nie tylko przez komputery, ale także przez inne urządzenia sieciowe, takie jak koncentratory, mosty, przełączniki, routery itp. Ogólnie rzecz biorąc, połączenie komputerów w sieci nie odbywa się bezpośrednio, ale za pośrednictwem różnych urządzeń komunikacyjnych. W zależności od rodzaju urządzenia wymaga pewnych wbudowanych narzędzi, które implementują jeden lub inny zestaw protokołów.

5.6. Organizacja kont. Zarządzanie grupami użytkowników

Wszystkie informacje o użytkowniku, które są niezbędne do jego identyfikacji i pracy w sieci Windows NT, nazywane są kontem. Jest tworzony dla każdego użytkownika i zawiera unikalną nazwę, którą użytkownik wpisuje podczas rejestracji w sieci oraz hasło dostępu do sieci.

Tworząc konto, musisz podać następujące informacje:

1) grupa użytkowników, w skład której wchodzi użytkownik;

2) ścieżkę do profilu użytkownika, która określa środowisko użytkownika oraz dostępne dla niego programy;

3) godzinę, o której użytkownik może wejść do sieci;

4) stację roboczą, za pośrednictwem której dany użytkownik może wejść do sieci;

5) okres ważności rachunku i rodzaj rachunku;

6) prawa użytkownika do zdalnego dostępu i funkcji oddzwaniania.

Użyj zarządzania kontem, aby wprowadzić zmiany na kontach. Zmiany te mogą obejmować: zmianę hasła, zmianę nazwy konta, zmianę grupy użytkowników (usunięcie z jednej i włączenie do innej), zablokowanie dostępu, usunięcie konta. Konta kontrolerów domeny mogą być ważne również dla innych domen, a te domeny muszą być zaufane.

Windows NT 4 wprowadził koncepcję zarządzania grupami użytkowników. Podstawą tej koncepcji jest nadawanie uprawnień całej grupie użytkowników jednocześnie oraz realizacja kontroli dostępu poprzez dodawanie i usuwanie użytkowników z różnych grup. To podejście do zarządzania kontami zapewnia wszystkie prawa dostępu grupie, w której znajduje się konto.

Konta użytkowników, które mają dostęp do serwerów i stacji roboczych we własnej i innych domenach, z którymi ustanowiono relację zaufania, nazywane są grupami globalnymi. Zarządza nimi menedżer użytkowników domen.

Grupy lokalne składają się z kont użytkowników, które mają dostęp tylko do zasobów systemu lokalnego w ramach własnej domeny, oraz kont użytkowników grup globalnych, które mają dostęp do serwerów będących częścią ich domeny.

Administratorzy to grupa odpowiedzialna za ogólną konfigurację domeny i jej serwerów. Ta grupa ma najwięcej praw. Obejmuje globalną grupę administratorów domeny, która ma takie same uprawnienia jak administratorzy.

Operatorzy budżetu mają prawo do tworzenia nowych grup i kont użytkowników. Mają jednak ograniczone uprawnienia do administrowania kontami, serwerami i grupami domen. Grupy użytkowników, użytkownicy domeny, goście domeny, goście również mają prawa o znacznie ograniczonych możliwościach. Możliwe jest kopiowanie, poprawianie i usuwanie grup utworzonych przez użytkowników. Kreator zarządzania grupami ma uprawnienia do dodawania i tworzenia użytkowników. Działa półautomatycznie i zapewnia krok po kroku pomoc w następujących zadaniach administracyjnych:

▪ tworzenie kont użytkowników;

▪ zarządzanie grupą;

▪ kontrolować dostęp do plików i folderów;

▪ wprowadzanie sterowników drukarek;

▪ instalacja i dezinstalacja programów;

▪ zarządzanie licencjami;

▪ administracja klientami sieciowymi.

5.7. Zarządzanie polityką bezpieczeństwa

Jednym z najważniejszych zadań administracyjnych jest zarządzanie polityką bezpieczeństwa. Obejmuje: interaktywne uwierzytelnianie użytkowników, kontrolę dostępu użytkowników do zasobów sieciowych, audyt.

Interaktywna autoryzacja użytkownika odbywa się poprzez naciśnięcie klawiszy Ctrl + Alt + Del, co prowadzi do uruchomienia narzędzia WINLOGIN otwierającego okno Logowanie.

Kiedy użytkownik dołącza do grupy roboczej, jego konto jest tworzone i przechowywane w SAM (komputerowej pamięci RAM) jego stacji roboczej, a lokalne oprogramowanie uwierzytelniające sprawdza dane logowania wprowadzone do bazy danych SAM stacji roboczej. Jeżeli użytkownik rejestruje się w domenie, to następuje wezwanie do weryfikacji wprowadzonych parametrów rejestracyjnych do bazy SAM domeny, do której należy jego maszyna.

Dostęp użytkownika do zasobów sieciowych jest kontrolowany poprzez stosowanie budżetu użytkownika, reguł użytkownika lub grupy użytkowników, praw dostępu do obiektów itp.

Budżet użytkownika jest tworzony przez administratora po utworzeniu konta. Budżet obejmuje czas sieci, zakres PO przyznany użytkownikowi oraz inne uprawnienia użytkownika w systemie.

Reguły, które określają akcje dostępne do użycia, nazywane są prawami użytkownika lub grupy użytkowników. Przyznane prawa i ograniczenia nałożone na pojedynczego użytkownika lub grupę użytkowników określają możliwość dostępu użytkownika do zasobów sieciowych.

Użytkownik może posiadać uprawnienia zwykłe i zaawansowane. Zazwyczaj uprawnienia rozszerzone nadawane są tylko programistom i czasami administratorom stacji roboczych, ale nie grupom użytkowników.

Edytor zasad systemowych służy do dostosowywania i ustawiania nowych uprawnień dla określonego użytkownika przez administratora.

W systemie Windows NT funkcje administracyjne są najczęściej wykonywane przy użyciu Menedżera użytkowników, Menedżera serwera i innych.

Prawa użytkownika są ustawiane przez administratora podczas tworzenia konta użytkownika. Elementami systemu w Windows NT są obiekty, a każdy obiekt jest zdefiniowany przez typ, zestaw usług i atrybuty.

Typami obiektów w systemie Windows NT są katalogi, pliki, drukarki, procesy, urządzenia, okna itd.; wpływają na dopuszczalne zestawy usług i atrybutów.

Zbiór czynności wykonywanych przez obiekt lub z obiektem jest zbiorem usług.

Nazwa obiektu, dane i lista kontroli dostępu są częścią atrybutów. Lista kontroli dostępu jest wymaganą właściwością obiektu. Ta lista zawiera następujące informacje: listę usług obiektu, listę użytkowników i grup, które mają uprawnienia do wykonania każdej akcji.

W razie potrzeby niektóre prawa użytkownika mogą być chronione: prawa dostępu do obiektów są określane przez deskryptor bezpieczeństwa.

Uprawnienia systemu plików NTFS (zapis, odczyt, wykonywanie, usuwanie, zmiana uprawnień) są zawarte w prawach lokalnych.

Kontrola. Zdalne prawa są wykonywane przez udostępnione zasoby, które z kolei są kontrolowane przez zasób sieciowy, który umożliwia użytkownikom komputerów zdalnych dostęp do obiektów przez sieć.

Audyt służy do rejestrowania wszystkich zdarzeń zachodzących w sieci lokalnej; informuje administratora o wszelkich zabronionych działaniach użytkowników, daje możliwość uzyskania informacji o częstotliwości dostępu do określonych zasobów oraz ustalenia kolejności czynności, które wykonywali użytkownicy.

Istnieją trzy poziomy zarządzania audytem:

1) włączanie i wyłączanie audytu;

2) przesłuchanie dowolnego z siedmiu możliwych typów wydarzeń;

3) sprawdzanie określonych obiektów.

5.8. Zarządzanie zasobami sieciowymi

Zarządzanie zasobami sieciowymi jest wielopłaszczyznowe i obejmuje następujące zadania:

1) selektywna kompresja woluminów, folderów i plików NTFS, przeprowadzana w celu zaoszczędzenia miejsca na dysku. Arkusze kalkulacyjne, pliki tekstowe i niektóre pliki graficzne mogą się zmniejszyć kilkakrotnie;

2) archiwizacja danych i rozwiązywanie podobnych problemów;

3) opracowywanie scenariuszy, które są ustawiane przez zestaw poleceń. Są wśród nich: skrypt do automatycznego wykonywania zadań, gdy użytkownik rejestruje się w systemie, skrypt do katalogu własnego konkretnego użytkownika, ustanawiający odpowiednie łącza sieciowe przy użyciu różnych nazw, nazwisk itp.;

4) replikacja folderów na inne komputery, która umożliwia replikację skryptów rejestracyjnych z jednego kontrolera domeny na inny, baz danych z jednego serwera na inny w celu utrzymania i zorganizowania relacji zaufania;

5) zarządzanie uruchomieniem i funkcjonowaniem usług wspólnie z kierownikiem serwisu. Mogą to być aplikacje działające w tle na serwerze i zapewniające wsparcie dla innych aplikacji;

6) monitorowanie wydajności systemu, realizowane przy pomocy programu Monitor Systemu;

7) zarządzanie dyskami za pomocą programu Disk Administrator, w tym tworzenie partycji podstawowych i rozszerzonych, formatowanie partycji, tworzenie woluminów łączonych itp.;

8) optymalizacja pracy systemu Windows NT 4 jako serwera plików, jako serwera aplikacji (sterowanie procesorem serwera aplikacji, sterowanie pamięcią wirtualną, eliminowanie problemów z siecią), itp. przepustowości sieci;

9) zarządzanie usługami drukowania. Konserwacja drukarek odbywa się za pomocą programu, do którego dostęp uzyskuje się poprzez folder Drukarki z panelu sterowania lub Ustawienia;

10) zarządzanie wejściami komputerów w domenę Twojego serwera, porządkowanie domen, usuwanie komputerów, wyznaczanie serwera jako głównego kontrolera domeny, replikowanie danych na inne serwery, łączenie domen, zarządzanie relacjami zaufania między domenami, audyt zasobów sieciowych dla każdego użytkownika itp. Wszystkie powyższe czynności są wykonywane przy użyciu Menedżera serwera i Menedżera użytkowników dla domen;

11) zarządzanie udostępnionymi zasobami. Gdy system Windows NT uruchamia komputer, dla każdego dysku systemowego tworzone są domyślne udziały systemowe w celu obsługi sieci i zarządzania operacjami wewnętrznymi;

12) ustawienie zdalnej kontroli dostępu. Instalacja klienta i serwera zdalnego dostępu odbywa się za pomocą Narzędzia sieciowego z panelu sterowania. Modemy, protokoły i porty komunikacyjne są instalowane przy użyciu tego samego narzędzia;

13) zarządzanie wszystkimi połączeniami w sieci i dostępem do informacji serwera zdalnego dostępu, dla którego wykorzystywane jest narzędzie Zarządzanie zdalnym dostępem;

14) Rozwiązywanie problemów z siecią za pomocą Monitora sieci, którego można użyć do przeglądania pakietów przychodzących i wychodzących z systemu Windows NT.

5.9. Usługi sieciowe

Dla użytkownika sieć to nie komputery, kable i koncentratory, ani nawet przepływ informacji, ale przede wszystkim zestaw usług sieciowych, które umożliwiają przeglądanie listy komputerów dostępnych w sieci lub pliku zdalnego, wydrukowanie dokumentu na „zagraniczną” drukarkę lub wysłać wiadomość e-mail. To połączenie tych cech – jak szeroki jest ich wybór, jak wygodne, niezawodne i bezpieczne – decyduje o wyglądzie każdej z sieci dla użytkownika.

Poza samą wymianą danych, usługi sieciowe służą rozwiązywaniu innych, bardziej szczegółowych zadań, w szczególności generowanych przez rozproszone przetwarzanie danych. Są to zadania mające na celu zapewnienie spójności kilku kopii danych hostowanych na różnych maszynach (usługa replikacji) lub zorganizowanie wykonania jednego zadania jednocześnie na kilku maszynach sieciowych (usługa zdalnego wywoływania procedur). Spośród usług sieciowych można wyróżnić usługi administracyjne, tj. Skupione nie na prostym użytkowniku, ale na administratorze i mające na celu zorganizowanie prawidłowego działania sieci jako całości. Należą do nich: usługa administrowania kontami użytkowników, która umożliwia administratorowi prowadzenie wspólnej bazy danych użytkowników sieci; system monitorowania sieci, którego funkcje obejmują przechwytywanie i analizę ruchu sieciowego; usługa bezpieczeństwa, która między innymi wykonuje procedury logowania, a następnie weryfikację hasła itp.

Działanie usług sieciowych jest realizowane przez oprogramowanie. Główne usługi to usługa plików i usługa drukowania, które są zwykle świadczone przez sieciowy system operacyjny, podczas gdy usługi drugorzędne to baza danych, faks lub usługa głosowa, które są wykonywane przez systemowe aplikacje sieciowe lub narzędzia ściśle współpracujące z siecią system operacyjny Dystrybucja usług między systemem operacyjnym a narzędziami jest dość dowolna i różni się w poszczególnych implementacjach tego systemu.

Podczas opracowywania usług sieciowych konieczne jest rozwiązywanie problemów związanych z dowolnymi aplikacjami rozproszonymi, w tym zdefiniowanie protokołu interakcji między częściami klienta i serwera, podział funkcji między nimi, wybór schematu adresowania aplikacji itp.

Jednym z głównych wskaźników jakości usługi sieciowej jest jej wygoda. W przypadku tego samego zasobu można opracować kilka usług, które rozwiązują to samo zadanie na różne sposoby. Główne problemy dotyczą wydajności lub poziomu wygody świadczonych usług. Na przykład usługa plików może opierać się na poleceniu przesłania pliku z jednego komputera na inny według nazwy pliku, co wymaga od użytkownika znajomości nazwy danego pliku. Tę samą usługę plików można zorganizować w taki sposób, aby użytkownik montował zdalny system plików w lokalnym katalogu, a następnie uzyskiwał dostęp do zdalnych plików tak, jakby były jego własnymi, co jest znacznie wygodniejsze. O jakości usługi sieciowej decyduje jakość interfejsu użytkownika - intuicyjność, przejrzystość, racjonalność.

W przypadku określenia stopnia wygody udostępnionego zasobu często używa się terminu „przejrzystość”. Przejrzysty dostęp jest taki, że użytkownik nie zauważa, gdzie znajduje się potrzebny mu zasób - na swoim komputerze, czy na zdalnym. Po zamontowaniu zdalnego systemu plików w jego drzewie katalogów dostęp do zdalnych plików staje się dla niego całkowicie przezroczysty. Sama operacja montowania może również mieć różne stopnie przezroczystości. W sieciach o mniejszej przezroczystości użytkownik musi znać i określić w poleceniu nazwę komputera, na którym przechowywany jest zdalny system plików; w sieciach o większym stopniu przezroczystości odpowiedni składnik oprogramowania sieci wyszukuje współdzielone woluminy plików niezależnie od miejsca ich przechowywania, a następnie pokazuje je użytkownikowi w dogodnej dla niego formie, takiej jak lista lub zestaw ikon.

Dla uzyskania przejrzystości ważny jest sposób adresowania (nazywania) współdzielonych zasobów sieciowych. Nazwy takich zasobów nie powinny zależeć od ich fizycznej lokalizacji na konkretnym komputerze. W najlepszym razie użytkownik nie powinien niczego zmieniać w swojej pracy, jeśli administrator sieci przeniósł wolumin lub katalog między komputerami. Administrator i sieciowy system operacyjny posiadają informacje o lokalizacji systemów plików, ale są one ukryte przed użytkownikiem. Ten stopień przejrzystości jest nadal rzadkością w sieciach. Najczęściej, aby uzyskać dostęp do zasobów konkretnego komputera, należy nawiązać z nim połączenie logiczne. Takie podejście jest stosowane w szczególności w sieciach Windows NT.

5.10. Narzędzia zapewniające interakcję z innymi sieciowymi systemami operacyjnymi

Sieciowy system operacyjny można nazwać systemem operacyjnym, który współdziała ze sprzętem sieciowym i zapewnia komunikację między komputerami. Interfejs użytkownika do sieci umożliwia udostępnianie plików i urządzeń peryferyjnych. System operacyjny Windows NT może wchodzić w interakcje i wymieniać dane z wieloma istniejącymi sieciami opartymi na różnych systemach obsługi sieci. Okolicznościami, które mogą prowadzić do takiej potrzeby mogą być: obecność sieci zbudowanych już w oparciu o inne systemy operacyjne, zasoby wymagane przez użytkowników Windows NT; tworzenie nowych sieci w oparciu o Windows NT oraz inne systemy operacyjne wspierające sieci w celu poprawy ich wydajności.

Współdziałanie sieci opartych na systemie Windows NT z innymi sieciowymi systemami operacyjnymi ma na celu zapewnienie następujących udogodnień.

1. Otwarta struktura sieci, dynamiczne mechanizmy ładowania i rozładowywania, wbudowana obsługa sieci dla różnych elementów sieci. Mechanizmy te mogą być używane do ładowania i usuwania oprogramowania innych firm, umożliwiając systemowi Windows NT obsługę wielu różnych protokołów sieciowych, kart sieciowych i sterowników.

2. Protokoły kompatybilne z innymi sieciami i komunikujące się z nimi obsługujące Windows NT. Usługa zdalnego dostępu wykorzystuje następujące protokoły do ​​przesyłania danych z jednej sieci lokalnej do innej zdalnej sieci lokalnej przez Internet: РРР - protokół połączenia równoległego przez kilka kanałów telefonicznych; SLIP - protokół internetowy dla łącza szeregowego; PPTP to protokół zawierający mechanizm szyfrowania dla Internetu.

3. Sterowniki i interfejsy sieciowe. Pozwalają systemowi Windows NT łączyć się z różnymi typami sieci i wchodzić w interakcje z różnymi typami systemów komputerowych.

4. Usługa zdalnego dostępu dla wielu użytkowników dla systemów z systemem Windows NT Server oraz zdalny dostęp dla jednego użytkownika dla systemów Windows NT Workstation. Zapewnia zdalny dostęp WAN do systemu Windows NT. Połączenia sieciowe oparte na różnych systemach operacyjnych obsługujących sieci mogą obsługiwać serwer usługi zdalnego dostępu. Odbywa się to dzięki możliwości tłumaczenia komunikatów z jednego formatu na inny, a także obecności wielosieciowego routera dostępowego, który wykonuje nawiązanie i zakończenie połączenia sieciowego, zdalne drukowanie i transmisję danych przez sieć do sieci komponent przetwarzający żądania zasobów.

5. Możliwość uruchamiania wielu aplikacji dla różnych systemów operacyjnych dzięki obecności różnych interfejsów API w systemie Windows NT. Protokół Win-32 I/O API jest wymagany podczas przetwarzania żądań wejścia/wyjścia plików, które znajdują się na zdalnej maszynie itp.

6. Wbudowana obsługa różnych typów systemów plików (NTFS, FAT, CD-ROM, VFAT, Macintosh), która posiada możliwość konwersji partycji FAT i HPFS na partycje NTFS, obsługa katalogów formatu Macintosh w partycjach NTFS.

7. Obsługa współdzielonych usług katalogowych Windows NT i NetWare NTDSmNDS. Na przykład: bezpieczna baza danych katalogu, architektura rozproszona, jednokrotne logowanie do sieci, prosta administracja.

8. Możliwość podłączania do domen nowych użytkowników, np. użytkowników innych sieci, z zachowaniem wymaganego poziomu bezpieczeństwa systemu poprzez ustanawianie relacji zaufania między domenami. Należą do nich wbudowane sieci WAN, które służą do łączenia sieci LAN z sieciami LAN za pośrednictwem sieci WAN.

5.11. Organizacja pracy w sieci hierarchicznej

Sieci hierarchiczne mają jeden lub więcej serwerów. Zawierają informacje, z których korzystają jednocześnie różni użytkownicy. Istnieją serwery plików, serwery baz danych, serwery druku i serwery poczty.

Serwer plików obsługuje udostępnione pliki i programy. Stacje robocze obsługują tylko niewielką część tych programów, które wymagają znikomych zasobów. Programy, które pozwalają na ten tryb działania, nazywane są programami instalowanymi przez sieć.

Na serwerze bazy danych znajduje się baza danych, np. „KonsultantPlus”, „Garant”, „Rachunki klientów banku” itp. Bazę danych na serwerze można uzupełniać z różnych stacji roboczych lub udostępniać informacje na żądanie ze stacji roboczej. W tym przypadku mamy do czynienia z trzema zasadniczo różnymi trybami przetwarzania żądań ze stacji roboczej lub edycji rekordów w bazie danych:

1) rekordy bazy danych są sekwencyjnie przesyłane z serwera do stacji roboczej, gdzie następuje filtracja rekordów i selekcja niezbędnych. W tym przypadku zmniejszają się wymagania wobec serwera, ale wzrasta obciążenie kanałów sieciowych i wymagania dotyczące mocy obliczeniowej stacji roboczych;

2) serwer wybiera wymagane rekordy z bazy danych i przesyła je do stacji roboczej. Zmniejsza to obciążenie sieci i zmniejsza poziom wymagań dla stacji roboczych. W tym przypadku dramatycznie wzrastają wymagania dotyczące mocy obliczeniowej serwera. Ta metoda jest najlepsza i jest realizowana przez specjalne narzędzia do pracy z nowoczesnymi sieciowymi bazami danych;

3) tryb „drain-spill” jest używany przy niskim poborze mocy serwera, stacji roboczej lub sieci. Służy do wprowadzania nowych rekordów lub ich edycji, jeśli rekord bazy danych może być zmieniany nie częściej niż raz dziennie.

Aby utworzyć serwer wydruku, dość wydajna drukarka jest podłączona do komputera o niskim poborze mocy, który służy do jednoczesnego drukowania informacji z kilku stacji roboczych.

Serwer pocztowy przeznaczony jest do przechowywania informacji wysyłanych i odbieranych zarówno przez sieć lokalną, jak iz zewnątrz za pośrednictwem modemu. Jednocześnie użytkownik może przeglądać otrzymane dla niego informacje w dowolnym dogodnym czasie lub wysyłać własne za pośrednictwem serwera pocztowego.

Dla każdego użytkownika na dysku twardym serwera przydzielane są trzy obszary:

1) osobisty, dostępny tylko dla użytkownika z wszelkimi uprawnieniami, np. tworzenia w nim folderów i plików, edytowania i stosowania plików, ich usuwania. Inni użytkownicy nie mają dostępu do „obszarów prywatnych innych osób”, nie widzą ich za pomocą systemu plików, ponieważ obszary prywatne służą do przechowywania poufnych informacji użytkownika;

2) ogólny, do którego wszyscy użytkownicy sieci mają równoczesny dostęp z prawem odczytu i zapisu. Obszar ten służy do wymiany informacji pomiędzy różnymi użytkownikami sieci lub stacjami roboczymi. W tym celu informacje z obszaru osobistego użytkownika lub z dysku lokalnego stacji roboczej są zapisywane w obszarze publicznym. Z tego obszaru inny użytkownik nadpisuje go do swojego obszaru osobistego lub na dysk lokalny innego komputera;

3) czytelnia, w której użytkownik może jedynie czytać informacje.

Aby uzyskać dostęp do obszaru prywatnego na serwerze, użytkownik musi przejść procedurę logowania do sieci lub rejestracji w sieci. Procedura logowania do sieci odbywa się po włączeniu lub ponownym uruchomieniu komputera.

5.12. Organizacja sieci peer-to-peer i technologia pracy w nich

Użytkownik może zainstalować oprogramowanie peer-to-peer. Komponenty oprogramowania do zarządzania tą siecią umożliwiają zorganizowanie bezpośredniego połączenia kablowego między dwoma komputerami za pomocą kabla zerowego modemu. Sieci peer-to-peer nazywane są komputerami (stacjami roboczymi) peer-to-peer, w których nie ma części serwerowej oprogramowania. Na każdej stacji roboczej instalowane jest oprogramowanie klienckie, które składa się z czterech komponentów:

1) klient - program realizujący ogólne funkcje zarządzania interakcją stacji roboczej z innymi komputerami w sieci;

2) usługi – program ustalający rodzaj dostępu do zasobów i zapewniający przekształcenie określonego zasobu lokalnego w zasób sieciowy i odwrotnie;

3) protokół – program sterujący przesyłaniem informacji w sieci;

4) karta sieciowa - sterownik kontrolujący działanie karty sieciowej, jednak podczas organizowania bezpośredniego połączenia kablowego między komputerem PC ten element może być nieobecny.

Podczas instalowania składników oprogramowania sieciowego należy pamiętać o następujących kwestiach.

1. Aby zorganizować sieć peer-to-peer (jako klient), musisz zainstalować program Client for Microsoft Networks. Sieci peer-to-peer umożliwiają odczytywanie i edytowanie udostępnionych zasobów informacyjnych, a także uruchamianie programu z „obcego komputera”. Jednocześnie każdy użytkownik może mieć własny widok pulpitu, zestaw ikon na nim, osobiste ustawienia pracy w Internecie itp.

2. Wybierz Udostępnianie plików i drukarek w sieciach Microsoft Networks jako usługę dla sieci Microsoft Peer-to-Peer lub bezpośrednie połączenie kablowe.

3. Typ protokołu zależy od typu zainstalowanego klienta i typu karty sieciowej. W takim przypadku protokół jest często instalowany automatycznie podczas instalacji.

4. W przypadku kart sieciowych klasy Rpr należy zastosować komponent oprogramowania Karta sieciowa. Karta jest instalowana automatycznie po ponownym uruchomieniu komputera, jeśli sterowniki karty sieciowej znajdują się w sterownikach systemu Windows.

Organizując pracę w sieci peer-to-peer należy korzystać z zasobów różnych komputerów. Zasobem stacji roboczej w sieci peer-to-peer jest dowolny z następujących elementów:

▪ urządzenia pamięci długoterminowej, w tym dyski twarde, dyski logiczne i inne podobne urządzenia (informacyjne);

▪ foldery, z podfolderami niższego poziomu (informacyjnymi) lub bez nich;

▪ podłączony do komputera, w tym drukarek, modemów itp. (techniczne).

Zasób komputera dostępny z innych komputerów w sieci jest nazywany zasobem udostępnionym lub zasobem sieciowym, a także zasobem udostępnionym. Przydziel współdzielone zasoby informacyjne i współdzielone urządzenia techniczne. Koncepcje zasobów lokalnych i współdzielonych są dynamiczne; oznacza to, że dowolny zasób lokalny może zostać w dowolnym momencie przekształcony w zasób sieciowy iz powrotem przez „mastera” stacji roboczej.

Przed użyciem zasobu sieciowego w sieciach peer-to-peer należy podjąć następujące środki organizacyjne:

▪ wyjaśnij skład współdzielonych zasobów i wybierz komputery, na których będą one zlokalizowane;

▪ określić krąg użytkowników uzyskujących do nich dostęp;

▪ udostępniać przyszłym odbiorcom tego zasobu informacje o nazwach komputerów PC, na których zostały utworzone, nazwach sieciowych zasobów, prawach i hasłach dostępu do nich;

▪ w razie potrzeby utwórz grupę i uwzględnij w niej wszystkie komputery, które będą miały dostęp do tego zasobu.

5.13. Rodzaje modemów w sieciach

Modem to urządzenie, które zapewnia możliwość wymiany informacji między komputerami za pomocą sieci telefonicznej. Na czas trwania sesji komunikacyjnej oba komputery muszą być podłączone do linii telefonicznej za pomocą modemu.

Faksmodemy mają specjalny schemat, który umożliwia wymianę informacji nie tylko między komputerami, ale także między komputerami i urządzeniami faksowymi. Faksmodemy mogą pracować w dwóch trybach: modemowym i faksmodemowym, jednocześnie wymieniając wiadomości faksowe. W obu przypadkach poszczególne elementy pracy są podobne pod wieloma względami, możliwości każdego trybu oraz technologia pracy z nimi znacznie się różnią.

Korzystanie z modemu umożliwia tworzenie następujących sieciowych technologii informacyjnych i usług informacyjnych.

1. Bezpośrednie połączenie. To najprostszy sposób na połączenie dwóch komputerów i zorganizowanie wymiany informacji między nimi bez pośredników i dodatkowych opłat. Jeżeli nie obowiązuje system godzinowych opłat za rozmowy telefoniczne, to praca modemu w lokalnej sieci telefonicznej jest bezpłatna. W przypadku ustanowienia połączenia modemowego za pomocą połączenia komórkowego lub międzymiastowego opłata jest dokonywana zgodnie z taryfą czasową ustaloną dla tego typu połączenia. Bezpośrednią komunikację zapewniają specjalne programy przełączające.

Po nawiązaniu połączenia między komputerami programy robocze natychmiast umożliwiają przesyłanie plików między komputerami. Gdy używane jest przełączanie bezpośrednie, można przesyłać dowolny typ plików lub informacji tekstowych wpisywanych bezpośrednio na klawiaturze. Typ dokumentu przesyłanego lub odbieranego podczas przesyłania komunikatów może być taki sam lub różny w zależności od zastosowanej metody przesyłania.

2. Komunikacja z tablicą ogłoszeń (BBS). W tym przypadku dochodzi do połączenia z komputerem lub siecią lokalną, w której znajduje się baza danych i specjalne oprogramowanie, które implementuje język zapytań, przeszukuje bazę danych w poszukiwaniu niezbędnych informacji i kopiuje je na komputer abonenta. W ramach lokalnej sieci telefonicznej usługi tych systemów informatycznych są świadczone dla wszystkich użytkowników i są bezpłatne. Do pracy z BBS można używać programów obwodowych i specjalnego oprogramowania, które jest odczytywane z samego BBS po pierwszym wywołaniu go za pomocą programu obwodowego. Oprócz kopiowania plików, niektóre BBS oferują dodatkowe funkcje - korespondencję adresową pomiędzy swoimi abonentami czy umieszczanie wiadomości adresowanych do określonej grupy abonentów lub wszystkich abonentów BBS.

3. Zdalny dostęp. Jest to jeden ze sposobów łączenia się z osobnym komputerem lub biurową siecią LAN. Po takim połączeniu komputer zdalny uzyskuje status pełnoprawnej stacji roboczej tej sieci, a modem jednocześnie pełni funkcje karty sieciowej.

4. Połączenie z globalnymi sieciami. Sieć globalna to sieć komputerów rozmieszczonych na całym świecie, która zapewnia wszystkim informacje i inne rodzaje usług na zasadach komercyjnych. Połączenie z siecią globalną odbywa się po podłączeniu do komputera lub sieci lokalnej za pośrednictwem modemu pośredniczącego - dostawcy. Witryny nazywane są potężnymi węzłami informacyjnymi, którymi są komputery lub lokalne sieci dostawców połączone szybkimi kanałami z węzłami innych dostawców na całym świecie i razem tworzące globalną sieć. Najbardziej znaną globalną siecią jest Internet. Usługodawca świadczy usługi na zasadach komercyjnych, a ich otrzymanie wymaga wcześniejszego zawarcia umowy.

5.14. Instalacja i konfiguracja modemu

Praca z modemem obejmuje jednorazowy etap instalacji oraz czynności wykonywane podczas każdej sesji komunikacyjnej. Przez instalację modemu rozumie się jego fizyczne i programowe podłączenie.

Fizyczna metoda połączenia zależy od typu modemu. Modem może być wewnętrzny lub zewnętrzny. Modem wewnętrzny to płytka, którą podłącza się do gniazda rozszerzeń na płycie głównej. Po zastosowaniu tworzony jest dodatkowy port asynchroniczny (COM). Konfiguracja tego portu może wymagać pewnego poziomu umiejętności użytkownika. W takim przypadku modemu nie można przenosić. Zaletą modemu wewnętrznego jest jego taniość oraz to, że nie wymaga osobnego podłączenia do sieci elektrycznej, nie wykorzystuje portu COM i jest gotowy do pracy od razu po włączeniu komputera.

Modemy zewnętrzne to samodzielne urządzenia, które są połączone specjalnymi kablami z komputerem PC przez porty asynchroniczne. Modem tego typu wymaga podłączenia do sieci, najczęściej poprzez dołączoną do niego przetwornicę napięcia.

Oba typy modemów po fizycznym połączeniu mogą współpracować z telefonem głosowym. Istnieją następujące metody połączenia:

▪ modem jest podłączony do gniazdka telefonicznego, a telefon do modemu;

▪ telefon i modem podłączamy do gniazda telefonicznego poprzez znajdujące się na nim złącze.

Połączenie z abonentem obiema metodami połączenia odbywa się zarówno za pomocą telefonu, jak i modemu. Aktywne jest tylko urządzenie (modem lub telefon), z którego numer telefonu jest wybierany jako pierwszy (wstrzymuje linię). W programach przełączania, przy pierwszym sposobie łączenia, po rozmowie telefonicznej i bez zrywania połączenia, przekazać sterowanie do modemu, a następnie po odłożeniu słuchawki nawiązać sesję komunikacji modemowej. Ten sposób połączenia jest wygodny, gdy trzeba wcześniej zadzwonić do abonenta, aby ostrzec go o rozpoczęciu sesji i określić parametry komunikacji. Ale drugi sposób sparowania modemu z telefonem oraz obecność równoległego telefonu lub faksu pogarsza działanie modemu.

Modem w systemie Windows programowo łączy się z systemem operacyjnym jako nowe urządzenie. Połączenie programowe jest wykonywane za pomocą Kreatora połączenia nowego urządzenia, który jest wywoływany przez polecenie Panel sterowania / Instalacja sprzętu / Modem. Marka podłączonego modemu jest wskazywana przez użytkownika na liście modemów rozpoznawanych przez system operacyjny lub jest określana automatycznie. Gdy sterowniki modemu są dostarczane przez producenta modemu, jest on instalowany w zwykły sposób: poprzez kliknięcie przycisku Instaluj z dysku lub przy użyciu programu instalacyjnego za pomocą polecenia Start/Uruchom. Po programowym podłączeniu modemu w systemie Windows można skonfigurować jego parametry wykonując następującą sekwencję czynności:

1) aktywuj ikonę Mój komputer/Panel sterowania/Modemy;

2) wybierz konkretny modem w otwartym oknie Modemy, klikając przycisk Właściwości;

3) ustawić niezbędne wartości parametrów konfiguracyjnych pracy modemu w polach zakładek Ogólne i Nawiąż połączenie.

Szybkość portu charakteryzuje szybkość wymiany informacji między komputerem a modemem. W takim przypadku prędkość portu jest ustawiana w polu Maksymalna prędkość na karcie Ogólne w oknie Właściwości modemu. Jeśli konieczne jest ograniczenie prędkości transmisji na linii, należy zmniejszyć prędkość na porcie, ale parametry połączenia w zakładce Połączenie nie ulegają zmianie.

5.15. Nawiązywanie połączenia ze zdalnym komputerem osobistym

W przypadku korzystania z modemu każda sesja komunikacyjna rozpoczyna się od nawiązania połączenia z komputerem zdalnym. To połączenie w systemie Windows zapewnia program Remote Network Access, który jest instalowany automatycznie podczas instalacji systemu Windows. W takim przypadku w momencie instalacji modem musi być fizycznie podłączony do komputera i wyłączony. W oknie tego programu dla każdego numeru telefonu automatycznie tworzony jest specjalny element Połączenie, którego właściwości wskazują numer telefonu.

Aby utworzyć ikonę połączenia, wykonaj poniższe kroki. Wymagany jest tylko pierwszy krok.

1. Utwórz nową ikonę. W oknie programu Połączenie zdalne kliknij ikonę Nowe połączenie, a następnie w kolejnych oknach Kreatora tworzenia połączenia podaj nazwę połączenia oraz numer telefonu abonenta. Następnie tworzona jest ikona z określoną nazwą, numerem telefonu odbiorcy i pewnym standardowym zestawem parametrów kontrolujących proces łączenia się z abonentem. Parametry te można zmienić, wykonując czynności opisane w następnym akapicie.

2. Skonfiguruj parametry wybierania numeru. Parametry z tej grupy zależą od rodzaju wykorzystywanej linii telefonicznej i sterują technologią nawiązania połączenia. Aby zmienić parametry, kliknij dwukrotnie ikonę żądanego połączenia, a następnie w oknie Nawiązanie połączenia, które zostanie otwarte, kliknij przycisk Parametry. Wszystkie niezbędne zmiany należy wprowadzić w oknie Opcje wybierania numeru. Znaczenie większości parametrów jest następujące:

▪ Typ wybierania określa używany system wybierania, który może być impulsowy lub tonowy. Przy nawiązywaniu nowego połączenia domyślnie ustawiony jest tryb tonowy, dlatego najczęściej należy go zmienić na impulsowy. Jest to wskazane w przypadku nie zastosowania opisanych poniżej środków, w przeciwnym razie połączenie nie zostanie nawiązane (dotyczy to wszystkich typów połączeń, w tym połączeń z Internetem);

▪ Pole Lokalizacja połączenia umożliwia posiadanie kilku typów parametrów numeru dla tego samego połączenia. Jest to wygodne w użyciu, gdy musisz nawiązać połączenie z laptopa z różnych miejsc, które różnią się sposobem dodzwonienia się do abonenta. Przykładowo w jednym przypadku bezpośrednio, w drugim - poprzez przełącznik, albo w jednym przypadku z linii z wybieraniem tonowym, a w drugim - z wybieraniem impulsowym. W takim przypadku należy kliknąć przycisk Utwórz, po czym w polu Miejsce połączenia należy wprowadzić nazwę określającą odpowiedni zestaw parametrów. Następnie należy ustawić niezbędne wartości parametrów, których ustawienie kończy się kliknięciem przycisku Zastosuj. Lokalizacja połączenia jest następnie wybierana podczas procesu nawiązywania połączenia.

3. Koordynacja parametrów komunikacji z abonentem PC, która ustala protokoły przesyłania danych do abonenta oraz inne cechy niezbędne do połączenia ze zdalnym komputerem. Najważniejsze parametry ustawia się w zakładce Typ serwera. Te ustawienia są szczególnie ważne podczas nawiązywania połączenia z Internetem.

Połączenie z konkretnym abonentem odbywa się za pomocą:

▪ kliknij dwukrotnie ikonę Połączenie w oknie programu Dostęp zdalny. Dla ułatwienia dostępu ikony często używanych połączeń mogą być wyświetlane na pulpicie;

▪ dwukrotnie kliknąć ikony połączeń pojawiające się w oknach programów przełączających;

▪ podanie nazwy żądanego połączenia, które będzie realizowane w specjalnych polach programów internetowych. Należy zadbać o to, aby wymagane połączenie zostało nawiązane automatycznie.

5.16. Praca z programami obwodów

Programy przełączające lub terminalowe pozwalają za pomocą modemu organizować wymianę informacji między dwoma zdalnymi komputerami, a także pracować z BBS.

Dzięki przełączaniu bezpośredniemu możliwa jest wymiana informacji tekstowych w trybie interaktywnym, gdy tekst wpisany na klawiaturze jednego komputera jest natychmiast odtwarzany na monitorze abonenta. Za pomocą takiego przełączania możesz przenosić pliki z jednego komputera na drugi. Aby to zrobić, oba komputery muszą być podłączone do linii telefonicznej przez modem i musi być na nich zainstalowany program HyperTerminal. Następnie jeden z komputerów staje się dzwoniącym, a drugi kelnerem. Podział funkcji między komputerami jest określany na podstawie wstępnej umowy abonentów. Podczas nawiązywania połączenia między komputerami działania powinny obejmować następujące kroki:

1) na oczekującym komputerze w oknie HyperTerminal kliknij dwukrotnie ikonę Hypertrm, a następnie kliknij przycisk Anuluj. Otworzy się puste okno Nowe połączenie, które jest oknem roboczym HyperTerminal, aw menu tego okna należy wykonać polecenia Komunikacja / Czekaj na połączenie;

2) po wykonaniu powyższych czynności na komputerze oczekującym, na komputerze wywołującym kliknij dwukrotnie ikonę komputera odbierającego w oknie NuregTerminal lub kliknij dwukrotnie ikonę HyperTerminal, aby utworzyć ikonę połączenia. Następnie rozpoczyna się połączenie między komputerem wywołującym a komputerem oczekującym.

Połączenie z BBS odbywa się za pomocą programu roboczego. Program sterujący będzie wymagał nazwy logowania użytkownika i hasła podczas łączenia się z BBS po raz pierwszy. Zarówno hasło, jak i nazwę nadaje sam użytkownik. Aby otrzymać pocztę zaadresowaną do użytkownika przy kolejnym połączeniu z BBS, należy w oknie Połączenie podać poprawną nazwę i hasło. Następnie program sterujący, podobnie jak kreatory w nowoczesnych systemach operacyjnych, wygeneruje sekwencję menu na monitorze. Na przykład elementy menu przypisują następujące działania:

▪ powrót do poprzedniego menu;

▪ wywoływanie operatora systemu BBS w celu wymiany komunikatów w trybie interaktywnym;

▪ przeglądanie zawartości plików tekstowych lub archiwów;

▪ wybranie tematu wyszukiwania plików z udostępnionej listy tematów;

▪ przeglądanie listy plików w wybranym obszarze;

▪ określenie listy plików do skopiowania na komputer;

▪ przesyłanie plików do BBS;

▪ przeglądanie poczty i wysyłanie jej do określonych odbiorców;

▪ wylogowanie i zakończenie sesji itp.

Modem służy do zdalnego dostępu do pojedynczego komputera i sieci. Z jego pomocą można zorganizować zdalne sterowanie jednego komputera nadrzędnego przez inny, podrzędny. W tym przypadku klawiatura komputera nadrzędnego staje się niejako klawiaturą podrzędnego; W tym celu na komputerze podrzędnym musi być zainstalowany program Remote Access Server. O jego instalację w pierwszym przypadku należy poprosić podczas instalacji systemu Windows, aw drugim przypadku należy to zrobić nieco później za pomocą polecenia Start / Ustawienia / Panel sterowania / Dodaj lub usuń programy. Następnie w grupie Komunikacja zaznacz flagę programu Serwer zdalnego dostępu. Po zainstalowaniu, aby umożliwić sterowanie tym komputerem z komputera zdalnego, uruchom program Dostęp zdalny iw jego oknie wykonaj polecenie menu Połączenia/Serwer dostępu zdalnego. Następnie w oknach, które zostaną otwarte, musisz ustawić protokoły i hasło dostępu do komputera użytkownika. Następnie musisz utworzyć połączenie, aby uzyskać dostęp do tego komputera, określając w jego właściwościach i parametrach wszystkie wartości niezbędne do połączenia i dostępu.

5.17. Praca z faksmodemem

Podczas wymiany informacji nie tylko z innymi komputerami, ale także między komputerami osobistymi a urządzeniami faksowymi, wykorzystywane są nowoczesne modemy. Za pomocą modemu można np. wysłać wiadomość z komputera do faksu i odwrotnie. Modem działający w tym trybie nazywany jest faksmodemem. Praca z tym urządzeniem odbywa się za pomocą specjalnych programów przełączających lub uniwersalnych programów organizatora. Konfiguracja faksu jest przeprowadzana po zainstalowaniu modemu lub podczas instalowania programów faksu lub przy pierwszym dostępie do faksu. Ikona faksu jest umieszczana w grupie Drukarki, a sam faks, podobnie jak drukarka, jest podłączony do specjalnego portu „logicznego”. Po zainstalowaniu faksu dostęp do tego portu można uzyskać również z innych aplikacji jako drukarki. Jednym ze sposobów przefaksowania dokumentu utworzonego przez aplikację jest wydrukowanie go za pomocą polecenia Drukuj. W takim przypadku zainstalowany faks jest oznaczony jako drukarka. Zmiana parametrów pracy faksu i jej konfiguracja odbywa się w oknie Właściwości dla odpowiedniego faksu w grupie Drukarki.

Wiadomość faksową można wysłać za pomocą:

1) program, w którym dokument został sporządzony. Ta metoda jest najłatwiejsza, jeśli menu Plik programu, który przygotował dokument, zawiera polecenia Drukuj lub Wyślij. Odpowiedni faks jest ustawiony jako drukarka i wydawane jest polecenie drukowania;

2) programy organizatorów;

3) przełączanie programów, które mają możliwość wysyłania faksów.

Podczas wysyłania wiadomości pojawia się okno, w którym należy wypełnić nagłówek wiadomości zawierający następujące pola:

▪ Do – z jednym lub większą liczbą adresów odbiorców wiadomości;

▪ Kopia – z adresami odbiorców kopii, przy czym w niektórych systemach główni odbiorcy mogą zostać powiadomieni o obecności kopii lub nie;

▪ Temat – krótka informacja o wiadomości.

Aby uprościć przypisywanie adresów, istnieją książki adresowe, które zawierają listę często używanych adresów, a także formularze wiadomości zawierające całe nagłówki różnych typów.

Wiadomości mogą zawierać tekst wpisywany bezpośrednio w specjalnym oknie oraz załącznik (pliki tekstowe, graficzne i inne lub arkusz kalkulacyjny). Wiadomość może zawierać tylko załączniki. Wygląda to tak, gdy jest wysyłane z aplikacji za pomocą polecenia Drukuj lub Wyślij. Wiadomości są chronione przed nielegalnym dostępem na różne sposoby: hasłem, kluczami, podpisem elektronicznym itp.

Podczas wysyłania wiadomości możesz określić:

▪ pilność dostawy – natychmiast, dokładnie w określonym dniu i godzinie, w określonym przedziale czasu po „taniej cenie”;

▪ obecność i rodzaj strony tytułowej oddzielającej jedną wiadomość od drugiej;

▪ jakość druku i rozmiar papieru;

▪ konieczność potwierdzenia otrzymania wiadomości i sposobu ochrony;

▪ liczba powtarzających się prób przekazania wiadomości, gdy nie można tego zrobić natychmiast;

▪ konieczność zapisania wiadomości.

Możesz odbierać wiadomości automatycznie i ręcznie. Modem i komputer muszą być włączone podczas automatycznego odbioru, a program komunikacyjny musi być uruchomiony podczas wysyłania wiadomości (jeśli serwer pocztowy nie bierze udziału w procesie wymiany). Opcja Automatyczne odbieranie faksu musi być ustawiona na Automatyczne odbieranie faksu.

Temat 6. Sieci internetowe

6.1. Pojawienie się Internetu

W 1962 roku D. Licklider, pierwszy dyrektor komputerowego projektu eksperymentalnego badania sieci, którego celem było przesyłanie pakietów do Agencji Zaawansowanych Projektów Badawczych Departamentu Obrony USA (DARPA), opublikował serię notatek omawiających koncepcję „sieci galaktycznych " (Sieć galaktyczna). Opierała się na założeniu, że w niedalekiej przyszłości powstanie globalna sieć połączonych ze sobą komputerów, umożliwiająca każdemu użytkownikowi szybki dostęp do danych i programów znajdujących się na dowolnym komputerze. Ta idea była początkiem rozwoju Internetu.

W 1966 roku w DARPA L. Roberts rozpoczął prace nad koncepcją sieci komputerowej i wkrótce pojawił się plan ARPANET. W tym samym czasie powstały główne protokoły przesyłania danych w sieci – TCP/IP. Wiele organizacji publicznych i prywatnych chciało wykorzystać ARPANET do codziennej transmisji danych. Z tego powodu w 1975 roku ARPANET przeszedł z fazy eksperymentalnej do operacyjnej.

W 1983 roku opracowano i oficjalnie wdrożono pierwszy standard dla protokołów TCP/IP, który znalazł się w Standardach Wojskowych (MIL STD). Aby ułatwić przejście na nowe standardy, DARPA przedstawiła liderom Berkley Software Design propozycję wdrożenia protokołów TCP/IP w Berkeley (BSD) UNIX. Po pewnym czasie protokół TCP/IP został przerobiony na wspólny (publiczny) standard i zaczęto używać terminu „Internet”. Równolegle MILNET został oddzielony od ARPANET, po czym MILNET stał się częścią Defense Data Network (DDN) Departamentu Obrony USA. Następnie zaczęto używać terminu „Internet” w odniesieniu do jednej sieci: MILNET plus ARPANET.

W 1991 roku ARPANET przestał istnieć. Ale Internet istnieje w tej chwili i rozwija się. Jednocześnie jego gabaryty są znacznie większe od oryginalnych.

Historię rozwoju Internetu można podzielić na pięć etapów:

1) 1945-1960 - pojawienie się prac teoretycznych nad interaktywną interakcją człowieka z maszyną, a także pierwszych interaktywnych urządzeń i komputerów;

2) 1961-1970 - początek opracowania zasad technicznych komutacji pakietów, uruchomienie sieci ARPANET;

3) 1971-1980 - zwiększenie liczby węzłów ARPANET do kilkudziesięciu, budowa specjalnych linii kablowych łączących niektóre węzły, rozpoczęcie funkcjonowania poczty elektronicznej;

4) 1981-1990 - wdrożenie przyjęcia protokołu TCP/IP, podział na ARPANET i MILNET, wprowadzenie systemu nazw „domenowych” – Domain Name System (DNS);

5) 1991-2007 - najnowszy etap w rozwoju historii globalnego Internetu.

6.2. Możliwości Internetu

Internet to globalna sieć komputerowa obejmująca swoim zasięgiem cały świat i zawierająca ogromną ilość informacji na dowolny temat, dostępnych na zasadach komercyjnych dla każdego. W Internecie oprócz odbierania usług informacyjnych można dokonywać zakupów i transakcji handlowych, opłacać rachunki, zamawiać bilety na różne środki transportu, rezerwować pokoje hotelowe itp.

Każda sieć lokalna jest węzłem lub witryną. Podmiot prawny, który zapewnia działanie witryny, nazywany jest dostawcą. Witryna zawiera kilka komputerów - serwerów służących do przechowywania informacji określonego typu iw określonym formacie. Każda witryna i serwer w witrynie ma przypisaną unikalną nazwę, która identyfikuje je w Internecie.

Aby połączyć się z Internetem, użytkownik musi zawrzeć umowę o świadczenie usług z dowolnym z istniejących dostawców w swoim regionie. Aby rozpocząć pracę w sieci, musisz połączyć się ze stroną internetową dostawcy. Komunikacja z dostawcą odbywa się albo kanałem telefonicznym dial-up z wykorzystaniem modemu, albo stałym kanałem dedykowanym. Podczas łączenia się z dostawcą za pośrednictwem kanału telefonicznego dial-up komunikacja odbywa się za pomocą modemu i narzędzi zdalnego dostępu. Jeśli komunikacja z dostawcą odbywa się za pośrednictwem stałego dedykowanego kanału, wówczas wykorzystywane jest proste połączenie z odpowiednim programem do pracy w Internecie. Możliwości, jakie otwierają się przed użytkownikiem, określają warunki umowy zawartej z dostawcą.

Za pomocą słów kluczowych w Internecie każdy system informacyjny ma własne sposoby wyszukiwania niezbędnych informacji. W skład sieci wchodzą następujące systemy informatyczne:

1) World Wide Web (WWW) - World Wide Web. Informacje w tym systemie składają się ze stron (dokumentów). Za pomocą WWW można oglądać filmy, słuchać muzyki, grać w gry komputerowe, uzyskiwać dostęp do różnych źródeł informacji;

2) System FTR (program do przesyłania plików). Służy do przesyłania plików, które są dostępne do pracy dopiero po skopiowaniu na własny komputer użytkownika;

3) poczta elektroniczna (e-mail). Każdy z subskrybentów posiada własny adres e-mail wraz ze „skrzynką pocztową”. Jest to jakiś odpowiednik adresu pocztowego. Za pomocą poczty elektronicznej użytkownik może wysyłać i odbierać wiadomości tekstowe oraz dowolne pliki binarne;

4) newsy (system telekonferencyjny - Use Net Newsgroups). Usługa ta składa się ze zbioru dokumentów pogrupowanych według określonych tematów;

5) IRC i ICQ. Za pomocą tych systemów następuje wymiana informacji w czasie rzeczywistym. Te funkcje w systemie Windows są wykonywane przez aplikację MS NetMeeting, która umożliwia udostępnianie zdjęć i dodawanie tekstu innym użytkownikom na zdalnych stacjach roboczych.

Narzędzia do wyszukiwania, zarządzania i kontroli w Internecie obejmują:

▪ Systemy wyszukiwania WWW - służą do wyszukiwania informacji zorganizowanych w jeden z powyższych sposobów (WWW, FTR);

▪ Telnet - tryb zdalnego sterowania dowolnym komputerem w sieci, służący do uruchomienia niezbędnego programu na serwerze lub dowolnym komputerze w Internecie;

▪ Narzędzie Ping - pozwala sprawdzić jakość komunikacji z serwerem;

▪ Programy Whois i Finger – służą do wyszukiwania współrzędnych użytkowników sieci lub ustalania, którzy użytkownicy aktualnie pracują na konkretnym hoście.

6.3. Oprogramowanie internetowe

Aby system internetowy działał, istnieją następujące programy:

1) uniwersalne programy lub pakiety oprogramowania umożliwiające dostęp do dowolnej usługi internetowej;

2) specjalistyczne programy, które zapewniają więcej możliwości podczas pracy z określoną usługą internetową.

Przeglądarki nazywane są programami do pracy z WWW. Zwykle są dostarczane jako zestaw narzędzi programowych, które zapewniają wszystkie możliwości sieciowe.

Najczęściej używanymi kompleksami są kompleksy Netsape Communicator w różnych wersjach oraz Microsoft Internet Explorer (IE) w wersjach 4.0 i 5.0. W terminologii firmy Microsoft kompleksy te nazywane są przeglądarkami. Jedną z ważnych zalet IE jest to, że oprócz funkcji przeglądarki jest on również używany jako eksplorator systemu plików komputera lokalnego. Jednocześnie praca z kompleksem IE jako dyrygent jest zorganizowana według tych samych zasad, co praca jako przeglądarka. Należy wziąć pod uwagę, że praca odbywa się w tym samym oknie, z tym samym menu, przyciskami narzędzi i narzędziami. Używanie IE eliminuje różnicę pomiędzy pracą z systemem plików komputera lokalnego a pracą z WWW. Jednocześnie IE jest ściśle powiązany z programami MS Office, zapewniając pracę w Internecie bezpośrednio z tych programów. Takimi programami MS Office mogą być Word, Excel, Access, Power Point itp.

Oprócz przeglądarki do pracy z WWW, kompleks IE zawiera program Outlook Express (OE). Służy do obsługi poczty elektronicznej i telekonferencji. Dzięki złożoności IE, przeglądarka i Outlook Express są dostarczane jako jeden pakiet instalacyjny. Programy te mogą być instalowane jednocześnie, mają wspólne ustawienia, mogą być wywoływane od siebie i wymieniać się informacjami.

MS Office zawiera programy organizatora MS Outlook (które nie są zawarte w kompleksie IE), które zapewniają między innymi możliwość pracy z pocztą e-mail i wiadomościami. Organizator MS Outlook może całkowicie zastąpić Outlook Express. W przypadkach, gdy nie jest racjonalne używanie MS Outlook jako organizatora, a jedynie jako środka do pracy w Internecie, lepiej jest pracować z Outlook Express.

Oprócz wymienionych programów zawartych w kompleksie IE istnieje wiele programów różnych firm przeznaczonych do pracy z serwerami poczty e-mail i FTR. Można je kupić i zainstalować oddzielnie od kompleksu IE. Dzięki tym programom użytkownik może uzyskać dodatkową wygodę.

Dostęp do Internetu odbywa się za pośrednictwem dostawcy. Aby się z nim skontaktować, skorzystaj z jednej z poniższych metod:

▪ Dostęp do Internetu poprzez linie telefoniczne lub dial-up. W tym trybie głównym ograniczeniem jest jakość linii telefonicznej i modemu;

▪ stałe połączenie z Internetem poprzez dedykowane łącze. Ta metoda pracy jest najbardziej zaawansowana, ale najdroższa. Automatycznie zapewnia dostęp do wszystkich zasobów Internetu.

Przy zawieraniu umowy z dostawcą telefonicznej linii dial-up konieczne jest podanie informacji, które później muszą być określone jako parametry w różnych programach komunikacyjnych z dostawcą. Programy te są używane podczas pracy bezpośrednio w Internecie. Zawierając umowę o dostęp Dial-Up, dostawca jest zobowiązany do ustalenia określonego zestawu parametrów dla każdego abonenta.

6.4. Przekazywanie informacji w Internecie. System adresowania

W Internecie, analogicznie do sieci lokalnych, informacje przesyłane są w postaci oddzielnych bloków, zwanych pakietami. Jeśli przesyłana jest długa wiadomość, należy ją podzielić na określoną liczbę bloków. Każdy z tych bloków składa się z adresu nadawcy i odbiorcy danych, a także niektórych informacji serwisowych. Dowolny pakiet danych jest przesyłany przez Internet niezależnie od innych, przy czym mogą być przesyłane różnymi drogami. Po dotarciu pakietów do miejsca docelowego tworzą oryginalną wiadomość, tj. Pakiety są integrowane.

W Internecie stosowane są trzy rodzaje adresów:

1) Adres IP – główny adres sieciowy przydzielany każdemu komputerowi przy wejściu do sieci. Adres IP jest reprezentowany przez cztery liczby dziesiętne oddzielone kropkami, na przykład 122.08.45.7. W każdej pozycji każda wartość może mieścić się w przedziale od 0 do 255. Każdy komputer podłączony do Internetu ma swój unikalny adres IP. Adresy takie można podzielić na klasy w zależności od skali sieci, do której podłączony jest użytkownik. Adresy klasy A są używane w dużych sieciach publicznych. Adresy klasy B stosowane są w sieciach średniej wielkości (sieci dużych firm, instytutów badawczych, uczelni). Adresy klasy C są używane w sieciach z niewielką liczbą komputerów (sieci małych firm i firm). Możesz także wybrać adresy klasy D, przeznaczone do uzyskiwania dostępu do grup komputerów oraz zarezerwowane adresy klasy E;

2) adres domeny - adres symboliczny o ściśle hierarchicznej strukturze, na przykład yandex.ru. W tej formie adresów domena najwyższego poziomu jest wskazana po prawej stronie. Może to być dwu-, trzy-, czteroliterowe, na przykład:

▪ com – organizacja komercyjna;

▪ edu – instytucja edukacyjna;

▪ net - administracja siecią;

▪ firma – firma prywatna itp.

Po lewej stronie adresu domeny używana jest nazwa serwera. Tłumaczenie adresu domeny na adres IP odbywa się automatycznie przez system nazw domen (DNS), który jest metodą nadawania nazw poprzez przeniesienie odpowiedzialności za ich podzbiór nazw na grupy sieciowe;

3) Adres URL (Universal Recourse Locator) – uniwersalny adres, który służy do oznaczenia nazwy każdego obiektu przechowywania w Internecie. Adres ten ma określoną strukturę: protokół przesyłania danych: // nazwa komputera/katalog/podkatalog/. /Nazwa pliku. Przykładem nazwy jest http://rambler.ru/doc.html.

6.5. Adresowanie i protokoły internetowe

Host to komputer podłączony do Internetu. Każdy host w sieci jest identyfikowany przez dwa systemy adresowe, które zawsze współpracują ze sobą.

Podobnie jak numer telefonu, adres IP jest przypisywany przez usługodawcę internetowego i składa się z czterech bajtów oddzielonych kropkami i zakończonych kropką. Każdy komputer w Internecie musi mieć swój własny adres IP.

W systemie nazw domen nazwy DNS są nadawane przez dostawcę. Taka w pełni kwalifikowana nazwa domeny, jak win.smtp.dol.ru, zawiera cztery proste domeny oddzielone kropkami. Liczba prostych domen w pełni kwalifikowanej nazwie domeny jest dowolna, a każda prosta domena opisuje pewien zestaw komputerów. W tym przypadku domeny w nazwie są zagnieżdżone w sobie. W pełni kwalifikowana nazwa domeny musi kończyć się kropką.

Każda z domen ma następujące znaczenie:

▪ gu – domena krajowa, oznaczająca wszystkich hostów w Rosji;

▪ dol - domena dostawcy, oznaczająca komputery w sieci lokalnej rosyjskiej firmy Demos;

▪ smtp - domena grupy serwerów Demos obsługująca system poczty elektronicznej;

▪ win - nazwa jednego z komputerów z grupy smtp.

Szczególne znaczenie mają nazwy domen najwyższego poziomu, znajdujące się po prawej stronie pełnej nazwy. Są one ustalane przez międzynarodową organizację InterNIC, a ich budowa odbywa się na poziomie regionalnym lub organizacyjnym.

System adresowania adresów URL służy do wskazywania, w jaki sposób informacje są zorganizowane na określonym hoście i przechowywanych na nim zasobach informacyjnych. Na przykład adres URL można zapisać w następujący sposób: http://home.microsoft.com/intl/ru/www_tour.html. Elementy tego wpisu adresowego oznaczają:

▪ http:// - przedrostek wskazujący typ protokołu, wskazujący, że adres odnosi się do hosta będącego serwerem WWW;

▪ home.microsoft.com – nazwa domeny hosta. Dwukropek po nazwie domeny może zawierać liczbę wskazującą port, przez który będzie realizowane połączenie z hostem;

▪ /intl/ru/ - podkatalog głównego katalogu intl hosta;

▪ www_tour.html - nazwa pliku (rozszerzenie pliku może zawierać dowolną liczbę znaków).

Zapamiętywanie długich adresów URL jest trudne, dlatego wszystkie programy internetowe mają narzędzie Ulubione. Istniejące narzędzia sieciowe zapewniają dogodne warunki do tworzenia, przechowywania i stosowania linków. Wśród nich są:

▪ obecność specjalnego folderu Ulubione. Występuje we wszystkich programach WWW, można w nim tworzyć zagnieżdżone foldery tematyczne. Przykładami takich folderów mogą być w szczególności Banki, Wskaźniki społeczno-ekonomiczne, Prognozy analityczne;

▪ wprowadzenie w paskach narzędziowych programów internetowych przycisków narzędziowych umożliwiających korzystanie z najpopularniejszych linków;

▪ lokalizacja odnośników lub ich skrótów bezpośrednio na Pulpicie lub w pasku zadań;

▪ automatyczne przeniesienie linków z folderu Ulubione do pozycji menu Ulubione, która pojawia się po kliknięciu przycisku Start.

System adresu e-mail służy do identyfikacji adresata poczty elektronicznej. Ten adres nie może zawierać spacji.

Adresowanie w systemie wiadomości jest podobne do adresowania za pomocą nazwy domeny. Każda grupa postaci oddzielonych kropkami tworzy podmiot. Każdy temat w nazwie konferencji, podobnie jak DNS, jest zbiorem pewnego zestawu artykułów.

6.6. Problemy pracy w Internecie z tekstami cyrylicy

Dla tekstów cyrylicy w systemach DOS i Windows stosowano różne systemy kodowania. DOS używał kodów ASCII odpowiadających stronie kodowej 866, a Windows używał kodowania odpowiadającego stronie kodowej 1251. Dlatego teksty przygotowane w edytorze tekstu działającym pod DOS nie mogły być odczytywane bezpośrednio w systemie Windows i wymagały przekodowania. Teksty przygotowane przez redaktorów Windowsa wyglądały jak bełkot, jeśli próbowano je odczytać w kodowaniu DOS. Aby wyeliminować ten problem, stworzono transkodery, które zostały wbudowane w niektóre edytory tekstu i zapewniały transkodowanie z DOS do Windows i odwrotnie.

W przypadku pracy z Internetem problem się pogłębiał. Wyjaśniono to faktem, że znaki cyrylicy zostały zakodowane w trzeci sposób, przy użyciu tabeli kodów KOI8. Był tradycyjnie używany w komputerach z systemem operacyjnym UNIX. Początkowo serwery internetowe były budowane wyłącznie w oparciu o system UNIX, w wyniku czego teksty w języku rosyjskim były kodowane wyłącznie przy użyciu KOI8. To wyjaśniało fakt, że w Internecie rosyjskojęzyczny tekst był abrakadabrą, gdy był odtwarzany w innym kodowaniu niż ten, w którym został pierwotnie utworzony. Problem ten można rozwiązać podczas pracy w sieci WWW za pomocą przycisków na ekranie, które umożliwiają ponowne wyświetlenie strony dokumentu w innym kodowaniu.

Trudności z tekstami cyrylicy pojawiają się również podczas ich zapisywania. Może się to zdarzyć podczas dalszej pracy offline (poza Internetem) z tekstami.

Zapisz strony WWW na dwa sposoby:

1) zapisywanie w tym samym formacie HTML, w jakim było obecne w Internecie. W takim przypadku taki plik można przeglądać i edytować, po pierwsze, za pomocą tego samego oprogramowania, które zapewniało jego przeglądanie podczas pracy bezpośrednio w Internecie, a po drugie, za pomocą innych wyspecjalizowanych edytorów skoncentrowanych na pracy z formatem HTML;

2) zapisanie dokumentu w postaci zwykłego pliku tekstowego. W takim przypadku informacje tekstowe są zapisywane bez elementów formatujących. Dokument jest przechowywany w kodach ASCIL, jeśli został utworzony przy użyciu stron kodowych 866 lub 1251 (w systemie DOS lub Windows). Taki dokument można czytać i edytować zarówno w systemie DOS, jak i Windows, ale podczas transkodowania go w momencie ładowania do programu Word należy jako metodę transkodowania określić „Tylko tekst”, a nie „Tekst DOS”.

Protokoły mogą być używane do następujących celów:

1) wdrożenie w globalnej sieci określonego systemu adresowania hostów;

2) organizacja rzetelnego przekazu informacji;

3) przekształcenie i prezentację zgodnie ze sposobem jej zorganizowania.

Głównym protokołem używanym podczas pracy w Internecie jest TCP/IP, który łączy w sobie protokoły transferu (TCP) oraz protokoły identyfikacji hosta (IP). W rzeczywistości praca w Internecie podczas uzyskiwania dostępu do dostawcy za pomocą modemu za pośrednictwem linii telefonicznej odbywa się przy użyciu jednej z dwóch modyfikacji protokołu TCP / IP: przy użyciu protokołu SLIP lub PPP (bardziej nowoczesny protokół).

Gdy użytkownik korzysta tylko z poczty e-mail, nie zdając sobie sprawy z całego Internetu, wystarczy, że pracuje z protokołem UUCP. Jest trochę tańszy, ale wrażenia użytkownika są pogorszone.

W przypadku niektórych usług informacyjnych, oprócz protokołów ogólnosieciowych, używane są ich własne protokoły.

6.7. Nawiązanie połączenia z dostawcą (dostęp do Internetu)

Podczas wykonywania jakiejkolwiek pracy w sieciach globalnych pierwszym krokiem jest połączenie się z dostawcą przez modem. Sposób połączenia (Dial-Up, kanał dedykowany) określa sposób połączenia z dostawcą i dostęp do Internetu. Przeanalizujmy połączenie w trybie połączenia Dial-Up z wykorzystaniem protokołu TCP/IP, co oznacza, że ​​protokół TCP jest już zainstalowany w oknie Start/Ustawienia/Panel sterowania/Sieć/Konfiguracja.

Istnieją dwa sposoby połączenia z dostawcą:

1) za pomocą narzędzia Dostęp zdalny, po czym wywoływane są programy do pracy z Internetem;

2) za pomocą specjalnego programu do pracy z Internetem, takiego jak Microsoft Internet Explorer. Jeśli nie ma połączenia z dostawcą, program sam nawiązuje z nim połączenie.

W obu przypadkach konieczne jest utworzenie Połączenia, za pomocą którego zorganizowana jest komunikacja z Usługodawcą. W takim przypadku protokół komunikacyjny TCP/IP musi być skonfigurowany w specjalny sposób. Aby utworzyć takie połączenie, możesz użyć Kreatora połączeń internetowych. Jego skrót najczęściej znajduje się na Pulpicie. Kreatora połączenia internetowego można również wywołać bezpośrednio z przeglądarki Internet Explorer (IE). W wersji IE5 w tym celu należy wykonać polecenia menu Narzędzia/Opcje internetowe/Połączenie iw oknie, które zostanie otwarte kliknąć przycisk Instaluj, a następnie postępować zgodnie z instrukcjami Kreatora. Po tych procedurach nie tylko połączenie zostanie nawiązane, ale także protokół TCP / IP zostanie skonfigurowany w niezbędny sposób. Przydatna jest możliwość samodzielnego wykonania tego ustawienia, wykonując następujące czynności:

1) utworzenie zwykłego Połączenia z numerem telefonu dostawcy;

2) kliknąć na utworzone Połączenie prawym przyciskiem myszy iz menu kontekstowego wybrać polecenie Właściwości;

3) w otwartym oknie wybrać zakładkę Typ serwera, a ponadto:

▪ określenie typu serwera dostępu zdalnego (najczęściej PPP);

▪ zaznaczenie checkboxa Protokół sieciowy TCP/IP i odznaczenie wszystkich pozostałych flag w tym oknie. Jeżeli konieczne jest oznaczenie innych flag, należy to wyjaśnić zgodnie z instrukcjami dostawcy;

▪ kliknij przycisk Ustawienia TCP/IP;

4) zaznacz w otwartym oknie Konfigurowanie selektorów TCP/IP. Adresy IP w górnej części okna są przydzielane przez serwer, natomiast adresy w środkowej części okna należy wprowadzić ręcznie. Na środku okna należy również ustawić adresy IP dostawcy. W tym samym oknie najczęściej umieszczane są flagi Użyj kompresji nagłówka IP oraz Użyj domyślnej bramy dla sieci zdalnej. Znaczenie ostatnich flag należy sprawdzić u dostawcy. Aby zaimplementować działanie takiego połączenia należy w Panelu Sterowania/Sieci/Konfiguracji w zakładce Wiązanie okna Właściwości dla Kontrolera Zdalnego Dostępu zaznaczyć flagę TCP/IP.

Jeśli dostawca ma kilka telefonów wejściowych, dla każdego z nich tworzone jest osobne połączenie. Każde połączenie musi być skonfigurowane przez użytkownika w określony sposób.

Hasło do połączenia z dostawcą może być wprowadzane każdorazowo podczas procesu łączenia lub zapamiętane i określone automatycznie. Podczas łączenia się z usługodawcą internetowym wyświetlany jest pewien komunikat, w którym podana jest określona szybkość transferu; jeśli ta prędkość nie odpowiada użytkownikowi, połączenie należy zakończyć i powtórzyć ponownie.

6.8. World Wide Web lub WORLD WIDE WEB

Możliwości sieci WWW zapewniają dostęp do prawie wszystkich zasobów większości największych bibliotek na świecie, zbiorów muzealnych, utworów muzycznych, przepisów ustawowych i rządowych, podręczników i zbiorów operacyjnych na dowolny temat oraz recenzji analitycznych. System WWW stał się teraz pośrednikiem i zapewnia zawieranie umów, zakup towarów i rozliczenia z nimi, rezerwację biletów transportowych, wybór i zamawianie tras wycieczek itp. Ponadto prowadzi badanie opinii publicznej, politycy i biznesmeni. Zwykle każda szanująca się firma ma swoją stronę WWW, a stworzenie takiej strony jest w miarę dostępne dla każdego internauty.

WWW zapewnia interakcję między rozproszonymi sieciami, w tym sieciami firm finansowych.

Funkcje WWW obejmują:

▪ hipertekstowa organizacja elementów informacyjnych, którymi są strony WWW;

▪ możliwość włączenia nowoczesnych multimediów i innych środków artystycznego projektowania stron do stron WWW, nieograniczone możliwości umieszczania informacji na ekranie;

▪ możliwość zamieszczania różnych informacji na stronie internetowej właściciela;

▪ istnienie darmowego, dobrego i prostego oprogramowania, które pozwala nieprofesjonalnemu użytkownikowi nie tylko przeglądać, ale także samodzielnie tworzyć strony WWW;

▪ obecność w oprogramowaniu dobrych wyszukiwarek, pozwalających szybko znaleźć potrzebne informacje. Istnienie wygodnych sposobów zapamiętywania adresów, pod którymi znajdują się niezbędne informacje, a także ich późniejszego natychmiastowego odtwarzania, jeśli to konieczne;

▪ możliwość szybkiego poruszania się pomiędzy już przeglądanymi stronami;

▪ istnienie środków zapewniających wiarygodność i poufność wymiany informacji.

Sprawną i łatwą pracę z WWW zapewnia dostępność systemów wyszukiwania potrzebnych informacji. Dla wszelkiego rodzaju zasobów w Internecie istnieją wyszukiwarki, a sama praca wyszukiwarek w sieci WWW opiera się na wyszukiwaniu po słowach kluczowych. W tym celu możliwe jest określenie różnych masek lub wzorców oraz logicznych funkcji wyszukiwania, np.:

▪ wyszukaj dokumenty zawierające którekolwiek z podanych słów kluczowych lub fraz;

▪ szukaj dokumentów zawierających kilka słów kluczowych lub fraz.

Wszystkie narzędzia wyszukiwania można podzielić na następujące grupy ze względu na sposób organizacji wyszukiwania i przewidziane możliwości: katalogi i specjalistyczne bazy danych, silniki wyszukiwania i metawyszukiwarki.

Katalogi w sieci WWW mają podobną strukturę do zorganizowanych katalogów bibliotecznych. Pierwsza strona katalogu zawiera linki do głównych tematów, takich jak Kultura i sztuka, Medycyna i zdrowie, Społeczeństwo i polityka, Biznes i ekonomia, Rozrywka itp. Jeśli aktywujesz żądany link, otworzy się strona z linkami szczegółowo opisującymi wybrany temat .

Narzędzia wyszukiwania (serwery wyszukiwania, roboty wyszukujące) umożliwiają użytkownikowi, zgodnie z ustalonymi regułami, sformułowanie wymagań dotyczących potrzebnych mu informacji. Następnie wyszukiwarka automatycznie skanuje dokumenty na kontrolowanych przez siebie witrynach i wybiera te, które spełniają wymagania stawiane przez użytkownika. Wynikiem wyszukiwania może być utworzenie jednej lub więcej stron zawierających łącza do dokumentów związanych z zapytaniem. Jeśli wynik wyszukiwania doprowadził do wybrania dużej liczby dokumentów, możesz zawęzić zapytanie i powtórzyć wyszukiwanie zgodnie z nim, ale już wśród wybranych stron.

6.9. intranet

Intranet to lokalna lub rozproszona geograficznie prywatna sieć organizacji, która charakteryzuje się wbudowanymi mechanizmami bezpieczeństwa. Sieć ta oparta jest na technologiach internetowych. Termin „Intranet” pojawił się i stał się powszechnie używany w 1995 roku. Oznacza to, że firma wykorzystuje technologie internetowe w ramach (wewnątrz) swojej sieci lokalnej. Zaletą korzystania z intranetu jest umożliwienie wszystkim pracownikom firmy dostępu do wszelkich informacji niezbędnych do pracy, niezależnie od lokalizacji komputera pracownika oraz dostępnego oprogramowania i sprzętu. Głównym powodem wykorzystania Intranetu w organizacjach komercyjnych jest potrzeba przyspieszenia procesów gromadzenia, przetwarzania, zarządzania i udostępniania informacji.

Często firmy zajmujące się biznesem elektronicznym w Internecie tworzą mieszaną sieć, w której podzbiór wewnętrznych węzłów korporacji tworzy Intranet, a zewnętrzne węzły łączące się z Internetem nazywane są Extranetem (Extranet).

Podstawą aplikacji w Intranecie jest wykorzystanie Internetu, a w szczególności technologii Webowych:

1) hipertekst w formacie HTML;

2) protokół przesyłania hipertekstu HTTP;

3) Interfejs aplikacji serwera CGI.

Ponadto Intranet obejmuje serwery sieci Web do statycznego lub dynamicznego publikowania informacji oraz przeglądarki internetowe do przeglądania i interpretowania hipertekstu. Podstawą wszystkich rozwiązań aplikacji intranetowych do interakcji z bazą danych jest architektura klient-serwer.

Dla różnych organizacji wykorzystanie intranetu ma szereg istotnych zalet:

1) W intranecie każdy użytkownik skonfigurowanej stacji roboczej ma dostęp do dowolnej z najnowszych wersji dokumentów, gdy tylko zostaną one umieszczone na serwerze WWW. W tym przypadku lokalizacja użytkownika i serwera WWW nie ma znaczenia. Takie podejście w dużych organizacjach pozwala na bardzo znaczne oszczędności kosztów;

2) dokumenty w Intranecie mogą aktualizować się automatycznie (w czasie rzeczywistym). Ponadto publikując dokument na serwerze WWW, w każdej chwili można uzyskać informację, który z pracowników firmy, kiedy i ile razy miał dostęp do opublikowanych dokumentów;

3) wiele organizacji korzysta z aplikacji umożliwiających dostęp do firmowych baz danych bezpośrednio z poziomu przeglądarki internetowej;

4) dostęp do publikowanych informacji może być realizowany przez Internet, jeżeli istnieje hasło dostępu do wewnętrznych baz danych firmy. Użytkownik zewnętrzny, który nie ma hasła, nie będzie mógł uzyskać dostępu do wewnętrznych informacji poufnych firmy.

6.10. Tworzenie strony internetowej za pomocą strony głównej

Tworzenie stron WWW najczęściej i najefektywniej odbywa się za pomocą edytora WWW Microsoft FrontPage 2000, który idealnie nadaje się do nauki programowania w HTML oraz sztuki tworzenia własnych stron WWW.

Edytor FrontPage 2000 jest częścią pakietu Microsoft Office 2000 i można go również kupić jako samodzielny program.

Kluczowe cechy programu FrontPage 2000 obejmują:

1) tworzenie i zapisywanie stron internetowych na dysku twardym komputera oraz bezpośrednio w Internecie;

2) pobieranie stron internetowych z sieci Internet i ich edycja;

3) przeglądanie i administrowanie Stroną Internetową;

4) opracowanie kompleksowego projektu;

5) wykorzystanie gotowych tagów HTML;

6) korzystanie z gotowych rysunków;

7) stosowanie formantów ActiveX i skryptów na stronach internetowych.

Aby utworzyć nową stronę WWW, wykonaj polecenia Plik/ Nowy/ Strona lub naciśnij kombinację klawiszy Ctrl+N. W takim przypadku na ekranie pojawi się okno dialogowe Nowy, w którym należy wybrać żądany szablon strony lub przejść do zakładki Strony Ramki (Ramki). Również utworzenie nowej strony zgodnie z szablonem Strony normalnej można wykonać za pomocą przycisku Nowa na standardowym pasku narzędzi.

Zapisywanie stron internetowych odbywa się za pomocą polecenia Zapisz z menu Plik lub poprzez naciśnięcie kombinacji klawiszy Ctrl + S. W wyświetlonym oknie dialogowym wpisywana jest nazwa strony, a na liście Zapisz jako typ określany jest jej typ. Zapisywanie strony w Internecie lub na dysku twardym odbywa się poprzez określenie jej lokalizacji w polu w górnej części tego okna dialogowego.

Możesz wprowadzić tekst na nową stronę internetową za pomocą klawiatury, skopiować go z innych dokumentów lub użyć metody „przeciągnij i upuść”. Wprowadzanie tekstu z klawiatury odbywa się w taki sam sposób, jak w każdym edytorze tekstu. Aby wstawić obrazy na stronę internetową, wybierz polecenie Obraz z menu Wstaw.

Dowolny obraz na stronie internetowej może być powiązany z hiperłączem. Odbywa się to poprzez wybranie żądanego wzoru i przejście do zakładki Ogólne okna dialogowego.

Aby utworzyć łącze hipertekstowe, należy zaznaczyć tekst lub obraz, wybrać polecenie Hiperłącze z menu Wstaw lub z menu kontekstowego. W polu adresu URL, które pojawi się w oknie, wprowadź adres URL.

Właściwości utworzonej strony WWW są pokazane w oknie dialogowym Właściwości strony, które otwiera się poleceniem Plik/Właściwości.

Aby opublikować strony internetowe, wybierz polecenie Plik/Publikuj w Internecie lub naciśnij przycisk o tej samej nazwie na standardowym pasku narzędzi. W wyświetlonym oknie dialogowym należy określić lokalizację strony internetowej, opcje publikowania zmodyfikowanych lub wszystkich stron oraz opcje ochrony. Po kliknięciu przycisku Publikuj utworzone strony internetowe pojawią się w Internecie.

6.11. Zasoby informacji o plikach FTP

System FTP to repozytorium różnego rodzaju plików (arkuszy kalkulacyjnych, programów, danych, grafiki, dźwięku), które są przechowywane na serwerach FTP. Serwery te są budowane przez prawie wszystkie duże firmy. Najpopularniejszym typem nazwy DNS jest ftp.<nazwa firmy>.com.

Według dostępności informacje na serwerach FTP są podzielone na trzy kategorie:

1) pliki swobodnie rozpowszechniane (Freeshare), jeżeli ich wykorzystanie nie ma charakteru komercyjnego;

2) informacje chronione, do których dostęp jest świadczony specjalnemu gronu zarejestrowanych użytkowników za dodatkową opłatą;

3) pliki o statusie Shareware. Użytkownik może wypróbować je za darmo przez określony czas. Po tym czasie, aby kontynuować działanie należy zarejestrować się na serwerze i opłacić koszt pliku.

Podczas logowania do serwera FTP należy zarejestrować się za pomocą swojego identyfikatora i hasła. Jeśli na serwerze nie ma specjalnego systemu rejestracji, zaleca się podanie słowa Anonimowy jako identyfikatora oraz adresu e-mail jako hasła. Podczas uzyskiwania dostępu do plików z kategorii Freeshare lub Shareware, ten rodzaj rejestracji jest używany przez twórców serwerów do rejestrowania i statystycznej analizy kręgu użytkowników.

Informacje na serwerze FTP mają postać tradycyjnych katalogów. Nazwy katalogów są w przypadkowej kolejności. Pliki na serwerach FTP dzielą się na tekstowe (w kodach ASCII) i binarne (dokumenty przygotowane przez edytory Windows). Pliki te są przesyłane przez sieć na różne sposoby. W programie do kopiowania plików należy określić typ przesyłanego pliku lub ustawić tryb automatycznego wykrywania. W tym drugim trybie niektóre programy uważają, że tylko pliki z rozszerzeniem TXT są plikami tekstowymi, podczas gdy inne programy zapewniają możliwość określenia listy plików tekstowych. Wysyłanie pliku binarnego jako pliku tekstowego może prowadzić do utraty informacji i ich zniekształcenia podczas przesyłania. Jeśli nie wiesz, jaki to plik, musisz wysłać go jako plik binarny, co z kolei może wydłużyć czas przesyłania. Pliki typu binarnego są konwertowane na pliki „pseudo-tekstowe”, aby skrócić czas przesyłania. Służą do tego programy Uuencode.

Możliwe jest skopiowanie pliku z serwera FTP za pomocą przeglądarki, ale wygodniej jest to zrobić za pomocą specjalnych programów (WSFTP lub CuteFTP). Oba programy mają dwa typy okien:

1) odpowiednik książki adresowej, w którym tworzone są warunkowe znaczące nazwy serwerów FTP, ich adresy URL, nazwa identyfikacyjna i hasło logowania, a także inne informacje wspólne dla serwera;

2) okno robocze do bezpośredniej pracy z serwerem.

Podczas korzystania z tych programów żądany serwer jest najpierw wybierany z książki adresowej. Następnie automatycznie nawiązuje się z nim połączenie, po czym otwiera się okno robocze, które zawiera dwa panele. Jeden z nich odpowiada komputerowi użytkownika, a drugi serwerowi. Oba panele zawierają drzewo katalogów z plikami. Poruszanie się po drzewie i aktywowanie katalogów na obu panelach odbywa się w zwykły sposób. Wybrane pliki są zaznaczane i kopiowane komendą (kliknięciem odpowiedniego przycisku) do bieżącego katalogu komputera lokalnego. W przypadku zerwania połączenia programy te umożliwiają kontynuowanie wysyłania pliku z przerwanego miejsca.

Aby znaleźć plik po nazwie lub fragmencie nazwy, należy skorzystać z wyszukiwarki Archie, która znajduje się na wielu serwerach. Stale aktualizowana lista serwerów Archie jest dostępna w Internecie.

6.12. e-mail (e-mail)

Poczta elektroniczna umożliwia szybkie przesyłanie wiadomości i plików do określonego odbiorcy oraz zapewnia dostęp do dowolnych innych zasobów Internetu.

Istnieją dwie grupy protokołów, według których działa poczta elektroniczna:

1) Protokoły SMTP i POP (lub POPXNUMX). Protokół SMTP (Simple Mail Transfer Protocol) pomaga w przesyłaniu wiadomości między odbiorcami Internetu i umożliwia grupowanie wiadomości pod jeden adres odbiorcy, a także kopiowanie wiadomości e-mail w celu przesłania na różne adresy. Protokół POP (Post Office Protocol) umożliwia użytkownikowi końcowemu dostęp do wiadomości elektronicznych, które do niego dotarły. Prosząc użytkownika o odebranie poczty, klienci POP proszeni są o podanie hasła, które zapewnia zwiększoną poufność korespondencji;

2) protokół IMAP. Pozwala użytkownikowi działać na wiadomości e-mail bezpośrednio na serwerze dostawcy, a tym samym spędzać mniej czasu na przeglądaniu Internetu.

Do wysyłania i odbierania wiadomości e-mail służą specjalne programy pocztowe. Programy te służą do:

▪ tworzenie i przesyłanie komunikatów zarówno w formie wiadomości tekstowych, jak iw formacie HTML, dodawanie bezpośrednio do tekstu komunikatu w postaci grafiki, animacji, dźwięku;

▪ dodawanie do wiadomości dowolnego rodzaju plików (tworzenie załączników). Załączniki są wyświetlane w postaci ikon umieszczonych w specjalnych obszarach wiadomości e-mail. Ikony zawierają nazwę załączonego pliku i jego rozmiar;

▪ deszyfrowanie wiadomości otrzymanej w różnych kodowaniach cyrylicy;

▪ zarządzanie priorytetem wysyłania wiadomości (pilne, regularne);

▪ skrócenie czasu komunikacji, jeśli chcesz zobaczyć otrzymaną pocztę. W tym przypadku najpierw wysyłane są tylko nagłówki (krótka treść) wiadomości, a w całości wysyłane są tylko specjalnie zamówione wiadomości;

▪ automatyczne sprawdzanie pisowni i gramatyki wiadomości przed wysłaniem;

▪ przechowywanie w książce adresowej niezbędnych adresów e-mail autorów wiadomości w celu dalszego wykorzystania tych adresów przy wysyłaniu wiadomości.

Przygotowanie i wysyłanie wiadomości na ekranie programu pocztowego wypełnia się za pomocą następujących pól:

1) Do kogo. To pole jest wypełnione adresem e-mail głównego korespondenta;

2) Kopiuj. W tym polu wpisz adresy korespondentów, którzy otrzymają kopię wiadomości;

3) Bcc. Przeznaczenie pola jest podobne do poprzedniego, ale nawet jeśli znajdują się w nim adresy, główny korespondent nie jest świadomy obecności kopii wysyłanych na te adresy;

4) Temat. To pole zawiera podsumowanie wiadomości. Tekst podawany jest w formie nagłówka wiadomości, gdy adresat przegląda pocztę przychodzącą;

5) Wiadomości. W tym polu wpisujemy treść wiadomości. W programach pocztowych służy do tego edytor tekstu.

Dołączanie pliku odbywa się za pomocą polecenia menu lub za pomocą przycisku narzędzia; spowoduje to otwarcie okna znanego z systemu Windows z drzewem katalogów, w którym można wybrać załączony plik. Przygotowana wiadomość jest wysyłana za pomocą polecenia Dostarcz pocztę. Wiadomość w tym przypadku trafia do specjalnego folderu poczty Skrzynka nadawcza. Wysłanie wiadomości do sieci zależy od określonego stopnia pilności. Pilna wiadomość jest wysyłana natychmiast. W niektórych programach wysłane wiadomości są wysyłane do folderu Elementy wysłane, gdzie mogą być przeglądane lub usuwane przez czytniki poczty. Jeżeli doręczenie wiadomości z jakiegoś powodu okazało się niemożliwe (z powodu błędu w adresie), nadawca jest o tym automatycznie informowany. Zawiadomienie ma formę wiadomości e-mail w folderze.

6.13. Aktualności lub konferencje

Konferencja to zbiór wiadomości tekstowych, artykułów jej abonentów. Zamieszczenie artykułu na konferencji nazywamy publikacją.

Do pracy z wiadomościami używany jest program Outlook Express lub MS Outlook. Programy działań konferencji zapewniają:

▪ wskazanie zestawu konferencji, w których użytkownik komputera planuje uczestniczyć. Operacja ta nazywana jest subskrypcją, a zbiór konferencji, na które dokonano subskrypcji, nazywany jest listą subskrypcyjną. Istnieje możliwość wprowadzenia zmian w dowolnej liście abonamentowej;

▪ przeglądanie nazwisk autorów i tytułów (tematów) artykułów w poszczególnych konferencjach z listy subskrypcji;

▪ zapoznanie się z treścią artykułów i zapisanie ich w pliku w określonym z góry katalogu na komputerze użytkownika;

▪ publikacja własnego artykułu na konkretnej konferencji;

▪ indywidualną odpowiedź dla autora dowolnego artykułu na jego adres e-mail;

▪ zbiorcza odpowiedź dla autora konkretnego artykułu, ukazująca się w formie artykułu konferencyjnego.

Następujące ustawienia dotyczą pracy z konferencjami:

1) Nazwa DNS serwera dostawcy, na którym przechowywane są artykuły konferencyjne. Ten serwer nazywa się NNTP, a jego nazwa musi być określona w umowie z dostawcą;

2) nazwa użytkownika służąca do identyfikacji autora przy przeglądaniu tytułów artykułów;

3) adres e-mail użytkownika w celu zapewnienia możliwości osobistego zaadresowania odpowiedzi na artykuł.

W oprogramowaniu dostępne są trzy rodzaje okien do pracy z konferencjami:

1) okno subskrypcji konferencji;

2) wziernik, w którym odnotowuje się nagłówki i treść artykułów z konferencji;

3) okno do tworzenia artykułów. To okno stanowi publiczną odpowiedź na artykuł.

Każde z okien można wywołać za pomocą odpowiedniego polecenia menu lub klikając przycisk narzędzia.

W oknie subskrypcji możesz wyświetlić albo pełną listę wszystkich grup konferencyjnych obsługiwanych przez serwer NNTP, albo tylko listę konferencji, które zostały zasubskrybowane. Na każdej z list można wyświetlić podzbiór konferencji, których nazwa zawiera określoną kombinację znaków. Aby dodać konferencję do listy subskrypcji, kliknij dwukrotnie nazwę konferencji; aby wykluczyć konferencję z listy, należy również dwukrotnie kliknąć jej nazwę na liście subskrypcji.

Okno przeglądarki pojawia się, gdy wywołujesz program Outlok Express, a inne okna są z niego wywoływane. To okno zawiera:

▪ rozwijana lista zawierająca nazwy konferencji znajdujących się na liście subskrypcji oraz foldery Skrzynka nadawcza, Skrzynka odbiorcza, Wysłane, Usunięte;

▪ pole nagłówków, które wskazuje listę artykułów zawartych w konferencji lub folderze wybranym w poprzednim akapicie. Na liście mogą znajdować się wyłącznie artykuły oryginalne. Istnieje możliwość wykluczenia z listy artykułów, które zostały już przeczytane;

▪ pole treści, w którym w tytule wyświetlana jest główna treść artykułu. Artykuł często zawiera załączone pliki.

Artykuł można przesłać na konferencję, a kopię - pocztą elektroniczną do dowolnego adresata.

Okno tworzenia artykułu musi być otwarte podczas tworzenia nowego artykułu, publicznej lub prywatnej odpowiedzi do autora. Praca z tym oknem jest podobna do tworzenia i wysyłania wiadomości e-mail. Artykuł można utworzyć w dowolnym z następujących formatów: HTML, Uuencode, MIME. Jeśli wiadomość jest wysyłana w formacie HTML, po odczytaniu zostanie wyświetlona w tym samym formacie, w przeciwnym razie wiadomość zostanie wyświetlona jako zwykły tekst z załącznikiem w postaci pliku HTML. Odbiorca będzie mógł obejrzeć załączony plik z pełnym formatowaniem w dowolnej przeglądarce WWW.

6.14. Handel elektroniczny. Sklep internetowy. Systemy płatności internetowych

E-commerce to przyspieszenie większości procesów biznesowych poprzez prowadzenie ich drogą elektroniczną. W połowie lat 1990. e-commerce zaczął gwałtownie rosnąć na całym świecie i pojawiło się wielu sprzedawców tradycyjnych towarów.

E-commerce wykorzystuje wiele różnych technologii: EDI, email, Internet, Intranet, Extranet.

Najbardziej zaawansowaną technologią informatyczną stosowaną w handlu elektronicznym jest protokół Electronic Data Interchange (EDI), który eliminuje konieczność przetwarzania, wysyłania i dodatkowego wprowadzania do komputerów dokumentów papierowych.

Handel elektroniczny w Internecie można podzielić na dwie kategorie: B2C – „firma-konsument” oraz B2B – „firma-firma”.

Głównym modelem handlu B2C (business-to-business) są internetowe sklepy detaliczne, które są rozwiniętą strukturą zaspokajającą potrzeby konsumentów.

E-commerce B2C w Internecie nabrał nowego znaczenia. Marketplace B2B powstał z myślą o organizacjach w celu wspierania interakcji pomiędzy firmami a ich dostawcami, producentami i dystrybutorami. Rynek B2B jest w stanie otworzyć ogromne możliwości w porównaniu do sektora handlu B2C.

Głównym modelem B2B są internetowe sklepy detaliczne, które technicznie są połączeniem elektronicznej witryny sklepowej i systemu handlowego.

Aby kupić dowolny produkt w sklepie internetowym, kupujący musi przejść do strony internetowej sklepu internetowego. Niniejsza witryna internetowa jest elektroniczną witryną sklepową zawierającą katalog towarów, niezbędne elementy interfejsu do wprowadzania danych rejestracyjnych, składania zamówienia, dokonywania płatności przez Internet itp. W sklepach internetowych klienci rejestrują się podczas składania zamówienia lub wchodzenia do sklepu.

Serwer internetowy obsługuje sklep internetowy, który jest witryną sieci Web z aktywną zawartością. Jego podstawą jest katalog towarów z cenami, zawierający kompletne informacje o każdym produkcie.

Elektroniczne witryny sklepowe pełnią następujące funkcje:

▪ udostępnienie interfejsu do bazy oferowanych towarów;

▪ praca z elektronicznym „koszykiem” kupującego;

▪ składanie zamówień oraz wybór sposobu płatności i dostawy;

▪ rejestracja nabywców;

▪ pomoc kupującemu on-line;

▪ zbieranie informacji marketingowych;

▪ zapewnienie bezpieczeństwa danych osobowych Klientów;

▪ automatyczne przesyłanie informacji do systemu transakcyjnego.

Kupujący, który wybrał towar, musi wypełnić specjalny formularz, który zawiera sposób płatności i dostawy towaru. Po złożeniu zamówienia, wszystkie zebrane informacje o kupującym przekazywane są z elektronicznej witryny sklepu do systemu transakcyjnego sklepu internetowego. Dostępność wymaganego produktu jest sprawdzana w systemie handlowym. Jeżeli towar nie jest w danym momencie dostępny, sklep wysyła zapytanie do dostawcy, a kupujący jest informowany o czasie opóźnienia.

Po opłaceniu towaru, w momencie jego przekazania kupującemu, konieczne jest potwierdzenie faktu złożenia zamówienia, najczęściej drogą mailową. Jeżeli kupujący może zapłacić za towar przez Internet, stosuje się system płatności.

Do najpopularniejszych zakupów w sklepach internetowych należą: oprogramowanie; komputery i komponenty; obsługa turystyczna; Usługi finansowe; książki, kasety wideo, płyty itp.

6.15. aukcje internetowe. Bankowość internetowa

Aukcja internetowa to elektroniczna witryna handlowa, za pośrednictwem której użytkownik może sprzedać dowolny produkt. Właściciel aukcji internetowej otrzymuje prowizję od każdej transakcji, podczas gdy obroty aukcji internetowych są znacznie większe niż obroty pozostałej części handlu detalicznego online.

Największe na świecie firmy aukcyjne również przenoszą się do Internetu. Na aukcjach internetowych można wystawić dowolny towar. Istnieją jednak pewne grupy towarów, które najbardziej nadają się do handlu aukcyjnego:

1) komputery i komponenty, towary zaawansowanej technologii;

2) towary przecenione;

3) towary wolnozbywalne;

4) niedawni liderzy sprzedaży;

5) przedmioty kolekcjonerskie.

Aukcje można klasyfikować na podstawie ich podziału według kierunku wzrostu lub spadku stawek, które z kolei mogą rosnąć od minimum do maksimum i odwrotnie.

Zwykła aukcja nie ma ceny zarezerwowanej ani ceny minimalnej; towar zostaje wydany kupującemu w zamian za zapłatę ceny maksymalnej.

W aukcji publicznej aktualna oferta maksymalna i historia licytacji są dostępne dla każdego uczestnika i odwiedzającego. Nie ma żadnych ograniczeń dla uczestników, z wyjątkiem gwarancji.

Aukcja prywatna to oferta, która jest akceptowana przez ściśle określony czas. W takim przypadku uczestnik może postawić tylko jeden zakład i nie ma możliwości poznania wielkości i liczby zakładów innych uczestników. Po upływie uzgodnionego okresu ustalany jest zwycięzca.

Cicha aukcja to odmiana aukcji prywatnej, w której licytujący nie wie, kto złożył ofertę, ale może sprawdzić aktualną ofertę maksymalną.

Na aukcji minimalnej sprzedawca oferuje przedmiot i określa minimalną początkową cenę sprzedaży. Podczas licytacji kupujący znają tylko wielkość ceny minimalnej.

Aukcja z ceną zastrzeżoną różni się od aukcji minimalnej tym, że licytujący znają ustaloną cenę minimalną, ale nie znają jej wartości. Gdy cena minimalna nie zostanie osiągnięta podczas aukcji w trakcie procesu licytacji, przedmiot pozostaje niesprzedany.

Aukcja duńska to aukcja, w której cena wywoławcza jest ustalana na przesadnie wysokim poziomie i jest automatycznie obniżana w trakcie licytacji, a obniżka ceny ustaje w momencie przerwania aukcji przez licytanta.

Podstawą powstania i rozwoju bankowości internetowej są rodzaje bankowości zdalnej stosowane we wcześniejszych fazach istnienia bankowości. Za pośrednictwem systemu bankowości internetowej Klient banku może dokonać następujących operacji:

1) przelew środków z jednego konta na drugie;

2) realizację płatności bezgotówkowych;

3) skup i sprzedaż waluty bezgotówkowej;

4) otwieranie i zamykanie rachunków depozytowych;

5) ustalenie harmonogramu rozliczeń;

6) zapłata za różne towary i usługi;

7) kontrolę nad wszystkimi transakcjami bankowymi na Twoich rachunkach przez dowolny okres czasu.

Korzystając z systemów bankowości internetowej, klient banku zyskuje pewne korzyści:

1) znaczna oszczędność czasu;

2) możliwość całodobowego monitorowania swoich środków finansowych i lepszego ich kontrolowania, szybkiego reagowania na wszelkie zmiany sytuacji na rynkach finansowych;

3) śledzenie operacji za pomocą kart plastikowych w celu zwiększenia kontroli klienta nad ich operacjami.

Do wad systemów bankowości internetowej można zaliczyć problemy z zapewnieniem bezpieczeństwa rozliczeń oraz środków na rachunkach klientów.

6.16. ubezpieczenie internetowe. Wymiana internetowa

Ubezpieczenia internetowe to obecnie często wykorzystywana usługa finansowa świadczona przez Internet.

Ubezpieczenie to proces nawiązywania i utrzymywania relacji między ubezpieczonym a ubezpieczycielem, które są ustalane w umowie. Ubezpieczyciel określa różne warianty programów ubezpieczeniowych oferowanych ubezpieczonemu. W przypadku wyboru przez klienta dowolnego wariantu ubezpieczenia, wówczas obie strony zawierają umowę ubezpieczenia. Od chwili zawarcia umowy ubezpieczenia ubezpieczający zobowiązuje się do zapłaty ryczałtu lub regularnych kwot pieniężnych określonych w zawartej umowie. W razie zajścia zdarzenia ubezpieczeniowego ubezpieczyciel musi wypłacić ubezpieczonemu odszkodowanie pieniężne, którego wysokość została ustalona w warunkach umowy ubezpieczenia. Polisa ubezpieczeniowa to dokument potwierdzający zawarcie umowy ubezpieczenia i zawierający obowiązki ubezpieczyciela.

Ubezpieczenia internetowe to zespół wszystkich powyższych elementów relacji między zakładem ubezpieczeń a jego klientem, powstających w procesie sprzedaży produktu ubezpieczeniowego, jego obsługi i wypłaty odszkodowania ubezpieczeniowego (z wykorzystaniem technologii internetowych).

Usługi ubezpieczeniowe online obejmują:

1) wypełnienie formularza zgłoszeniowego z uwzględnieniem wybranego programu usług ubezpieczeniowych;

2) zamówienia i bezpośredniej zapłaty za polisę ubezpieczeniową;

3) obliczenie wysokości składki ubezpieczeniowej i określenie warunków jej opłacenia;

4) dokonywanie okresowych opłat ubezpieczeniowych;

5) utrzymanie umowy ubezpieczenia w okresie jej obowiązywania.

Korzystając z technologii internetowych dla firm ubezpieczeniowych, klient otrzymuje następujące korzyści:

1) obniżenie kosztów kapitałowych w tworzeniu globalnej sieci dystrybucji usług;

2) znaczne obniżenie kosztów świadczenia usług;

3) tworzenie stałej bazy klientów najaktywniejszych konsumentów.

Giełda internetowa to platforma, za pośrednictwem której państwo, osoby prawne lub osoby fizyczne handlują towarami, usługami, akcjami i walutami. Elektroniczny system transakcyjny to serwer centralny i podłączone do niego serwery lokalne. Za ich pośrednictwem uczestnikom obrotu zapewniany jest dostęp do platform transakcyjnych. Zaletą giełdy internetowej jest zewnętrzna prostota zawierania transakcji oraz obniżone taryfy za usługi brokerów on-line. Inwestor może skorzystać z porad brokera lub obejść się bez nich.

Centrale internetowe pełnią następujące funkcje:

1) terminowe przekazywanie oferentom niezbędnych informacji;

2) organizacja obrotu towarowego pomiędzy przedsiębiorstwami;

3) zautomatyzowany proces płatności i dostawy towaru;

4) redukcja kosztów.

Wśród znanych giełd internetowych można wyróżnić: giełdy ropy naftowej, giełdy produktów rolnych, giełdy metali szlachetnych, giełdy, giełdy walutowe.

Główne segmenty światowego rynku finansowego to rynek metali szlachetnych, giełdowy i walutowy.

Towarami na giełdach są akcje różnych spółek. Towarami na rynku walutowym są waluty różnych krajów. Rynek walutowy ma szereg istotnych zalet w porównaniu z rynkiem papierów wartościowych:

1) działalność na rynku walutowym można rozpocząć przy niewielkim kapitale zakładowym;

2) na rynku walutowym transakcje przeprowadzane są na zasadzie handlu marżą;

3) funkcjonowanie kantorów odbywa się całodobowo.

Handlowiec to osoba fizyczna lub prawna, która we własnym imieniu i na własny koszt dokonuje transakcji, której zyskiem jest różnica między ceną kupna i sprzedaży towaru, akcji lub waluty.

6.17. Marketing internetowy. Reklama internetowa

Marketing to system zarządzania działaniami produkcyjnymi i marketingowymi organizacji. Jej celem jest uzyskanie akceptowalnej kwoty zysku poprzez księgowość i aktywny wpływ na warunki rynkowe. Tworząc koncepcję marketingową dla firmy, należy wziąć pod uwagę podstawowe różnice między Internetem a mediami tradycyjnymi:

▪ odbiorca Internetu jest aktywnym elementem systemu komunikacji. Wykorzystanie Internetu pozwala na interakcję pomiędzy dostawcami i konsumentami. W tym wypadku sami konsumenci stają się dostawcami, w szczególności dostawcami informacji o ich potrzebach;

▪ poziom świadomości konsumenta na temat tematu, na który stara się znaleźć informacje, jest znacznie wyższy niż osoby oglądającej w telewizji reklamę tego samego produktu;

▪ istnieje możliwość bezpośredniej wymiany informacji z każdym konsumentem;

▪ zawarcie transakcji następuje poprzez interaktywność samego środowiska internetowego.

Każda kampania marketingowa w Internecie jest oparta na korporacyjnej witrynie sieci Web, wokół której zbudowany jest cały system marketingowy. Aby przyciągnąć odwiedzających do określonego serwera WWW, firma musi go reklamować poprzez rejestrację w wyszukiwarkach, katalogach internetowych, linkach do innych witryn internetowych itp. Działania marketingowe w Internecie są prowadzone ze względu na następujące zalety poczty elektronicznej marketing:

▪ Prawie każdy użytkownik Internetu ma pocztę elektroniczną;

▪ istnieje możliwość oddziaływania na konkretną grupę odbiorców;

▪ nowoczesne programy pocztowe obsługują litery w formacie HTML.

Przewagą marketingu internetowego nad innymi, bardziej tradycyjnymi formami marketingu jest niższy koszt kampanii reklamowej. Wynika to z faktu, że Internet ma znacznie większą widownię niż konwencjonalne media. Zaletami marketingu internetowego jest również możliwość kierowania strumienia reklam tylko do grupy docelowej, oceny jego skuteczności i szybkiej zmiany głównych celów firmy reklamowej.

Wady marketingu internetowego to: nieznana wielkość rynku, bierność konsumentów i ignorancja konsumentów.

Reklama internetowa służy do informowania użytkowników o stronie internetowej firmy. Może istnieć w postaci kilku głównych nośników.

Baner to prostokątny obraz graficzny w formacie GIF lub JPEG, który jest najpopularniejszym nośnikiem reklamy. Tworząc banery spełnione są dwa warunki, które projektanci stron internetowych biorą pod uwagę:

1) im większy rozmiar banera, tym skuteczniejszy;

2) Animowane banery mogą być bardziej skuteczne niż statyczne.

Mała strona internetowa hostowana na stronie wydawcy sieci Web jest nazywana miniwitryną. Ministrony są zwykle dedykowane konkretnej kampanii marketingowej, produktowi lub usłudze.

Informacje o reklamodawcy to fragment jednej lub kilku stron wydawców internetowych.

Umieszczenie reklamy firmy w Internecie pozwala osiągnąć następujące cele:

1) kreowanie korzystnego wizerunku Twojej firmy;

2) powszechny dostęp do informacji o Twojej firmie dla wielu milionów użytkowników Internetu;

3) obniżenie kosztów reklamy;

4) udzielanie wsparcia swoim agentom reklamowym;

5) wprowadzenie możliwości prezentacji informacji o produkcie;

6) niezwłoczne zmiany cennika, informacji o firmie lub produktach, niezwłoczne reagowanie na sytuację rynkową;

7) sprzedaż swoich produktów za pośrednictwem Internetu bez otwierania nowych punktów sprzedaży detalicznej.

Istnieją dwie metody określania skuteczności reklamy internetowej:

1) badanie statystyk serwera i liczby wejść na strony reklamowe;

2) badanie potencjalnych odbiorców w celu określenia stopnia znajomości reklamowanej firmy.

Metody te można stosować samodzielnie lub łączyć w celu poprawy obiektywności oceny.

Temat 7. Podstawy pracy z programami użytkowymi ogólnego przeznaczenia

7.1. Definicja programów aplikacyjnych

Program stosowany to każdy konkretny program, który przyczynia się do rozwiązania określonego problemu w ramach danego obszaru problemowego. Na przykład, jeśli komputerowi zostanie przydzielone zadanie kontrolowania działalności finansowej firmy, aplikacją w tym przypadku będzie program do sporządzania list płac. Niektóre programy aplikacyjne mają charakter ogólny, tj. zapewniają kompilację i drukowanie dokumentów itp.

W przeciwieństwie do programów aplikacyjnych, system operacyjny lub oprogramowanie narzędziowe nie przyczynia się bezpośrednio do zaspokojenia potrzeb użytkownika końcowego.

Programy aplikacyjne mogą być używane autonomicznie, tj. Rozwiązywać zadanie bez pomocy innych programów, lub w systemie systemów oprogramowania lub pakietów.

7.2. Edytory tekstu

Edytor tekstu to narzędzie programowe służące do przygotowywania dokumentów tekstowych.

Podczas wykonywania różnych dokumentów biznesowych na komputerze konieczne jest korzystanie z edytorów tekstu, które zajmują pozycję pośrednią między najprostszymi edytorami a systemami wydawniczymi.

Podczas pisania w edytorze tekstu należy wziąć pod uwagę następujące kwestie:

1) wskaźniki myszy i kursora nie pasują do siebie. Wskaźnik myszy zwykle przypomina strzałkę. Gdy wskaźnik przesuwa się po części ekranu wypełnionej tekstem, wygląd wskaźnika zmienia się;

2) wskaźnik kursora zawsze znajduje się w polu tekstowym dokumentu, jest to migająca pionowa linia;

3) znacznikiem końca tekstu jest gruba pozioma kreska na końcu wpisanego tekstu.

Przygotowując tekst w edytorze tekstu, po wpisaniu należy go edytować. Redakcja to ustawienie rozmiarów arkuszy, wybór nagłówków, określenie czerwonej linii w akapitach, wstawienie rycin, obiektów itp. Jeżeli tekst jest przygotowywany do prezentacji w formie hipertekstu, to redakcja powinna obejmować wprowadzenie odpowiednie środki do tekstu w formacie HTML. W MS Office 97 takie możliwości istnieją.

Możesz wywoływać różne funkcje edytora za pomocą myszy lub specjalnych kombinacji klawiszy. Praca z myszką jest uważana za najbardziej naturalną, ale użycie niektórych kombinacji „klawiszy skrótu” znacznie przyspiesza pracę.

Menu główne służy do sterowania edytorem. Panele służą jako dodatkowe narzędzie do zarządzania edytorem tekstu: standardowy pasek narzędzi, paski narzędzi edycji i formatowania itp.

W celu przyspieszenia pracy na tych panelach umieszczono przyciski, które powielają różne czynności wykonywane w edytorze tekstu za pomocą opcji menu głównego. Podczas wywoływania każdej pozycji menu na ekranie wyświetlacza pojawia się podmenu, które określa działania edytora. Czynności te można wykonać, wybierając tę ​​pozycję menu.

Aby zainstalować żądaną czcionkę, wykonaj sekwencję Format / Czcionka, prowadzącą do pojawienia się okna, w którym należy wybrać rodzaj czcionki i wielkość liter. Właściwy dobór rodzaju i rozmiaru czcionki ma odzwierciedlenie w charakterze tekstu i zależy od doświadczenia w pracy z redaktorem.

Czcionka jest kombinacją liter, cyfr, znaków specjalnych, które są zaprojektowane zgodnie z jednolitymi wymaganiami. Rysunek czcionki nazywany jest krojem pisma. Czcionki różnią się stylem, a rozmiar czcionki nazywany jest rozmiarem w punktach.

Aby wykonać jakiekolwiek operacje na określonym fragmencie tekstu, należy najpierw zaznaczyć lub zaznaczyć ten fragment. Następnie zmieniane są niezbędne parametry.

Podstawą edycji tekstu jest edycja nagłówków i akapitów. Aby to zrobić, wybierz opcje Format / Akapit, a po pojawieniu się okna na ekranie wykonaj niezbędne czynności.

Podczas ustawiania odległości między wierszami w akapicie należy skorzystać z okna Odstęp między wierszami, w którym ustawia się odstęp pojedynczy, półtora, podwójny lub inny.

Czerwona linia służy do wyróżnienia akapitu; wielkość ruchu kursora podczas tabulacji można ustawić za pomocą linijki, która znajduje się pod panelami sterującymi. Aby linijka pojawiła się na ekranie, musisz ją aktywować w pozycji menu Widok. Kiedy linijka jest aktywna, umieść kursor w odpowiednim miejscu i naciśnij lewy przycisk myszy. Następnie pojawia się znak specjalny, który określa, gdzie kursor przeskakuje po naciśnięciu klawisza tabulatora.

7.3. Procesory stołowe

Procesor arkuszy kalkulacyjnych to zestaw powiązanych ze sobą programów przeznaczonych do przetwarzania arkuszy kalkulacyjnych.

Arkusz kalkulacyjny to komputerowy odpowiednik zwykłego arkusza kalkulacyjnego, składający się z wierszy i kolumn, na przecięciu których znajdują się komórki zawierające informacje liczbowe, formuły lub tekst. Wartość w komórce numerycznej tabeli jest zapisywana lub obliczana przy użyciu odpowiedniego wzoru. Formuły mogą zawierać odwołania do innych komórek.

Przy każdej zmianie wartości w komórce tabeli, wpisaniu do niej nowej wartości z klawiatury, wartości we wszystkich komórkach, w których znajdują się wartości zależne od tej komórki, są również przeliczane.

Kolumny i linie mogą mieć własne nazwy. Ekran monitora to okno, przez które można oglądać stół w całości lub w częściach.

Procesory arkuszy kalkulacyjnych to wygodne narzędzie do obliczeń księgowych i statystycznych. Każdy pakiet zawiera setki wbudowanych funkcji matematycznych i algorytmów przetwarzania statystycznego. Jednocześnie istnieją potężne narzędzia do łączenia ze sobą tabel, tworzenia i edytowania elektronicznych baz danych.

Za pomocą określonych narzędzi można automatycznie odbierać i drukować spersonalizowane raporty oraz korzystać z dziesiątek różnego rodzaju tabel, wykresów, wykresów, opatrywać je komentarzami i ilustracjami graficznymi.

Procesory arkuszy kalkulacyjnych mają wbudowany system pomocy, który dostarcza użytkownikowi informacji na temat poszczególnych poleceń menu i innych danych referencyjnych. Za pomocą tabel wielowymiarowych można szybko dokonać selekcji w bazie danych według dowolnego kryterium.

Najpopularniejszymi procesorami arkuszy kalkulacyjnych są Microsoft Excel (Excel) i Lotus 1-2-3.

W programie Microsoft Excel wiele rutynowych operacji jest zautomatyzowanych, a specjalne szablony umożliwiają tworzenie raportów, importowanie danych i wiele więcej.

Lotus 1-2-3 to profesjonalny procesor arkuszy kalkulacyjnych. Duże możliwości graficzne i przyjazny dla użytkownika interfejs pakietu pozwalają na szybkie poruszanie się po nim. Za pomocą tego procesora można stworzyć dowolny dokument finansowy, raport do księgowości, sporządzić budżet, a nawet umieścić wszystkie te dokumenty w bazach danych.

7.4. Koncepcja opakowań

Najpopularniejszą powłoką wśród użytkowników komputera zgodnego z IBM jest pakiet oprogramowania Norton Commander. Jego głównym zadaniem jest wykonywanie następujących operacji:

▪ tworzenie, kopiowanie, przekazywanie, zmiana nazwy, usuwanie, wyszukiwanie plików i zmiana ich atrybutów;

▪ wyświetlanie drzewa katalogów i charakterystyki plików wchodzących w jego skład w formie wygodnej dla użytkownika;

▪ tworzenie, aktualizacja i rozpakowywanie archiwów (grup skompresowanych plików);

▪ przeglądanie plików tekstowych;

▪ edycja plików tekstowych;

▪ wykonywanie prawie wszystkich poleceń DOS-u z jego środowiska;

▪ uruchamianie programów;

▪ udzielanie informacji o zasobach komputera;

▪ tworzenie i usuwanie katalogów;

▪ obsługa komunikacji międzykomputerowej;

▪ obsługa poczty e-mail przez modem.

Pod koniec XXw. Na całym świecie ogromną popularność zyskała powłoka graficzna MS-Windows 3.x, której zaletą jest to, że ułatwia korzystanie z komputera, a jego interfejs graficzny, zamiast zestawu skomplikowanych poleceń z klawiatury, pozwala aby wybrać je myszką z menu programu w ciągu kilku sekund. Środowisko operacyjne Windows, które działa w połączeniu z systemem operacyjnym DOS, realizuje wszystkie funkcje niezbędne do produktywnej pracy użytkownika, w tym wielozadaniowość.

Powłoka Norton Navigator to zbiór zaawansowanych narzędzi do zarządzania plikami i ulepszeń systemu Windows. Ten program pomaga zaoszczędzić czas na prawie wszystkich operacjach: wyszukiwaniu plików, kopiowaniu i przenoszeniu plików, otwieraniu katalogów.

7.5. Edytor graficzny

Edytor graficzny to program przeznaczony do automatyzacji procesu budowania obrazów graficznych na ekranie komputera. Za jego pomocą można rysować linie, krzywe, malować obszary ekranu, tworzyć napisy różnymi czcionkami itp. Najpopularniejsze edytory pozwalają na obróbkę obrazów uzyskanych za pomocą skanerów, a także wyświetlanie obrazów w taki sposób, aby można je umieścić w dokumencie przygotowanym za pomocą edytora tekstu.

Wielu edytorów jest w stanie uzyskać obrazy trójwymiarowych obiektów, ich przekrojów, rozkładówek, modeli szkieletowych itp.

Dzięki CorelDRAW, który jest potężnym edytorem graficznym z funkcjami publikowania, edycji grafiki i narzędziami do modelowania XNUMXD, możliwe jest uzyskanie trójwymiarowej wizualnej reprezentacji różnego rodzaju napisów.

7.6. Pojęcie i struktura banku danych

Bank danych jest formą organizacji przechowywania i dostępu do informacji i jest systemem specjalnie zorganizowanych danych, oprogramowania, środków technicznych, językowych, organizacyjnych i metodologicznych, zaprojektowanych w celu zapewnienia scentralizowanego gromadzenia i zbiorowego, wielozadaniowego wykorzystania danych.

Bank danych musi spełniać następujące wymagania:

▪ zaspokajają potrzeby informacyjne użytkowników zewnętrznych, zapewniają możliwość przechowywania i zmiany dużych ilości różnorodnych informacji;

▪ zachować określony poziom wiarygodności przechowywanych informacji i ich spójności;

▪ dostęp do danych mają wyłącznie użytkownicy posiadający odpowiednie uprawnienia;

▪ potrafić wyszukiwać informacje według dowolnej grupy cech;

▪ spełniać niezbędne wymagania wydajnościowe podczas przetwarzania żądań;

▪ możliwość reorganizacji i rozbudowy w przypadku zmiany granic oprogramowania;

▪ udostępnianie użytkownikom informacji w różnych formach;

▪ zapewnić użytkownikom zewnętrznym prostotę i wygodę dostępu do informacji;

▪ zapewnić możliwość jednoczesnej obsługi dużej liczby użytkowników zewnętrznych.

Bank danych składa się z dwóch głównych elementów: bazy danych oraz systemu zarządzania bazą danych.

Rdzeniem banku danych jest baza danych, która jest zbiorem powiązanych ze sobą danych przechowywanych razem z minimalną redundancją, która pozwala na ich optymalne wykorzystanie w jednej lub kilku aplikacjach. W tym przypadku dane są przechowywane w taki sposób, że są niezależne od programów, które je wykorzystują; aby dodać nowe lub przekształcić istniejące dane, a także wyszukać dane w bazie danych, używana jest wspólna zarządzana metoda.

Na organizację baz danych nakładane są następujące wymagania:

1) łatwe, szybkie i tanie wdrożenie rozwoju aplikacji bazodanowych;

2) możliwość wielokrotnego wykorzystania danych;

3) oszczędność kosztów pracy intelektualnej, wyrażająca się w istnieniu programu i logicznych struktur danych, które nie ulegają zmianie przy wprowadzaniu zmian w bazie danych;

4) prostota;

5) łatwość obsługi;

6) elastyczność użytkowania;

7) duża szybkość przetwarzania nieplanowanych zapytań o dane;

8) łatwość dokonywania zmian;

9) niskie koszty; niski koszt przechowywania i wykorzystywania danych oraz minimalizacja kosztów wprowadzania zmian;

10) mała redundancja danych;

11) produktywność;

12) rzetelność danych i przestrzeganie jednego poziomu aktualizacji; konieczne jest stosowanie kontroli nad wiarygodnością danych; system zapobiega udostępnianiu użytkownikom różnych wersji tych samych elementów danych na różnych etapach aktualizacji;

13) tajemnica; nieuprawniony dostęp do danych jest niemożliwy; ograniczenie dostępu do tych samych danych dla różnych rodzajów ich wykorzystania może odbywać się na różne sposoby;

14) zabezpieczenie przed zniekształceniem i zniszczeniem; dane muszą być chronione przed awariami;

15) gotowość; użytkownik szybko otrzymuje dane zawsze wtedy, gdy ich potrzebuje.

W procesie tworzenia i obsługi banku danych uczestniczą użytkownicy różnych kategorii, z których główną kategorią są użytkownicy końcowi, czyli ci, na potrzeby których bank danych jest tworzony.

7.7. Programy organizatora

Program organizatora ma na celu efektywne zaplanowanie czasu przedsiębiorcy. Jest używany zarówno w trybie autonomicznym, jak iw trybie współdzielonym.

Ten program umożliwia przechowywanie, planowanie i zarządzanie informacjami o wydarzeniach, spotkaniach, spotkaniach, zadaniach i kontaktach.

Wydarzenie to zdarzenie, które odbywa się w odstępie jednego dnia lub dłużej, na przykład urodziny.

Spotkanie to wydarzenie, na które zarezerwowany jest czas, ale nie są przydzielane zasoby i osoby, takie jak rozmowa, wykład itp. Spotkania mogą być jednorazowe lub cykliczne.

Spotkanie to spotkanie, na które przydzielono zasoby i zaproszono osoby, na przykład spotkanie.

Zadanie to zestaw niezbędnych wymagań, które należy spełnić.

Kontakt to organizacja lub osoba, z którą utrzymywane jest połączenie. Zazwyczaj informacje o osobach kontaktowych są przechowywane i mogą obejmować stanowisko, adres pocztowy, numer telefonu itp.

Program posiada możliwość korzystania z notatek i pamiętników. Notatki są elektronicznym odpowiednikiem luźnego notatnika papierowego. Dziennik jest środkiem do przechowywania ważnych dokumentów, rozliczania różnych działań i wydarzeń.

Podczas planowania harmonogram zawiera wskazanie powiadomienia o każdym z konkretnych wydarzeń, a to pozwala nie zapomnieć o ważnym wydarzeniu. Dane kontaktowe można łatwo znaleźć, odczytać i zaktualizować w organizerze; przechowuje również informacje, które są wykorzystywane do generowania adresu elektronicznego dowolnego typu. Microsoft Outlook to wygodne narzędzie do pracy z pocztą elektroniczną. Użytkownik tego programu w trybie pracy zespołowej nadaje prawa dostępu do czyjegoś harmonogramu w celu planowania spotkań i terminów.

Istnieją następujące rodzaje i tryby działania:

▪ z folderami poczty, które obejmują foldery wiadomości przychodzących, wychodzących, wysłanych i usuniętych;

▪ kalendarz w najbardziej przyjaznym dla użytkownika widoku. Na przykład przejrzyj harmonogram zaplanowanych działań, spotkań i wydarzeń, zaplanuj własny harmonogram;

▪ informacje adresowe dotyczące jakiejkolwiek osoby fizycznej lub prawnej;

▪ dziennik, w którym automatycznie zapisywane są informacje o zakończonych kontaktach, spotkaniach, zadaniach, otwartych plikach itp.;

▪ notatki przypominające o tym, co się dzieje;

▪ używanie go jako dyrygenta.

Microsoft Outlook można uruchomić na dwa sposoby: klikając przycisk Start, wybierając Programy, a następnie Microsoft Outlook lub używając przycisku Microsoft Outlook w panelu MS Office.

Okno programu Microsoft Outlook jest podzielone pionową kreską na dwie części. Panel Microsoft Outlook po lewej stronie zawiera ikony elementów programu: Dziennik, Kalendarz, Kontakty, Notatki, Zadania. Po prawej stronie znajduje się obszar roboczy, którego zawartość zmienia się po kliknięciu jednej z ikon po lewej stronie. Możesz zobaczyć inne ikony podczas przewijania w lewo. Aby wybrać folder Skrzynka odbiorcza na ekranie, kliknij ikonę Poczta. Klikając ikonę Inne foldery, możesz zobaczyć zawartość folderów struktury plików dysku twardego.

Możesz ukryć pasek programu Outlook, klikając go prawym przyciskiem myszy i wybierając opcję Ukryj pasek programu Outlook z menu kontekstowego. Aby przechodzić między elementami programu Outlook, kliknij strzałkę po prawej stronie nazwy folderu i wybierz żądany element programu Outlook z listy. Możesz także nawigować po elementach sekwencyjnie, używając przycisków Wstecz i Dalej na pasku narzędzi.

7.8. Programy prezentacji

Możesz tworzyć prezentacje za pomocą Kreatora AutoContent. W tym celu po kliknięciu ikony Power Point w panelu Microsoft Office należy zaczekać na pojawienie się głównego okna programu oraz okna dialogowego Pomocna wskazówka, w którym znajdują się informacje mogące pomóc w dalszej pracy nad prezentacją. Klikając przycisk Dalej w tym oknie można przeczytać następną wskazówkę, a klikając przycisk OK zamknąć okno. Po zamknięciu okna dialogowego program PowerPoint oferuje kilka sposobów tworzenia prezentacji: za pomocą Kreatora autotreści, szablonu prezentacji lub po prostu pustej prezentacji. Możliwe jest również otwarcie pliku już istniejącej prezentacji.

Jeśli użytkownik nie jest zaznajomiony z tworzeniem prezentacji, lepiej skorzystać z pomocy Kreatora AutoContent. W tym celu należy wybrać odpowiedni przycisk radiowy i nacisnąć przycisk OK w powyższym oknie. W efekcie na ekranie pojawi się kolejno sześć okien dialogowych, w których można ustawić główne cechy tworzonej prezentacji.

Przejście do następnego okna dialogowego w Kreatorze AutoContent następuje po kliknięciu przycisku Dalej i powrót do poprzedniego okna po kliknięciu przycisku Wstecz.

W drugim oknie, w którym wprowadza się dane do projektu slajdu tytułowego, wprowadza się dane o użytkowniku, nazwę firmy, dowolne motto itp. Informacja ta umieszczana jest na slajdzie tytułowym.

Najważniejszym jest trzecie okno Kreatora AutoContent, które nosi nazwę Wybór typu prezentacji. Zapewnia następujące typy prezentacji:

1) rekomendacja strategii;

2) sprzedaż produktu, usługi lub pomysłu;

3) szkolenie;

4) sprawozdanie z osiągnięć;

5) zgłaszanie złych wiadomości itp.

Załóżmy, że wybrany typ to Sprzedaj produkt, usługę lub pomysł. Treść powinna mówić o zaletach tego produktu, usługi lub pomysłu, porównać go z konkurencją itp.

Jeśli w tym oknie nie zostanie znaleziony odpowiedni temat, kliknij przycisk Inne, aby wyświetlić listę szablonów prezentacji. Po wybraniu szablonu prezentacji należy kliknąć przycisk Dalej i przejść do ostatniego okna Kreatora AutoContent. W przeciwnym razie w czwartym oknie należy wybrać styl prezentacji i ustawić czas trwania wystąpienia. Piąte okno określa sposób rozdawania prezentacji i wskazuje, czy potrzebne są materiały informacyjne. Na koniec szóste okno programu PowerPoint informuje o zakończeniu wstępnych prac nad tworzeniem prezentacji i prosi o kliknięcie przycisku Zakończ. Po pewnym czasie na ekranie komputera pojawi się slajd tytułowy prezentacji. Aby nie utracić efektów swojej pracy, należy zapisać prezentację w odpowiednim folderze, wywołując polecenie Zapisz z menu Plik.

System PowerPoint umożliwia użytkownikowi pracę i przeglądanie informacji na różne sposoby. Rodzaj wykonywanej pracy determinuje odpowiedni rodzaj prezentacji, co znacznie poprawia użyteczność. Istnieje pięć takich typów, a ich ustanowienie odbywa się poprzez naciśnięcie jednego z przycisków na dole głównego okna programu.

Widok slajdu jest najwygodniejszy, gdy każdy slajd jest stopniowo formowany, wybierany jest dla niego projekt, wstawiany jest tekst lub grafika.

Typ struktury musi być ustawiony do pracy z tekstem prezentacji. W tym przypadku możliwe jest przeglądanie tytułów wszystkich slajdów, całego tekstu i struktury prezentacji.

Widok sortowania slajdów jest najwygodniejszy do dodawania przejść i ustawiania czasu trwania slajdu na ekranie. Dodatkowo w tym trybie możesz zamieniać slajdy miejscami.

Widok Notatki służy do tworzenia notatek do raportu.

Demo służy do obejrzenia efektów pracy. W tym trybie slajdy są wyświetlane jeden po drugim na ekranie. Żądany widok ustawia się za pomocą poleceń z menu Widok.

Twoja prezentacja będzie wyglądać lepiej, jeśli zaprojektujesz wszystkie slajdy w tym samym stylu. Jednak często konieczne jest umieszczenie tego samego elementu projektu na wszystkich slajdach, dlatego w programie PowerPoint można ustawić ten sam projekt dla wszystkich slajdów i stron. Odbywa się to w trybie próbki.

Aby wejść w ten tryb należy w menu Widok wybrać polecenie Próbka, aw otwartym podmenu element prezentacji, którego próbkę należy odpowiednio poprawić.

W menu dostępne są dwa polecenia dotyczące slajdów — Wzorzec slajdów i Wzorzec tytułów. Drugie polecenie służy do zdefiniowania wzorca slajdów tytułowych, wygląd wszystkich pozostałych slajdów w prezentacji zależy od wzorców slajdów.

Po wybraniu polecenia Wzorzec slajdów możesz zobaczyć, że w każdym obszarze slajdu znajduje się podpowiedź, co należy zrobić, aby wprowadzić zmiany we wzorcu. Można ustawić typ, styl i rozmiar czcionki, ustawić parametry akapitów, zmienić wielkość obszarów próbki, umieścić w niej obrazek lub narysować jakiś element graficzny. W takim przypadku wszystkie elementy wzorca pojawią się na każdym slajdzie prezentacji, a wprowadzone zmiany zostaną natychmiast odzwierciedlone na wszystkich pozostałych slajdach.

Dzięki temu w PowerPoint można stworzyć indywidualny projekt i zdefiniować elementy, które powinny być takie same dla całej prezentacji.

Jeśli okno dialogowe otwierane po wywołaniu programu PowerPoint lub plik prezentacji, z którym pracował użytkownik, zostało zamknięte, to w celu utworzenia nowej prezentacji należy wywołać polecenie Nowa z menu Plik. Następnie na ekranie pojawi się okno Utwórz prezentację z aktywną sekcją Projekty prezentacji. W tym oknie dialogowym należy ustawić szablon projektu prezentacji. Po kliknięciu jednego z szablonów jego obraz pojawia się w oknie podglądu. Po wybraniu szablonu należy go dwukrotnie kliknąć, po czym otworzy się okno dialogowe Utwórz slajd. W obszarze Wybierz układ automatyczny musisz zdefiniować układ automatyczny dla tworzonego slajdu. W prawym dolnym rogu okna znajduje się jego główna i krótka charakterystyka. Po dwukrotnym kliknięciu próbki układu automatycznego na ekranie pojawi się nowy slajd zawierający symbole zastępcze.

Okno tworzenia nowego slajdu otwiera się poprzez wybranie polecenia Nowy slajd z menu Wstaw lub aktywację kombinacji klawiszy Ctrl + M.

Prezentacje PowerPoint mogą zawierać multimedia (fragmenty dźwiękowe, filmy itp.).

7.9. Praca w Internecie z aplikacjami MS OFFICE 97

Internet jest w stanie obsłużyć wszystkie komponenty pakietu MS Office 97. Program Word 97 umożliwia konwersję tradycyjnych plików DOC na strony WWW w formacie HTML. Power Pointl 97 umożliwia tworzenie prezentacji do wysłania przez WWW, a Excel 97 umożliwia eksport utworzonych przez siebie arkuszy do tabel HTML.

Ponadto lista dostępnych witryn internetowych może zawierać witryny FTP. Jeśli przedsiębiorstwo korzysta z korporacyjnego intranetu, dokumenty można otwierać bezpośrednio w nim. Podobnie jak Internet, intranety używają przeglądarki i oprogramowania komunikacyjnego. Niektóre z tych sieci umożliwiają dostęp do Internetu przez bezpieczną bramę zwaną zaporą ogniową. Jeśli masz odpowiednie prawa dostępu i jeśli witryna FTP obsługuje zapisywanie plików, dokumenty można zapisywać w Internecie za pomocą okna dialogowego Zapisz dokument programów pakietu MS Office.

Korzystając z Microsoft Excel, Word, Power Point i Microsoft Access, możesz przeglądać dokumenty MS Office połączone hiperłączami i określać ich lokalizację. W dokumentach MS Office, aby pracować z hiperłączami, musisz mieć dostęp do Internetu.

Programy pakietu MS Office ułatwiają przeglądanie dokumentów z hiperłączami za pomocą paska narzędzi sieci Web, którego można użyć do otwarcia strony początkowej lub strony wyszukiwania w przeglądarce internetowej. Pasek narzędzi sieci Web ułatwia umieszczanie dokumentów znalezionych w Internecie, których chcesz użyć, w folderze Ulubione w celu szybkiego dostępu. Panel 1 Web zawiera listę 10 ostatnich dokumentów, które były otwierane za pomocą panelu Web lub hiperłączy. Lista zapewnia możliwość szybkiego powrotu do tych dokumentów.

Strony internetowe zawierające hiperłącza, dane, tabele i wykresy w arkuszach programu Excel 97 można tworzyć za pomocą aplikacji pakietu Microsoft Office.

Hiperłącza to skróty umożliwiające szybkie przejście do innej książki lub pliku. Przełączanie odbywa się na plikach komputera użytkownika, w Internecie i WWW; hiperłącza są tworzone z komórek tekstowych lub obiektów graficznych, takich jak kształty lub obrazy.

Office 97 łączy w sobie dwie technologie informatyczne, które definiują nowy model pracy z komputerem. Pierwsza opiera się na fakcie, że informacje można umieścić w dowolnym miejscu - na lokalnym dysku twardym, w sieci lokalnej lub korporacyjnej lub w globalnym Internecie; po drugie, użytkownicy tak naprawdę nie pracują z aplikacjami, ale bezpośrednio z dokumentami i zawartymi w nich informacjami.

Istnieją dwa sposoby pracy:

1) praca z aplikacjami pakietu Office z okresowymi zapytaniami w firmie intranetowej lub Internecie o niezbędną stronę internetową (dokument, dodatek) dla aplikacji lub dodatkowe informacje o programie;

2) praca w programie Internet Explorer, wykorzystanie go jako jedynego środowiska, w którym można przeglądać i modyfikować dowolny dokument znajdujący się na dysku użytkownika, w sieci firmowej lub w Internecie.

Office 97 i Internet Explorer tworzą jedno uniwersalne narzędzie, które pozwala przeglądać i edytować dokumenty, a to umożliwia wyszukiwanie, przeglądanie i edytowanie dowolnych informacji.

Podczas korzystania z przeglądarki internetowej, która umożliwia nawigację między stronami sieci Web i wyświetlanie ich na ekranie, można znaleźć stronę internetową lub dokument na trzy sposoby:

1) wpisać adres ręcznie;

2) kliknąć hiperłącze tekstowe lub graficzne, które spowoduje przejście do strony, której szukasz;

3) kliknij link, który jest zapisany w dzienniku lub liście węzłów.

7.10. Etapy rozwiązywania problemów z wykorzystaniem komputera

Rozwiązywanie problemów z wykorzystaniem komputera powinno składać się z następujących głównych czynności, z których część wykonywana jest bez udziału komputera.

1. Zgłoszenie problemu:

▪ zebranie informacji o zadaniu;

▪ wyrażenie warunków problemowych;

▪ identyfikacja ostatecznych celów rozwiązania problemu;

▪ ustalenie formularza wydawania wyników;

▪ opis danych (ich rodzaje, zakresy wartości, struktura itp.).

2. Analiza i badanie zadania, modele zadań:

▪ badania istniejących analogów;

▪ badanie sprzętu i oprogramowania;

▪ opracowanie modelu matematycznego:

▪ rozwój struktur danych.

3. Definicja algorytmu:

▪ ustalenie metody projektowania algorytmu;

▪ określenie formy zapisu algorytmu (schematy blokowe, pseudokod itp.);

▪ definicja testów i metody testowania;

▪ opracowanie algorytmu.

4. Etap programowania:

▪ definicja języka programowania;

▪ wybór sposobów organizacji danych;

▪ rejestracja algorytmu w wybranym języku programowania.

5. Faza testowania i debugowania:

▪ debugowanie syntaktyczne;

▪ debugowanie semantyki i struktury logicznej;

▪ obliczenia testowe i analiza wyników testów;

▪ doskonalenie powstałego programu.

6. Rozpatrzenie wyników rozwiązania problemu iw razie potrzeby udoskonalenie modelu matematycznego poprzez powtórne wykonanie kroków 2-5.

7. Obsługa programu:

▪ aktualizacja programu w celu rozwiązania konkretnych problemów;

▪ kompilacja dokumentacji rozwiązanego problemu, modelu matematycznego, algorytmu, programu, zestawu testów, zastosowania.

Jednak nie wszystkie zadania wymagają jasnej kolejności tych kroków. Czasami ich liczba może ulec zmianie.

Temat 8. Specjalistyczne, profesjonalnie zorientowane narzędzia programowe

8.1. Systemy informacyjne zarządzania organizacyjnego i gospodarczego

System jest zorganizowanym zbiorem tworzącym integralną całość, mającym na celu osiągnięcie określonego celu.

Celem systemu zarządzania organizacyjno-ekonomicznego jest optymalizacja zarządzania organizacją, tj. zapewnienie maksymalnej efektywności ekonomicznej jej działań w określonym obszarze działalności (osiągnięcie maksymalnej różnicy między przychodami a kosztami). Systemy te różnią się od systemów zarządzania organizacjami w innych obszarach (w szczególności w ochronie zdrowia, edukacji publicznej), gdzie realizowane są inne cele: zapewnienie wysokiej średniej długości życia i zdrowia ludności, wysokiej jakości edukacji itp.

Zadaniem zarządzania organizacją jest dezagregacja funkcji zarządzania w organizacji.

Funkcje zarządzania w systemach zarządzania organizacyjnego i gospodarczego są klasyfikowane w następujący sposób:

1) według etapów zarządzania - prognozowanie, analiza działalności produkcyjnej i gospodarczej, planowanie średniookresowe, planowanie krótkoterminowe, zarządzanie operacyjne, audyt, rachunkowość itp.;

2) rodzaje działalności produkcyjnej i gospodarczej – produkcja główna, logistyka, produkcja pomocnicza, transport, budowa kapitału, finansowanie, księgowość, rozwój społeczny itp.;

3) poziomy zarządzania – ministerstwo, stowarzyszenie (firma), przedsiębiorstwo (organizacja), warsztat (wydział), w skład którego wchodzą poszczególne stanowiska wykonawcy itp.

Tworzenie funkcji zarządzania odbywa się z uwzględnieniem trzech głównych cech specyfikacji funkcjonalnej. W sferze działalności produkcyjnej przydział funkcji zarządzania najczęściej odpowiada elementom procesu produkcyjnego.

Funkcje kontrolne obejmują:

1) gospodarowanie zasobami materialnymi;

2) zarządzanie zasobami ludzkimi;

3) zarządzanie zasobami finansowymi itp.

W celu sformułowania zadań wykorzystuje się charakterystyki odpowiednich funkcji kontrolnych, wśród których znajdują się jeszcze trzy cechy charakteryzujące samo zadanie:

1) przynależność do określonego obiektu kontrolnego;

2) technologiczny sposób rozwiązania problemu;

3) wynik czynności gospodarowania.

Funkcje logistyczne można wdrożyć przy rozwiązywaniu następujących problemów:

1) planowanie zapotrzebowania na zasoby materialne;

2) zawieranie umów z dostawcami;

3) kontrolę operacyjną realizacji umów na dostawy;

4) rozliczanie dostaw i rozliczeń z dostawcami itp.

Zarządzanie jest celowym oddziaływaniem kontroli na zarządzany obiekt i jest funkcją systemu, która jest nastawiona albo na utrzymanie jego głównej jakości w zmieniającym się środowisku, albo na realizację jakiegoś programu docelowego, który zapewnia stabilność jego funkcjonowania przy zostaje osiągnięty określony cel. Istnieje inna definicja, według której zarządzanie jest funkcją zorganizowanych systemów, która zapewnia zachowanie ich struktury, utrzymanie trybu działania, realizację swojego programu, celów.

Informacja jest miarą eliminacji niepewności co do wyniku zdarzenia będącego przedmiotem zainteresowania.

Dane są przedmiotami materialnymi o dowolnej formie, służącymi do dostarczania informacji. Informacja inaczej nazywana jest wiedzą na określony temat, proces lub zjawisko.

Efektywne zarządzanie systemami gospodarczymi jest niemożliwe bez dostępności i analizy informacji, przetwarzania dostępnych danych. Funkcję tę przejmuje specjalne oprogramowanie, które pomaga efektywnie realizować funkcję sterowania.

8.2. Nowoczesne technologie informacyjne w systemach zarządzania organizacją i gospodarką

System metod przetwarzania, wytwarzania, zmiany stanu, właściwości, postaci surowców, materiałów lub półproduktów, które są przeprowadzane w procesie wytwarzania produktu końcowego, nazywa się technologią.

W praktyce technologia charakteryzuje to, co, jak i ile należy zrobić, aby uzyskać materiał lub rzecz o pożądanych właściwościach. Z naukowego punktu widzenia technika jest nauką o prawach realizacji celowych oddziaływań w różnych sferach działalności człowieka. Zadaniem technologii jako nauki jest określanie wzorców konstrukcji procesów produkcyjnych, przejście od logicznej konstrukcji projektów do procesów wytwarzania gotowych produktów o użytecznych funkcjach i właściwościach.

Technologie informacyjne to procesy technologiczne, które obejmują działania informacyjne pracowników kierowniczych, co wiąże się z przygotowywaniem i podejmowaniem decyzji kierowniczych.

Specyfika technologii informacyjnych polega na tym, że obejmują one procesy gromadzenia, przesyłania, przechowywania i przetwarzania informacji we wszystkich możliwych formach. Takie rodzaje manifestacji obejmują informacje tekstowe, graficzne, wizualne, mowy itp.

Rozwój nowych środków technicznych, odkrywanie nowych koncepcji i sposobów organizowania danych, ich przesyłania, przechowywania i przetwarzania prowadzi do ciągłego rozwoju i doskonalenia technologii informacyjnych. Aby zapewnić efektywną interakcję użytkowników końcowych z systemem komputerowym, nowe technologie informacyjne wykorzystują zasadniczo inną organizację interfejsu użytkownika z systemem komputerowym. Taki system nazywany jest systemem przyjaznych interfejsów i wyraża się następująco:

1) prawo użytkownika do popełnienia błędu jest zapewnione poprzez ochronę zasobów informacyjnych i obliczeniowych systemu przed nieprofesjonalnymi działaniami na komputerze;

2) istnieje szeroka gama hierarchicznych menu, systemów podpowiedzi, szkoleń itp., które ułatwiają proces interakcji użytkownika z komputerem;

3) istnieje system „wycofania”, który umożliwia przy wykonywaniu regulowanej czynności, której konsekwencje z jakiegoś powodu nie satysfakcjonowały użytkownika, na powrót do poprzedniego stanu systemu.

Baza wiedzy jest najważniejszym elementem systemu ekspertowego, który powstaje na stanowisku specjalisty ds. zarządzania. Taka baza jest magazynem wiedzy w określonym obszarze działalności zawodowej i pełni rolę pomocnika w analizie sytuacji gospodarczej w procesie opracowywania decyzji zarządczej.

Obecnie technologie informacyjne w zakresie zarządzania organizacyjnego i gospodarczego rozwijają się w pewnych głównych obszarach, dzięki czemu możliwe jest zwiększenie efektywności ich wykorzystania. Wśród tych obszarów są:

▪ aktywizowanie roli specjalistów zarządzania w przygotowywaniu i rozwiązywaniu problemów zarządzania gospodarczego;

▪ personalizacja obliczeń w oparciu o wykorzystanie komputera oraz związanego z nim oprogramowania i narzędzi;

▪ doskonalenie inteligentnych systemów interfejsów dla użytkowników końcowych na różnych poziomach;

▪ konsolidacja zasobów informacyjnych i obliczeniowych przy wykorzystaniu sieci komputerowych różnych poziomów;

▪ rozwój kompleksowych środków ochrony informacji i zasobów obliczeniowych przed nieuprawnionym dostępem i zniekształceniem.

Zapewnienie największej efektywności ekonomicznej wykorzystania technologii informacyjnych w zakresie zarządzania organizacją można osiągnąć w przypadku tworzenia zautomatyzowanych systemów informatycznych.

8.3. Systemy informacyjne zarządzania organizacyjnego i gospodarczego

Aby ujawnić pojęcie „systemu informacyjnego”, należy wyjść od dwóch aspektów:

1) cel utworzenia i funkcjonowania systemu informatycznego. W tym przypadku każdy system informacyjny powinien dostarczać informacji, które pomagają usunąć niepewność kierownictwa i innych zainteresowanych stron podczas zatwierdzania decyzji kierownictwa i innych dotyczących obiektu;

2) uwzględnienie rzeczywistych warunków, w jakich cel jest osiągany, czyli wszystkich czynników zewnętrznych i wewnętrznych, które decydują o specyficznych cechach, indywidualności obiektu.

System informacyjny obiektu jest zespołem powiązanych ze sobą elementów. Komponenty te opisują różne aspekty działalności informacyjnej obiektu w realizacji funkcji zarządczych w ramach jego struktury organizacyjno-kierowniczej.

Do wyodrębnienia systemów informatycznych przyjęto wcześniej kryteria klasyfikacji według stopnia automatyzacji funkcji:

▪ informacje i odniesienia (merytoryczne);

▪ informacyjno-doradcze (dokumentalne);

▪ zarządzanie informacją.

Obecnie podział ten postrzegany jest jako nieco uproszczony. Wynika to z kilku powodów.

1. Zasady wyszukiwania asocjacyjnego z wykorzystaniem map semantycznych mogą stanowić podstawę funkcjonowania współczesnych systemów faktograficznych. Główną cechą wspólną takich systemów z podstawowymi systemami faktograficznymi jest to, że dostarczają one danych wyjściowych tylko z dostępnych informacji.

2. Na podstawie dostępnych informacji systemy dokumentacyjne tworzą jedno lub więcej możliwych rozwiązań, a ostateczny wybór pozostawia się użytkownikowi. Wybór takich systemów jest niezwykle szeroki: od rozwiązywania elementarnych problemów liczenia bezpośredniego i problemów optymalizacji wielowariantowej po systemy ekspertowe.

3. Systemy zarządzania informacją uznawane są za najwyższy stopień automatyzacji i mogą wykorzystywać algorytmy, które są dość proste do wdrożenia, np. automatyczne powiadamianie dostawców (płatników, dłużników) poprzez porównanie aktualnej daty i wszystkich rzeczywistych wpływów w czasie bieżącym z tymi zaplanowane na ten moment.

W rzeczywistości takie systemy mogą funkcjonować nie tylko niezależnie, ale także wspólnie, wzajemnie się uzupełniając.

Podstawową klasyfikację systemów informatycznych w zakresie zarządzania organizacją można uzupełnić o następującą klasyfikację:

1) zgodnie z metodą automatyzacji kontroli:

▪ autonomiczne zautomatyzowane stanowiska pracy dla specjalistów ds. zarządzania;

▪ autonomiczne sieci lokalne, które łączą ze sobą funkcjonalnie połączone zautomatyzowane stanowiska pracy menedżerów;

▪ ujednolicona sieć organizacji, obejmująca jej struktury macierzyste i geograficznie odległe oddziały;

2) według rodzajów zautomatyzowanych funkcji zarządzania:

▪ funkcjonalny (automatyzacja księgowości, kadr, funkcji zarządzania planowaniem itp.);

▪ administracyjne (automatyzacja pracy biurowej, obiegu dokumentów itp.);

▪ kompleksowe (obejmujące wszystkie rodzaje działalności zarządczej);

3) według stopnia specjalizacji:

▪ specjalistyczne;

▪ adaptacyjny uniwersalny;

▪ kierownictwo ogólne;

4) ze względu na charakter powiązań z zewnętrznym środowiskiem informacyjnym:

▪ zamknięte (bez automatycznej interakcji z zewnętrznymi systemami informatycznymi);

▪ otwarte (z dostępem do publicznie dostępnych systemów informatycznych);

▪ systemy dodatkowe (w pełni funkcjonalnie współdziałające z określonym zakresem zewnętrznych systemów informatycznych).

8.4. Czynności biurowe w systemach zarządzania organizacyjnego i gospodarczego

Pojęcie biura obejmuje aspekty materialne i organizacyjne, przy czym w pierwszym przypadku oznacza to pomieszczenia i wyposażenie, w drugim formy i strukturę zarządzania. Urząd jest najczęściej albo samodzielną instytucją, albo może być częścią większej struktury organizacyjnej. Specyfika pracy urzędu polega na tym, że jest on źródłem nie tylko ostatecznych usług informacyjnych, ale także decyzji ograniczających zachowania ludzi czy dystrybucję zasobów materialnych. Głównym zadaniem biura jest wypracowanie rozwiązań, które mają wartość dla klienta. Ponadto biuro jest przedsiębiorstwem informacyjnym, które przekształca zasoby informacyjne w produkty informacyjne.

Proces wykorzystania komputera i innych urządzeń organizacyjnych w biurze obejmuje kilka etapów: biuro tradycyjne, biuro produkcyjne, biuro elektroniczne.

Tradycyjne biuro składa się ze stosunkowo niewielkiego zespołu ludzi o dość szerokim zakresie obowiązków. Typowy skład czynności roboczych w biurze obejmuje: przygotowywanie materiałów, drukowanie, utrzymywanie szafek na akta, uzgadnianie dokumentów, pracę z pocztą, wyszukiwanie informacji, utrzymywanie zasobów informacyjnych, wykonywanie obliczeń, prowadzenie rozmów handlowych przez telefon, pracę przy terminalu.

Biuro produkcyjne charakteryzuje się dużym wolumenem pracy tego samego rodzaju, jej przejrzystą formalizacją i sztywnym podziałem funkcji pracowniczych. W takim biurze istota automatyzacji polega na tworzeniu i utrzymywaniu dużych zasobów informacyjnych, ich systematyzacji oraz wytwarzaniu próbek danych.

Elektroniczny urząd jest realizacją koncepcji kompleksowego wykorzystania środków informatycznych i komunikacyjnych w działalności biurowej przy jednoczesnym rozwijaniu tradycji poprzednich form działalności. Główne funkcje i środki elektronicznego urzędu to: udostępnianie dokumentów bez ich powielania na papierze; przyjmowanie dokumentów, ich kontrola i egzekucja; zdalna i wspólna praca pracowników na dokumencie, e-mailu; przetwarzanie danych osobowych; przygotowywanie dokumentów i ich reprodukcja; wymiana informacji między bazami danych; automatyzacja kontroli nad zarządzaniem dokumentami; organizacja elektronicznego zarządzania dokumentami; wsparcie informacyjne przy podejmowaniu decyzji; udział w spotkaniach z wykorzystaniem narzędzi zdalnego dostępu; praca ze zautomatyzowanymi systemami informatycznymi itp. Za pomocą poczty elektronicznej, komputerów osobistych i sieci komputerowych biuro elektroniczne jest w stanie rozszerzyć zakres bezpośredniej interakcji między ludźmi, bez konieczności przebywania ich faktycznie w tym samym pomieszczeniu.

Na charakter i cel działalności organizacji ma wpływ jej system informacyjny, rodzaj wytwarzanego i przetwarzanego produktu informacyjnego. Jeżeli zadaniem organizacji jest wytwarzanie produktu informacyjnego w postaci dokumentów, to najważniejszym elementem działalności jest dla niej przechowywanie informacji związanych ze specyfiką działalności i niezbędnych do podejmowania decyzji zarządczych. Do takich organizacji informacyjnych należą np. kancelarie notarialne, biura podróży, agencje prasowe. Dla biur zaopatrzenia i sprzedaży ważna jest znajomość rynków zbytu, producentów produktów i cen produktów. Główne potrzeby informacyjne urzędów można zaspokoić za pomocą standardowych narzędzi sprzętowych i programowych, w tym narzędzi programowych do przetwarzania informacji tekstowych, tabelarycznych i graficznych, komputerów osobistych i narzędzi do odtwarzania dokumentacji online oraz narzędzi komunikacji elektronicznej.

8.5. Środki organizacyjne, techniczne i peryferyjne systemów informatycznych

Każdy system informatyczny musi posiadać odpowiednie środki gromadzenia danych pierwotnych, które dokładnie odzwierciedlają stan obszaru tematycznego i zachodzących w nim procesów. W organizacjach finansowych i kredytowych obliczana jest kwota udzielonych pożyczek, ustalana jest kwota należnych odsetek oraz obliczana jest liczba banknotów. W przedsiębiorstwach przemysłowych obliczana jest ilość surowców i materiałów otrzymanych z zewnątrz; czas poświęcony na obsługę urządzeń produkcyjnych i transportowych; zużycie energii elektrycznej itp.

Przy prowadzeniu działalności gospodarczej lub administracyjnej konieczne jest ustalenie właściwości właściwych dla przedmiotu, na którym czynność jest dokonywana. Obiekt musi być zidentyfikowany, zmierzony, określony w czasie, oznaczony dodatkowymi specyficznymi cechami. Identyfikatorem może być numer inwentarzowy urządzenia produkcyjnego.

Każdy z procesów pozyskiwania i krótkotrwałego przechowywania danych może być realizowany z wykorzystaniem różnych środków technicznych. Przyrządy pomiarowe i liczniki służą do obliczania wielkości fizycznych, a rejestratory, do których informacje mogą być odbierane automatycznie z czujników, rejestrują i kontrolują pracę urządzeń, stan procesów klimatycznych, chemicznych itp. Jako kompleksowy środek gromadzenia i rejestrowania danych pierwotnych, możesz skorzystać ze specjalistycznych zautomatyzowanych systemów zbierania informacji i komputera.

Środki rejestrowania informacji i tworzenia dokumentów obejmują kopiarki, drukarki itp. Do głównych cech technicznych kopiarek należą: szybkość kopiowania; maksymalny rozmiar oryginału i kopii; dopuszczalność skalowania; obecność automatycznego podajnika papieru i możliwość automatycznego układu kopii; gwarantowana ilość kopii.

Do środków przechowywania informacji zalicza się sprzęt biurowy (przechowywanie dokumentów papierowych), szafy kartotekowe, szafy lub regały o różnej konstrukcji (przechowywanie teczek), specjalne pudła, etui, pudła (przechowywanie maszynowych nośników danych) itp.

Środki komunikacji operacyjnej i przekazywania informacji zapewniają procesy wymiany informacji zarówno pomiędzy wewnętrznymi obiektami organizacji, jak iz obiektami zewnętrznymi. Wewnątrz- i międzyinstytucjonalne środki komunikacji i przekazywania informacji umożliwiają odtwarzanie i przekazywanie komunikatów w formie słownej, wizualnej, dźwiękowej i dokumentacyjnej. Wśród nich są telefony i faksy, pagery, instalacje i systemy monitoringu wizyjnego i nagrywania itp.

Urządzenia do przetwarzania dokumentów obejmują maszyny do introligatorstwa, fizycznego niszczenia dokumentów, nakładania powłok ochronnych na dokumenty, sortowania, liczenia dokumentów i innych zabiegów technologicznych.

Do automatyzacji prac introligatorskich i introligatorskich stosuje się falcerko-zegarniacze, urządzenia tnące i spinające. Falcerki pomagają w przygotowaniu dokumentów do złożenia w koperty lub zeszyty; sortownice pozwalają zmechanizować selekcję dokumentów; urządzenia tnące dzielą się na urządzenia do cięcia papieru i urządzenia do otwierania kopert. Przedsiębiorstwa handlowe często korzystają z elektronicznych kas fiskalnych i kas fiskalnych.

8.6. Koncepcja grafiki biznesowej

Dziedzina informatyki związana z tworzeniem i wykorzystywaniem narzędzi do przetwarzania obrazu graficznego nazywana jest grafiką komputerową.

Obraz rysunkowy, który zwykle kojarzy się z tekstem, jest ilustracją lub dekoracją tekstu. Ilustracje dzielą się na numeryczne i tekstowe. Ilościową stronę zjawisk ekonomicznych można scharakteryzować za pomocą ilustracji liczb (wskaźników); ilustracje tekstowe opisują niezdigitalizowaną pozostałość jakościową. Do produkcji ilustracji wskaźników stosuje się diagramy, cieniowanie kolorami i tonami oraz inne sposoby wyświetlania wskaźników na mapach geograficznych. Wśród ilustracji tekstowych wyróżniają się ilustracje pojęć. Przeznaczone są do graficznej interpretacji abstrakcji ekonomicznych. Zwykle koncepcje są przedstawiane w formie tekstowej, tj. werbalnie. Ilustracja pomaga uzupełnić werbalną formę pojęcia, ułatwia jego zrozumienie oraz przyczynia się do identyfikacji nowych informacji. Na przykład przecięcie pojęć można zilustrować za pomocą nałożonych na siebie okręgów.

Tekst jest podstawowym typem i sposobem agregowania danych przy użyciu silnika OLE i jego rozszerzeń sieciowych. Może być liniowy lub nieliniowy, taki jak tabela, bazy danych, hipertekst itp.

Narzędzia do formatowania tekstu do wykorzystania grafiki dzielą się na tradycyjne i nietradycyjne. Tradycyjne obejmują narzędzia do projektowania postaci i tła tekstowe. Narzędzia do projektowania postaci można podzielić na cztery grupy:

1) krój, który jest indywidualnym, niepowtarzalnym wyglądem czcionki;

2) styl, który jest zbiorem podkreśleń, głośności, animacji itp.;

3) paleta kolorów, która jest standardową paletą szesnastu kolorów plus srebrny i szary;

4) gęstość znaków - poziomo i pionowo.

Zestawy słuchawkowe dzielą się na trzy grupy w zależności od poziomu zastosowania grafiki:

1) prosty (ściśle ukształtowany), o tej samej szerokości, typu Courier i dwóch typów proporcjonalnych – siekanego (Arial) i szeryfowego (Times);

2) specjalny (specjalnie zaprojektowany), zwykle odręczny, słowiański itp.;

3) tematyczne zestawy rysunków - czcionki Wingdings itp.

Narzędzia do projektowania tła tekstowego składają się z czterech głównych grup:

1) wzór, który jest pewnym zestawem metod kreskowania;

2) kolor wzoru, który jest standardowym zestawem kolorów;

3) kolor tła, który jest standardową paletą z dodatkowymi odcieniami czerni;

4) obramowanie wokół tekstu.

Opcje kadrowania są określane przez jednostki tekstu. Na przykład fragment może być ograniczony ramką; akapit i strona - za pomocą ramki i myślnika. Granice akapitu i fragmentu oddzielone są liniami prostymi, strony oddzielone są także rysunkami. W takim przypadku obramowanie można ustawić jako trójwymiarowe, z cieniem itp.

Nietradycyjne narzędzia projektowe są wykorzystywane przy projektowaniu stron tytułowych, nagłówków rozdziałów i innych krótkich tekstów - napisów. Napis zwany też kopertą może ulec deformacji. Aby to zrobić, wykonuje się go obszernie iz cieniem. Jest tworzony jako obiekt Windows z dwiema cechami:

1) przy zmianie rozmiaru zmienia się rozmiar czcionki;

2) brak możliwości ustawienia granic pola składu, tj. tekst jest wymuszony do nowej linii.

Z tego powodu napisy nazywane są tekstem graficznym, kręconym. Kręcony tekst w MS Office 95 jest tworzony za pomocą programu WordArt. Może to być okrągły, pierścieniowy, płatkowy napis. Program WordArt jest uruchamiany za pomocą przycisku na pasku narzędzi Rysowanie, który rozszerza tradycyjne opcje kontrolowania tła tekstu i obrazów.

8.7. Wykorzystanie grafiki w biznesie

Komercyjne narzędzia graficzne służą do rozwiązywania problemów analitycznych i psychologicznych. Zadanie analityczne jest swoistą pomocą w poszukiwaniu racjonalnych, tj. wystarczająco opłacalnych i pewnych rozwiązań. Zadanie psychologiczne jest konieczne, aby nadać dokumentowi solidność, perswazję i przyczynić się do jego koordynacji i zatwierdzenia.

Wizualna prezentacja wskaźników handlowych, takich jak dokumenty biznesowe, pomaga przekonać inwestorów, wpłacających, sponsorów i innych o słuszności polityki handlowej, zachęt do inwestycji kapitałowych itp.

Główną częścią informacji w dokumentach handlowych są wskaźniki zysku, rentowności, ryzyka itp. Jednym z głównych zadań grafiki handlowej jest połączenie wskaźników w tabelę ułatwiającą porównanie i omówienie wskaźników.

Na diagramach różne wskaźniki ekonomiczne są wyświetlane jako kropki i inne figury geometryczne o proporcjonalnej wielkości. Za pomocą diagramów zadanie wizualizacji głównych wskaźników ekonomicznych jest bardziej wykonalne. Wykresy występują w postaci wykresów kołowych, liniowych i słupkowych. Ten sam wykres może przedstawiać te same metryki w różnym czasie lub różne typy metryk.

Fakty handlowe i geograficzne są często ze sobą powiązane, dzięki czemu są lepiej postrzegane na tle mapy geograficznej. W takim przypadku stosuje się koloryzację.

Grafika ekonomiczno-matematyczna pozwala wywrzeć korzystne wrażenie na potencjalnych inwestorach, a to z kolei sprzyja koordynacji dokumentacji handlowej i zawieraniu zyskownych umów.

Zakręcony projekt tekstów handlowych pozwala uczynić tekst dokumentu biznesowego tak jasnym i wyrazistym, jak to tylko możliwe, a dobrze sformułowana informacja zachowuje się podobnie do przyzwoitego wyglądu podczas spotkania.

Korzystając z panelu Rysunek można wykonać:

▪ kontrola konturu tekstu jako obrazu, tworzenie cienia (objętości);

▪ umieszczanie tekstu w obrysie obrazu i obracanie tekstu;

▪ włączenie obrazu do tekstu z różnymi opcjami zawijania.

Wśród środków zautomatyzowanej ilustracji są:

▪ multimedialny system wyszukiwania informacji m.in. o tematyce komercyjnej, transportowej itp.;

▪ mechanizm edycji obrazu, który może zapewnić demontaż, narzędzia cieniowania, modele kolorów, palety i wzory płynnego cieniowania.

Korzystanie z wymienionych narzędzi pozwala początkującemu użytkownikowi na przygotowanie ilustracji do złożonych koncepcji i zjawisk komercyjnych w krótkim czasie. Na przykład, takie jak zależność częstotliwości ryzyka od jego dotkliwości, segmentacja rynku według zestawu kryteriów itp. Można to zrobić za pomocą kolorowej trójwymiarowej tabeli, wizualnego diagramu itp.

W przeciwieństwie do tekstu literackiego tekst komercyjny ma ścisłą strukturę. Może zawierać następujące elementy graficzne:

▪ harmonogramy pracy sieci (ogólne, alternatywne);

▪ struktury technologiczne (instrukcje zatwierdzania i podejmowania decyzji, schematy obliczania wskaźników);

▪ schematy klasyfikacji;

▪ struktury organizacyjne instytucji, organizacji;

▪ schematy programów docelowych.

Wykorzystanie narzędzi multimedialnych, czyli animacji i udźwiękowienia obrazów, stanowi rdzeń technologii prezentacji i pokazów komputerowych. Z ich pomocą można przybliżyć dokument do komunikacji na żywo, uczynić go bardziej zrozumiałym i wyrazistym. To z kolei pozwala uczynić prezentację lub raport biznesowy bardziej żywym i wizualnym.

Usługi graficzne LAN obejmują:

▪ udostępnianie obrazów na dyskach stałych i wymiennych oraz stronach schowków lokalnych, tj. właściciel obrazu może kontrolować dostęp do niego za pomocą haseł;

▪ zbiorczy przegląd i edycja zdjęć na zamkniętej drodze pocztowej;

▪ zbiorowe przygotowanie obrazów.

8.8. Program do grafiki biznesowej MS GRAPH

Próbki kolorów diagramów są podane we wbudowanych katalogach programów Word, Excel, Access. Dla każdego użytkownika istnieją dwa główne sposoby tworzenia wykresów:

1) za pomocą Kreatora (w programie Excel, Access). Aby to zrobić, kliknij przycisk na standardowym pasku narzędzi. Jeśli nie ma go w programie Excel, należy ustawić domyślny stan panelu, a jeśli przycisku nie ma w programie Access, przeciągnij go z kategorii Elementy na karcie Polecenia sterujące w oknie Ustawienia panelu;

2) za pomocą polecenia Obiekt/Wstaw i wybierając sposób uruchomienia.

Metody uruchamiania obejmują:

▪ bezpośrednie pobieranie. W takim przypadku pojawia się okno MS GRAPH z przykładową tabelą i wykresem. Należy wówczas poprawić dane, typ i sformatować wykres, a jeśli tabela jest przygotowana wcześniej, to należy ją zaznaczyć przed załadowaniem MS GRAPH;

▪ ładowanie za pomocą programu Excel, po czym otwiera się okno Excel z dwoma arkuszami.

W MS GRAPH możliwe jest stworzenie diagramu ściśle określonego typu, jedynie parametry szablonu zmieniane są w dowolnej kolejności. Diagramy należy pogrupować ze względu na sposób wyświetlania wskaźników, rodzaj układu współrzędnych oraz jego właściwości. Budowa diagramu odbywa się w układach współrzędnych prostokątnych, biegunowych i bąbelkowych.

Współrzędna jest stałą, która wskazuje położenie wskaźnika w przestrzeni prawidłowych wartości. Może być trójwymiarowy (bańka), dwuwymiarowy (płatek) i jednowymiarowy (okrągły). Wymiar układu współrzędnych to liczba stałych potrzebnych do identyfikacji wskaźnika. Układ współrzędnych bąbelków ma trzeci wymiar - rozmiar bąbelka.

Znalezienie struktury diagramu jest możliwe na jeden z czterech sposobów.

1. Wybierz diagram. Użyj klawiszy strzałek, aby wyświetlić nazwy elementów wykresu w polu Nazwa paska formuły.

2. Wybierz wykres, wyświetl listę pola Elementy wykresu na pasku narzędzi Wykres.

3. Wybierz diagram, wykonaj polecenie Diagram / Opcje diagramu i przejrzyj zawartość okna o tej samej nazwie.

4. Kliknij dwukrotnie element i sprawdź zawartość okna Format/Nazwa elementu danych.

Serie na wykresach to kropki, słupki i inne reprezentacje kolumn i wierszy tabeli.

Osie numeryczne to osie wartości wybierane z kolumn lub wierszy tabeli. Są one ułożone pionowo, poziomo lub pod kątem na mapie radarowej.

W ekonomii kategoria pełni funkcję wycinka wskaźnika lub jego poziomu, a kategoria na diagramie funkcjonuje jako nazwy kolumn lub wierszy tabeli na jednej z osi, które odpowiadają liczbom na drugiej osi. Niektóre wykresy nie mają osi kategorii, np. kołowy, pierścieniowy, radarowy. Histogram XNUMXD ma dwie osie kategorii.

Legenda to notacja elementów wykresu.

Niektóre wykresy mogą wykorzystywać specjalne osie wartości do przedstawiania serii w różnych skalach lub jednostkach. Na przykład kursy i wolumeny sprzedaży papierów wartościowych, ceny i wolumeny sprzedaży w jednostkach naturalnych. W przypadku dużego zakresu wartości najwygodniejsza jest bardziej zwarta oś logarytmiczna.

Wszystkie diagramy przedstawiają procesy zmiany szeregu wskaźników i ich korelacji.

Trendy wykrywa się poprzez wygładzenie losowych wahań szeregu wskaźników. Służą do badania mechanizmów, zjawisk i przewidywania ich rozwoju. Istnieją dwie metody wygładzania: graficzna i graficzno-analityczna. W pierwszym przypadku można uzyskać wykres trendu, w drugim wykres i szacunki statystyczne trendu. Istnieją trzy metody graficzno-analityczne:

1) równania trendu, 2) średnia ruchoma, 3) średnia wykładnicza.

8.9. Ogólna charakterystyka technologii tworzenia oprogramowania użytkowego

Rozwiązanie problemu na komputerze to proces uzyskiwania informacji wypadkowej, polegający na przetworzeniu informacji początkowej za pomocą programu złożonego z poleceń systemu sterowania komputera. Program jest znormalizowanym opisem sekwencji działań określonych urządzeń komputerowych, w zależności od specyfiki uwarunkowań problemu.

Technologie opracowywania programów do rozwiązywania problemów zależą od dwóch czynników:

1) czy opracowywany jest program rozwiązania problemu jako integralnego elementu jednolitego systemu zautomatyzowanego przetwarzania informacji. W przeciwnym razie jako stosunkowo niezależny, lokalny składnik wspólnego pakietu oprogramowania, który zapewnia rozwiązanie problemów związanych ze sterowaniem komputerowym;

2) jakie oprogramowanie i narzędzia są wykorzystywane do opracowania i realizacji zadań na komputerze.

Narzędzia programowe to komponenty oprogramowania, które pozwalają zaprogramować rozwiązanie problemów sterowania. Zawierają:

1) języki algorytmiczne i odpowiadające im tłumacze;

2) systemy zarządzania bazami danych (DBMS) wraz z językowymi narzędziami programistycznymi w ich środowisku;

3) arkusze kalkulacyjne zawierające ich narzędzia do dostosowywania.

Proces rozwiązywania zastosowanych problemów składa się z kilku głównych etapów. Pierwszym krokiem jest ustawienie zadania. Na tym etapie ujawnia się organizacyjna i ekonomiczna istota zadania, tj. formułowany jest cel jego rozwiązania; określa się związek z innymi wcześniej badanymi zadaniami; podana jest okresowość jego rozwiązania; ustala się skład i formy prezentacji informacji wejściowych, pośrednich i wynikowych; opisuje formy i metody kontroli wiarygodności informacji na głównych etapach rozwiązywania problemu; formy interakcji użytkownika z komputerem są określone przy rozwiązywaniu problemu itp.

Szczególne znaczenie ma szczegółowy opis informacji wejściowych, wyjściowych i pośrednich charakteryzujących następujące czynniki:

▪ rodzaj prezentacji poszczególnych szczegółów;

▪ liczba znaków przeznaczonych do zapisu szczegółów w oparciu o ich maksymalne znaczenie;

▪ rodzaj rekwizytów w zależności od ich roli w procesie rozwiązywania problemu;

▪ źródło pochodzenia rekwizytów.

Drugim etapem jest ekonomiczny i matematyczny opis problemu oraz wybór metody jego rozwiązania. Ekonomiczno-matematyczny opis problemu pozwala uczynić problem jednoznacznym w rozumieniu twórcy programu. W trakcie jego przygotowywania użytkownik może zastosować różne działy matematyki. Do sformalizowanego opisu formułowania problemów ekonomicznych wykorzystuje się następujące klasy modeli:

1) analityczno - obliczeniowy;

2) macierz – bilans;

3) graficzne, których szczególnym rodzajem są sieciowe.

Wybierając klasę modelu, można nie tylko ułatwić i przyspieszyć proces rozwiązywania problemu, ale także poprawić dokładność otrzymanych wyników.

Przy wyborze metody rozwiązywania problemów konieczne jest, aby wybrana metoda:

1) gwarantował niezbędną dokładność uzyskanych wyników i brak właściwości degeneracji (nieskończone pętle);

2) dopuszczone do korzystania z gotowych standardowych programów do rozwiązania problemu lub jego poszczególnych fragmentów;

3) skupiony na minimalnej ilości informacji wstępnych;

4) zapewniły jak najszybsze uzyskanie pożądanych rezultatów.

Trzecim etapem jest algorytmizacja rozwiązania problemu, czyli opracowanie oryginału lub adaptacja znanego już algorytmu.

Algorytmizacja to złożony proces twórczy oparty na podstawowych pojęciach matematyki i programowania.

Proces algorytmizacji rozwiązania problemu jest najczęściej realizowany zgodnie z następującym schematem:

1) przydział autonomicznych etapów procesu rozwiązywania problemu;

2) sformalizowany opis treści prac wykonywanych na każdym wybranym etapie;

3) sprawdzenie poprawności zastosowania wybranego algorytmu na różnych przykładach rozwiązania problemu.

8.10. Oprogramowanie

Oprogramowanie aplikacyjne (APS) to zestaw produktów programowych, które są interesujące dla użytkowników i mają na celu rozwiązywanie codziennych problemów związanych z przetwarzaniem informacji.

Pakiet oprogramowania aplikacyjnego (APP) to zestaw programów skoncentrowanych na rozwiązywaniu określonej klasy problemów.

Całe oprogramowanie jest podzielone na narzędzia projektowe i sposoby użytkowania.

Narzędzia projektowe obejmują oprogramowanie, które jest przeznaczone do tworzenia systemów informatycznych i jest wykorzystywane na stanowiskach pracy specjalistów o różnych profilach:

1) SZBD – służą do tworzenia, utrzymywania i użytkowania baz danych;

2) systemy projektowania wspomaganego komputerowo (CAD) – pozwalają rozwiązywać problemy rysowania i projektowania różnych mechanizmów przy pomocy komputera PC;

3) elektroniczne systemy zarządzania dokumentami – mające na celu zapewnienie elektronicznego obiegu dokumentów w przedsiębiorstwach;

4) magazyny informacji (banki danych, banki wiedzy) – zapewniają przechowywanie dużych ilości zgromadzonych informacji;

5) systemy informacji geograficznej – służą do modelowania procesów zagospodarowania i gospodarowania różnymi zasobami naturalnymi, badań geologicznych itp.

Środki użytkowania to oprogramowanie służące do przetwarzania różnego rodzaju informacji:

1) edytory tekstu i edytory tekstu – wprowadzanie, redagowanie i przygotowywanie do druku dowolnych dokumentów;

2) procesory arkuszy kalkulacyjnych – tworzenie arkuszy kalkulacyjnych i wykonywanie czynności na danych zawartych w tych tabelach;

3) procesory graficzne – tworzenie i edycja obiektów graficznych, bajek i innych animacji na ekranie komputera;

4) zintegrowane PPP – stworzenie na jego podstawie jednolitego środowiska biznesowego;

5) metody analizy PPP – rozwiązywanie problemów analizy w określonym obszarze;

6) programy telekomunikacyjne i sieciowe - obsługa sieci globalnych i lokalnych, programy do obsługi poczty elektronicznej;

7) zbiór PPP gospodarczego – stosowany przez specjalistów zajmujących się sferą ekonomiczną;

8) programy szkoleniowe i egzaminacyjne – zdobywanie nowej wiedzy, sprawdzanie w różnych dyscyplinach itp.;

9) pakiety oprogramowania multimedialnego – tworzenie, edytowanie i słuchanie muzyki, przeglądanie i przetwarzanie wideo, programy pomocnicze (kodeki), gry;

10) zestaw programów aplikacyjnych - nagrywanie i diagnostyka płyt CD-R/RW i DVD-R/RW.

8.11. Technologia projektowania systemów oprogramowania

Potrzeba stworzenia zautomatyzowanych systemów przetwarzania informacji doprowadziła do powstania koncepcji baz danych jako jednego, scentralizowanego repozytorium wszystkich informacji niezbędnych do rozwiązywania problemów zarządczych. Koncepcja baz danych jest teoretycznie poprawna. Jednak w rzeczywistości prowadzi to do znacznej straty czasu potrzebnego na wyszukanie i wybranie z bazy informacji niezbędnych do rozwiązania konkretnego problemu. Obecnie koncepcja baz danych stanowi rozsądny kompromis pomiędzy minimalizacją niezbędnego powielania informacji a wydajnością procesu pobierania próbek i aktualizacji danych. W rzeczywistości zapewnienie takiego rozwiązania ma miejsce dopiero wtedy, gdy analiza systemowa całego kompleksu zadań do zautomatyzowania jest już na etapie opisu systemu. Mamy tu na myśli jego cele i funkcje, skład i specyfikę przepływów informacji, skład informacyjny zadań, a nawet poszczególne moduły programu. Podstawą podejścia systemowego są zapisy ogólnej teorii systemów. Jest najbardziej skuteczny w rozwiązywaniu złożonych problemów analizy i syntezy, które wymagają jednoczesnego wykorzystania kilku dyscyplin naukowych.

Innym ważnym czynnikiem, który wymaga systematycznego podejścia (zaczynając od etapu formułowania wymagań i wyznaczania zadań) jest to, że etap ten stanowi do 80% wszystkich kosztów związanych z rozwojem oprogramowania aplikacyjnego. Ma to jednak szczególne znaczenie dla zapewnienia, że ​​wyniki prac rozwojowych odpowiadają potrzebom użytkowników końcowych.

Pojawienie się potrzeby systemowego podejścia do rozwoju narzędzi programistycznych do rozwiązywania problemów w automatyzacji systemów zarządzania organizacją i gospodarką doprowadziło do konieczności zróżnicowania wyspecjalizowanych programistów. Fakt ten znalazł odzwierciedlenie w doborze w swoim składzie analityków systemowych, inżynierów systemowych, programistów aplikacyjnych i systemowych.

Analityk systemowy formułuje ogólne wymagania formalne dla oprogramowania systemowego. Do obowiązków inżyniera systemowego należy przekształcenie ogólnych wymagań formalnych w szczegółowe specyfikacje dla poszczególnych programów, współudział w opracowaniu struktury logicznej bazy danych.

Zadaniem programisty aplikacji jest dopracowanie specyfikacji do logicznej struktury modułów programu, a następnie do kodu programu.

Programista systemu musi zapewnić interakcję modułów programu ze środowiskiem oprogramowania, w ramach którego mają działać programy użytkowe.

Inną cechą rozwoju systemowego programów aplikacyjnych jest ich koncentracja na wykorzystaniu zintegrowanych i rozproszonych baz danych. W tym przypadku narzędzia językowe DBMS zaczęto wykorzystywać jako narzędzia do tworzenia komponentów oprogramowania wraz z językami programowania.

Pojawiają się i są szeroko stosowane w dziedzinie zarządzania komputerami PC oraz lepsze narzędzia programowe, które są skierowane do profesjonalistów zarządzania - nie-programistów. Fakt ten radykalnie zmienił charakter technologii przygotowywania i rozwiązywania problemów ekonomicznych.

Wraz ze wzrostem produkcji nowych mikroprocesorów priorytety i pilność problemów, które są nieodłącznie związane z tradycyjnymi technologiami tworzenia programów aplikacyjnych, zmieniły się dramatycznie. Możliwość wykluczenia profesjonalnych programistów z łańcucha technologicznego umożliwia przyspieszenie procesu tworzenia oprogramowania użytkowego.

8.12. Nowoczesne metody i narzędzia tworzenia oprogramowania użytkowego

Koncepcja „projektowania modułowego” jest ściśle związana z wdrażaniem metody projektowania odgórnego. Sekwencja logicznie powiązanych ze sobą fragmentów, zaprojektowana jako odrębna część programu, nazywana jest modułem. Wyróżnia się następujące właściwości modułów oprogramowania:

▪ do modułu można odwoływać się po nazwie, także z innych modułów;

▪ po zakończeniu pracy moduł musi zwrócić kontrolę modułowi, który go wywołał;

▪ moduł musi posiadać jedno wejście i jedno wyjście;

▪ moduł musi być niewielkich rozmiarów, zapewniających jego widoczność.

Przy opracowywaniu złożonych programów wyodrębnia się główny moduł sterujący i podrzędne mu moduły, które zapewniają realizację poszczególnych funkcji sterujących, przetwarzania funkcjonalnego oraz moduły pomocnicze, które gwarantują pakiet usług.

Modułowa zasada tworzenia oprogramowania ma szereg zalet:

1) pojemny program może być opracowany jednocześnie przez kilku wykonawców, co skraca czas jego opracowania;

2) istnieje możliwość stworzenia biblioteki najczęściej używanych programów i korzystania z nich;

3) jeśli konieczna jest segmentacja, procedura ładowania dużych programów do PO staje się znacznie prostsza;

4) istnieje wiele naturalnych punktów kontrolnych przeznaczonych do monitorowania przebiegu opracowywania programów i kontroli realizacji programów;

5) zapewnione jest skuteczne testowanie programów, projektowanie i późniejsze debugowanie jest znacznie łatwiejsze.

Programowanie strukturalne służy do usprawnienia procesu tworzenia i debugowania modułów programu, a także procesu ich późniejszego utrzymania i modyfikacji.

Rozwój oprogramowania i narzędzi do programowania problemów ekonomicznych opiera się na systemach automatyzacji programowania, czyli systemach programistycznych zapewniających możliwość rozwiązywania wielu problemów bezpośrednio w środowisku komputerowym SO.

Zadania zarządzania gospodarczego mają szereg cech, które odróżniają je od innych rodzajów zadań:

1) dominacja zadań ze stosunkowo prostymi algorytmami obliczeniowymi i konieczność formułowania wyników kumulatywnych;

2) praca z dużymi tablicami informacji początkowych;

3) wymóg przekazywania większości uzyskanych informacji w formie dokumentów tabelarycznych.

Technologia CASE to zestaw narzędzi do analizy systemowej, projektowania, rozwoju i utrzymania złożonych systemów oprogramowania i pozwala programistom na wykorzystanie szerokich możliwości różnego rodzaju modelowania. Spójność interakcji wszystkich specjalistów zaangażowanych w tworzenie oprogramowania gwarantuje scentralizowane przechowywanie wszystkich informacji niezbędnych do projektowania i kontrolę integralności danych.

Projekt ISDOS składa się z modułów zapewniających:

▪ wprowadzanie, kontrola i kodowanie specyfikacji projektowanego systemu;

▪ analiza poprawności postawionych zadań i ich spójności;

▪ identyfikacja błędów i przekazywanie komunikatów użytkownikom oraz eliminowanie powielania informacji źródłowych;

▪ transformacja stwierdzeń problemowych po sprawdzeniu danych źródłowych do programów komputerowych;

▪ identyfikacja głównych elementów systemu informatycznego.

Wymienione moduły wchodzą ze sobą w interakcję. Jednak ich podział jest raczej warunkowy.

Temat 9. Podstawy algorytmizacji i programowania

9.1. Pojęcie algorytmu

Algorytm to ściśle określona i zrozumiała instrukcja dla wykonawcy, aby wykonał sekwencję działań mających na celu rozwiązanie zadania.

Termin „algorytm” pochodzi od łacińskiej formy imienia matematyka z Azji Środkowej Al-Khwarizmi - Algorithmi. Algorytm jest jednym z podstawowych pojęć informatyki i matematyki.

Wykonawcą algorytmu jest jakiś abstrakcyjny lub rzeczywisty (techniczny, biologiczny lub biotechniczny) system, który jest w stanie wykonać działania określone przez algorytm.

Aby scharakteryzować wykonawcę, stosuje się kilka pojęć:

▪ środowisko;

▪ system dowodzenia;

▪ działania podstawowe;

▪ odmowy.

Środowisko (lub środowisko) to „siedlisko” performera.

Każdy z executorów może wykonywać polecenia tylko z jakiejś ściśle określonej listy, jaką jest system poleceń executora. Dla każdej komendy są ustawione warunki stosowalności (w jakich stanach środowiska komenda może być wykonana) oraz podane są wyniki wykonania komendy.

Po wywołaniu polecenia executor wykonuje odpowiednią akcję elementarną.

Executor może również zawieść, jeśli polecenie zostanie wywołane, gdy stan środowiska jest dla niego nieprawidłowy. Najczęściej wykonawca nie wie nic o celu algorytmu. Wykonuje wszystkie zaproponowane mu czynności, bez zadawania pytań „dlaczego” i „po co”.

W informatyce uniwersalnym wykonawcą algorytmów jest komputer.

Główne właściwości algorytmów to:

1) zrozumiałość dla wykonawcy – wykonawca algorytmu musi wiedzieć, jak go wykonać;

2) dyskretność (nieciągłość, separacja) – algorytm powinien przedstawiać proces rozwiązywania problemu jako sekwencyjne wykonywanie prostych (lub wcześniej zdefiniowanych) kroków (etapów);

3) pewność - każda reguła algorytmu musi być jasna, jednoznaczna i nie pozostawiać miejsca na dowolność. Właściwość ta zapewnia mechaniczne wykonanie algorytmu, nie wymagając żadnych dodatkowych instrukcji ani informacji o rozwiązywanym problemie;

4) efektywność (lub skończoność) – algorytm powinien prowadzić do rozwiązania problemu w skończonej liczbie kroków;

5) charakter masowy - algorytm rozwiązania problemu jest tworzony w postaci ogólnej, tj. można go zastosować do pewnej klasy problemów, które różnią się tylko danymi początkowymi. W takim przypadku dane początkowe można wybrać z określonego obszaru, który nazywa się obszarem stosowalności algorytmu.

W praktyce najczęściej spotyka się następujące formy reprezentacji algorytmów:

▪ werbalne – pisane w języku naturalnym;

▪ graficzny – wykorzystanie obrazów z symboli graficznych;

▪ pseudokody – półsformalizowane opisy algorytmów w jakimś warunkowym języku algorytmicznym, które zawierają zarówno elementy języka programowania, jak i frazy języka naturalnego, ogólnie przyjęte zapisy matematyczne itp.;

▪ oprogramowanie - teksty w językach programowania.

Słowny sposób pisania algorytmów jest opisem kolejnych etapów przetwarzania danych. Algorytm można podać w dowolnej prezentacji w języku naturalnym. Na przykład algorytm znajdowania największego wspólnego dzielnika dwóch liczb naturalnych można przedstawić jako następującą sekwencję działań:

1) ustawienie dwóch liczb;

2) jeśli liczby są równe, to wybór dowolnej z nich jako odpowiedzi i zatrzymania, w przeciwnym razie - kontynuacja algorytmu;

3) wyznaczenie największej z liczb;

4) zastąpienie większej z liczb różnicą między większą a mniejszą z liczb;

5) powtórzenie algorytmu z kroku 2.

Powyższy algorytm jest stosowany dla dowolnych liczb naturalnych i powinien doprowadzić do rozwiązania problemu.

Metoda słowna nie jest szeroko stosowana, ponieważ ma pewne wady:

▪ opisy te nie są ściśle sformalizowane;

▪ różnią się szczegółowością wpisów;

▪ dopuszczać niejednoznaczność w interpretacji poszczególnych instrukcji.

Graficzny sposób prezentacji algorytmów jest bardziej zwięzły i wizualny niż sposób werbalny. W przypadku tego typu reprezentacji algorytm jest przedstawiany jako sekwencja połączonych ze sobą bloków funkcjonalnych, z których każdy odpowiada wykonaniu określonej liczby działań.

Do reprezentacji graficznej algorytm wykorzystuje obraz w postaci sekwencji połączonych ze sobą bloków funkcjonalnych, z których każdy odpowiada wykonaniu jednej lub więcej akcji. Ta graficzna reprezentacja nazywana jest schematem blokowym lub schematem blokowym.

Na schemacie blokowym każdemu z typów akcji (wprowadzenie danych początkowych, obliczenie wartości wyrażeń, sprawdzenie warunków, sterowanie powtarzalnością akcji, zakończenie przetwarzania itp.) odpowiada figura geometryczna reprezentowana jako symbol blokowy. Symbole bloków są połączone liniami przejściowymi, które określają kolejność wykonywania akcji.

Pseudokod to system notacji i reguł przeznaczony do jednolitego pisania algorytmów. Zajmuje pozycję pośrednią między językami naturalnymi i formalnymi. Z jednej strony pseudokod jest podobny do zwykłego języka naturalnego, więc algorytmy można w nim pisać i czytać jak zwykły tekst. Z drugiej strony w pseudokodzie zastosowano pewne konstrukcje formalne i symbole matematyczne, dzięki czemu notacja algorytmu zbliża się do ogólnie przyjętej notacji matematycznej.

Pseudokod nie stosuje ścisłych reguł składniowych przy pisaniu poleceń właściwych językom formalnym, co ułatwia napisanie algorytmu na etapie projektowania i pozwala na wykorzystanie szerszego zestawu poleceń przeznaczonych dla abstrakcyjnego executora. Jednakże pseudokod najczęściej zawiera pewne konstrukcje właściwe językom formalnym, co ułatwia przejście od pisania w pseudokodzie do pisania algorytmu w języku formalnym. Na przykład w pseudokodzie, a także w językach formalnych, istnieją słowa funkcyjne, których znaczenie jest określone raz na zawsze. Są one wyróżnione pogrubioną czcionką w tekście drukowanym i podkreślone w tekście pisanym odręcznie. Nie ma jednego i formalnego podejścia do definiowania pseudokodu, dlatego stosuje się różne pseudokody, różniące się zestawem słów funkcyjnych i podstawowymi (podstawowymi) konstrukcjami.

Programowa forma reprezentacji algorytmów charakteryzuje się czasami pewnymi strukturami składającymi się z oddzielnych podstawowych (podstawowych) elementów. Przy takim podejściu do algorytmów badanie podstawowych zasad ich projektowania należy rozpocząć od tych podstawowych elementów. Ich opis prowadzony jest za pomocą języka schematów algorytmicznych oraz języka algorytmicznego.

9.2. Systemy programowania

Języki zorientowane maszynowo odnoszą się do języków programowania zależnych od maszyny. Główne konstruktywne środki takich języków umożliwiają uwzględnienie specyfiki architektury i zasad działania określonego komputera, to znaczy mają te same możliwości i wymagania dla programistów, co języki maszynowe. Jednak w przeciwieństwie do tych ostatnich wymagają wcześniejszego przetłumaczenia na język maszynowy programów skompilowanych z ich pomocą.

Tymi typami języków programowania mogą być: autokody, symboliczne języki kodowania i asemblery.

Języki niezależne od maszyny nie wymagają pełnej znajomości specyfiki komputerów. Z ich pomocą można napisać program w postaci umożliwiającej jego implementację na komputerze z różnego rodzaju operacjami maszynowymi, do których oprawa jest przypisana do odpowiedniego translatora.

Powodem szybkiego rozwoju i wykorzystania języków programowania wysokiego poziomu jest szybki wzrost wydajności komputerów i chroniczny niedobór programistów.

Miejsce pośrednie między językami niezależnymi od maszyny a językami zależnymi od maszyny zajmuje język C. Powstał jako próba połączenia zalet tkwiących w językach obu klas. Ten język ma kilka cech:

▪ maksymalnie wykorzystuje możliwości określonej architektury obliczeniowej; z tego powodu programy w języku C są kompaktowe i działają wydajnie;

▪ pozwala najlepiej wykorzystać ogromne zasoby wyrazu współczesnych języków wysokiego poziomu.

Języki dzielą się na zorientowane proceduralnie i zorientowane na problem.

Języki zorientowane proceduralnie, takie jak Fortran, Cobol, BASIC, Pascal, są najczęściej używane do opisu algorytmów rozwiązywania szerokiej klasy problemów.

Języki dziedzinowe, w szczególności RPG, Lisp, APL, GPSS, służą do opisu procesów przetwarzania informacji w węższym, konkretnym obszarze.

Zorientowane obiektowo języki programowania pozwalają tworzyć aplikacje do szerokiego zakresu różnorodnych zadań, które mają wspólne cechy w zaimplementowanych komponentach.

Rozważ metody używania języków programowania.

Interpretacja to tłumaczenie operator po operatorze i późniejsze wykonanie przetłumaczonego operatora programu źródłowego. Istnieją dwie główne wady metody interpretacji:

1) program interpretujący musi znajdować się w pamięci komputera przez cały proces wykonywania programu oryginalnego. Innymi słowy, musi zajmować pewną stałą ilość pamięci;

2) proces tłumaczenia tej samej instrukcji jest powtarzany tyle razy, ile to polecenie musi wykonać w programie. Prowadzi to do gwałtownego spadku wydajności programu.

Tłumacze ustni są dość powszechni, ponieważ obsługują tryb dialogowy.

Procesy tłumaczenia i wykonywania podczas kompilacji są rozdzielone w czasie: najpierw program źródłowy jest w pełni tłumaczony na język maszynowy, po czym przetłumaczony program może być wielokrotnie wykonywany. Do tłumaczenia metodą kompilacji konieczne jest wielokrotne „oglądanie” tłumaczonego programu, tj. kompilatory kompilatory są wieloprzebiegowe. Tłumaczenie kompilacji nazywane jest modułem obiektowym, który jest odpowiednikiem programu w kodzie maszynowym. Przed wykonaniem moduł obiektowy musi zostać przetworzony przez specjalny program systemu operacyjnego i przekonwertowany na moduł ładowania.

Tłumacze są również wykorzystywani jako tłumacze-kompilatorzy, którzy łączą zalety obu zasad tłumaczenia.

9.3. Klasyfikacja języków programowania wysokiego poziomu

Języki wysokiego poziomu są używane w systemach programowania niezależnych od maszyny. Takie systemy programowania, w porównaniu z systemami zorientowanymi na maszyny, wydają się łatwiejsze w użyciu.

Języki programowania wysokiego poziomu dzielą się na zorientowane proceduralnie, zorientowane na problem i zorientowane obiektowo.

Języki zorientowane proceduralnie służą do pisania procedur lub algorytmów przetwarzania informacji dla każdego określonego zakresu zadań. Obejmują one:

a) język Fortran (Fortran), którego nazwa pochodzi od słów Formulas Translation – „konwersja formuł”. Fortran jest jednym z najstarszych języków programowania wysokiego poziomu. Czas jego istnienia i używania można wytłumaczyć prostotą struktury tego języka;

b) język Basic, czyli Beginner's All-purpose Symbolic Instruction Code, co oznacza „wielofunkcyjny symboliczny kod instrukcji dla początkujących”, został opracowany w 1964 roku jako język do nauczania programowania;

c) język C (C), używany od lat 1970. XX wieku. jako systemowy język programowania specjalnie do pisania systemu operacyjnego UNIX. W 1980 na bazie języka C opracowano język C++, który praktycznie obejmuje język C i jest uzupełniony obiektowymi narzędziami programowania;

d) język Pascal, nazwany na cześć francuskiego naukowca B. Pascala, zaczął być używany w latach 1968-1971. N. Wirth. Na początku Pascal był używany do nauczania programowania, ale z czasem stał się szeroko stosowany do tworzenia narzędzi programistycznych w profesjonalnym programowaniu.

Języki zorientowane na domeny są używane do rozwiązywania całych klas nowych problemów, które pojawiły się w związku z ciągłym poszerzaniem zakresu zastosowania technologii komputerowej:

a) język Lisp (Lisp - List Information Symbol Processing), który został wynaleziony w 1962 roku przez J. McCarthy'ego. Początkowo był używany jako narzędzie do pracy z ciągami znaków. Lisp jest używany w systemach eksperckich, analitycznych systemach obliczeniowych itp.;

b) język Prolog (Prolog – Programming in Logic), używany do programowania logicznego w systemach sztucznej inteligencji.

Języki zorientowane obiektowo rozwijają się i obecnie. Większość z tych języków to wersje języków proceduralnych i problematycznych, ale programowanie w językach z tej grupy jest bardziej wizualne i łatwiejsze. Najczęściej używanymi językami są:

a) Visual Basic (~ Basic);

b) Delphi (~Pascal);

c) Fortran wizualny (~ Fortran);

r) C++ (~C);

e) Prolog++ (~ Prolog).

9.4. systemie VBA

System VBA jest podzbiorem języka VB i obejmuje konstruktora aplikacji VB, jego struktury danych oraz struktury kontrolne, które umożliwiają tworzenie niestandardowych typów danych. Podobnie jak VB, VBA jest systemem programowania wizualnego sterowanym zdarzeniami. Posiada możliwość tworzenia formularzy ze standardowym zestawem kontrolek i procedur zapisu, które obsługują zdarzenia występujące podczas określonych działań systemu i użytkownika końcowego. Umożliwia także korzystanie z formantów ActiveX i automatyzacji. System VBA jest kompletnym systemem programistycznym, ale nie posiada pełnego zakresu funkcji, które posiada najnowsza wersja VB.

Programowanie w środowisku VBA posiada szereg cech. W szczególności nie można w nim utworzyć projektu niezależnie od tych aplikacji.

Ponieważ VBA jest systemem wizualnym, programista ma możliwość stworzenia widocznej części aplikacji, która jest podstawą interfejsu program-użytkownik. Poprzez ten interfejs użytkownik wchodzi w interakcję z programem. W oparciu o zasady podejścia obiektowego, które jest zaimplementowane w języku VBA w odniesieniu do aplikacji działających pod systemem Windows, opracowywany jest interfejs programistyczny.

Cechą charakterystyczną tych aplikacji jest to, że na ekranie w dowolnym momencie znajduje się wiele obiektów (okna, przyciski, menu, okna tekstowe i dialogowe, paski przewijania). Biorąc pod uwagę algorytm programu, użytkownik ma pewną dowolność w korzystaniu z tych obiektów, tj. może kliknąć przycisk, przesunąć obiekt, wprowadzić dane do okna itp. Tworząc program, programista nie powinien ograniczyć działania użytkownika, powinien opracować program, który poprawnie reaguje na każde działanie użytkownika, nawet błędne.

Dla każdego obiektu zdefiniowana jest pewna liczba możliwych zdarzeń. Niektóre zdarzenia są wyzwalane przez działania użytkownika, takie jak pojedyncze lub podwójne kliknięcie myszką, przesunięcie obiektu, naciśnięcie klawisza klawiatury itp. Niektóre zdarzenia występują w wyniku innych zdarzeń: otwiera się lub zamyka okno, kontrolka staje się aktywna lub staje się nieaktywny.

Każde ze zdarzeń przejawia się w określonych akcjach programu, a typy możliwych akcji można podzielić na dwie grupy. Akcje pierwszej grupy są wynikiem właściwości obiektu, które są ustawione z jakiejś standardowej listy właściwości, które są ustawione przez system programowania VBA i sam system Windows, na przykład minimalizacja okna po kliknięciu przycisku Minimalizuj. Druga grupa działań na zdarzeniach może być zdefiniowana tylko przez programistę. Na każde możliwe zdarzenie udzielana jest odpowiedź poprzez utworzenie procedury VBA. Teoretycznie możliwe jest stworzenie procedury dla każdego zdarzenia, jednak w praktyce programista wpisuje kod procedury tylko dla interesujących nas zdarzeń w danym programie.

Obiekty VBA są funkcjonalne, to znaczy działają w określony sposób i są w stanie reagować na określone sytuacje. Wygląd obiektu i jego zachowanie wpływają na jego właściwości, a metody obiektu określają funkcje, które obiekt jest w stanie pełnić.

Właściwości elementu członkowskiego to właściwości, które definiują zagnieżdżone obiekty.

Obiekty mają zdolność reagowania na zdarzenia – inicjowane przez użytkownika i generowane przez system. Zdarzenia inicjowane przez użytkownika pojawiają się np. po naciśnięciu klawisza, kliknięciu przycisku myszy. Na tej podstawie każde działanie użytkownika może prowadzić do całego zestawu zdarzeń. Zdarzenia generowane przez system pojawiają się automatycznie w przypadku przewidzianym przez oprogramowanie komputerowe.

9.5. Język programowania VBA

Język programowania VBA jest przeznaczony do pisania kodu programu. Ma swój własny alfabet, który obejmuje:

▪ małe i wielkie litery alfabetu łacińskiego (A, B....,Z,a,b....,z);

▪ małe i wielkie litery cyrylicy (А-Я, а-я);

▪ znaki niewyświetlalne służące do oddzielania leksemów (jednostek leksykalnych) od siebie;

▪ znaki specjalne używane w konstruowaniu konstrukcji językowych: +-*?^=><[]():{}' &©;

▪ cyfry od 0 do 9;

▪ znak podkreślenia „_”;

▪ symbole złożone, postrzegane jako jeden symbol: <=, >=, <>.

Token to jednostka tekstu programu, która ma określone znaczenie dla kompilatora i nie może być dalej dzielona.

Kod programu VBA to ciąg tokenów napisany zgodnie z przyjętymi regułami składniowymi, który realizuje pożądaną konstrukcję semantyczną.

Identyfikator to ciąg liter, cyfr i podkreśleń.

System VBA definiuje pewne ograniczenia nałożone na nazwy:

1) nazwa powinna zaczynać się od litery;

2) nazwa nie może zawierać kropek, spacji, znaków rozdzielających, znaków operacji, znaków specjalnych;

3) nazwa musi być unikalna i nie tożsama ze słowami zastrzeżonymi VBA lub innymi nazwami;

4) długość nazwy nie powinna przekraczać 255 znaków;

5) przy komponowaniu imion należy przestrzegać konwencji stylistycznych;

6) identyfikator musi jasno odzwierciedlać przeznaczenie zmiennej dla zrozumienia programu;

7) w nazwach lepiej używać małych liter; jeżeli nazwy zawierają kilka imion, należy je od siebie oddzielić podkreśleniem lub nowy wyraz należy rozpocząć wielką literą;

8) nazwy stałych powinny składać się z wielkich liter;

9) nazwa identyfikatora musi zaczynać się od znaku specjalnego wskazującego rodzaj danych związanych z tym identyfikatorem.

Zmienne to obiekty przeznaczone do przechowywania danych. Przed użyciem zmiennych w programie należy je zadeklarować (zadeklarować). Właściwy dobór typu zmiennej zapewnia efektywne wykorzystanie pamięci komputera.

Zmienne łańcuchowe mogą mieć zmienną lub stałą długość.

Obiekty, których wartości się nie zmieniają i nie można ich zmienić podczas wykonywania programu, nazywane są stałymi. Dzielą się na nazwane i nienazwane.

Wyliczenia służą do deklarowania grupy stałych pod wspólną nazwą i można je zadeklarować tylko w sekcji globalnej deklaracji modułu lub formularza.

Zmienne dzielą się na dwa rodzaje – proste i strukturalne. Tablice są jednowymiarowe i wielowymiarowe.

Po deklaracji wartość zmiennej może być dowolna. Operator przypisania służy do przypisania wartości do zmiennej.

Operacje matematyczne służą do pisania formuły, która jest instrukcją programu zawierającą liczby, zmienne, operatory i słowa kluczowe.

Wynikiem operacji relacyjnych może być wartość, a są tylko dwie wartości wynikowe: prawda i fałsz.

Operacje logiczne są używane w wyrażeniach logicznych, dzieje się tak, gdy w operacjach relacyjnych występuje kilka warunków wyboru.

Operacje łańcuchowe to operacje łączenia, które łączą wartości dwóch lub więcej zmiennych łańcuchowych lub stałych łańcuchowych. Wynikiem takiej operacji jest dłuższy ciąg składający się z oryginalnych ciągów.

Temat 10. Podstawy bezpieczeństwa informacji

10.1. Ochrona informacji jako prawidłowość w rozwoju systemów komputerowych

Bezpieczeństwo informacji to stosowanie różnych środków i metod, stosowanie środków i wdrażanie środków w celu zapewnienia wiarygodności przesyłanych, przechowywanych i przetwarzanych informacji.

Bezpieczeństwo informacji obejmuje:

▪ zapewnienie fizycznej integralności informacji, eliminacja zniekształcenia lub zniszczenia elementów informacji;

▪ zapobieganie podmianie elementów informacji przy zachowaniu jej integralności;

▪ odmowa nieuprawnionego dostępu do informacji osobom lub procesom, które nie posiadają do tego odpowiednich uprawnień;

▪ uzyskanie pewności, że przekazane przez właściciela zasoby informacyjne będą wykorzystywane wyłącznie zgodnie z ustalonymi przez strony warunkami.

Procesy naruszania wiarygodności informacji dzielą się na przypadkowe i złośliwe (zamierzone). Źródłami losowych procesów destrukcyjnych są niezamierzone, błędne działania ludzi, awarie techniczne. Złośliwe naruszenia pojawiają się w wyniku celowych działań ludzi.

Problem bezpieczeństwa informacji w systemach elektronicznego przetwarzania danych powstał niemal równocześnie z ich powstaniem. Było to spowodowane konkretnymi faktami złośliwych działań z informacjami.

O wadze problemu zapewnienia wiarygodności informacji świadczą koszty działań ochronnych. Zapewnienie niezawodnego systemu ochrony wymaga znacznych kosztów materiałowych i finansowych. Przed zbudowaniem systemu ochrony należy opracować model optymalizacyjny, który pozwoli osiągnąć maksymalny wynik przy zadanym lub minimalnym nakładzie zasobów. Kalkulację kosztów niezbędnych do zapewnienia wymaganego poziomu bezpieczeństwa informacji należy rozpocząć od wyjaśnienia kilku faktów: pełnej listy zagrożeń dla informacji, potencjalnego zagrożenia dla informacji każdego z zagrożeń, wysokości kosztów niezbędnych do zneutralizować każde z zagrożeń.

O ile w pierwszych dekadach aktywnego użytkowania komputerów osobistych główne zagrożenie stanowili hakerzy, którzy łączyli się z komputerami głównie za pośrednictwem sieci telefonicznej, o tyle w ostatniej dekadzie naruszanie wiarygodności informacji postępuje poprzez programy, wirusy komputerowe i światowy Internet.

Istnieje wiele sposobów nieautoryzowanego dostępu do informacji, w tym:

▪ oglądanie;

▪ kopiowanie i zastępowanie danych;

▪ wprowadzanie fałszywych programów i komunikatów w wyniku łączenia się z kanałami komunikacji;

▪ zapoznanie się z pozostałymi informacjami na swoich nośnikach;

▪ odbiór promieniowania elektromagnetycznego i sygnałów falowych;

▪ korzystanie ze specjalnych programów.

Aby zwalczać wszystkie te metody nieautoryzowanego dostępu, konieczne jest opracowanie, stworzenie i wdrożenie wieloetapowej, ciągłej i zarządzanej architektury bezpieczeństwa informacji. Chronić należy nie tylko informacje poufne. Na przedmiot ochrony zwykle oddziałuje pewna kombinacja czynników destabilizujących. Jednocześnie rodzaj i poziom wpływu niektórych czynników może nie zależeć od rodzaju i poziomu innych.

Możliwa jest sytuacja, w której rodzaj i poziom interakcji istniejących czynników istotnie zależą od wpływu innych, które jawnie lub skrycie wzmacniają te oddziaływania. W tym przypadku należy zastosować zarówno środki niezależne z punktu widzenia skuteczności ochrony, jak i współzależne. W celu zapewnienia odpowiednio wysokiego poziomu bezpieczeństwa danych należy znaleźć kompromis pomiędzy kosztem środków ochronnych, niedogodnością stosowania środków ochronnych, a wagą informacji podlegających ochronie. Na podstawie szczegółowej analizy wielu oddziałujących na siebie czynników można podjąć rozsądną i skuteczną decyzję o zbilansowaniu środków ochrony przed określonymi źródłami zagrożeń.

10.2. Przedmioty i elementy zabezpieczeń w komputerowych systemach przetwarzania danych

Chroniony obiekt to składnik systemu, który zawiera chronione informacje. Element bezpieczeństwa to zestaw danych, który może zawierać informacje niezbędne do ochrony.

Podczas pracy systemów komputerowych mogą wystąpić:

▪ awarie i awarie sprzętu;

▪ błędy techniczne systemu i systemu;

▪ błędy oprogramowania;

▪ błędy ludzkie podczas pracy z komputerem.

Nieuprawniony dostęp do informacji jest możliwy podczas konserwacji komputerów w trakcie odczytywania informacji z maszyny i innych nośników. Nielegalne zapoznawanie się z informacjami dzieli się na bierne i czynne. Przy biernym zapoznawaniu się z informacjami nie dochodzi do naruszenia zasobów informacyjnych, a sprawca może jedynie ujawnić treść wiadomości. W przypadku aktywnego nieautoryzowanego dostępu do informacji możliwe jest selektywne zmienianie, niszczenie kolejności komunikatów, przekierowywanie komunikatów, opóźnianie oraz tworzenie fałszywych komunikatów.

W celu zapewnienia bezpieczeństwa prowadzone są różne działania, które łączy koncepcja „systemu bezpieczeństwa informacji”.

System bezpieczeństwa informacji to zespół środków organizacyjnych (administracyjnych) i technologicznych, oprogramowania i sprzętu, norm prawnych, moralnych i etycznych, które są stosowane w celu zapobiegania zagrożeniu ze strony osób naruszających w celu zminimalizowania ewentualnych szkód dla użytkowników i właścicieli systemu.

Organizacyjnymi i administracyjnymi środkami ochrony jest regulacja dostępu do informacji i zasobów obliczeniowych oraz procesów funkcjonalnych systemów przetwarzania danych. Zabezpieczenia te stosowane są w celu utrudnienia lub wyeliminowania możliwości realizacji zagrożeń bezpieczeństwa. Najbardziej typowymi środkami organizacyjnymi i administracyjnymi są:

▪ dopuszczenie do przetwarzania i przekazywania informacji chronionych wyłącznie zweryfikowanym urzędnikom;

▪ przechowywanie nośników informacji stanowiących określoną tajemnicę oraz dzienników rejestracyjnych w sejfach niedostępnych dla osób nieupoważnionych;

▪ rozliczanie wykorzystania i niszczenia dokumentów (nośników) zawierających informacje chronione;

▪ podział dostępu urzędników do zasobów informacyjnych i obliczeniowych zgodnie z ich obowiązkami funkcjonalnymi.

Techniczne środki ochrony służą do stworzenia fizycznie zamkniętego środowiska wokół obiektu i elementów zabezpieczających. Wykorzystuje takie działania jak:

▪ ograniczenie promieniowania elektromagnetycznego poprzez ekranowanie pomieszczeń, w których odbywa się przetwarzanie informacji;

▪ wdrożenie zasilania urządzeń przetwarzających cenne informacje z autonomicznego źródła zasilania lub ogólnej sieci elektrycznej poprzez specjalne filtry sieciowe.

Narzędzia programowe i metody ochrony są bardziej aktywne niż inne stosowane do ochrony informacji w komputerach osobistych i sieciach komputerowych. Realizują takie funkcje ochronne jak różnicowanie i kontrola dostępu do zasobów; rejestracja i badanie zachodzących procesów; zapobieganie ewentualnym destrukcyjnym wpływom na zasoby; kryptograficzna ochrona informacji.

Technologiczne środki ochrony informacji rozumiane są jako szereg czynności, które są organicznie wbudowane w technologiczne procesy przetwarzania danych. Obejmują one również:

▪ tworzenie kopii archiwalnych mediów;

▪ ręczny lub automatyczny zapis przetworzonych plików w zewnętrznej pamięci komputera;

▪ automatyczna rejestracja dostępu użytkowników do różnych zasobów;

▪ opracowanie specjalnych instrukcji realizacji wszystkich procedur technologicznych itp.

Prawne i moralno-etyczne środki i środki ochrony obejmują obowiązujące w kraju przepisy prawa, przepisy regulujące zasady, normy postępowania, których przestrzeganie przyczynia się do ochrony informacji.

10.3. Sposoby identyfikacji i różnicowania dostępu do informacji

Identyfikacja to przypisanie unikalnej nazwy lub obrazu przedmiotowi lub podmiotowi. Uwierzytelnienie to ustalenie tożsamości przedmiotu lub podmiotu, czyli sprawdzenie, czy przedmiot (podmiot) jest tym, za kogo się podaje.

Ostatecznym celem procedur identyfikacji i uwierzytelnienia przedmiotu (podmiotu) jest dopuszczenie go do informacji o ograniczonym użyciu w przypadku pozytywnego sprawdzenia lub odmowa dostępu w przypadku negatywnego wyniku sprawdzenia.

Obiektami identyfikacji i uwierzytelnienia są: ludzie (użytkownicy, operatorzy); środki techniczne (monitory, stacje robocze, punkty abonenckie); dokumenty (instrukcje, wydruki); magnetyczne nośniki danych; informacje na ekranie monitora.

Do najczęstszych metod uwierzytelniania należy przypisanie osobie lub innej nazwie hasła i zapisanie jego wartości w systemie komputerowym. Hasło to zestaw znaków definiujący obiekt (podmiot).

Hasło jako narzędzie bezpieczeństwa może służyć do identyfikacji i uwierzytelniania terminala, z którego loguje się użytkownik, a także do uwierzytelniania komputera z powrotem do użytkownika.

Biorąc pod uwagę znaczenie hasła jako środka zwiększającego bezpieczeństwo informacji przed nieuprawnionym użyciem, należy przestrzegać następujących środków ostrożności:

1) nie przechowywać haseł w systemie komputerowym w miejscu niezaszyfrowanym;

2) nie drukować ani nie wyświetlać haseł w postaci jawnej na terminalu użytkownika;

3) nie używać swojego imienia i nazwiska lub imion bliskich, a także danych osobowych (data urodzenia, numer telefonu domowego lub służbowego, nazwa ulicy) jako hasła;

4) nie używać prawdziwych słów z encyklopedii lub słownika objaśniającego;

5) używać długich haseł;

6) używać kombinacji wielkich i małych liter na klawiaturze;

7) używać kombinacji dwóch prostych słów połączonych znakami specjalnymi (np. +,=,<);

8) używać nieistniejących nowych słów (treści absurdalne lub wręcz urojeniowe);

9) jak najczęściej zmieniać hasło.

Do identyfikacji użytkowników można wykorzystać skomplikowane pod względem technicznym systemy, które zapewniają uwierzytelnienie użytkownika na podstawie analizy jego indywidualnych parametrów: linii papilarnych, linii dłoni, tęczówki, barwy głosu. Najszerzej stosowane są fizyczne metody identyfikacji wykorzystujące nośniki kodów haseł. Takimi nośnikami mogą być przepustki w systemach kontroli dostępu; plastikowe karty z nazwiskiem właściciela, jego kodem, podpisem; karty plastikowe z paskiem magnetycznym, który odczytuje specjalny czytnik; Karty plastikowe zawierające wbudowany mikrochip; optyczne karty pamięci.

Jednym z najintensywniej rozwijanych obszarów zapewnienia bezpieczeństwa informacji jest identyfikacja i uwierzytelnianie dokumentów w oparciu o elektroniczny podpis cyfrowy. Przy przekazywaniu informacji kanałami komunikacyjnymi wykorzystuje się urządzenia faksujące, jednak w tym przypadku odbiorca nie otrzymuje oryginału, a jedynie kopię dokumentu z kopią podpisu, który w trakcie transmisji może zostać ponownie skopiowany, aby posłużyć się fałszywym dokumentem .

Elektroniczny podpis cyfrowy jest metodą szyfrowania z wykorzystaniem transformacji kryptograficznej i jest hasłem zależnym od nadawcy, odbiorcy oraz treści przesyłanej wiadomości. Aby zapobiec ponownemu użyciu podpisu, musi on być zmieniany z wiadomości na wiadomość.

10.4. Kryptograficzna metoda ochrony informacji

Najbardziej efektywnym sposobem poprawy bezpieczeństwa jest transformacja kryptograficzna. Aby poprawić bezpieczeństwo, wykonaj jedną z następujących czynności:

1) transmisja danych w sieciach komputerowych;

2) przesyłanie danych przechowywanych w zdalnych urządzeniach pamięci;

3) przekazywanie informacji w wymianie między odległymi obiektami.

Ochrona informacji metodą transformacji kryptograficznej polega na doprowadzeniu jej do postaci ukrytej poprzez przekształcenie części składowych informacji (liter, cyfr, sylab, słów) za pomocą specjalnych algorytmów lub sprzętowo-kluczowych kodów. Klucz jest zmienną częścią systemu kryptograficznego, utrzymywaną w tajemnicy i określającą, która z możliwych transformacji szyfrowania jest wykonywana w tym przypadku.

Do zmiany (szyfrowania) używany jest jakiś algorytm lub urządzenie, które implementuje dany algorytm. Algorytmy mogą być znane szerokiemu gronu ludzi. Proces szyfrowania kontrolowany jest przez okresowo zmieniający się kod klucza, który zapewnia każdorazowo oryginalną prezentację informacji w przypadku użycia tego samego algorytmu lub urządzenia. Za pomocą znanego klucza możliwe jest stosunkowo szybkie, proste i niezawodne odszyfrowanie tekstu. Bez znajomości klucza ta procedura może stać się prawie niemożliwa, nawet podczas korzystania z komputera.

Na metody transformacji kryptograficznej nakładane są następujące niezbędne wymagania:

1) musi być wystarczająco odporny na próby ujawnienia oryginalnego tekstu za pomocą tekstu zaszyfrowanego;

2) wymiana kluczy nie powinna być trudna do zapamiętania;

3) koszty przekształceń ochronnych powinny być akceptowalne dla danego poziomu bezpieczeństwa informacji;

4) błędy w szyfrowaniu nie powinny powodować wyraźnej utraty informacji;

5) rozmiar tekstu zaszyfrowanego nie może przekraczać rozmiaru tekstu oryginalnego.

Metody przeznaczone do przekształceń ochronnych dzielą się na cztery główne grupy: permutacje, substytucje (substytucje), metody addytywne i kombinowane.

Metody permutacji i zamiany (substytucji) charakteryzują się krótkimi kluczami, a niezawodność zabezpieczenia determinowana jest złożonością algorytmów transformacji. Natomiast metody addytywne charakteryzują się prostymi algorytmami i długimi kluczami. Metody łączone są bardziej niezawodne. Najczęściej łączą zalety zastosowanych komponentów.

Cztery wymienione metody transformacji kryptograficznej to metody szyfrowania symetrycznego. Ten sam klucz jest używany zarówno do szyfrowania, jak i deszyfrowania.

Głównymi metodami transformacji kryptograficznej są metody permutacji i zamiany. Podstawą metody permutacji jest rozbicie tekstu źródłowego na bloki, a następnie zapisanie tych bloków i odczytanie tekstu zaszyfrowanego wzdłuż różnych ścieżek figury geometrycznej.

Szyfrowanie zastępcze oznacza, że ​​znaki tekstu źródłowego (bloku) zapisane jednym alfabetem są zastępowane znakami innego alfabetu zgodnie z zastosowanym kluczem transformacji.

Połączenie tych metod doprowadziło do powstania metody szyfrowania pochodnego, która ma silne możliwości kryptograficzne. Algorytm metody jest zaimplementowany zarówno sprzętowo, jak i programowo, ale jest przeznaczony do realizacji za pomocą specjalnych urządzeń elektronicznych, co umożliwia osiągnięcie wysokiej wydajności i uproszczonej organizacji przetwarzania informacji. Przemysłowa produkcja urządzeń do szyfrowania kryptograficznego, która powstała w niektórych krajach zachodnich, umożliwia radykalne zwiększenie poziomu bezpieczeństwa informacji handlowych podczas ich przechowywania i elektronicznej wymiany w systemach komputerowych.

10.5. Wirusy komputerowe

Wirus komputerowy to specjalnie napisany program, który może spontanicznie przyłączać się do innych programów (infekować je), tworzyć swoje kopie i wstrzykiwać je do plików, obszarów systemowych komputera i innych połączonych z nim komputerów w celu zakłócenia normalnego działania programy, uszkadzają pliki i katalogi, a także powodują różne zakłócenia podczas pracy na komputerze.

Pojawienie się wirusów na komputerze zależy od następujących obserwowalnych znaków:

▪ zmniejszenie wydajności komputera;

▪ niemożność i spowolnienie ładowania systemu operacyjnego;

▪ zwiększenie ilości plików na dysku;

▪ zmiana rozmiarów plików;

▪ okresowe pojawianie się nieodpowiednich komunikatów na ekranie monitora;

▪ zmniejszenie wolumenu bezpłatnego PO;

▪ gwałtowny wzrost czasu dostępu do dysku twardego;

▪ zniszczenie struktury plików;

▪ lampka ostrzegawcza napędu dyskowego zapala się, gdy nie jest uzyskiwany dostęp do dysku.

Dyski wymienne (dyskietki i dyski CD-ROM) oraz sieci komputerowe to zazwyczaj główne sposoby infekowania komputerów wirusami. Infekcja dysku twardego komputera może wystąpić, jeśli komputer jest uruchamiany z dyskietki zawierającej wirusa.

W zależności od rodzaju wirusów siedliskowych, dzieli się je na rozruchowe, plikowe, systemowe, sieciowe i rozruchowe plikowe (wielofunkcyjne).

Wirusy rozruchowe infekują sektor rozruchowy dysku lub sektor zawierający program rozruchowy dysku systemowego.

Wirusy plikowe znajdują się głównie w plikach wykonywalnych .COM i .EXE.

Wirusy systemowe infekują moduły systemowe i sterowniki urządzeń peryferyjnych, tablice alokacji plików i tablice partycji.

Wirusy sieciowe rezydują w sieciach komputerowych, podczas gdy wirusy uruchamiające pliki infekują sektory startowe dysku i pliki aplikacji.

Wirusy dzielą się na wirusy rezydentne i nierezydentne ze względu na sposób infekowania siedliska.

Wirusy rezydentne, infekując komputer, pozostawiają swoją rezydentną część w systemie operacyjnym, który po infekcji przechwytuje połączenia systemu operacyjnego z innymi obiektami infekcji, infiltruje je i wykonuje destrukcyjne działania, które mogą doprowadzić do wyłączenia lub ponownego uruchomienia komputera. Wirusy nierezydentne nie infekują systemu operacyjnego komputera i są aktywne przez ograniczony czas.

Specyfika budowy wirusów wpływa na ich manifestację i funkcjonowanie.

Bomba logiczna to program wbudowany w duży pakiet oprogramowania. Jest nieszkodliwy, dopóki nie nastąpi określone zdarzenie, po którym zostanie zaimplementowany jego logiczny mechanizm.

Zmutowane programy, samoreprodukujące się, tworzą kopie wyraźnie różniące się od oryginału.

Niewidzialne wirusy lub ukryte wirusy przechwytują wywołania systemu operacyjnego do zainfekowanych plików i sektorów dysku i zamiast tego podmieniają niezainfekowane obiekty. Podczas uzyskiwania dostępu do plików wirusy te używają dość oryginalnych algorytmów, które pozwalają im "oszukać" rezydentne monitory antywirusowe.

Makrowirusy wykorzystują możliwości języków makr wbudowanych w biurowe programy do przetwarzania danych (edytory tekstu, arkusze kalkulacyjne).

Ze względu na stopień oddziaływania na zasoby systemów i sieci komputerowych lub zdolności destrukcyjne wyróżnia się wirusy nieszkodliwe, niegroźne, niebezpieczne i destrukcyjne.

Nieszkodliwe wirusy nie mają patologicznego wpływu na komputer. Łagodne wirusy nie niszczą plików, ale zmniejszają wolne miejsce na dysku i wyświetlają efekty graficzne. Niebezpieczne wirusy często powodują znaczne zakłócenia w działaniu komputera. Niszczące wirusy mogą prowadzić do usunięcia informacji, całkowitego lub częściowego zakłócenia działania programów użytkowych. Należy pamiętać, że każdy plik zdolny do załadowania i wykonania kodu programu jest potencjalnym miejscem umieszczenia wirusa.

10.6. Programy antywirusowe

Powszechne stosowanie wirusów komputerowych doprowadziło do rozwoju programów antywirusowych, które umożliwiają wykrywanie i niszczenie wirusów oraz „leczenie” zainfekowanych zasobów.

Podstawą większości programów antywirusowych jest zasada wyszukiwania sygnatur wirusów. Sygnatura wirusa to unikalna cecha programu antywirusowego, która wskazuje na obecność wirusa w systemie komputerowym. Najczęściej programy antywirusowe zawierają okresowo aktualizowaną bazę sygnatur wirusów. Program antywirusowy bada i analizuje system komputerowy oraz dokonuje porównań w celu dopasowania sygnatur w bazie danych. Jeśli program znajdzie dopasowanie, spróbuje usunąć wykrytego wirusa.

Ze względu na sposób działania programy antywirusowe można podzielić na filtry, audytorów, lekarzy, detektory, szczepionki itp.

Programy filtrujące to „strażnicy”, którzy są stale w OP. Są rezydentami i przechwytują wszystkie żądania kierowane do systemu operacyjnego w celu wykonania podejrzanych działań, tj. operacji wykorzystujących wirusy do reprodukcji i niszczenia informacji oraz zasobów oprogramowania w komputerze, w tym ponownego formatowania dysku twardego. Wśród nich są próby zmiany atrybutów plików, poprawiania wykonywalnych plików COM lub EXE, zapisu do dyskowych sektorów startowych.

Za każdym razem, gdy żądana jest taka akcja, na ekranie komputera pojawia się komunikat informujący o żądanej akcji i programie, który ją wykona. W takim przypadku użytkownik musi zezwolić lub odmówić jego wykonania. Stała obecność programów „watchdog” w PO znacznie zmniejsza jego objętość, co jest główną wadą tych programów. Ponadto programy filtrujące nie są w stanie „przetwarzać” plików lub dysków. Ta funkcja jest wykonywana przez inne programy antywirusowe, takie jak AVP, Norton Antivirus for Windows, Thunder Byte Professional, McAfee Virus Scan.

Programy audytorskie to niezawodne środki ochrony przed wirusami. Zapamiętują początkowy stan programów, katalogów i obszarów systemowych dysku, pod warunkiem, że komputer nie został jeszcze zainfekowany wirusem. Następnie program okresowo porównuje aktualny stan z oryginałem. W przypadku wykrycia niezgodności (w długości pliku, dacie modyfikacji, kodzie kontroli obiegu pliku) na ekranie komputera pojawia się komunikat o tym. Wśród programów audytorskich można wyróżnić program Adinf oraz jego dodatek w postaci Modułu leczniczego Adinf.

Program doktor jest w stanie nie tylko wykryć, ale także „czyścić” zainfekowane programy lub dyski. Jednocześnie niszczy zainfekowane programy ciała wirusa. Programy tego typu można podzielić na fagi i polifagi. Fagi to programy używane do wyszukiwania wirusów określonego typu. Polifagi służą do wykrywania i niszczenia dużej liczby różnych wirusów. W Rosji najczęściej używanymi polifagami są MS Antivirus, Aidstest, Doctor Web. Są one stale aktualizowane, aby zwalczać pojawiające się nowe wirusy.

Programy wykrywające są w stanie wykryć pliki zainfekowane jednym lub kilkoma wirusami znanymi twórcom programu.

Programy szczepień lub immunizatory należą do klasy programów rezydentnych. Modyfikują programy i dyski w sposób nie wpływający na ich działanie. Jednak wirus, przeciwko któremu się szczepiono, uważa je za już zakażone i nie zaraża ich. W tej chwili opracowano wiele programów antywirusowych, które zyskały szerokie uznanie i są stale aktualizowane o nowe narzędzia do zwalczania wirusów.

Program polifagowy Doctor Web służy do zwalczania wirusów polimorficznych, które pojawiły się stosunkowo niedawno. W trybie analizy heurystycznej program ten skutecznie wykrywa pliki zainfekowane nowymi, nieznanymi wirusami. Wykorzystując Doctor Web do kontrolowania dyskietek i plików odbieranych przez sieć, prawie na pewno można uniknąć infekcji systemu.

Podczas korzystania z systemu operacyjnego Windows NT występują problemy z ochroną przed wirusami zaprojektowaną specjalnie dla tego środowiska. Pojawił się również nowy rodzaj infekcji - makrowirusy, które są "implantowane" w dokumentach przygotowanych przez edytor tekstu Word i arkusze kalkulacyjne Excel. Najpopularniejsze programy antywirusowe to AntiViral Toolkit Pro (AVP32), Norton Antivirus for Windows, Thunder Byte Professional, McAfee Virus Scan. Programy te działają w trybie programów skanujących i przeprowadzają kontrolę antywirusową OP, folderów i dysków. Ponadto zawierają algorytmy rozpoznawania nowych typów wirusów oraz umożliwiają wyleczenie plików i dysków podczas skanowania.

AntiViral Toolkit Pro (AVP32) to 32-bitowa aplikacja działająca w systemie Windows NT. Posiada wygodny interfejs użytkownika, system pomocy, elastyczny system ustawień wybieranych przez użytkownika i rozpoznaje ponad 7 różnych wirusów. Program ten wykrywa (wykrywa) i usuwa wirusy polimorficzne, zmutowane i ukrywające się, a także makrowirusy, które infekują dokument Word i arkusze kalkulacyjne Excel, obiekty Access - „konie trojańskie”.

Ważną cechą tego programu jest możliwość kontrolowania wszystkich operacji na plikach w tle i wykrywania wirusów przed faktycznym zainfekowaniem systemu, a także wykrywania wirusów wewnątrz archiwów ZIP, ARJ, ZHA, RAR.

Interfejs AllMicro Antivirus jest prosty. Nie wymaga od użytkownika posiadania dodatkowej wiedzy o produkcie. Podczas pracy z tym programem należy nacisnąć przycisk Start (Skanuj), po czym rozpocznie on sprawdzanie lub skanowanie sektorów OP, rozruchowego i systemowego dysku twardego, a następnie wszystkich plików, w tym zarchiwizowanych i spakowanych.

Vscan 95 skanuje pamięć komputera, sektory rozruchowe dysku systemowego i wszystkie pliki w katalogu głównym podczas uruchamiania. Pozostałe dwa programy w pakiecie (McAfee Vshield, Vscan) to aplikacje Windows. Pierwszy po załadowaniu systemu Windows służy do monitorowania nowo podłączonych dysków, kontroli programów wykonywalnych i kopiowanych plików, a drugi - do dodatkowego sprawdzania pamięci, dysków i plików. Program McAfee VirusScan może znaleźć makrowirusy w plikach MS Word.

W procesie rozwoju lokalnych sieci komputerowych, poczty elektronicznej i Internetu oraz wprowadzania sieciowego systemu operacyjnego Windows NT, twórcy oprogramowania antywirusowego przygotowali i wprowadzili na rynek takie programy jak Mail Checker, który pozwala sprawdzić poczty przychodzącej i wychodzącej oraz AntiViral Toolkit Pro for Novell NetWare (AVPN ) służący do wykrywania, leczenia, usuwania i przenoszenia zainfekowanych plików do specjalnego katalogu. Program AVPN służy jako skaner antywirusowy i filtr, który stale monitoruje pliki przechowywane na serwerze. Jest w stanie usuwać, przenosić i „leczyć” dotknięte nim obiekty; sprawdź spakowane i zarchiwizowane pliki; identyfikować nieznane wirusy za pomocą mechanizmu heurystycznego; skanuj zdalne serwery w trybie skanera; odłączyć zainfekowaną stację od sieci. Program AVPN można łatwo skonfigurować do skanowania plików różnych typów i ma wygodny schemat uzupełniania antywirusowej bazy danych.

10.7. Ochrona oprogramowania

Oprogramowanie jest ważnym przedmiotem ochrony z kilku powodów:

1) są wytworem pracy intelektualnej wysoko wykwalifikowanych specjalistów, a nawet grup kilkudziesięciu, a nawet setek osób;

2) projektowanie tych produktów wiąże się ze zużyciem znacznych zasobów materiałowych i robocizny oraz opiera się na wykorzystaniu drogiego sprzętu komputerowego i wysokich technologii;

3) przywrócenie uszkodzonego oprogramowania wymaga znacznych kosztów pracy, a użycie prostego sprzętu komputerowego jest obarczone negatywnymi skutkami dla organizacji lub osób.

Ochrona oprogramowania ma następujące cele:

▪ ograniczenie nieuprawnionego dostępu niektórych kategorii użytkowników do pracy z nimi;

▪ wykluczenie umyślnego uszkadzania programów w celu zakłócenia normalnego przepływu przetwarzania danych;

▪ zapobieganie celowej modyfikacji programu w celu zaszkodzenia reputacji producenta oprogramowania;

▪ zapobieganie nieautoryzowanej replikacji (kopiowaniu) programów;

▪ wykluczenie nieuprawnionego studiowania treści, struktury i mechanizmu programu.

Oprogramowanie powinno być chronione przed nieupoważnionym wpływem różnych obiektów: osoby, środków technicznych, programów specjalistycznych, środowiska. Wpływ na oprogramowanie jest możliwy poprzez kradzież lub fizyczne zniszczenie dokumentacji programu lub samego nośnika maszyny, jak również poprzez zakłócenie funkcjonalności oprogramowania.

Środki techniczne (sprzęt) poprzez połączenie z komputerem lub medium transmisyjnym mogą odczytywać, deszyfrować programy, a także je fizycznie niszczyć.

Infekcja wirusowa może zostać przeprowadzona za pomocą specjalistycznych programów, zainfekowanie wirusem oprogramowania, jego nieautoryzowane kopiowanie, nieautoryzowane badanie jego zawartości.

Środowisko ze względu na zjawiska anomalne (zwiększone promieniowanie elektromagnetyczne, pożar, powodzie) może spowodować fizyczne zniszczenie oprogramowania.

Najłatwiejszym i najtańszym sposobem ochrony oprogramowania jest ograniczenie dostępu do nich za pomocą:

▪ ochrona hasłem programów podczas ich uruchamiania;

▪ dyskietka z kluczami;

▪ specjalne urządzenie techniczne (klucz elektroniczny) podłączane do portu wejścia/wyjścia komputera.

Aby uniknąć nieautoryzowanego kopiowania programów, specjalne oprogramowanie zabezpieczające powinno:

▪ zidentyfikować środowisko, z którego uruchamiany jest program;

▪ prowadzić ewidencję liczby autoryzowanych instalacji lub wykonanych kopii;

▪ opierać się (nawet aż do samozniszczenia) studiowaniu algorytmów i programów systemu.

W przypadku oprogramowania skuteczne zabezpieczenia to:

1) określenie środowiska, z którego program jest uruchamiany;

2) prowadzenie ewidencji liczby uprawnionych instalacji lub wykonanych kopii;

3) przeciwdziałanie niestandardowemu formatowaniu dyskietki startowej;

4) ustalenie lokalizacji programu na dysku twardym;

5) powiązanie z kluczem elektronicznym włożonym do portu wejścia-wyjścia;

6) powiązanie z numerem BIOS.

Przy ochronie oprogramowania konieczne jest stosowanie legalnych metod. Należą do nich umowy i kontrakty licencyjne, ochrona patentowa, prawa autorskie, tajemnica technologiczna i przemysłowa.

10.8. Zabezpieczanie danych na komputerze offline

Najczęstsze przypadki stwarzające zagrożenie dla danych to przypadkowe usunięcie danych, awaria oprogramowania oraz awaria sprzętu. Jednym z pierwszych zaleceń dla użytkownika jest wykonanie kopii zapasowej danych.

W przypadku dysków magnetycznych istnieje taki parametr, jak średni czas między awariami. Można to wyrazić w latach, więc potrzebna jest kopia zapasowa.

Podczas pracy na komputerze czasami dane nie są odczytywane z powodu awarii płyty kontrolnej dysku twardego. Wymieniając płytę kontrolera i ponownie uruchamiając komputer, możesz wznowić przerwane zadanie.

W celu zapewnienia bezpieczeństwa danych konieczne jest tworzenie kopii zapasowych. Wykorzystanie kopiowania jako jednej z metod zabezpieczenia danych wymaga wyboru oprogramowania, procedury (backup pełny, częściowy lub selektywny) oraz częstotliwości wykonywania backupu. W zależności od wagi informacji czasami wykonywana jest podwójna kopia zapasowa. Nie zaniedbuj testowania kopii zapasowych. Dane muszą być również chronione, gdy komputer znajduje się w małej sieci, gdy użytkownicy korzystają z udziałów serwera plików.

Metody zabezpieczeń obejmują:

▪ wykorzystanie atrybutów plików i katalogów typu „ukryty”, „tylko do odczytu”;

▪ zapisywanie ważnych danych na dyskietkach;

▪ umieszczanie danych w plikach archiwalnych chronionych hasłem;

▪ włączenie do programu bezpieczeństwa regularnego skanowania w poszukiwaniu wirusów komputerowych.

Istnieją trzy główne sposoby korzystania z programów antywirusowych:

1) wyszukaj wirusa podczas uruchamiania, gdy polecenie uruchomienia programu antywirusowego jest zawarte w pliku AUTOEXEC.bat;

2) ręczne uruchomienie programu antywirusowego;

3) wizualny podgląd każdego przesłanego pliku.

Pragmatyczną metodą zabezpieczania informacji na komputerze offline jest ochrona hasłem. Po włączeniu komputera i uruchomieniu instalatora CM08 użytkownik może dwukrotnie wprowadzić informację, która staje się hasłem. Dalsza ochrona na poziomie CMOS blokuje cały komputer, jeśli nie zostanie wprowadzone prawidłowe hasło.

W przypadku, gdy użycie hasła jest niepożądane podczas uruchamiania, niektóre modele klawiatur można zablokować za pomocą fizycznych kluczy dostarczonych z komputerem.

Możliwość ochrony niektórych plików jest zapewniona, gdy użytkownik pracuje z pakietami biurowymi (edytory tekstu, arkusze kalkulacyjne, DBMS) i wykonuje polecenie zapisania plików (Zapisz jako...). Jeśli w takim przypadku klikniesz przycisk Opcje (Opcje), to w oknie dialogowym, które zostanie otwarte, możesz ustawić hasło, które ogranicza możliwość pracy z tym dokumentem. W celu przywrócenia pierwotnej postaci chronionych w ten sposób danych należy wprowadzić to samo hasło. Użytkownik może zapomnieć lub po zapisaniu go na papierze po prostu zgubić hasło, wtedy może pojawić się jeszcze więcej problemów niż podczas pracy bez ochrony hasłem.

Istnieje wiele sposobów ochrony komputerów, które działają samodzielnie lub jako część małej sieci, w domu lub w biurze. Przy wyborze strategii ochrony informacji na komputerze konieczne jest znalezienie kompromisu pomiędzy wartością chronionych danych, kosztami zapewnienia ochrony oraz niedogodnościami, jakie system ochrony nakłada na pracę z danymi.

10.9. Bezpieczeństwo danych w środowisku online

Środowiska interaktywne są wrażliwe pod względem bezpieczeństwa danych. Przykładem mediów interaktywnych są dowolne systemy posiadające możliwości komunikacyjne, takie jak poczta elektroniczna, sieci komputerowe, Internet.

Poczta elektroniczna to dowolna forma komunikacji używana przez komputery i modemy. Najbardziej niepewne miejsca w poczcie e-mail to skrzynka nadawcza nadawcy i skrzynka pocztowa odbiorcy. Każdy z pakietów oprogramowania pocztowego umożliwia archiwizowanie wiadomości przychodzących i wychodzących na dowolny inny adres, co może prowadzić do nadużyć ze strony intruzów.

Poczta elektroniczna, zapewniając przekazywanie wiadomości, może spowodować znaczne szkody dla odbiorcy wiadomości. Należy zastosować inne środki bezpieczeństwa, aby zapobiec niepożądanym konsekwencjom, w tym:

▪ Nie można natychmiast uruchomić programów otrzymanych pocztą elektroniczną, zwłaszcza załączników. Należy zapisać plik na dysku, przeskanować go programem antywirusowym i dopiero wtedy uruchomić;

▪ Zabrania się ujawniania hasła i danych osobowych, nawet jeśli nadawca oferuje odbiorcy coś bardzo kuszącego;

▪ otwierając otrzymane pliki MS Office (w Word, Excel) w miarę możliwości nie należy używać makr;

▪ Ważne jest, aby próbować używać zarówno sprawdzonych, jak i nowszych wersji programów pocztowych.

Jednym z ważnych problemów dla użytkowników Internetu jest problem bezpieczeństwa danych w samej sieci. Użytkownik jest połączony z zasobami za pośrednictwem dostawcy. W celu ochrony informacji przed elementami chuligańskimi, niewykwalifikowanymi użytkownikami i przestępcami system internetowy wykorzystuje system uprawnień, czyli kontroli dostępu. Każdy plik danych (lub inny zasób komputera) ma zestaw atrybutów, które mówią, że ten plik może przeglądać każdy, ale tylko właściciel ma prawo do jego zmiany. Innym problemem jest to, że nikt oprócz właściciela nie może przeglądać pliku, mimo że nazwy tych zasobów informacyjnych są widoczne. Zwykle użytkownik stara się w jakiś sposób chronić swoje informacje, ale należy pamiętać, że administratorzy systemu mogą obejść systemy ochrony. W takim przypadku na ratunek przychodzą różne metody szyfrowania informacji za pomocą kluczy opracowanych przez użytkownika.

Jednym z problemów pracy w Internecie jest ograniczanie dostępu do zasobów informacyjnych określonych kategorii użytkowników (dzieci i młodzież szkolna). Można to zrobić za pomocą specjalnych programów - zapór ogniowych (Net Nanny, Surf-Watch, Cyber ​​​​Patrol). Opierają się one na zasadzie filtrowania słów kluczowych, stałych listach lokalizacji serwisów WWW, które zawierają treści nieodpowiednie dla dzieci. Podobne programy rejestrujące sesje internetowe i blokujące dostęp do określonych miejsc w sieci można zainstalować w urzędach i innych instytucjach, aby zapobiec zjawisku marnowania czasu przez pracowników na prywatne sprawy.

Internet - system, w którym wielu użytkowników posiada własne serwery WWW zawierające reklamy lub informacje referencyjne na stronach WWW. Konkurenci potrafią zepsuć zawartość. Aby uniknąć problemów w takich sytuacjach, możesz regularnie surfować po Internecie. Jeśli informacje są uszkodzone, należy je odtworzyć przy użyciu wcześniej przygotowanych kopii plików. Należy pamiętać, że dostawcy są zobowiązani do zapewnienia bezpieczeństwa informacji na serwerach, którzy systematycznie przeglądają dzienniki zdarzeń i aktualizują oprogramowanie w przypadku wykrycia w nim problemów z bezpieczeństwem.

Temat 11. Bazy danych

11.1. Pojęcie bazy danych. Systemy zarządzania bazą danych

Słowo „dane” definiuje się jako dialektyczny składnik informacji w postaci zarejestrowanych sygnałów. Rejestracja danych może być prowadzona dowolną metodą fizyczną (ruch mechaniczny ciał fizycznych, zmiana ich kształtu lub parametrów jakości powierzchni, zmiana właściwości elektrycznych, magnetycznych, optycznych, składu chemicznego lub charakteru wiązań chemicznych, zmiana stanu elektronowego systemem itp.). Początkowo przy tworzeniu baz danych używano następujących typów danych:

1) liczbowe (na przykład 17; 0,27; 2E-7);

2) znakowe lub alfanumeryczne (w szczególności „sufit”, „tabela”);

3) daty określone przy użyciu specjalnego typu „Data” lub zwykłych danych znakowych (na przykład 12.02.2005, 12).

Później zdefiniowano inne typy danych, w tym:

1) tymczasowe i data-czas, które służą do przechowywania informacji o czasie i/lub dacie (np. 5.02.2005, 7:27:04, 23.02.2005 16:00);

2) dane znakowe o zmiennej długości, przeznaczone do przechowywania informacji tekstowych o dużej długości;

3) binarne, które służą do przechowywania obiektów graficznych, informacji audio i wideo, informacji przestrzennych, chronologicznych i innych informacji specjalnych;

4) hiperłącza umożliwiające przechowywanie linków do różnych zasobów znajdujących się poza bazą danych.

Baza danych to zestaw powiązanych ze sobą danych przechowywanych w pamięci komputera w celu przedstawienia struktury obiektów i ich relacji w badanym obszarze tematycznym. Jest to główna forma organizacji przechowywania danych w systemach informatycznych.

System zarządzania bazą danych to zestaw symbolicznych i programowych narzędzi zaprojektowanych do tworzenia, utrzymywania i organizowania współdzielonego dostępu do baz danych dla wielu użytkowników.

Pierwsze DBMS zostały opracowane przez IBM - IMS (1968) i Software AG-ADABA- (1969). W chwili obecnej istnieje duża liczba różnych systemów zarządzania bazami danych (ponad kilka tysięcy), a ich liczba stale rośnie.

Wśród głównych funkcji DBMS (funkcje wyższego poziomu) można wyróżnić przechowywanie, modyfikację i przetwarzanie informacji, a także opracowywanie i odbieranie różnych dokumentów wyjściowych.

Funkcje DBMS niższego poziomu obejmują:

1) zarządzanie danymi w pamięci zewnętrznej;

2) zarządzanie buforem PO;

3) zarządzanie transakcjami;

4) prowadzenie dziennika zmian w bazie danych;

5) zapewnienie integralności i bezpieczeństwa baz danych.

11.2. Hierarchiczne, sieciowe i relacyjne modele reprezentacji danych

Informacje w bazie danych mają pewną strukturę, to znaczy można je opisać za pomocą modelu reprezentacji danych (modelu danych), który jest obsługiwany przez system DBMS. Modele te dzielą się na hierarchiczne, sieciowe i relacyjne.

Podczas korzystania z hierarchicznego modelu reprezentacji danych relacje między danymi można scharakteryzować za pomocą uporządkowanego wykresu (lub drzewa). W programowaniu przy opisywaniu struktury hierarchicznej bazy danych używany jest typ danych „drzewo”.

Główne zalety hierarchicznego modelu danych to:

1) efektywne wykorzystanie pamięci komputera;

2) duża szybkość wykonywania podstawowych operacji na danych;

3) wygoda pracy z hierarchicznie uporządkowanymi informacjami.

Wady hierarchicznego modelu reprezentacji danych obejmują:

1) uciążliwość takiego modelu przetwarzania informacji z dość złożonymi powiązaniami logicznymi;

2) trudność w zrozumieniu jego działania przez zwykłego użytkownika.

Niewielka liczba systemów DBMS jest zbudowana na hierarchicznym modelu danych.

Model sieciowy można przedstawić jako rozwinięcie i uogólnienie hierarchicznego modelu danych, który umożliwia przedstawienie różnych relacji danych w postaci dowolnego wykresu.

Zaletami sieciowego modelu prezentacji danych są:

1) efektywność wykorzystania pamięci komputera;

2) duża szybkość wykonywania podstawowych operacji na danych;

3) ogromne możliwości (większe niż w modelu hierarchicznym) tworzenia dowolnych połączeń.

Do wad sieciowego modelu prezentacji danych należą:

1) duża złożoność i sztywność schematu bazy danych, który jest zbudowany na jego podstawie;

2) trudność w zrozumieniu i wykonaniu przetwarzania informacji w bazie danych przez użytkownika nieprofesjonalnego.

Systemy zarządzania bazami danych zbudowane w oparciu o model sieciowy również nie są powszechnie stosowane w praktyce.

Relacyjny model prezentacji danych został opracowany przez pracownika firmy 1WME. Codd Jego model opiera się na koncepcji „związku”. Najprostszym przykładem relacji jest dwuwymiarowa tabela.

Zaletą relacyjnego modelu prezentacji danych (w porównaniu z modelem hierarchicznym i sieciowym) jest jego przejrzystość, prostota i wygoda w praktycznej implementacji relacyjnych baz danych na komputerze.

Wady relacyjnego modelu reprezentacji danych obejmują:

1) brak standardowych sposobów identyfikacji poszczególnych zapisów;

2) złożoność opisu relacji hierarchicznych i sieciowych.

Większość systemów DBMS używanych zarówno przez użytkowników profesjonalnych, jak i nieprofesjonalnych jest zbudowana w oparciu o relacyjny model danych (Visual FoxPro i Access firmy Microsoft, Oracle firmy Oracle itp.).

11.3. Postrelacyjne, wielowymiarowe i obiektowe modele reprezentacji danych

Postrelacyjny model reprezentacji danych jest rozszerzoną wersją relacyjnego modelu danych i pozwala wyeliminować ograniczenie niepodzielności danych przechowywanych w rekordach tabelarycznych. Dlatego przechowywanie danych w modelu postrelacyjnym jest uważane za wydajniejsze niż relacyjny.

Zaletą modelu postrelacyjnego jest to, że umożliwia tworzenie zbioru powiązanych ze sobą tablic relacyjnych poprzez jedną tablicę postrelacyjną, co zapewnia wysoką przejrzystość prezentacji informacji i efektywność jej przetwarzania.

Wadą tego modelu jest złożoność rozwiązania problemu zapewnienia integralności i spójności przechowywanych danych.

Przykładami postrelacyjnych systemów DBMS są UniVers, Budda i Dasdb.

W 1993 roku ukazał się artykuł E. Codda, w którym sformułował 12 podstawowych wymagań dla systemów klasy OLAP (On-line Analytical Processing – operacyjne przetwarzanie analityczne). Opisane główne zasady dotyczyły możliwości pojęciowej reprezentacji i przetwarzania danych wielowymiarowych. Moment ten stał się punktem wyjścia do wzrostu zainteresowania wielowymiarowymi modelami reprezentacji danych.

Modele wielowymiarowe to wysoce wyspecjalizowane DBMS, które służą do interaktywnego, analitycznego przetwarzania informacji. Wielowymiarowa organizacja danych jest bardziej wizualna i zawiera więcej informacji niż model relacyjny.

Główną wadą wielowymiarowego modelu danych jest jego uciążliwość w rozwiązywaniu najprostszych problemów zwykłego przetwarzania informacji online.

Przykładami DBMS opartych na takich modelach są Ess-base firmy Arbor Software, serwer Oracle Express Server itp.

Zorientowane obiektowo modele reprezentacji danych umożliwiają identyfikację poszczególnych rekordów bazy danych. Pewne relacje są tworzone między rekordami bazy danych a ich funkcjami przetwarzającymi przy użyciu mechanizmów podobnych do odpowiednich udogodnień w obiektowych językach programowania.

Zalety obiektowego modelu danych to:

1) możliwość wyświetlania informacji o złożonych relacjach obiektów;

2) umiejętność identyfikacji pojedynczego rekordu bazy danych i określenia funkcji jego przetwarzania.

Wady obiektowego modelu danych obejmują:

1) trudność w zrozumieniu jego działania przez użytkownika nieprofesjonalnego;

2) niedogodności przetwarzania danych;

3) niska prędkość wykonywania zapytań.

Wśród zorientowanych obiektowo DBMS możemy wyróżnić systemy ROET od ROET Software, Versant od Versant Technologies itp.

11.4. Klasyfikacje systemów zarządzania bazami danych

Każde oprogramowanie zdolne do wspierania procesów projektowania, administrowania i używania bazy danych może podlegać definicji DBMS, dlatego opracowano klasyfikację DBMS według typów programów:

1) w pełni funkcjonalny - najliczniejsze i najpotężniejsze programy pod względem ich możliwości, takie jak Microsoft Access, Microsoft FoxPro, Clarion Database Developer itp .;

2) serwery bazodanowe – służą do organizacji centrów przetwarzania danych w sieciach komputerowych. Wśród nich są Microsoft SQL Server, NetWare SQL firmy Novell;

3) klienci baz danych – różne programy (pełnofunkcyjne SZBD, arkusze kalkulacyjne, edytory tekstu itp.), które zapewniają większą wydajność sieci komputerowej, jeżeli część kliencka i serwerowa bazy danych są produkowane przez tę samą firmę, ale warunek ten nie jest spełniony obowiązkowe;

4) narzędzia do tworzenia programów do pracy z bazami danych - przeznaczone do tworzenia takich produktów programistycznych jak programy klienckie, serwery bazodanowe i ich indywidualne aplikacje, a także aplikacje użytkownika. Systemy programowania, biblioteki programów dla różnych języków programowania oraz pakiety automatyzacji rozwoju służą jako narzędzia do tworzenia niestandardowych aplikacji. Najczęściej używanymi narzędziami do tworzenia aplikacji niestandardowych są Delphi firmy Borland i Visual Basic firmy Microsoft.

Według rodzaju aplikacji DBMS są podzielone na osobiste i dla wielu użytkowników.

Osobiste DBMS (na przykład Visual FoxPro, Paradox, Access) są wykorzystywane do projektowania osobistych baz danych i współpracujących z nimi tanich aplikacji, które z kolei mogą być używane jako część kliencka DBMS dla wielu użytkowników.

Multiuser DBMS (na przykład Oracle i Informix) składają się z serwera bazy danych oraz części klienckiej i są w stanie współpracować z różnymi typami komputerów i systemami operacyjnymi różnych producentów.

Najczęściej systemy informatyczne budowane są w oparciu o architekturę klient-serwer, która obejmuje sieć komputerową oraz rozproszoną bazę danych. Sieć komputerowa służy do organizacji pracy naukowej na komputerze PC iw sieciach. Rozproszona baza danych składa się z wieloużytkownikowej bazy danych zlokalizowanej na komputerze serwera oraz osobistej bazy danych zlokalizowanej na stacjach roboczych. Serwer bazy danych wykonuje większość przetwarzania danych.

11.5. Języki dostępu do bazy danych

Istnieją dwa rodzaje języków dostępu do bazy danych:

1) język opisu danych – język wysokiego poziomu przeznaczony do opisu logicznej struktury danych;

2) język manipulacji danymi - zestaw struktur zapewniających realizację podstawowych operacji pracy z danymi: wprowadzanie, modyfikacja i selekcja danych na żądanie.

Najpopularniejszymi językami dostępu są dwa języki znormalizowane:

1) QBE (Query by Example) – przykładowy język zapytań charakteryzujący się właściwościami języka manipulacji danymi;

2) SQL (Structured Query Language) – ustrukturyzowany język zapytań, składający się z właściwości języków obu typów.

Język QBE został opracowany na podstawie rachunku relacyjnego ze zmiennymi dziedzinowymi. Pomaga tworzyć złożone zapytania do bazy danych, wypełniając formularz zapytania oferowany przez system zarządzania bazą danych. Każdy relacyjny DBMS ma swoją własną wersję języka QBE. Zaletami tej metody ustawiania zapytań do bazy są:

1) dobra widoczność;

2) brak konieczności określania algorytmu wykonania operacji.

Strukturalny język zapytań (SQL) jest oparty na relacyjnym rachunku różniczkowym ze zmiennymi krotkami. Opracowano kilka standardów dla tego języka, z których najbardziej znane to SQL-89 i SQL-92. Język SQL służy do wykonywania operacji na tabelach i danych w nich zawartych oraz niektórych operacji z nimi związanych. Nie jest używany jako osobny język i jest najczęściej częścią wbudowanego języka programowania DBMS (na przykład FoxPro DBMS Visual FoxPro, ObjectPAL DBMS Paradox, Visual Basic for Applications DBMS Access).

Język SQL koncentruje się wyłącznie na dostępie do danych, dlatego jest klasyfikowany jako narzędzie do tworzenia oprogramowania i nazywany jest wbudowanym. Istnieją dwie główne metody korzystania z wbudowanego SQL:

1) statyczny – charakteryzujący się tym, że tekst programu zawiera wywołania funkcji języka SQL, które po kompilacji są na sztywno umieszczane w module wykonywalnym. Zmian w wywoływanych funkcjach można dokonać na poziomie poszczególnych parametrów wywołania za pomocą zmiennych języka programowania;

2) dynamiczny – różni się dynamiczną budową wywołań funkcji SQL oraz interpretacją tych wywołań podczas wykonywania programu. Stosowany jest najczęściej w przypadkach, gdy rodzaj wywołania SQL w aplikacji nie jest z góry znany i budowany jest w dialogu z użytkownikiem.

11.6. Bazy danych w Internecie

Podstawą publikowania baz danych w sieci World Wide Web jest proste uporządkowanie informacji z baz danych na stronach internetowych sieci.

Publikacja baz danych w Internecie ma na celu rozwiązanie szeregu problemów, między innymi:

1) organizowanie wzajemnych połączeń systemów zarządzania bazami danych, które działają na różnych platformach;

2) budowanie systemów informacyjnych w Internecie w oparciu o wielopoziomową architekturę baz danych;

3) budowa lokalnych sieci Intranet z wykorzystaniem technologii udostępniania baz danych w Internecie;

4) wykorzystanie w Internecie informacji z dostępnych baz danych sieci lokalnej;

5) wykorzystanie baz danych do uporządkowania informacji prezentowanych w Internecie;

6) wykorzystanie przeglądarki internetowej jako dostępnego programu klienckiego do uzyskiwania dostępu do baz danych w Internecie.

Aby publikować bazy danych na stronach internetowych, używane są dwie główne metody generowania stron internetowych zawierających informacje z baz danych:

1) publikacja statyczna - Strony WWW są tworzone i przechowywane na serwerze WWW do momentu otrzymania żądania użytkownika o ich otrzymanie (w postaci plików na dysku twardym w formacie dokumentu WWW). Ta metoda jest używana podczas publikowania informacji, które są rzadko aktualizowane w bazie danych. Główne zalety takiej organizacji publikowania baz danych w Internecie to przyspieszony dostęp do dokumentów WWW zawierających informacje z baz danych oraz zmniejszenie obciążenia serwera podczas przetwarzania żądań klientów;

2) publikacja dynamiczna — strony internetowe są tworzone, gdy żądanie użytkownika dociera do serwera. Serwer wysyła żądanie wygenerowania takich stron do programu - rozszerzenia serwera generującego wymagany dokument. Następnie serwer wysyła ukończone strony internetowe z powrotem do przeglądarki. Ta metoda generowania stron internetowych jest używana, gdy zawartość bazy danych jest często aktualizowana, na przykład w czasie rzeczywistym. Metoda ta polega na publikowaniu informacji z baz danych dla sklepów internetowych i systemów informatycznych. Strony dynamiczne są tworzone przy użyciu różnych narzędzi i technologii, takich jak ASP (Active Server Page - aktywna strona serwera), PHP (Personal Home Page tools - narzędzia osobistej strony głównej).

Wśród narzędzi programowych, które umożliwiają uzyskiwanie informacji z Internetu, wyróżniają się aplikacje internetowe (aplikacje internetowe), które są zestawem stron internetowych, skryptów i innych narzędzi programowych umieszczonych na jednym lub kilku komputerach i zaprojektowanych do wykonywania zastosowanego zadania. Aplikacje publikujące bazy danych w Internecie są klasyfikowane jako osobna klasa aplikacji internetowych.

literatura

1. Informatyka: Kurs podstawowy: podręcznik dla studentów / wyd. SV Simonowicz. Petersburg: Piotr, 2002.

2. Levin A. Sh. Samodzielna instrukcja obsługi komputera / A. Sz Lewin. 8. wyd. Petersburg: Piotr, 2004.

3. Leontiev V.P. Najnowsza encyklopedia komputera osobistego 2003 / V.P. Leontiev. M.: OLMA-Press, 2003.

4. Mohylew A. V. Informatyka: podręcznik. zasiłek dla studentów / A. V. Mohylew, N. I. Pak, E. K. Khenner; wyd. EK Henner. M.: Akademia, 2001.

5. Murakhovsky V. I. Sprzęt komputera osobistego: praktyczny przewodnik / V. I. Murakhovsky, G. A. Evseev. M.: DESS COM, 2001.

6. Olifer VG Sieci komputerowe. Zasady, technologie, protokoły: podręcznik dla studentów / VG Olifer, NA Olifer. Petersburg: Piotr, 2001.

Autor: Kozlova I.S.

Polecamy ciekawe artykuły Sekcja Notatki z wykładów, ściągawki:

Elektronika ogólna i elektrotechnika. Kołyska

Teoria i metodyka wychowania. Notatki do wykładów

Filozofia. Notatki do wykładów

Zobacz inne artykuły Sekcja Notatki z wykładów, ściągawki.

Czytaj i pisz przydatne komentarze do tego artykułu.

<< Wstecz

Najnowsze wiadomości o nauce i technologii, nowa elektronika:

Otwarto najwyższe obserwatorium astronomiczne na świecie 04.05.2024

Odkrywanie kosmosu i jego tajemnic to zadanie, które przyciąga uwagę astronomów z całego świata. Na świeżym powietrzu wysokich gór, z dala od miejskiego zanieczyszczenia światłem, gwiazdy i planety z większą wyrazistością odkrywają swoje tajemnice. Nowa karta w historii astronomii otwiera się wraz z otwarciem najwyższego na świecie obserwatorium astronomicznego - Obserwatorium Atacama na Uniwersytecie Tokijskim. Obserwatorium Atacama, położone na wysokości 5640 metrów nad poziomem morza, otwiera przed astronomami nowe możliwości w badaniu kosmosu. Miejsce to stało się najwyżej położonym miejscem dla teleskopu naziemnego, zapewniając badaczom unikalne narzędzie do badania fal podczerwonych we Wszechświecie. Chociaż lokalizacja na dużej wysokości zapewnia czystsze niebo i mniej zakłóceń ze strony atmosfery, budowa obserwatorium na wysokiej górze stwarza ogromne trudności i wyzwania. Jednak pomimo trudności nowe obserwatorium otwiera przed astronomami szerokie perspektywy badawcze. ... >>

Sterowanie obiektami za pomocą prądów powietrza 04.05.2024

Rozwój robotyki wciąż otwiera przed nami nowe perspektywy w zakresie automatyzacji i sterowania różnymi obiektami. Niedawno fińscy naukowcy zaprezentowali innowacyjne podejście do sterowania robotami humanoidalnymi za pomocą prądów powietrza. Metoda ta może zrewolucjonizować sposób manipulowania obiektami i otworzyć nowe horyzonty w dziedzinie robotyki. Pomysł sterowania obiektami za pomocą prądów powietrza nie jest nowy, jednak do niedawna realizacja takich koncepcji pozostawała wyzwaniem. Fińscy badacze opracowali innowacyjną metodę, która pozwala robotom manipulować obiektami za pomocą specjalnych strumieni powietrza, takich jak „palce powietrzne”. Algorytm kontroli przepływu powietrza, opracowany przez zespół specjalistów, opiera się na dokładnym badaniu ruchu obiektów w strumieniu powietrza. System sterowania strumieniem powietrza, realizowany za pomocą specjalnych silników, pozwala kierować obiektami bez uciekania się do siły fizycznej ... >>

Psy rasowe chorują nie częściej niż psy rasowe 03.05.2024

Dbanie o zdrowie naszych pupili to ważny aspekt życia każdego właściciela psa. Powszechnie uważa się jednak, że psy rasowe są bardziej podatne na choroby w porównaniu do psów mieszanych. Nowe badania prowadzone przez naukowców z Texas School of Veterinary Medicine and Biomedical Sciences rzucają nową perspektywę na to pytanie. Badanie przeprowadzone w ramach projektu Dog Aging Project (DAP) na ponad 27 000 psów do towarzystwa wykazało, że psy rasowe i mieszane były na ogół jednakowo narażone na różne choroby. Chociaż niektóre rasy mogą być bardziej podatne na pewne choroby, ogólny wskaźnik rozpoznań jest praktycznie taki sam w obu grupach. Główny lekarz weterynarii projektu Dog Aging Project, dr Keith Creevy, zauważa, że ​​istnieje kilka dobrze znanych chorób, które występują częściej u niektórych ras psów, co potwierdza pogląd, że psy rasowe są bardziej podatne na choroby. ... >>

Przypadkowe wiadomości z Archiwum

Akumulatory mobilne Schneider APC M5 i M10 20.11.2014

Schneider Electric wprowadził niedawno nowe mobilne akumulatory do smartfonów i tabletów APC M5 i M10 o pojemności odpowiednio 5000 i 10000 mAh.

Dzięki tym urządzeniom możesz ładować telefon, tablet lub inną przenośną elektronikę, gdy w pobliżu nie ma gniazdka elektrycznego. Nowości zamknięte są w wytrzymałej obudowie i wyposażone we wskaźnik LED informujący o poziomie naładowania. System ochrony przed przegrzaniem zapobiegnie uszkodzeniu akumulatora pod nadmiernym obciążeniem lub podczas upałów.

APC M5 i M10 wyposażone są w dwa porty USB, dzięki którym można jednocześnie podłączyć i ładować dwa urządzenia mobilne o łącznym prądzie nie większym niż 2,1 A. APC M5 waży tylko 142 gramy przy wymiarach 108x65x15 mm, natomiast większy model M10 - 243 gramy, a jego wymiary to 147x89x14 mm.

Dołączony kabel ze złączem mini-USB umożliwi ładowanie APC M5 i M10 z komputera lub można je również ładować z sieci za pomocą specjalnego zasilacza. Pojemność mobilnego akumulatora M10 wystarczy na jednokrotne naładowanie tabletu iPad 2 lub ponad trzykrotnie smartfona Galaxy Note 3. Czas pełnego naładowania M10 to około 8 godzin, M5 - 4 godziny.

APC M5 i M10 są dostępne w czarno-białych obudowach. Nowe produkty objęte są dwuletnią gwarancją.

Inne ciekawe wiadomości:

▪ Protokół projektowania stanów wielowymiarowych

▪ Udowodniona śmiertelna szkoda wyrządzona przez elektroniczne papierosy

▪ Klucze w dziurze

▪ urządzenie odchudzające

▪ żaba ultradźwiękowa

Wiadomości o nauce i technologii, nowa elektronika

 

Ciekawe materiały z bezpłatnej biblioteki technicznej:

▪ sekcja serwisu Radioelektronika i elektrotechnika. Wybór artykułów

▪ artykuł Humor na szubienicy. Popularne wyrażenie

▪ artykuł Kim jest Helena Trojańska? Szczegółowa odpowiedź

▪ Artykuł Samolusa. Legendy, uprawa, metody aplikacji

▪ artykuł Moduł elektronicznego przełączania narzędzi. Encyklopedia elektroniki radiowej i elektrotechniki

▪ artykuł Pomiary wielkości elektrycznych. Bieżący pomiar. Encyklopedia elektroniki radiowej i elektrotechniki

Zostaw swój komentarz do tego artykułu:

Imię i nazwisko:


Email opcjonalny):


komentarz:





Wszystkie języki tej strony

Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn

www.diagram.com.ua

www.diagram.com.ua
2000-2024