Menu English Ukrainian Rosyjski Strona główna

Bezpłatna biblioteka techniczna dla hobbystów i profesjonalistów Bezpłatna biblioteka techniczna


Notatki z wykładów, ściągawki
Darmowa biblioteka / Katalog / Notatki z wykładów, ściągawki

Badanie systemów sterowania. Notatki z wykładu: krótko, najważniejsze

Notatki z wykładów, ściągawki

Katalog / Notatki z wykładów, ściągawki

Komentarze do artykułu Komentarze do artykułu

Spis treści

  1. Przedmiot dyscypliny „Badania układów sterowania”
  2. Pojęcie, właściwości i rodzaje systemów
  3. Podejścia do badania systemów sterowania
  4. Systematyczne podejście do badania systemów sterowania
  5. Ogólna teoria systemów
  6. Podstawy i zasady inżynierii systemów
  7. Modelowanie jako podejście do badania układów sterowania
  8. Dialektyczne podejście do badań
  9. Metody badań naukowych
  10. Hipoteza i jej rola w badaniu
  11. Otoczenie zewnętrzne organizacji
  12. Otoczenie wewnętrzne organizacji
  13. Klasyfikacja jako metoda badawcza
  14. Metody badawcze
  15. Metoda burzy mózgów
  16. Metoda ocen eksperckich
  17. Biznesplan badawczy
  18. Synektyka jako metoda badania układów sterowania
  19. Metoda Delphi
  20. Metoda skryptowa
  21. Metoda analizy SWOT
  22. Metoda drzewa celów
  23. Eksperyment jako prywatna metoda badawcza
  24. Obserwacja jako prywatna metoda badawcza
  25. Ankieta jako prywatna metoda badawcza
  26. Pytania jako pisemna forma ankiety
  27. Wywiad jako ustna forma przesłuchania
  28. Metoda analizy dokumentów
  29. Proces podejmowania decyzji menedżerskiej i zarządzania organizacją

Wykład 1

„Badania systemów zarządzania” to dyscyplina, której przedmiotem są procesy zarządzania, czyli procesy, które mają organizacyjny wpływ na grupę ludzi i system jako całość.

Badania - znajomość dowolnego obiektu w celu uzyskania nowej wiedzy o tym obiekcie, prawach jego występowania, funkcjonowania, rozwoju do późniejszego zastosowania zdobytej wiedzy zarówno w teorii, jak iw praktyce. Badania można podzielić na następujące etapy:

▪ identyfikacja potrzeby badań (obecność problemu lub zadania, które należy rozwiązać, aby osiągnąć cele);

▪ ustalenie celu badania;

▪ określenie przedmiotu i przedmiotu badań.

Przedmiotem badań jest struktura (podział, przedsiębiorstwo, związek przedsiębiorstw, przemysł, gospodarka narodowa), jej otoczenie wewnętrzne i zewnętrzne.

Przedmiotem badań może być zadanie lub problem, którego nie da się rozwiązać bez badań:

▪ identyfikacja metod rozwiązywania problemów;

▪ identyfikacja zasobów niezbędnych do pomyślnego przeprowadzenia badania (materialnych, finansowych, pracowniczych, informacyjnych itp.) oraz zbadanie zasobów, którymi obecnie dysponuje organizacja;

▪ określenie wyników badań, czyli planowanie wyników/

Badanie systemów sterowania należy przeprowadzić:

▪ przy doskonaleniu systemu zarządzania istniejącej organizacji;

▪ opracowanie systemu zarządzania nowo utworzoną organizacją;

▪ doskonalenie systemu zarządzania zrzeszeniami lub przedsiębiorstwami produkcyjnymi w okresie przebudowy lub doposażenia technicznego;

▪ doskonalenie systemu zarządzania w związku ze zmianami formy własności;

▪ rozwiązywanie pozostałych zagadnień związanych z funkcjonowaniem systemów i zarządzaniem nimi.

Istnieje różnica między powyższą dyscypliną akademicką a nauką.

Nauka to głęboka wiedza teoretyczna o procesach, zjawiskach, ich związku i rozwoju.

Dyscyplina akademicka - podstawowa wiedza, którą studenci otrzymują w celu zapoznania się z podstawami nauk ścisłych.

Wykład 2. Pojęcie, właściwości i rodzaje systemów

System to złożona organizacyjnie całość, składająca się z wielu elementów ułożonych w określonej kolejności i zależnych od siebie, wchodzących ze sobą w interakcje poprzez relacje i powiązania oraz uformowanych dla realizacji określonego celu.

Właściwości systemu można podzielić warunkowo:

▪ dla właściwości pierwszego rzędu - właściwości mające bezpośrednie pochodzenie systemowe:

▪ integralność – system stanowi złożoną całość organizacyjną;

▪ podzielność – system zawsze można podzielić na podsystemy, komponenty i elementy;

▪ wielość – każdy system składa się z wielu części (poziomów hierarchii, liczby elementów i połączeń);

▪ celowość – każdy element systemu musi być nastawiony na osiągnięcie wspólnego celu;

▪ właściwości wiersza II - właściwości zapewniające funkcjonalność systemu:

▪ jednorodność (homogeniczność) – układ musi mieć przynajmniej jedną wspólną cechę;

▪ heterogeniczność (heterogeniczność) – w każdym systemie musi występować różnorodność właściwości elementów heterogenicznych;

▪ samoorganizacja – niezależnie istniejącego i funkcjonującego systemu nie należy niszczyć;

▪ hierarchia – system to zbiór elementów znajdujących się na różnych poziomach hierarchii;

▪ centralizacja – każdy system musi posiadać centralne ogniwo, które będzie górować nad wszystkimi poziomami hierarchii;

▪ pojawienie się – właściwości systemu jako całości różnią się od właściwości poszczególnych jego elementów.

Systemy można sklasyfikować:

▪ według metody nauczania:

▪ naturalne – systemy stworzone przez naturę bez ingerencji człowieka;

▪ sztuczne – systemy stworzone przez człowieka w celu zaspokojenia różnych potrzeb;

▪ podmioty:

▪ przestrzeń;

▪ biologiczne;

▪ techniczne;

▪ społeczne;

▪ ekonomiczny;

▪ środowiskowy;

▪ polityczne itp.;

▪ w związku z przeznaczeniem:

▪ zorientowany na cel – systemy, które z wyprzedzeniem programują pracę, aby osiągnąć wyznaczone cele;

▪ celowy – wyznaczone cele osiąga się poprzez wybór alternatywnych metod;

▪ obecność centralnego elementu wiodącego:

▪ scentralizowany – systemy zawierające centralne łącze pełniące rolę wiodącą;

▪ zdecentralizowany – systemy, w których role są równomiernie rozdzielone pomiędzy elementami;

▪ rozmiar.

▪ małe (zawierają mniej niż 30 elementów);

▪ średni (zawiera do 300 elementów);

▪ duże (zawierają ponad 300 elementów; takie układy są trudne do zbadania bez uprzedniego rozbicia ich na prostsze elementy funkcjonalne);

▪ stopień trudności:

▪ proste – systemy, których przy rozwiązywaniu problemów nie trzeba rozkładać na komponenty;

▪ złożone – systemy, których podsystemy należy badać nie w oderwaniu od siebie, ponieważ wszystkie elementy są ze sobą powiązane i współzależne;

▪ w odniesieniu do zmian w czasie:

▪ względnie statyczne – systemy posiadające jeden możliwy i określony stan;

▪ dynamiczny (zmiana w czasie);

▪ czas działania:

▪ krótkoterminowe;

▪ średnioterminowy;

▪ długoterminowe;

▪ specjalizacje:

▪ wyspecjalizowane – systemy realizujące jedną funkcję podczas tworzenia produktu lub usługi;

▪ złożone – realizują wszystkie funkcje w procesie wytwarzania produktów;

▪ przewidywalność zachowań:

▪ deterministyczny – skutki działania możliwe do przewidzenia;

▪ stochastyczny – wyniki wydajności zdeterminowane prawdopodobieństwem;

▪ interakcja ze środowiskiem zewnętrznym:

▪ izolowane – w trakcie eksploatacji nie mają połączeń ze środowiskiem zewnętrznym;

▪ zamknięte – funkcjonują niezależnie od otoczenia i mają ściśle określone granice (np. rolnictwo na własne potrzeby);

▪ otwarty – interakcja z otoczeniem jest dwukierunkowa: systemy wpływają na otaczający system i pozostają pod jego wpływem.

Wykład 3. Podejścia do badania układów sterowania

Podejście systematyczne to podejście metodologiczne, które bada obiekt jako całość. Przedmiot badań przedstawiono jako zbiór podsystemów, elementów z połączeniami wewnętrznymi i zewnętrznymi. Służy do kompleksowego badania podejmowanych decyzji, analizy możliwych opcji ich realizacji, koordynacji działań na rzecz ich wdrożenia.

Podejście empiryczne to podejście, w którym badany jest obiekt na podstawie już istniejącego doświadczenia. Dzięki takiemu podejściu badane są wcześniejsze podobne przypadki i opracowywane są ogólne zasady zachowania w podobnych sytuacjach. Stosowane są metody analogii, które polegają na analizie istniejącego doświadczenia i ocenie możliwości jego wykorzystania w konkretnych przypadkach, metodach porównań itp.

Analiza relacji interpersonalnych i zachowań grupowych – podejście oparte na badaniu relacji wewnętrznych w organizacji, czyli badanie grup formalnych i nieformalnych w organizacji, liderów formalnych i nieformalnych, powiązania poziome i pionowe, systemy motywacji i zachęt, rodzaje władzy istniejącej w badanej organizacji.

Kształtowanie kultury korporacyjnej - tradycje, wartości, symbole, wierzenia, formalne i nieformalne zasady postępowania członków organizacji.

Systemy socjotechniczne – podejście, które stwarza warunki do adaptacji człowieka do technologii w celu zwiększenia wydajności produkcji i skrócenia czasu poświęcanego na produkcję.

Teoria decyzji i efektywna komunikacja - podejście do łączenia informacji i struktur organizacyjnych.

Dzięki takiemu podejściu decydenci muszą mieć wszystkie niezbędne informacje. Aby podejmować skuteczne decyzje, informacje muszą mieć następujące właściwości:

▪ niezawodność;

▪ przejrzystość;

▪ terminowość;

▪ kompletność;

▪ wydajność;

▪ niezawodność.

Struktury organizacyjne muszą mieć skuteczną komunikację, aby powiadamiać niższe poziomy hierarchii decyzji podejmowanych na górze.

Modelowanie to podejście do budowania modelu organizacji, które odzwierciedla wszystkie podsystemy, elementy, relacje i wzorce funkcjonowania organizacji.

Podejście operacyjne – podejście, w którym funkcje i praca są przeznaczane na analizę procesu zarządzania, ocenę kosztów pracy i kosztów zasobów.

Podejście sytuacyjne to podejście decyzyjne z chwilową zmianą otoczenia: zmianami na rynkach, pojawieniem się nowych konkurentów itp. Podejście to bada obecną sytuację, identyfikuje jej przyczyny i skutki, które można wykorzystać do osiągnięcia cele badania w konkretnych przypadkach. To podejście jest powszechnie stosowane.

▪ gdy często powtarzają się te same sytuacje, ustalenie, które standardowe rozwiązania zostaną opracowane na podstawie analizy wcześniejszych sytuacji tego samego typu. Pozwala to zaoszczędzić zasoby materiałowe i pracy, czas;

▪ gdy pojawiają się nowe sytuacje, odbiegające od standardowych i niemające gotowych rozwiązań.

Podejście procesowe - podejście do badania systemów sterowania jako ciągłej realizacji zbioru powiązanych ze sobą prac i ogólnych funkcji sterowania. Proces badawczy - zespół funkcji i działań badacza mających na celu zbadanie przedmiotu badań, które zamieniają nakłady (badany obiekt) na wyniki (wynik badania). Procesem badawczym rządzą dźwignie i zasoby. Dźwignie wywierają wpływ na proces zarządzania poprzez metody i techniki, wymagania klientów i konsumentów, konkurencję, prawa itp. Zasoby zapewniają wszelkie niezbędne środki (materiałowe, techniczne, transportowe itp.) do przeprowadzenia procesu badawczego.

Wykład 4. Systemowe podejście do badania układów sterowania

Podejście systemowe to podejście do badania obiektu (problemu, zjawiska, procesu) jako systemu, w którym identyfikowane są elementy, relacje wewnętrzne i zewnętrzne, które w największym stopniu wpływają na wyniki jego funkcjonowania, oraz cele każdego z elementy są określane na podstawie ogólnego przeznaczenia obiektu.

Stosując podejście systematyczne, organizację uważa się za system składający się z elementów i podsystemów, które są od siebie oddzielone, ale wzajemnie połączone i oddziałujące.

Ale pomimo tego, że elementy są izolowane, zmiana jednego elementu prowadzi do zmiany innych elementów i podsystemów. W takim przypadku konieczne jest zbadanie funkcjonowania systemu w dynamice,

Podejście systemowe opiera się na następujących wspólnych cechach:

▪ badając obiekt jako system, każdy element opisuje się z uwzględnieniem jego miejsca jako całości;

▪ w każdym badaniu systemowym pojawia się problem zarządzania;

▪ badanie systemu jest nierozerwalnie związane z badaniem warunków jego istnienia;

▪ w podejściu systemowym problem generowania właściwości całości z właściwości elementów i odwrotnie jest specyficzny;

▪ w badaniach systemowych czysto przyczynowe wyjaśnienia funkcjonowania i rozwoju obiektu są niewystarczające (stosowność zachowań nie zawsze odpowiada schematom przyczynowo-skutkowym);

▪ źródło transformacji systemu lub funkcji zwykle znajduje się w samym systemie;

▪ samoorganizacja systemów wiąże się z celowym zachowaniem, założeniem wielu indywidualnych cech i stopni swobody.

Podejście systemowe ma następujące zalety:

▪ poszerzenie sposobów rozumienia przedmiotu badań, w tym jego właściwości synergistycznych;

▪ możliwość rozłożenia dowolnego badanego obiektu na głębokość niezbędną do osiągnięcia celu badawczego, co zapewnia identyfikację wszystkiego, co jest niezbędne do badania dowolnego względnie niepodzielnego elementu;

▪ stworzenie głębszego schematu uzasadnienia i identyfikacji charakteru oraz niezawodności powiązań i zależności w badanym obiekcie, a jednocześnie powstają przesłanki do poszukiwania nowych mechanizmów efektywnego funkcjonowania obiektu;

▪ ścisłe powiązanie z innymi metodologicznymi obszarami nauki, a w razie potrzeby istnieje możliwość wspólnego, integracyjnego stosowania innych podejść metodologicznych, co zwiększa efektywność badań.

Podczas badania obiektu systematyczne podejście wykorzystuje różne nauki i metody. Obejmują one:

▪ informatyka;

▪ badania operacyjne;

▪ teoria zarządzania;

▪ teoria organizacji;

▪ badania operacyjne;

▪ ogólna teoria systemów;

▪ inżynieria systemów itp.

Ogólna teoria systemów (GTS) to podejście do nauki o systemach zaproponowane przez austriackiego biologa L. Bertalanffy'ego, zgodnie z którym systemy dowolnej natury można badać, znajdując podobieństwa strukturalne między prawami ustanowionymi w różnych dyscyplinach, uogólniając te prawa i wyprowadzając uogólnione wzorce.

Inżynieria systemów to dyscyplina zajmująca się tworzeniem, testowaniem i obsługą złożonych systemów automatycznych.

W ramach tej dyscypliny rozwiązywane są zadania badań stosowanych związanych z planowaniem i tworzeniem złożonych systemów sterowania. „Badania operacyjne” to połączenie różnych naukowych metod modelowania matematycznego i ilościowego. Badania operacyjne opierają się na następujących metodach:

▪ teoria gier – metoda modelowania oceny wpływu decyzji na konkurencję. Modele gier służą do przewidywania reakcji konkurencji na zmiany cen, nowe firmy wspierające sprzedaż, dodatkowe oferty usług, modyfikacje i wprowadzenie nowych produktów.

Wykorzystanie teorii gier jest utrudnione przez złożoność świata rzeczywistego, która jest spowodowana szybkimi zmianami w otaczającym świecie, niemożnością przewidzenia reakcji konkurentów na te zmiany. Ich zastosowanie jest najskuteczniejsze w sytuacjach decyzyjnych w konkurencyjnym środowisku;

▪ teoria prawdopodobieństwa – metoda, która przy podejmowaniu decyzji opiera się na określeniu prawdopodobieństwa wystąpienia określonych zdarzeń, a następnie wyborze najkorzystniejszego spośród możliwych;

▪ metody programowania liniowego: w procesie zarządzania jednym z głównych zadań jest znalezienie optymalnego rozwiązania spośród wszystkich dostępnych opcji. Aby osiągnąć to rozwiązanie, konieczne jest posiadanie określonych zasobów: finansowych, pracy, materiałowych, czasowych itp. Optymalnym rozwiązaniem będzie zatem taki wariant rozwiązania, w którym osiągnięty zostanie zamierzony cel:

▪ przy minimalnych kosztach;

▪ maksymalna wydajność;

▪ przy minimalnym nakładzie czasu i wysiłku. Celem programowania liniowego jest osiągnięcie optymalnej kontroli.

Regulacja optymalna to taka, która spełnia wszystkie podane ograniczenia. Wybór najlepszego rozwiązania podlega 2 rodzajom ograniczeń:

▪ ograniczenia środowiska zewnętrznego: prawa i warunki przyrody;

▪ ograniczenia związane z wykorzystywanymi zasobami.

Wykład 5. Ogólna teoria systemów

Czytanie to najlepsza nauka! Nic nie zastąpi książki.

Ogólna teoria systemów (GTS) to podejście, które bada prawa poszczególnych systemów w celu zidentyfikowania ogólnych praw tkwiących we wszystkich systemach, z ich późniejszym uogólnieniem na prawa funkcjonowania systemów.

Celem GTS jest zbudowanie pojęciowej i dialektycznej podstawy do opracowania metod odpowiednich do badania szerszej klasy systemów niż te związane z przyrodą nieożywioną.

OTC wykorzystuje następujące podstawowe pojęcia.

▪ system – holistyczny, uporządkowany zbiór obiektów (elementów, komponentów, podsystemów) połączonych relacjami, mający na celu osiągnięcie wyznaczonego celu;

▪ środowisko zewnętrzne – zbiór elementów, które nie są częścią systemu, ale na niego wpływają lub pozostają pod jego wpływem;

▪ wejścia systemu to zewnętrzne połączenia, przez które zasoby (materiały, praca, informacje itp.) pochodzą ze środowiska do organizacji;

▪ wyjścia systemu – połączenia, poprzez które systemy przekazują do otoczenia rezultaty swoich działań (towary i usługi);

▪ proces systemowy – przemiany zachodzące w organizacji mające na celu przekształcenie wejść w wyjścia;

▪ element – ​​najprostszy element systemu (nieposiadający struktury wewnętrznej), który po rozłożeniu systemu stanowi ostateczną część systemu;

▪ komponent – ​​grupa elementów stanowiących integralną część systemu pod względem funkcjonalnym;

▪ podsystem – stosunkowo niezależna część systemu posiadająca wewnętrzną strukturę służącą realizacji określonych celów cząstkowych systemu;

▪ relacja – zbiór kolejnych kontaktów generujących strukturę systemu;

▪ struktura – zbiór elementów i powiązań między nimi;

▪ połączenie – związek pomiędzy elementami, komponentami i podsystemami systemu. Połączenia mogą być zewnętrzne i wewnętrzne;

▪ bezpośredni (przekazuje elementom cele i kolejność działania) i odwrotny (przekazuje reakcję elementów na otrzymaną informację);

▪ pionowy (powiązania przełożonego z podwładnym) i poziomy (połączenia na tym samym poziomie hierarchii);

▪ cel – pożądany rezultat działania, ale nie zawsze możliwy do osiągnięcia;

▪ wynik – stan faktyczny uzyskany w wyniku funkcjonowania systemu;

▪ efekt – konsekwencja uzyskana z wyniku działania.

Zastosowanie ogólnej teorii systemów wynika z następujących zalet:

▪ przy rozpatrywaniu systemów stosuje się „podejście holistyczne”, tj. zachowana jest tożsamość systemów i właściwości elementów niepodzielnych;

▪ przy badaniu systemów wykorzystuje się prawa prywatne innych dyscyplin i nauk, odnajdując podobne struktury w systemach;

▪ W badaniach często wykorzystywane są modele matematyczne, za pomocą których przechodzimy „od analizy treści do analizy struktury” w celu przyspieszenia badań. Jednak za pomocą modeli matematycznych nie jesteśmy w stanie w pełni opisać rzeczywistych systemów;

▪ stanowi łącznik pomiędzy różnymi dyscyplinami;

▪ projektowanie systemu jako całości oznacza stworzenie optymalnej konfiguracji (struktury) systemu.

Wada – nie uwzględnia wielu konkretnych czynników.

Wykład 6. Podstawy i zasady inżynierii systemów

Inżynieria systemowa to kierunek naukowy obejmujący badanie procesów:

▪ tworzenie:

▪ testy:

▪ działanie złożonych systemów.

Inżynieria systemów ujawnia stabilne związki przyczynowe między obiektami, procesami i wielkościami oraz ustanawia zasady istnienia i działania złożonych systemów.

Koncepcja inżynierii systemów polega na uproszczeniu złożonych systemów. Istnieją 3 podstawowe zasady inżynierii systemów.

▪ fizyczność;

▪ modelowalność;

▪ celowość.

Zasada fizyczności: każdy system (niezależnie od swojej natury) ma przyrodzone prawa fizyczne (prawidłowości), możliwie unikalne, które określają wewnętrzne związki przyczynowo-skutkowe, istnienie i funkcjonowanie. Żadne inne prawa (poza prawami fizycznymi) nie są wymagane do wyjaśnienia działania systemów jakiejkolwiek natury (w tym żywych). Zasada opiera się na następujących postulatach:

▪ integralność, system jest obiektem integralnym, a nie zbiorem podsystemów, co pozwala na różnorodny podział na podsystemy.

Postulat ten opiera się na zasadzie niedopuszczalności utraty pojęć zarówno podczas komponowania (łączenie podsystemów w system), jak i podczas dekompozycji (podział systemu).

Jeśli suma części jest równa całości, to układy nazywamy addytywnymi w stosunku do tego podziału, jeśli suma jest większa od całości - superaddytywnym, jeśli suma jest mniejsza od całości - subaddytywnym.

Postulat integralności jest wykorzystywany w ujawnianiu i gromadzeniu informacji o właściwościach systemu na wszystkich etapach badań oraz w ich uogólnianiu na pojęcia, a następnie przy stosowaniu tych pojęć do podsystemów przy badaniu ich oddzielnie po dekompozycji. Wykrywanie integralności polega na badaniu:

▪ wszystkie relacje w systemie;

▪ relacje pomiędzy systemem a otoczeniem;

▪ właściwości systemu;

▪ jego treść;

▪ mechanizm edukacji;

▪ właściwości podsystemów tłumione przez właściwość ogólnosystemową, mechanizm tego tłumienia i warunki, w jakich traci ono swoją moc;

▪ autonomia: złożone systemy posiadają autonomiczną metrykę czasoprzestrzenną (grupę transformacji) oraz wewnątrzsystemowe prawa zachowania, określone przez fizyczną zawartość i strukturę systemu i niezależne od środowiska zewnętrznego. Istota tego postulatu polega na tym, że każdy system jest umiejscowiony w adekwatnej do siebie przestrzeni geometrycznej (rzeczywistej, funkcjonalnej, możliwej do wyobrażenia) i, ograniczając się do przestrzeni metrycznych, każdej klasie systemów (konkretnemu systemowi) można przypisać metrykę wyznaczaną przez odpowiednie grupa transformacji. Jest to autonomiczna metryka systemu, czyli autonomiczna grupa przekształceń.

Wprowadzenie metryki oznacza stworzenie modelu geometrii układu, im bardziej ten model jest bliższy rzeczywistej geometrii układu, tym prostsza reprezentacja układu.

Zasada symulacji: reprezentacja złożonych systemów jako zbiór modeli. Model skoncentrowany na pewnej grupie właściwości złożonego systemu jest zawsze prostszy niż sam system. Zasada zawiera 3 postulaty.

▪ komplementarność: złożone systemy, będąc w różnych środowiskach (sytuacjach), mogą wykazywać różne właściwości systemowe, w tym alternatywne (tj. niekompatybilne w żadnej z sytuacji z osobna). Na przykład elektron w niektórych oddziaływaniach objawia się jako cząstka, a w innych jako fala;

▪ działania: reakcja systemu na wpływy zewnętrzne ma charakter progowy. Zatem, aby zmienić zachowanie systemu, wymagany jest wzrost oddziaływania przekraczający określony próg. Zmiany takie można wiązać z energią, materią i informacją, które kumulując się, spazmatycznie manifestują swój wpływ, poprzez jakościowe przejście;

▪ niepewność: maksymalna dokładność wyznaczania (pomiaru) właściwości układu zależy od obszaru niepewności charakterystycznego dla danego układu, w ramach którego zwiększenie dokładności wyznaczania (pomiaru) jednej właściwości pociąga za sobą zmniejszenie dokładność określenia innego (innych). Istnieje obszar niepewności, w którym właściwości można opisać jedynie za pomocą cech probabilistycznych.

Zasada celowości: celowość to funkcjonalna tendencja mająca na celu osiągnięcie określonego stanu przez system lub wzmocnienie (zachowanie) pewnego procesu. W takim przypadku system jest w stanie wytrzymać wpływy zewnętrzne, a także wykorzystać środowisko i zdarzenia losowe.

Zasada uwzględnia postulat wyboru: układy złożone mają zdolność wyboru zachowania, a zatem nie można jednoznacznie przewidzieć sposobu działania i określić ich stanu bez znajomości właściwości układu i sytuacji.

Postulat ten pozwala złożonemu systemowi, zgodnie ze swoją celowością, wykorzystać rzadkie korzystne zdarzenia, które zachodzą w interakcji z otoczeniem, blokując inne (niekorzystne) zdarzenia i procesy.

Wykład 7. Modelowanie jako podejście do badania układów sterowania

Modelowanie to realizacja abstrakcyjnych eksperymentów poprzez budowanie pewnego systemu modelowego, który jest podobieństwem oryginalnego systemu do badania złożonych obiektów. Konieczność modelowania wynika ze złożonej natury rozważanych systemów.

Istotą modelowania jest zastąpienie eksperymentów rzeczywistych, które będą zbyt skomplikowane lub wymagające bardzo długiego czasu, eksperymentami abstrakcyjnymi, przeprowadzanymi po opracowaniu najpełniejszego modelu badanego zjawiska. Modelowanie pozwala określić stopień wpływu różnych norm decyzyjnych na liczne elementy postawionego problemu oraz wybrać spośród wszystkich zaplanowanych z góry opcji decyzyjnych, które przyniosą najlepsze rezultaty w stosunku do celu.

Najczęściej metoda modelowania stawia sobie następujące cele:

▪ badać jakiś element rzeczywistości – modele dydaktyczne i badawcze;

▪ wypracować jakiś element działań praktycznych – modele treningu i gry;

▪ optymalizować dowolny proces, formę lub treść czegoś – modele optymalizacyjne;

▪ delegowanie uprawnień do wykonywania określonych czynności innym osobom – modele preferencji.

Zasada jest podstawowym punktem wyjścia dla teorii, nauki i systemu wiedzy. Wyróżnia się następujące zasady modelowania:

▪ abstrakcja: model - odzwierciedlenie właściwości obiektu badań, dla jednego modelu właściwości istnieją, dla innego nie (np. kolor autobusu);

▪ wystarczalność informacyjna: jeśli nie wiemy nic o funkcjonowaniu systemu, którego model chcemy stworzyć, to nie będziemy w stanie go stworzyć. Model można zbudować, jeśli wiemy chociaż coś o obiekcie, ale nie wszystko i chcemy wiedzieć więcej;

▪ wielomodelowy (niewyczerpanie modelowanego obiektu): jeśli tworzymy model złożonego układu, to nie powinniśmy ograniczać się do jednego modelu (hierarchia modeli o różnym stopniu szczegółowości). Rozwiązaniem problemu jest granica kompilacji modeli;

▪ wielowariantowość: model jest ten sam, ale wartości parametrów zawartych w tym modelu są różne;

▪ parametryzowalny: opis wyniku działania podsystemu według określonego parametru w celu dalszego doprecyzowania i uszczegółowienia modelu, jeśli to konieczne.

Model to uproszczona reprezentacja obiektu lub idei systemu w innej formie niż sama integralność, stworzona przez badacza w celu uzyskania wiedzy o pierwotnym obiekcie i odzwierciedlająca jego najistotniejsze właściwości z punktu widzenia zadania. Podkreślono następujące powody używania modeli.

▪ złożoność świata rzeczywistego (organizacja to złożony system, w którym zachodzą różnorodne zmiany, których często nie da się ogarnąć możliwościami żadnego człowieka.

W tym celu tworzone są uproszczone modele świata rzeczywistego);

▪ eksperymentowanie (większość opcji rozwiązań należy przetestować eksperymentalnie przed wdrożeniem).

Ale nie wszystkie rozwiązania można zweryfikować eksperymentalnie w warunkach rzeczywistych);

▪ orientacja zarządzania na przyszłość (obserwacja zjawisk nieistniejących i prowadzenie na nich eksperymentów. Modelowanie to jak dotąd jedyny systematyczny sposób dostrzeżenia opcji na przyszłość i określenia potencjalnych konsekwencji alternatywnych rozwiązań, co pozwala na ich obiektywne porównanie) ).

Wyróżnia się następujące cechy klasyfikacji modeli:

▪ w zakresie etapów modelowania:

▪ poznawczy – mentalny obraz przedmiotu;

▪ znaczący – uzyskiwanie informacji o przedmiocie oraz identyfikacja zależności i wzorców (modele opisowe, wyjaśniające i predykcyjne);

▪ pojęciowy – model sformułowany na poziomie werbalnym lub werbalno-wizualnym, oparty na określonym pojęciu lub aspekcie (modele logiczno-semantyczne, strukturalno-funkcjonalne i przyczynowo-skutkowe);

▪ formalne – przedstawiane w postaci algorytmów i zależności matematycznych opisujących lub symulujących rzeczywiste obiekty i procesy (modele matematyczne i komputerowe);

▪ w zależności od sposobu, w jaki modele są wdrażane:

▪ materiał – odtwarza podstawowe cechy geometryczne, fizyczne, dynamiczne i funkcjonalne badanego obiektu; szczególnym przypadkiem są modele fizyczne, które mają tę samą naturę fizyczną co modelowany obiekt;

▪ idealny – oparty na schematach symbolicznych (graficznych, logicznych, matematycznych itp.); modele matematyczne można z kolei podzielić na analityczne (kiedy właściwości i zależności opisywane są za pomocą relacji-funkcji w formie jawnej i ukrytej) oraz symulacyjne (opierające się na powtarzalnych eksperymentach, głównie maszynowych, na implementacji algorytmów i procedur opisujących proces funkcjonowania badanego systemu).

Model składa się z następujących kroków:

▪ przedstawienie problemu. Jest to najważniejszy etap, od którego zależy prawidłowe rozwiązanie problemu zarządzania. Aby poprawnie sformułować problem, musisz wiedzieć nie tylko o istnieniu problemu, ale także o przyczynach, które go spowodowały;

▪ budowanie modelu. Na tym etapie określa się: główny cel modelu, informacje potrzebne do budowy modelu, obecność i brak tych informacji, oczekiwane standardy wyjściowe na wyjściu;

▪ sprawdzenie modelu pod kątem niezawodności. W tym celu stopień zgodności modelu ze światem rzeczywistym określa się poprzez ustalenie przez specjalistę nauk o zarządzaniu, czy w model wbudowane są wszystkie istotne elementy sytuacji rzeczywistej.

Im bardziej model odzwierciedla rzeczywisty świat, tym większy będzie jego potencjał jako narzędzia, które pomoże menedżerowi w podjęciu dobrej decyzji. Model można przetestować pod kątem ważności, określając stopień, w jakim uzyskane informacje pomagają kierownictwu w radzeniu sobie z problemem;

▪ zastosowanie modelu. Modelu nie można uznać za pomyślnie skonstruowany bez jego zastosowania w praktyce;

▪ aktualizacja modelu jest wymagana w przypadkach: niejasna forma danych wyjściowych; zmiany celów organizacyjnych, które wpływają na podejmowanie decyzji; zmiany w otoczeniu (dostawcy, konkurenci, konsumenci, technologie, ustawodawstwo itp.).

Wykład 8

Metodologia - zbiór metod badania obiektów, składający się z procedur badawczych, technik otrzymywania, gromadzenia i przetwarzania informacji. Wybór metodologii zależy od badacza, od jego wiedzy, możliwości, dostępności informacji, punktów widzenia. Istnieją następujące rodzaje metodologii:

▪ materialistyczny – podstawą wszelkich zjawisk rzeczywistości jest materialistyczne rozumienie świata;

▪ teologiczny – o rozumieniu świata decyduje obecność boskiego pierwiastka we wszystkich zjawiskach;

▪ agnostycyzm – rzeczywistości nie można poznać;

▪ dualistyczny – zjawisko zakłada obecność dwóch bytów;

▪ pozytywizm – bada się użyteczność badanego przedmiotu i ocenia tę korzyść;

▪ egzystencjalizm – badanie przedmiotu polega na wyolbrzymianiu znaczenia faktów.

W oparciu o wybraną metodologię dobiera się zastosowane podejście badawcze, które określa związek zarówno w badanym obiekcie, jak i między różnymi zjawiskami. Istnieją następujące podejścia badawcze:

▪ mechanistyczny – obiekt bada się jedynie z punktu widzenia istniejących w nim związków przyczynowo-skutkowych;

▪ metafizyczne – bada się powiązania ruchu, które dokonują się w formie przekształcenia jednego ruchu w drugi, przy czym ruch ten zawsze musi powrócić do pierwotnego;

▪ badane są powiązania biologiczne - funkcjonalne zachodzące w organizmach żywych;

▪ dialektyczny – przedmioty badane są z punktu widzenia praw dialektyki (jedność i walka przeciwieństw, przejście ilości w jakość, negacja negacji), które służą wyrażeniu poszczególnych zasad teoretycznych.

Podejście dialektyczne to podejście do badania rzeczywistości z punktu widzenia ogólnych praw rozwoju przyrody, społeczeństwa i myślenia oraz uniwersalnych powiązań zjawisk. Podejście to opiera się na 3 prawach dialektyki, które są siłą napędową rozwoju świata materialnego oraz form i sposobów jego poznania:

▪ jedność i walka przeciwieństw: obiekty w procesie swego rozwoju, realizowanego poprzez interakcję i sprzeczność pomiędzy obiektami i różnymi stronami w obiektach, przechodzą od stanu nieistotnych różnic w składnikach obiektu do znaczących różnic w składnikach i do przeciwieństwa, które wchodzą w walkę sprzeczności, która jest podstawą rozwoju tego obiektu. Każdy przedmiot składa się z wzajemnie wykluczających się przeciwieństw, a dzięki stale zachodzącej walce przeciwieństw następuje rozwój obiektu. Pojęcie „jedności przeciwieństw” tłumaczy się faktem, że walczące przeciwieństwa są nieodłącznie związane z jednym przedmiotem;

▪ przejście zmian ilościowych na jakościowe: rozwój jest procesem ciągłym, przejściem od prostych do złożonych, od niższych do wyższych itp. Ale rozwój przedmiotu w sensie ilościowym będzie następował tak długo, jak dany przedmiot zmieni się ilościowo w tej samej mierze i nie przestanie być tym, czym jest. Dopiero na pewnym etapie rozwoju, pod pewnymi warunkami, przedmiot traci swoją dawną jakość i staje się nowym przedmiotem;

▪ negacja negacji: rozwój to ciągły, ukierunkowany proces, w którym każdy przedmiot przechodzi w inny obiekt, który może być całkowitym przeciwieństwem pierwszego i być jego negacją. Ale nowo powstały przedmiot przekształca się w inną jakość i w ten sposób powstaje nowy przedmiot, będący zaprzeczeniem negacji. Następnie proces rozwoju przedstawiany jest jako proces negacji negacji, przejścia od prostego do złożonego, od niższego do wyższego itp. Prawo negacji negacji formułuje naturę rozwoju, której podstawą jest reprodukcja cech starej jakości w nowej jakości na wyższym poziomie. Każdy wyższy etap rozwoju dokonuje syntezy całego zjawiska poprzedzającego.

Stosując dialektyczne podejście do badań, należy kierować się następującymi zasadami:

▪ ruch i rozwój zjawisk, zjawiska nie stoją w miejscu, stale funkcjonują, rozwijają się, dostosowują się do stale zmieniających się warunków;

▪ ciągłość, nowo powstające zjawiska odtwarzają cechy zjawisk już istniejących;

▪ niespójność: walka pomiędzy przeciwległymi stronami obiektu jest najważniejszym elementem procesu rozwoju;

▪ naukowe: aby badania były jak najbardziej efektywne, konieczna jest umiejętność przewidywania zjawisk, co można osiągnąć stosując wszystko, co nowe i postępowe.

Foresight zjawisk pozwala na wykorzystanie wyników badania;

▪ obiektywność i rzetelność: wyniki badań muszą być wiarygodne i podlegać ocenie;

▪ interakcje: dialektyczne podejście do badań wykorzystuje różnorodne powiązania i różne wielowymiarowości;

▪ względność: określa kryteria rekrutacji i oceny wyników badań;

▪ pewność historyczna: najważniejszą rzeczą podczas badania przedmiotu jest podstawa jego pochodzenia, zmiany, jakie zaszły w nim na przestrzeni czasu.

Wykład 9

Najpopularniejszymi metodami badań są analiza i synteza.

Analiza - dekompozycja badanego obiektu na prostsze składniki w celu ich późniejszego samodzielnego badania. Za przeciwną technikę stosowaną w badaniu obiektów uważa się syntezę - połączenie wybranych wcześniej części w analizie w jedną całość.

Typowe metody badawcze obejmują:

▪ abstrakcja - proces, w którym poszczególne właściwości lub atrybuty przedmiotu badań, które nas interesują, ich wzajemne powiązania i relacje zostają wyizolowane i jednocześnie wyabstrahowane z innych, nieistotnych dla nas w danym momencie, właściwości. Pozwala to na głębsze zbadanie badanego obiektu;

▪ idealizacja – rodzaj abstrakcji, abstrakcji od wszelkich realnych właściwości przedmiotu i jednoczesnego wprowadzenia do treści tworzących się pojęć cech, które nie są realizowane w rzeczywistości. Ta technika badawcza tworzy obiekt idealny, takie pojęcia jak „punkt”, „prosta” w geometrii, „punkt materialny” w mechanice.

Indukcja to metoda badawcza, w której założenie przechodzi od szczegółu do ogółu, od stwierdzenia niższego poziomu ogólności do stwierdzenia wyższego poziomu ogólności.

Rozumowanie indukcyjne stosuje się w przypadkach, gdy konieczne jest uogólnienie pewnego zestawu faktów. Kierują myślenie na ustalenie ogólnych wzorców.

Odliczenie to wybór poszczególnych orzeczeń z przepisów ogólnych.

Rozumowanie dedukcyjne służy głównie do budowania prywatnych wersji, do wyjaśniania pojedynczych faktów i indywidualnych cech. Dedukcja umożliwia wyprowadzenie empirycznie weryfikowalnych konsekwencji z hipotez ogólnych, a tym samym ich eksperymentalne uzasadnienie lub obalenie.

Analogia to technika, która w oparciu o podobieństwo obiektów pod pewnymi względami, właściwościami i relacjami, stawia założenie o ich podobieństwie pod innymi względami. Recepcja analogii porównuje nowe pojedyncze zjawisko do innego, znanego i podobnego do niego pojedynczego zjawiska i rozciąga się na pierwszą wcześniej otrzymaną informację. Wnioskowanie przez analogię powstaje w wyniku operacji porównywania dwóch obiektów i ustalania między nimi podobieństw i różnic.

Wykład 10. Hipoteza i jej rola w badaniu

Hipoteza (z greki. Hipoteza - założenie) - stwierdzenie stanowiące pewną hipotetyczną odpowiedź na postawione pytanie w celu wyjaśnienia właściwości i przyczyn badanych zjawisk. Hipoteza pozwala nam zobaczyć, co stanie się z przedmiotem badań w wyniku odpowiednio zorganizowanych obserwacji. Termin „hipoteza” ma dwa znaczenia:

▪ forma istnienia wiedzy, która charakteryzuje się problematycznością i zawodnością;

▪ sposób formułowania i uzasadniania propozycji, na podstawie którego ustanawiane są prawa, zasady i teorie.

Istnieją następujące charakterystyczne cechy hipotezy:

▪ niezbędny element każdego procesu poznawczego, będący łącznikiem wiedzy zdobytej wcześniej z nowymi prawdami;

▪ wiedza prawdopodobna wymagająca weryfikacji poprzez obalenie lub potwierdzenie;

▪ środek poznawczy, za pomocą którego dokonuje się przejścia od wiedzy dotychczasowej, niedokładnej, do wiedzy nowej, dokładnej.

Hipoteza w swoim składzie ma podstawę i założenie, które wynika z logicznego przetworzenia danych wyjściowych i przejścia do założenia. Założenie zamienia się w wiarygodną wiedzę lub jest obalane poprzez testowanie hipotezy.

Hipotezy można podzielić na następujące typy:

▪ z punktu widzenia funkcji poznawczych:

▪ opisowy – założenia dotyczące przedmiotu badań i jego właściwości, służące rozpoznaniu struktury obiektu, mechanizmu jego działania, cech proceduralnych oraz ustaleniu cech użytkowych badanego przedmiotu. Jednym z rodzajów hipotezy opisowej jest hipoteza egzystencjalna – hipoteza, na podstawie której przyjmuje się założenie o istnieniu przedmiotu. Na przykład hipoteza o istnieniu Atlantydy;

▪ wyjaśniający – założenie dotyczące przyczyn, które stały się podstawą powstania przedmiotu badań.

Na przykład hipoteza o pojawieniu się epok lodowcowych na Ziemi, hipoteza o pojawieniu się człowieka na Ziemi itp.

▪ z punktu widzenia przedmiotu badań:

▪ ogólne – jest to naukowe założenie dotyczące wzorców badanych obiektów, wysuwane w celu wyjaśnienia całej klasy opisywanych zjawisk, ustalenia naturalnego charakteru ich powiązań, niezależnie od czasu i miejsca. Na przykład hipoteza M.V. Łomonosow o atomowej budowie materii. Po udowodnieniu ogólna hipoteza staje się teorią naukową;

▪ szczegółowy – jest to naukowo uzasadnione założenie dotyczące pochodzenia, właściwości i wzorców części obiektów zidentyfikowanych z całej rozpatrywanej klasy obiektów. Na przykład hipoteza dotycząca pochodzenia wirusów;

▪ pojedynczy – naukowo uzasadnione założenie dotyczące pojedynczego obiektu, jego pochodzenia, właściwości i wzorów.

Na przykład hipoteza dotycząca przebiegu leczenia konkretnego pacjenta;

▪ działające – założenie wstępne i tymczasowe, będące podstawą do sformułowania stabilnej hipotezy. Jest to założenie warunkowe, na podstawie którego grupuje się wyniki obserwacji i podaje się ich wstępne wyjaśnienia;

▪ wysuwanie (generowanie) hipotezy – wysuwanie intuicyjnego założenia;

▪ rozwój (identyfikacja konsekwencji) – wyjaśnienie faktów związanych z daną hipotezą w oparciu o wysunięte założenia;

▪ weryfikacja (dowód, uzasadnienie, obalenie). Postawione założenia można udowodnić: poprzez wykrycie tych zjawisk i procesów; poprzez oddzielenie tego założenia od przepisów bardziej ogólnych; poprzez udowodnienie jednego założenia i obalenie wszystkich pozostałych.

Hipotezy są obalane: przez ustalenie nieobecności tych zjawisk i przedmiotów; udowadniając coś przeciwnego, tj. udowadniając twierdzenie, które zaprzecza hipotezie; sprowadzając je do absurdu;

▪ żaden system zarządzania nie jest doskonały, gdyż zawsze występują w nim problemy i niedociągnięcia, które można rozwiązać i wyeliminować, zwiększając w ten sposób efektywność systemu;

▪ menedżerowie systemów zarządzania nie zawsze są pewni, że potrzebują pomocy badaczy zarządzania, gdyż często nie są świadomi problemów i mankamentów systemu oraz ich przyczyn;

▪ większość menedżerów systemu zarządzania ma motywację do rozwiązywania problemów, a także eliminowania niedociągnięć w zarządzaniu i ich przyczyn, ale potrzebuje pomocy konsultantów;

▪ konsultant może przeprowadzić w miarę obiektywną analizę systemu zarządzania w krótkim okresie jedynie przy udziale personelu badanego systemu;

▪ badacz-konsultant musi przekazać umiejętności analizowania, identyfikowania problemów i znajdowania sposobów ich rozwiązania menedżerom systemów zarządzania, aby w przyszłości mogli samodzielnie doskonalić zarządzanie;

▪ większość systemów zarządzania może być bardziej skuteczna, jeśli kadra kierownicza nauczy się samodzielnie oceniać system, racjonalnie wykorzystywać mocne strony zarządzania, rozwiązywać problemy i eliminować przyczyny ich występowania.

Wykład 11

Otoczenie zewnętrzne – uwarunkowania i czynniki występujące w otoczeniu, niezależnie od działalności danej firmy. Mogą zarówno wpływać na funkcjonowanie organizacji, jak i być pod wpływem organizacji.

Wszystkie niezbędne do funkcjonowania zasoby organizacja otrzymuje od otoczenia zewnętrznego, z którym jest w stanie ciągłej wymiany.

W zarządzaniu wyróżnia się następujące wskaźniki środowiska zewnętrznego:

▪ mobilność – szybkość zmian zachodzących w otoczeniu. Na zmiany wpływa wiele czynników: destabilizacja polityki rządu, nieprzewidywalne zwroty w gospodarce, nieoczekiwane zmiany w popycie konsumenckim, oferty konkurencji lub artystyczne życzenia klientów, częste innowacje agencji reklamowej, gwałtowne zmiany w technologiach elektronicznych, a nawet nagłe zmiany pogody, których nie spodziewali się synoptycy. Najbardziej dynamiczne środowiska występują w przemyśle farmaceutycznym, chemicznym, elektronicznym, lotniczym, produkcji komputerów, biotechnologii i telekomunikacji.

Fakt ten tłumaczy się szybkimi zmianami technologii i metod konkurencji. Mniej zauważalne zmiany w otoczeniu zewnętrznym występują w inżynierii mechanicznej, produkcji części zamiennych do samochodów, w cukiernictwie, przemyśle meblarskim, produkcji pojemników i materiałów opakowaniowych, konserwach spożywczych;

▪ złożoność – zdeterminowana liczbą czynników wpływających na organizację. Organizacja narażona na różnorodne czynniki zewnętrzne – regulacje rządowe, związki zawodowe oraz licznych konkurentów i dostawców – znajduje się w bardziej złożonym środowisku niż organizacja, na którą wpływa tylko kilku dostawców i konkurentów. Złożoność charakteryzuje się wskaźnikiem różnorodności czynników, które zależą od różnorodności technologii stosowanych przez organizację oraz od tempa rozwoju organizacji;

▪ różnorodność rynku – organizacje działają na różnych rynkach: zintegrowanym (pojedynczym) i zdywersyfikowanym, rynkach kopalni żelaza, która dostarcza jednorodny produkt do jednego przedsiębiorstwa hutniczego oraz rynkach komisji handlowej, która promuje wyroby przemysłowe produkowane przez przedsiębiorstwa w swoim kraju na całym świecie. Różnorodność rynku może wynikać z szerokiego spektrum klientów, produktów i usług, regionów geograficznych dystrybucji produktów;

▪ wrogość – niekorzystny stosunek otoczenia do organizacji. Wrogość zależy od konkurencji, relacji organizacji ze związkami zawodowymi, rządem i innymi grupami zewnętrznymi, od dostępności zasobów;

▪ niepewność – określona ilością informacji dostępnych organizacji i stopniem zaufania do tych informacji. Organizacja może posiadać wiele informacji, ale nie oznacza to, że są one dokładne i wiarygodne. Zatem im bardziej niepewne otoczenie zewnętrzne, tym trudniej podejmować skuteczne decyzje.

Otoczenie zewnętrzne organizacji składa się z dwóch elementów:

▪ środowisko bezpośredniego wpływu, które obejmuje:

▪ dostawcy;

▪ organy rządowe;

▪ związki zawodowe;

▪ konkurenci;

▪ konsumenci;

▪ środowisko oddziaływania pośredniego, na które składają się:

▪ ze środowiska międzynarodowego;

▪ postęp naukowy i technologiczny;

▪ czynniki polityczne;

▪ czynniki społeczno-kulturowe;

▪ stan gospodarki.

Środowisko bezpośredniego oddziaływania to bezpośrednie otoczenie biznesowe, w skład którego wchodzą podmioty otoczenia, które bezpośrednio wpływają na działalność danej organizacji.

Dostawcy - źródła wkładu zasobów: materiałów, sprzętu, energii, kapitału i pracy. Wszystkich dostawców można podzielić na 3 kategorie:

▪ dostawcy materiałów: w zasadzie wszystkie organizacje są zależne od ciągłego napływu materiałów, czyli istnieje zależność od cen, terminów, rytmu, jakości itp. Zależność ta z roku na rok wzrasta, gdyż coraz więcej firm koncentruje się na zakupie komponentów elementów ze straganów do późniejszego samodzielnego montażu;

▪ dostawcy kapitału: dostawcy dostarczający organizacji zasoby materialne: banki, federalne programy pożyczkowe, akcjonariusze i osoby fizyczne, które akceptują obligacje spółki lub kupują jej obligacje;

▪ dostawcy pracy: aby osiągnąć swoje cele, organizacja musi zostać zaopatrzona w siłę roboczą. Bez wykwalifikowanych specjalistów, potrafiących posługiwać się wyrafinowaną technologią, kapitałem i materiałami, organizacja nie będzie działać skutecznie.

Państwo wpływa na organizację:

▪ poprzez system podatkowy.

▪ majątek i budżet państwa:

▪ akty prawne.

Organizacje są zobowiązane do przestrzegania wymagań agencji rządowych, którymi są komisje handlu, licencjonowania, kwot, papierów wartościowych, jakości i ochrony pracy oraz środowiska. Organizacje znajdują się pod wpływem władz lokalnych: stawiają wymagania dotyczące uzyskania licencji, ograniczają wybór miejsca prowadzenia działalności, opodatkowują przedsiębiorstwa.

Konsumenci to osoby fizyczne i prawne, które kupują produkt wytwarzany (sprzedawany) przez organizację.

Aby określić, który produkt będzie najbardziej poszukiwany, w jakiej ilości go wyprodukować, miejsce sprzedaży produktu, konieczne jest zbadanie kupujących. Profil kupującego składa się z następujących cech:

▪ położenie geograficzne;

▪ cechy demograficzne (wiek, wykształcenie, dziedzina działalności itp.);

▪ cechy społeczno-psychologiczne (pozycja w społeczeństwie, styl zachowania, gusta, nawyki itp.);

▪ postawę kupującego wobec produktu (dlaczego kupuje ten produkt, czy sam jest użytkownikiem produktu, jak ocenia produkt itp.).

Analizując konsumenta, konieczne jest zbadanie jego siły handlowej, na którą składają się następujące czynniki:

▪ stosunek stopnia zależności kupującego od sprzedającego i stopnia zależności sprzedającego od kupującego;

▪ wolumen zakupów dokonanych przez kupujących;

▪ poziom świadomości nabywców;

▪ dostępność produktów zastępczych;

▪ koszt dla kupującego przejścia na innego sprzedawcę;

▪ wrażliwość kupującego na cenę, w zależności od:

▪ z całkowitego kosztu dokonanych przez niego zakupów;

▪ jego sytuacja finansowa;

▪ orientacja na konkretną markę;

▪ wymagania jakościowe.

Konkurenci (np. oferując na rynku podobny produkt lub produkt lepszej jakości) wpływają na innych producentów i sprzedawców. Ten element środowiska bezpośredniego oddziaływania prowadzi do innowacji i efektywności. Każda firma musi spełniać potrzeby klientów tak skutecznie, jak robią to konkurenci, aby utrzymać się na rynku.

Budując strategię konkurencyjną, konieczne jest zidentyfikowanie mocnych i słabych stron konkurentów.

Środowisko oddziaływania pośredniego – czynniki, które mogą mieć wpływ na organizację nie od razu, ale w czasie.

To środowisko jest znacznie bardziej złożone, ponieważ informacje na jego temat są często niedostępne, a kierownictwo firmy musi polegać na jego założeniach.

Postęp naukowy i technologiczny odzwierciedla poziom rozwoju naukowego i technologicznego, który wpływa na organizację:

▪ wydajność, z jaką można wytwarzać i sprzedawać produkty;

▪ tempo starzenia się produktów;

▪ metody gromadzenia, przechowywania i rozpowszechniania informacji;

▪ usługi i nowe produkty, których konsumenci oczekują od organizacji.

Organizacje muszą szybko reagować na nowe wydarzenia i wprowadzać innowacje, aby zachować konkurencyjność.

Czynniki polityczne – intencje władz publicznych dotyczące rozwoju społeczeństwa oraz środki, za pomocą których państwo zamierza realizować swoją politykę:

▪ opodatkowanie dochodów osób prawnych;

▪ ustanowienie ulg podatkowych lub preferencyjnych ceł handlowych;

▪ ustawodawstwo dotyczące ochrony konsumentów, kontroli cen i płac;

▪ jaka ideologia determinuje politykę rządu;

▪ jak stabilny jest rząd;

▪ w jakim stopniu jest w stanie realizować swoją politykę;

▪ jaki jest stopień niezadowolenia społecznego i jak silne są struktury polityczne opozycji.

Czynniki społeczno-kulturowe:

▪ postawy, wartości życiowe i tradycje społeczne;

▪ sytuacja demograficzna;

▪ relacje organizacji z lokalną ludnością;

▪ podejście ludzi do pracy i jakości życia;

▪ wzrost liczby ludności;

▪ poziom wykształcenia;

▪ mobilność ludzi itp.

Ta grupa czynników ma wpływ.

▪ kreowanie popytu społecznego;

▪ stosunki pracy;

▪ poziom wynagrodzenia;

▪ warunki pracy;

▪ wizerunek firmy;

▪ produkty i usługi przedsiębiorstwa.

Czynniki społeczno-kulturowe zmieniają się powoli, ale zmiany te prowadzą do znaczących zmian w otoczeniu organizacji i mają największy wpływ na kształtowanie się preferencji konsumenckich.

Stan gospodarki wpływa na koszt wszystkich nakładów i zdolność konsumentów do zakupu określonych towarów i usług. Badanie stanu gospodarki opiera się na analizie

▪ wielkość produktu narodowego brutto;

▪ stopy inflacji;

▪ stopa bezrobocia;

▪ stopa procentowa;

▪ produktywność pracy;

▪ standardy podatkowe;

▪ bilans płatniczy;

▪ stopy oszczędności;

▪ ogólny poziom rozwoju gospodarczego;

▪ wydobyte zasoby naturalne;

▪ klimat;

▪ rodzaj i poziom rozwoju powiązań konkurencyjnych;

▪ struktura ludności;

▪ poziom wykształcenia siły roboczej;

▪ płace itp.

Na jedne organizacje określone zmiany stanu gospodarki mogą mieć pozytywny wpływ, na inne - negatywny. Na przykład kupujący na bogatych przedmieściach rzadziej doświadczają spowolnienia gospodarczego niż kupujący w tradycyjnych sklepach detalicznych.

Środowisko międzynarodowe charakteryzuje się dużą złożonością, ponieważ gospodarka, kultura, ilość i jakość pracy oraz zasobów materialnych, prawa, instytucje rządowe, stabilność polityczna oraz poziom rozwoju technologicznego różnią się w zależności od kraju. Wyróżnia się następujące formy współpracy międzynarodowej:

▪ eksport produktów: przedsiębiorstwa tworzą niezależne spółki handlowe, usługi pośrednictwa lub działy eksportu w celu koordynacji eksportu, co ułatwi transakcje z odbiorcami zagranicznymi;

▪ licencjonowanie, sprzedaż licencji spółce zagranicznej, tj. udzielenie spółce zagranicznej prawa do korzystania z patentów lub technologii w zamian za zwrot kosztów w postaci opłat licencyjnych lub opłat za usługi związane z wytwarzaniem jej produktów;

▪ wspólne przedsięwzięcia: dwie lub więcej firm prywatnych lub rządowych inwestuje w zakłady produkcyjne. Uczestnicy są równoprawnymi partnerami w biznesie i uzyskują zyski zależne od udziału każdej osoby we wspólnym przedsięwzięciu. Joint ventures powstają, gdy technologia jest już całkowicie przestarzała;

▪ inwestycje bezpośrednie, zarząd decyduje się na produkcję wyrobów swojej firmy za granicą i zachowuje pełną kontrolę nad produkcją, marketingiem, finansami i innymi kluczowymi funkcjami;

▪ Korporacje międzynarodowe: organizacje posiadające i prowadzące przedsiębiorstwa w innych krajach. Tworzone są w różnych krajach, biorąc pod uwagę obowiązujące ustawodawstwo, warunki handlu, pracy itp.

Wykład 12

Otoczenie wewnętrzne organizacji – organizm gospodarczy przedsiębiorstwa.

Innymi słowy, jest to struktura firmy, która obejmuje wszystkie jednostki produkcyjne tworzące organizację.

Otoczenie wewnętrzne organizacji składa się z takich zmiennych wewnętrznych jak.

▪ cele;

▪ struktura;

▪ zadania;

▪ technologia;

▪ ludzie.

Celem jest osiągnięcie, uzyskanie, udoskonalenie przez grupę ludzi zrzeszonych w organizacji jakiegoś pożądanego rezultatu. Formułując piosenkę, należy odpowiedzieć na następujące pytania:

▪ co musisz zdobyć i dlaczego;

▪ kiedy i kto powinien rozwiązać problem osiągnięcia celu.

Deklaracja celu obejmuje:

▪ zbiór wymagań, które muszą zapewnić pożądany rezultat;

▪ wykaz warunków ograniczających zakres dopuszczalnych sposobów osiągnięcia celów;

▪ listę możliwych opcji lub cech wyniku;

▪ charakterystyka pożądanego stopnia osiągnięcia oczekiwanego rezultatu;

▪ ocena faktycznego osiągnięcia celu.

Z reguły organizacje stawiają sobie następujące cele:

▪ utrzymanie stabilności rynkowej przedsiębiorstwa i jego przetrwanie;

▪ zapewnienie rentowności;

▪ zapewnienie rentowności;

▪ zapewnienie konkurencyjności;

▪ minimalizacja kosztów.

Cele organizacji jako całości nie pokrywają się z celami jej działów, dlatego każdy dział ma swoje własne cele, które nie powinny być sprzeczne z celem organizacji. Na przykład celem działu finansowego może być zmniejszenie strat kredytowych z kwoty sprzedaży. Dział marketingu może mieć na celu ograniczenie skarg konsumentów.

Dlatego kierownictwo musi koordynować cele działów.

Struktura to logiczna relacja pomiędzy poziomami zarządzania a obszarami funkcjonalnymi, zbudowana w formie, która pozwala najefektywniej osiągać cele organizacji.

Strukturę organizacji wyznaczają aspekty:

▪ wyspecjalizowany podział pracy: określony rodzaj pracy przydzielany jest tym, którzy tę pracę wykonują lepiej, czyli specjalistom. Organizacje wyróżniają:

▪ poziomy podział pracy – podział pracy pomiędzy ludźmi na tym samym szczeblu hierarchii;

▪ pionowy podział pracy – formalne podporządkowanie osób na każdym szczeblu. Pionowy podział pracy charakteryzuje się wielkością zarządzania, która wyznacza hierarchię poziomów zarządzania - formalne podporządkowanie osób na każdym szczeblu zarządzania. Przykładowo, osoba na najwyższym szczeblu zarządzania może mieć podległych kilku menedżerów średniego szczebla, reprezentujących różne obszary funkcjonalne. Menedżerowie ci mogą mieć podwładnych spośród kierowników liniowych (brygadzistów różnych szczebli);

▪ sfera kontroli: liczba podwładnych podlegających jednemu menadżerowi. Istnieją 2 obszary kontroli.

▪ wąskie: kierownik kieruje małą liczbą podwładnych. Struktura organizacyjna z taką sferą kontroli jest wielopoziomowa;

▪ szeroki: kierownik kieruje dużą liczbą podwładnych. Charakteryzuje się płaską strukturą organizacyjną.

Zadanie to zlecone zadanie, seria zadań lub praca, która musi zostać wykonana we wcześniej ustalony sposób we wcześniej ustalonych ramach czasowych. Każdemu stanowisku przypisuje się szereg zadań, które są niezbędne do osiągnięcia celów organizacji, na przykład:

▪ praca z ludźmi;

▪ praca z obiektami;

▪ praca z informacją.

Technologia to sposób na przekształcenie surowców w produkty i usługi końcowe.

Technologia charakteryzuje się:

▪ standaryzacja (wykorzystanie standardowych, wymiennych komponentów);

▪ mechanizacja (wykorzystanie maszyn i mechanizmów zamiast ludzi).

Klasyfikacja technologii według Woodwarda:

▪ produkcja pojedyncza, na małą skalę lub jednostkowa, gdzie jednocześnie wytwarzany jest tylko jeden produkt lub niewielka seria identycznych produktów. Charakteryzuje się specjalizacją:

▪ produkcja masowa lub wielkoseryjna polega na wytworzeniu dużej liczby produktów, które są do siebie identyczne lub bardzo podobne. Charakteryzuje się tożsamością, mechanizacją;

▪ produkcja ciągła. Działa przez całą dobę, aby w sposób ciągły wytwarzać ten sam produkt o tych samych właściwościach.

Charakteryzuje się dużą objętością i pełną automatyzacją.

Klasyfikacja technologii Thompsona:

▪ technologie wielopołączeniowe. Charakteryzuje się współzależnymi zadaniami, które należy wykonywać sekwencyjnie. Na przykład linie montażowe do produkcji masowej. Każda operacja montażu samochodu wykonywana jest w określonej kolejności;

▪ technologie pośrednie. Charakteryzuje się regularnymi spotkaniami ludzi (klientów, klientów). Na przykład bank, centrala telefoniczna;

▪ technologie intensywne. Charakteryzuje się wykorzystaniem specjalnych technik, umiejętności i usług. Na przykład montaż filmów.

Ludzie (zasoby ludzkie) są głównym i najbardziej złożonym elementem każdej organizacji, ponieważ wszyscy ludzie znacznie różnią się między sobą płcią, wiekiem, wykształceniem, narodowością, umiejętnościami, stanem cywilnym itp. Charakter pracy i sukces zależą od tego wszystkiego wskaźniki organizacji jako całości. Praca z personelem powinna być ustrukturyzowana w taki sposób, aby promować rozwój pozytywnych wyników zachowania i działań każdej osoby oraz starać się eliminować negatywne konsekwencje jego działań. Wszyscy ludzie mają następujące cechy:

▪ zdolności – indywidualne umiejętności tkwiące w konkretnej osobie.

▪ dziedziczne;

▪ zakupione;

▪ predyspozycje, talent: człowiek ma potencjał do wykonywania każdej pracy.

▪ potrzeby – wewnętrzny stan niewystarczalności czegoś i chęć zdobycia tego, czego się pragnie. Maslow wyróżnia 5 typów potrzeb:

▪ podtrzymywanie życia, które jest zaspokajane poprzez stworzenie komfortowych warunków pracy i ustalenie odpowiedniego wynagrodzenia za pracę;

▪ bezpieczeństwo, które zaspokajane jest poprzez rozwój wieloletnich programów socjalnych, zapewnienie opieki medycznej personelowi, wpłacanie składek na fundusze specjalne i zapewnianie świadczeń dodatkowych;

▪ kontakty społeczne zaspokajane poprzez tworzenie klimatu społeczno-psychologicznego w zespole;

▪ poczucie własnej wartości, które zaspokaja się poprzez angażowanie pracowników w wypracowywanie rozwiązań, omawianie projektów z personelem;

▪ samorealizacja, która jest realizowana poprzez rozwój, doskonalenie zawodowe personelu, przekwalifikowanie się, rozwój kariery zawodowej, podział zadań;

▪ oczekiwania co do skutków swoich zachowań, które ludzie formułują na podstawie przeszłych doświadczeń i oceny obecnej sytuacji;

▪ percepcja - intelektualna świadomość bodźców odbieranych na podstawie wrażeń. Ludzie nie reagują na to, co faktycznie dzieje się w ich otoczeniu, ale na to, jak to postrzegają;

▪ postawa. Punkt widzenia. Formułuje nasze stronnicze postrzeganie środowiska i tym samym wpływa na jego zachowanie;

▪ wpływ środowiska na jednostkę. Każda organizacja, świadomie lub nie, ustanawia swój własny system wartości.

Ten system stanowi kulturę organizacyjną. Każda organizacja jako społeczeństwo ma swoją własną moralność, zwyczaje i tabu. I chociaż każdy człowiek jest jednostką iw różnych społeczeństwach zachowuje się inaczej, w jego organizacji istnieje pewien wzorzec zachowania;

▪ Zdolność przywódcza to sposób, za pomocą którego lider wpływa na zachowanie ludzi, zmuszając ich do zachowania się w określony sposób.

Wykład 13

Klasyfikacja jest podstawową metodą poznawania rzeczywistości, dzielącą przedmiot badań na określone klasy poprzez uwypuklenie istotnych cech na podstawie identyfikacji ich jednorodności (homogeniczności) i niejednorodności (heterogeniczności). Taki wybór pozwala na głębsze zbadanie badanego obiektu i zagłębienie się w jego istotę poprzez określenie składu, właściwości, relacji wewnętrznych i zewnętrznych, sposobów korzystania z przedmiotu użytkowania.

Podczas badań są izolowane.

▪ klasyfikacje merytoryczne: klasyfikacja opiera się na merytorycznych i szczególnie ważnych cechach klasyfikacyjnych;

▪ sztuczne klasyfikacje: cechy klasyfikacyjne to cechy drugorzędne, pomocnicze (na przykład klasyfikacja według alfabetu, koloru, kształtu itp.).

W badaniach wyróżnia się dwa rodzaje klasyfikacji:

▪ podział ogólny: podział badanego obiektu według wybranej cechy na podklasy. Na przykład domy: mieszkalne i niemieszkalne, pięciopiętrowe i dziewięciopiętrowe itp.;

▪ oddzielenie całości: od całości badanego obiektu oddziela się części składowe według kryterium klasyfikacji, które powinno odzwierciedlać integralność badanego obiektu. Na przykład dom składa się z fundamentu, ramy i dachu. W tym przykładzie kryterium klasyfikacji są części składowe, których całość tworzy dom.

Istnieją odmiany klasyfikacji, konieczne jest nazwanie takich typów jak:

▪ dekompozycja to rodzaj klasyfikacji polegający na podzieleniu pojedynczej całości na znaczące, wzajemnie powiązane elementy. Na przykład system sterowania dzieli się na podsystemy, które z kolei na elementy;

▪ stratyfikacja to rodzaj klasyfikacji polegający na identyfikacji warstw (warstw) w systemie zarządzania, np. identyfikacji otoczenia zewnętrznego i wewnętrznego organizacji.

Podczas badania systemów sterowania należy kierować się następującymi zasadami klasyfikacji:

▪ jedność kryterium klasyfikacji: przy przeprowadzaniu klasyfikacji nie ma możliwości zmiany kryterium w ramach tej samej grupy klasyfikacyjnej;

▪ zachowanie proporcjonalności podziału badanego obiektu: objętość podzielonego obiektu musi być równa objętości wybranych koncepcji;

▪ przypisanie każdej jednorodnej grupy klasyfikowanego obiektu tylko do jednej grupy gatunkowej, wybrane pojęcia nie mogą jednocześnie należeć do dwóch grup klasyfikacyjnych;

▪ zastosowanie klasyfikacji wielostopniowej: w celu uszczegółowienia głównych cech badanego obiektu dokonuje się klasyfikacji krok po kroku w formie „drzewa” badanego obiektu;

▪ zapewnienie kompletności klasyfikacji dla każdego poziomu klasyfikacji: nie dopuszcza się podziału jednej części badanego obiektu na klasy, a drugiej na podklasy.

Wykład 14

Metoda badawcza to sposób poznania, sposób prowadzenia badań w celu osiągnięcia określonego wyniku.

Kiedy organizacja ma problem, bada sytuację, która spowodowała problem.

Do przeprowadzenia tego badania specjaliści odpowiedzialni za rozwiązanie tego problemu wybierają, w zależności od swojego doświadczenia, wiedzy, dostępnych informacji oraz charakteru problemu, metodę badawczą. Prawidłowo dobrana metoda badawcza zadecyduje o otrzymaniu wiarygodnego wyniku.

Wszystkie istniejące metody badawcze można połączyć w dwie duże grupy:

▪ metody oparte na wykorzystaniu wiedzy i intuicji specjalistów;

▪ prywatne metody badawcze.

Metody oparte na wykorzystaniu wiedzy i intuicji specjalistów to metody oparte na zidentyfikowanych i uogólnionych opiniach ekspertów:

▪ „burza mózgów”;

▪ ekspertyzy;

▪ „synektyka”;

▪ typ „Delphi”;

▪ rodzaj „scenariuszy”;

▪ Analiza SWOT;

▪ typ „drzewa celów”.

Prywatne metody badawcze – metody oparte na logicznych i metodologicznych metodach analizy danych empirycznych przy stawianiu hipotez naukowych:

▪ eksperyment;

▪ obserwacja;

▪ ankieta;

▪ analiza dokumentów.

Wykład 15

Metoda „burzy mózgów” („burza mózgów”) to metoda, która pozwala, przy minimalnym nakładzie czasu, znaleźć zestaw spontanicznie zaproponowanych przez uczestników rozwiązań dla postawionego problemu. Metoda ta została opracowana przez A. Osborne'a w 1953 roku. Nazywana jest również metodą CGI (zbiorowe generowanie pomysłów) lub metodą kreatywnego rozwiązywania problemów.

Metodę tę stosuje się przy poszukiwaniu rozwiązań w niedostatecznie zbadanym obszarze, przy identyfikowaniu nowych kierunków rozwiązania problemu, eliminowaniu niedociągnięć w istniejącym systemie.

Istnieją 2 formy zastosowania metody „burzy mózgów”:

▪ spotkanie regularne: odbywa się spotkanie, podczas którego menedżer jeden po drugim przesłuchuje uczestników spotkania, którzy wymieniają problemy negatywnie wpływające na efektywność przedsiębiorstwa lub działu. Na koniec spotkania tworzona jest lista problemów, która jest następnie publikowana, aby każdy mógł ją zobaczyć. Jeżeli proces zgłaszania pomysłów nie będzie skuteczny, spotkanie zostaje przełożone na inny dzień;

▪ przeprowadzenie spotkania w systemie okrężnym: tworzone są podgrupy składające się z 3 – 4 osób. Każdy przedstawiciel grupy zapisuje na papierze 2-3 pomysły, którymi następnie wymienia się z innymi uczestnikami swojej grupy.

Przedstawione pomysły są badane przez innych uczestników i uzupełniane nowymi. W każdej podgrupie pomysły są wymieniane trzy razy, po czym tworzona jest zbiorcza lista zgłoszonych pomysłów. Wypełnione listy podgrup są następnie przekazywane grupie do rozpatrzenia. Ta forma burzy mózgów ma następujące zalety:

▪ zwiększa aktywność uczestników poprzez pisemną prezentację pomysłów;

▪ eliminuje czekanie na swoją kolej w procesie zgłaszania pomysłów;

▪ pozwala na udoskonalanie prezentowanych pomysłów i opracowywanie na ich podstawie nowych.

Podczas przeprowadzania burzy mózgów należy kierować się:

▪ obowiązuje zakaz krytyki proponowanych pomysłów;

▪ zaproponowane pomysły są oceniane po sesji burzy mózgów;

▪ wśród zgłaszanych pomysłów mile widziane są przede wszystkim pomysły oryginalne i nietypowe oraz pomysły wyrażane zaimprowizowane;

▪ prawdopodobieństwo pojawienia się wartościowych pomysłów zależy od liczby zgłoszonych pomysłów: im więcej, tym lepiej;

▪ preferowane są pomysły łączone (połączenie kilku pomysłów w jeden) i ulepszone (rozwój już wyrażonego pomysłu);

▪ przy zgłaszaniu nowych pomysłów należy obserwować reakcję łańcuchową pomysłów;

▪ uczestnicy burzy mózgów mogą wypowiadać się kilka razy, ale za każdym razem powinni wyrazić nie więcej niż jeden pomysł na lepszą percepcję;

▪ wyrażone pomysły nie mają autorów, ponieważ pomysł mógł wcześniej „mentalnie należeć” do któregokolwiek z uczestników.

Organizacja metody „burzy mózgów” odbywa się zgodnie z następującą metodologią. W pierwszym etapie zadanie formułuje się na podstawie 2 zapisów:

▪ co ostatecznie chcemy uzyskać;

▪ co uniemożliwia nam realizację naszych pragnień.

Wewnętrzna struktura problemu do rozwiązania powinna być prosta i konkretnie sformułowana dla jak największej efektywności generowanych pomysłów. Złożone zadanie należy rozłożyć na części składowe.

Aby rozważyć to zadanie, tworzy się grupa kreatywna, składająca się z 5 - 7 osób (ale nie mniej niż 3). Grupa kreatywna składa się z dwóch podgrup:

▪ stały trzon składający się z lidera zespołu i pracowników, którzy z łatwością generują pomysły. Do obowiązków lidera należy: zdefiniowanie problemu, który zostanie rozwiązany za pomocą burzy mózgów, wybór i przeszkolenie uczestników w zakresie niezbędnych technik pracy, zapewnienie aktywności uczestników sesji, ocena zgłoszonych pomysłów, podsumowanie wyników burzy mózgów. Menedżer musi:

▪ być aktywnym twórczo;

▪ okazywać sympatię pomysłom wyrażanym przez innych ludzi;

▪ mieć autorytet w zespole kreatywnym;

▪ łączą pozytywne cechy generatora i analityka;

▪ cechuje Cię szybka reakcja, dobre zdolności analityczne i trzeźwy umysł;

▪ uczestnicy tymczasowi, których zaprasza się w zależności od charakteru rozwiązywanego zadania.

Zaproszenie na sesję otrzymuje się z 2-3 dniowym wyprzedzeniem wraz z informacją o punktach porządku obrad w formie pisemnej lub ustnej.

Podstawowe informacje o rozwiązywanym problemie można przekazać uczestnikom bezpośrednio przed jego rozpoczęciem.

Czas trwania sesji to 25 - 30 minut. Zgłaszane pomysły, proponowane rozwiązania i ich ulepszenia są odnotowywane w protokole. Wszystkie pomysły są wyrażone w krótkich zdaniach.

Pierwszeństwo ma ilość nad jakością.

Podczas wdrażania tej metody menedżer powinien zwracać uwagę na wszystkie drobiazgi, nawet te nieistotne: stworzenie przyjaznego, zrelaksowanego mikroklimatu (żarty, herbata, kawa). Przede wszystkim konieczne jest wprowadzenie wszystkich nowicjuszy. Sprzyjające przyjazne środowisko przyczyni się do zrównoważonego stanu psychicznego ludzi.

Zalety metody burzy mózgów są następujące:

▪ myślenie grupowe generuje o 70% więcej nowych, wartościowych pomysłów niż suma indywidualnych, niezależnych propozycji;

▪ ćwiczy zdolności umysłowe uczestników;

▪ umożliwia uzyskanie nowych, nieoczekiwanych wizji rozpatrywanego problemu;

▪ pozwala z większą pewnością traktować przedstawione pomysły.

Metoda „odwróconej burzy mózgów” jest podobna do zwykłej „burzy mózgów”. Główną cechą tej metody jest przyzwolenie na wyrażanie krytyki. Podczas wdrażania tej metody ujawniają się niedociągnięcia proponowanych pomysłów (ale dyskusje powinny toczyć się poprawnie w stosunku do każdego uczestnika) i proponowane są sposoby ich eliminacji.

Wykład 16

Metoda ocen eksperckich to metoda analizy uogólnień osądów i założeń przy pomocy ekspertów. Metodę tę stosuje się, gdy racjonalne metody matematyczne są nieskuteczne w rozwiązywaniu problemów. Przeprowadzana jest intuicyjno-logiczna analiza problemu, a następnie ilościowa ocena osądów i formalna obróbka wyników.

Problemy do rozwiązania można warunkowo podzielić:

▪ o problemach z udostępnieniem informacji;

▪ problemy, na temat których brakuje informacji.

Metody te są szczególnie skuteczne w warunkach:

▪ duża niepewność otoczenia, w którym funkcjonuje badany obiekt;

▪ brak czasu i sytuacje ekstremalne;

▪ brak wiarygodnych podstaw teoretycznych.

Metody oceny eksperckiej służą do rozwiązywania następujących problemów:

▪ sporządzenie listy możliwych zdarzeń w różnych obszarach w określonym przedziale czasu;

▪ określenie najbardziej prawdopodobnych przedziałów czasowych wystąpienia zbioru zdarzeń;

▪ definiowanie celów i zadań zarządzania oraz porządkowanie ich według stopnia ważności;

▪ identyfikowanie alternatywnych rozwiązań problemów wraz z oceną ich preferencji;

▪ alternatywna dystrybucja zasobów w celu rozwiązania problemów z oceną ich preferencji;

▪ alternatywne możliwości podejmowania decyzji w określonej sytuacji wraz z oceną ich preferencji.

Proces recenzji można podzielić na następujące etapy:

▪ sporządzenie wytycznych. Określa główne postanowienia egzaminu:

▪ cele;

▪ zadania związane z jego realizacją;

▪ skład i obowiązki grupy roboczej i grupy ekspertów;

▪ zasoby niezbędne do wsparcia prac i terminy zakończenia prac;

▪ wybór grup roboczych i eksperckich. W egzaminie biorą udział dwie grupy:

▪ grupa robocza, w skład której wchodzi organizator, specjalista systemowy i pracownik techniczny;

▪ grupa ekspercka, czyli grupa, której ekspertyzy staną się podstawą podejmowania przyszłych decyzji;

▪ opracowanie metodologii badań (w razie potrzeby).

Na tym etapie ustalane są: miejsce i czas badania; zadania; forma posiadania; procedura ustalania i zbierania wyników; skład wymaganych dokumentów. W zależności od czasu dostępnego na badanie, złożoności rozważanego problemu, biorących w nim udział specjalistów można wyróżnić następujące formy przeprowadzenia ankiety:

▪ indywidualny – maksymalnie wykorzystuje się umiejętności i wiedzę każdego specjalisty;

▪ grupowy (zbiorowy) – umożliwia ekspertom wymianę opinii i na ich podstawie korygowanie swojej oceny. Ale przy tej metodzie badania może pojawić się silny wpływ autorytetów na specjalistów;

▪ osobisty (twarzą w twarz) – badanie przeprowadza się poprzez bezpośredni kontakt, np. ankietera i eksperta;

▪ korespondencyjnie – jednym z częstych przykładów tej metody badania jest wysyłanie kwestionariuszy. Nie ma bezpośredniej interakcji pomiędzy osobą przeprowadzającą wywiad a ekspertem;

▪ ustne – np. rozmowa kwalifikacyjna;

▪ pisemne – np. wypełnienie ankiety;

▪ otwarty – proces badania i jego wyniki mogą być badane przez innych ekspertów;

▪ ukryte – wyrażane pomysły i decyzje ekspertów są tajne;

▪ opracowanie metodyki przetwarzania danych ankietowych. Przetwarzanie danych z badań eksperckich może odbywać się na 2 sposoby.

▪ sprawdzanie spójności opinii biegłych (ewentualnie klasyfikacji biegłych w przypadku braku spójności);

▪ uśrednianie opinii ekspertów w ramach uzgodnionej grupy;

▪ rejestracja wyników pracy. Wyniki uzyskane w wyniku badania podlegają analizie, na podstawie której sporządzany jest raport. Po omówieniu i zatwierdzeniu uzyskanych wyników wyniki wykonanych prac przekazywane są klientom badania.

Przy tworzeniu grup eksperckich i roboczych konieczne jest przedstawienie ekspertom następujących wymagań.

▪ oceny ekspertów muszą być stabilne w czasie;

▪ wraz z wprowadzeniem dodatkowych informacji ocena ekspercka powinna ulec poprawie, ale nie powinna zasadniczo zmieniać się w stosunku do pierwotnie sformułowanej oceny;

▪ ekspert musi być uznanym specjalistą w dziedzinie badanej wiedzy;

▪ biegły musi posiadać doświadczenie w uczestnictwie w tego typu badaniach;

▪ ekspertyzy muszą być stabilne. Stabilność zależy od charakteru błędów, jakie eksperci mogą popełnić podczas badania. W tym zakresie identyfikuje się błędy:

▪ systematyczne, które charakteryzują się stabilnym dodatnim lub ujemnym odchyleniem od wartości prawdziwej;

▪ losowe, gdy wartości podawane przez ekspertów charakteryzują się dużym rozrzutem.

Wykład 17

Planowanie to jedna z głównych funkcji zarządzania, która polega na opracowywaniu etapów przyszłych działań z uwzględnieniem ewentualnych zmian, jakie mogą pojawić się w procesie realizacji planu. Opracowany plan działania pozwala na zaoszczędzenie zasobów materialnych, czasowych i ludzkich oraz przewidywanie możliwych rezultatów realizacji tego planu.

Planowanie pozwala określić główne cele i liczbowe wskaźniki rozwoju produkcji, biorąc pod uwagę materialne źródła jej zaopatrzenia i zapotrzebowanie rynku, z wyprzedzeniem uwzględnić czynniki wewnętrzne i zewnętrzne, które korzystnie wpływają na funkcjonowanie i rozwój organizacji .

Jeśli chodzi o badanie systemów sterowania, planowanie umożliwia:

▪ formularz:

▪ grupy badawcze (opracowanie celów, zadań, wyników badań itp.);

▪ grupy robocze (będą zaangażowane w realizację zadań powierzonych im przez grupę badawczą);

▪ określić funkcje wszystkich wykonawców tego badania;

▪ ustanawia niezbędne zasoby, które będą wymagane przy projektowaniu, wdrażaniu i monitorowaniu badania;

▪ przedstawić etapy badań;

▪ określić czas, jaki zostanie poświęcony na badanie jako całość i jaki będzie wymagany na każdym etapie badania;

▪ ustanowić wstępną, bieżącą i ostateczną kontrolę nad badaniem.

Jakość planowania zależy od:

▪ z kompetencji kierownictwa przedsiębiorstwa na wszystkich poziomach zarządzania;

▪ kwalifikacje specjalistów z działów funkcjonalnych;

▪ dostępność zasobów informacyjnych;

▪ dostępne zasoby technologiczne.

Biznesplan badawczy to dokument, który opisuje wszystkie główne aspekty przyszłych badań, analizuje wszystkie problemy, z którymi może się zmierzyć, a także określa sposób ich rozwiązania.

Biznesplan to opis celów i zadań, które badanie realizuje zarówno obecnie, jak i w przyszłości.

Składa się:

▪ z aktualnego opisu systemu sterowania;

▪ określenie swoich mocnych i słabych stron;

▪ badanie środowiska zewnętrznego;

▪ identyfikacja konkurentów;

▪ badanie klientów i konsumentów itp.

Biznesplan można zmieniać w miarę pojawiania się nowych informacji.

Biznesplan ma następujące zalety:

▪ umożliwia kompleksowe zbadanie systemu zarządzania: stanem finansowym, wsparciem zasobowym funkcjonowania jego działalności, potencjałem kadrowym organizacji;

▪ pomaga uzyskać wsparcie finansowe od inwestorów;

▪ zawiera wytyczne dotyczące systemu zarządzania;

▪ pozwala przewidywać i wykorzystywać sprzyjające czynniki oraz unikać przeszkód pojawiających się w trakcie funkcjonowania systemu kontroli;

▪ daje możliwość poszerzenia zakresu działalności organizacji;

▪ pozwala wyznaczyć konkretne i jasne zadania, aby osiągnąć cel.

W zależności od tego, dla kogo przeznaczony jest biznesplan, rozróżnia się następujące rodzaje biznesplanu:

▪ dla siebie – opracowany w celu samokontroli działalności prowadzonej przez przedsiębiorstwo;

▪ na uzyskanie kredytu – jest opracowywany dla banków w celu uzyskania kredytu, zastępujący studium wykonalności (studium wykonalności). Dostarczenie studium wykonalności (wystarczyło 2 strony) wpłynęło na decyzję o udzieleniu pożyczki;

▪ pozyskiwanie środków od inwestorów zewnętrznych – ułatwia pozyskiwanie środków finansowych od inwestorów poprzez dostarczanie im informacji o organizacji, strategii marketingowej, wielkości sprzedaży, perspektywach produkcyjnych i finansowych;

▪ wspólna organizacja lub sojusz strategiczny z partnerem zagranicznym – niezbędny, aby przyciągnąć partnerów zagranicznych, dać im pewność co do powagi i rentowności Twojego biznesu;

▪ zawarcie dużego kontraktu – przy zawieraniu dużego kontraktu niezbędny jest kompleksowy opis działalności przedsiębiorstwa;

▪ pozyskiwanie nowych pracowników – opis przyszłej działalności organizacji daje przyciągniętym pracownikom informację o perspektywach i spójności proponowanej pracy;

▪ połączenie z inną organizacją – pomoże innej organizacji dostrzec zalety i wady połączenia się z Tobą;

▪ reorganizacja biznesu i optymalizacja działania – pozwoli Ci opracować koncepcję rozwoju przedsiębiorstwa w przypadku rozwoju organizacji, co da Twoim partnerom możliwość zrozumienia celów i założeń realizacji tego pojęcie.

W zależności od zakresu zastosowania biznesplan dzieli się na:

▪ w przypadku biznesplanu do użytku zewnętrznego – przedstawia swoje przedsiębiorstwo w korzystnym świetle dla osób z otoczenia zewnętrznego;

▪ biznes plan do użytku wewnętrznego – jest narzędziem zarządczym służącym do zarządzania organizacją, określa mocne i słabe strony działalności organizacji.

Biznesplan składa się z następujących sekcji:

▪ część wprowadzająca:

▪ strona tytułowa (zawiera informacje wprowadzające):

▪ spis treści - lista wszystkich nazw działów i podrozdziałów;

▪ wykaz konwencji, symboli i skrótów – wykaz i wyjaśnienie wszystkich specjalnych terminów i skrótów dostępnych w biznes planie;

▪ wprowadzenie – składa się z celów, celów, przydatności i konieczności badań sformułowanych w sposób ogólny;

▪ część opisowa:

▪ charakterystyka i potencjał przedsiębiorstwa, który ujawnia podstawowe informacje o badanym przedsiębiorstwie – forma organizacyjno-prawna, potencjał finansowy przedsiębiorstwa, potencjał zasobowy itp.;

▪ opis rodzaju działalności gospodarczej – wskazuje charakter działalności przedsiębiorstwa, metody i czas osiągnięcia jego celów, oceny eksperckie dotyczące prowadzonych badań;

▪ opis produktów (charakterystyka techniczna i inna, przeznaczenie, sposoby sprzedaży);

▪ ocena rynków zbytu;

▪ opis i ocena konkurentów;

▪ część prognostyczna i strategiczna:

▪ prognoza sprzedaży produktów;

▪ strategia marketingowa – polega na analizie możliwości przedsiębiorstwa, wyborze celów, ich osiąganiu, opracowywaniu i formułowaniu planów dla każdego pojedynczego produktu, rynku na określony okres, wdrażaniu działań marketingowych i monitorowaniu ich realizacji;

▪ plan produkcji – sporządzany na podstawie: oceny rynków produktowych, konkurentów, wybranej strategii marketingowej i opracowanego na jej podstawie planu marketingowego;

▪ plan wsparcia zasobowego i organizacyjnego – określane są wszystkie zasoby niezbędne do pomyślnej realizacji projektu;

▪ plan finansowy – zawiera prognozę przychodów i wydatków na najbliższe 3 lata, bilans organizacji na chwilę obecną, prognozę stanu aktywów i pasywów organizacji na kolejny rok itp.;

▪ załączniki, zawierające wszystkie niezbędne dokumenty i informacje uzasadniające prowadzone badania. Dokumenty zawarte we wniosku obejmują:

▪ wyniki badań marketingowych;

▪ szczegółowe parametry techniczne produktów;

▪ certyfikaty produktów;

▪ umowy z dostawcami i odbiorcami produktów itp.

Wykład 18

Synektyka (przetłumaczona z greki) to połączenie elementów heterogenicznych, a czasem nawet niekompatybilnych. Metodę „synektyczną” jako metodę poszukiwania nowych rozwiązań zaproponował W. Gordon w USA w 1961 roku w swojej książce „Synectics: rozwój wyobraźni twórczej” w celu zwiększenia prawdopodobieństwa sukcesu w procesie rozwiązywanie problemów.

Główną ideą tej metody jest to, że podczas aktywności twórczej, tworząc specjalne warunki, osoba wysuwa nieoczekiwane analogie i skojarzenia dotyczące badanego problemu. Przez aktywność twórczą rozumie się aktywność umysłową w procesie rozwiązywania problemów, której wynikiem jest odkrycie artystyczne lub techniczne.

Innymi słowy, człowiek dochodzi do rozwiązania, włączając nieświadome mechanizmy w proces świadomego zgłębiania problemów. Ideą metody „synektyki” jako metody badania układów sterowania jest stworzenie specjalnej, stałej „grupy synektorów” (5-7 osób) w celu identyfikacji, formułowania i rozwiązywania problemów pojawiających się podczas funkcjonowania układów sterowania .

Metoda synektyki składa się z następujących kroków:

▪ przedstawienie problemu;

▪ tłumaczenie zadania „tak jak jest postawione” na zadanie „tak jak jest rozumiane”;

▪ zidentyfikowanie pytania wywołującego analogie;

▪ praca nad poszukiwaniem analogii;

▪ stosowanie analogii m.in.

▪ bezpośrednia analogia;

▪ analogia symboliczna;

▪ osobista analogia;

▪ fantastyczna analogia;

▪ szukać możliwości przełożenia znalezionych analogii i obrazów na propozycje rozwiązania problemu.

Operatory synektyki to specyficzne czynniki psychologiczne, które promują proces twórczy i mają na celu zwiększenie zaangażowania, empatii, zabawy itp.

Synectics składa się z dwóch głównych protez:

▪ przemiana nieznanego w znane, rozwiązanie każdego problemu zaczyna się od jego zrozumienia, czyli nowy problem sprowadza się do już znanego, aby zmniejszyć jego zagrożenie dla człowieka (każda nowa rzecz zagraża człowiekowi ze względu na jego konserwatyzm). Początkowo wyjaśnienie nowego problemu następuje w ramach znanego modelu;

▪ transformacja znanego w nieznane, znane jest reinterpretowane i zniekształcane w zależności od nowego problemu. W naszym codziennym życiu te same przedmioty wydają się różnie różnym ludziom. Transformacja znanego w nieznane odbywa się za pomocą 4 mechanizmów.

▪ analogia osobista – osobista identyfikacja badacza z elementami problemu, dla której badacz musi posiadać twórczą wyobraźnię i sztukę badawczą. Ta analogia pomaga dostrzec nieznane wcześniej aspekty problemu;

▪ analogia bezpośrednia – przeniesienie parametrów porównawczych z jednego obiektu na drugi z równoległych istniejących obszarów wiedzy i technologii. Bezpośrednia analogia wymaga od badacza wykształcenia, wieloaspektowej wiedzy i multidyscyplinarnego przeszkolenia;

▪ analogia symboliczna – polega na opisaniu problemu za pomocą obiektywnych i nieosobowych obrazów, tj. istotę problemu lub jego rozwiązanie opisuje krótka metafora, która z jednej strony jest charakterystyką problemu, a z drugiej co innego, sprzeczność. Na przykład wystawa to zorganizowany wypadek; napój bezalkoholowy - przezroczysty duch; książka to niemy rozmówca;

▪ fantastyczna analogia – wykorzystuje swobodę w użyciu symboli. Posługując się fantastyczną analogią, badacz może dostrzec nieoczekiwane rozwiązanie problemu, którego nie można znaleźć w świecie rzeczywistym ze względu na istnienie sprzecznych obiektywnych praw.

Wykład 19

Metoda „Delphi” jest jedną z metod ocen eksperckich, za pomocą której przeprowadzane jest szybkie poszukiwanie rozwiązań, spośród których wybierany jest ten najlepszy. Jego inna nazwa to „wyrocznia delficka”, którą otrzymał w starożytnej Grecji.

Metoda ta została opracowana przez O. Helmera i jego współpracowników, a pierwotnie została stworzona na potrzeby naukowo-technicznego prognozowania przyszłości. Opiera się ona na zasadzie zwiększania poziomu wiarygodności informacji otrzymywanych od grupy ekspertów, czyli zbiorowych ocen eksperckich.

Zastosowanie tej metody pozwala uniknąć sprzeczności między ekspertami w toku pracy i uzyskać niezależne indywidualne oceny.

Metoda Delphi dzieli się na następujące kroki:

▪ utworzenie grupy roboczej zajmującej się kwestiami organizacyjnymi:.

▪ przekazuje informacje ekspertom do oceny;

▪ zbiera i podsumowuje oceny eksperckie itp.;

▪ organizacja grupy eksperckiej, gdy ustala się:

▪ ilość;

▪ skład ekspertów;

▪ sporządzenie ankiety, której pytania muszą umożliwiać sformułowanie odpowiedzi w formie ilościowej. Kwestionariusze składają się z:

▪ od zagadnień głównych, pomocniczych;

▪ warunki przeprowadzenia egzaminu;

▪ bezpośrednie przeprowadzenie badania. Na tym etapie dla każdego eksperta formułowane są zadania przeprowadzenia badania.

Następnie każdy ekspert otrzymuje kwestionariusz, którego pytania muszą dać indywidualną niezależną i rozsądną ocenę. Na podstawie wypełnionych kwestionariuszy identyfikuje się: opinie każdego eksperta, opinie panujące i osądy skrajne. Zawsze istnieją rozbieżności między ekspertami, których przyczyny są identyfikowane na tym etapie.

Wyniki ocen wydanych przez każdego eksperta oraz wyniki opracowania opinii są przedstawiane każdemu z ekspertów. Na podstawie uzyskanych wyników eksperci mogą zmienić swoją ocenę lub zachować poprzednią lub krytykować oceny innych ekspertów. Operacja ta jest zwykle przeprowadzana w 2 - 3 rundach, dopóki nie pojawią się zbieżności opinii, które będą wynikami badań. Ponowne badanie jest przeprowadzane w celu ominięcia nieporozumień i zwrócenia uwagi ekspertów na opinie ich kolegów;

▪ uogólnienie uzyskanych wyników i opracowanie rekomendacji dotyczących zagadnień związanych z obiektami badań.

Zastosowanie metody „Delphi” determinują jej następujące zalety:

▪ ograniczenie wpływu zgodności;

▪ eliminowanie sporów z władzami, gdyż oceny, argumenty i krytyka przekazywane są anonimowo przez ekspertów;

▪ eliminacja sytuacji konfliktowych;

▪ anonimowość ekspertów, którą osiąga się poprzez eliminację interakcji pomiędzy ekspertami;

▪ przetwarzanie ocen eksperckich z wykorzystaniem metod pomiarowych: ranking, porównanie parami, porównanie sekwencyjne i ocena bezpośrednia;

▪ na każdym kolejnym etapie eksperci informowani są o wynikach poprzedniego;

▪ obecność informacji zwrotnej, która odbywa się dzięki badaniu w kilku rundach;

▪ możliwość zmiany opinii bez ryzyka krytyki tego faktu.

Wykład 20

Metoda „scenariuszy” jest jedną z metod ocen eksperckich, za pomocą której w przyszłości w oparciu o obecną sytuację podawany jest obraz badanego obiektu. Za pomocą tej metody określa się główne cele rozwoju przedmiotu badań.

Przyczynia się do wypracowania rozwiązania problemu opartego na identyfikacji wszystkich możliwych przeszkód i identyfikacji poważnych niedociągnięć. Scenariusze budowane są nie tylko na rozumowaniu, ale także na wynikach analiz technicznych lub statystycznych, cechach i wskaźnikach przedmiotu badań.

Scenariusz - materiał opisowy niezbędny do pracy nad opracowaniem przedmiotu badań,

Skryptowanie dzieli się na następujące kroki:

▪ treść pytania:

▪ gromadzone i badane są wszystkie podstawowe informacje;

▪ zidentyfikowano wszystkie problemy wewnętrzne;

▪ formułuje się precyzyjny problem badawczy;

▪ określenie stref wpływów – bada się wpływ otoczenia na przedmiot badań;

▪ ustalenie stopnia wpływu czynników przedmiotu badań na przyszłą sytuację;

▪ wprowadzenie do badania nieprzewidzianych wcześniej zdarzeń, które mogą zmienić kierunek badań. Zdarzenia takie mogą mieć charakter zarówno negatywny (wypadki, awarie systemów itp.), jak i pozytywny (wybuchy technologiczne, pojednania polityczne itp.). Przy opracowywaniu scenariuszy należy uwzględnić zdarzenia, które prawdopodobnie będą miały największy wpływ;

▪ określenie skutków ~ określa się poziom wpływu proponowanych wariantów rozwiązania na przedmiot badań;

▪ podejmowanie decyzji – na podstawie wybranego wariantu rozwiązania problemu badawczego dobierane są działania służące jego realizacji.

Do opracowania scenariuszy zaangażowani są czołowi eksperci w dziedzinie nauki, którzy przy przygotowaniu scenariusza korzystają z pomocy analityków systemowych. Specjaliści ds. analizy systemowej w badaniu przedmiotu badań pełnią następujące role:

▪ zidentyfikować ogólne wzorce systemu;

▪ analizować czynniki zewnętrzne i wewnętrzne mające wpływ na rozwój systemu i kształtowanie jego celów;

▪ określić źródła tych czynników;

▪ analizować wypowiedzi czołowych ekspertów w czasopismach, publikacjach naukowych i innych źródłach informacji naukowo-technicznej;

▪ tworzyć pomocnicze fundusze informacyjne (najlepiej zautomatyzowane), które pomogą rozwiązać dany problem.

Wykład 21

Metoda analizy SWOT to metoda, która pozwala uzyskać ogólny obraz rozwoju organizacji poprzez badanie:

▪ środowisko wewnętrzne;

▪ otoczenie zewnętrzne organizacji.

Metoda ta polega na analizie danych o środowisku zewnętrznym i wewnętrznym oraz ustalaniu powiązań między nimi, a następnie ich redukcji w jedną całość. Tak szczegółowe badanie wpływu na organizację różnych czynników jest konieczne, aby dostosować organizację do zmieniających się szans i zagrożeń otoczenia zewnętrznego.

Analiza SWOT pomaga odpowiedzieć na następujące pytania:

▪ Czy firma wykorzystuje w swojej strategii wewnętrzne mocne strony lub wyróżniające ją przewagi?Jeśli firma nie posiada wyróżniających przewag, jakie są jej potencjalne mocne strony, które mogłyby nimi stać się?

▪ Czy słabości firmy odzwierciedlają jej słabość konkurencyjną i/lub uniemożliwiają jej wykorzystanie pewnych sprzyjających okoliczności? Jakie słabe strony wymagają korekty w oparciu o względy strategiczne?

▪ Jakie możliwości dają firmie realną szansę na sukces wykorzystując swoje umiejętności i dostęp do zasobów? SWOT to akronim składający się z 4 angielskich słów:

▪ mocne strony – mocne strony;

▪ słabe strony – słabe strony;

▪ możliwości – możliwości;

▪ zagrożenia - zagrożenia.

Wykład 22

Metoda „drzewa celów" jest metodą opartą na zasadzie podziału celu ogólnego systemu zarządzania na cele cząstkowe, które z kolei dzielą się na cele niższych poziomów. Metoda ta jest istotna w badaniu systemów zarządzania, ponieważ działania organizacji sprowadzają się do osiągnięcia sformułowanych celów Konieczność zastosowania tej metody wynika z faktu, że „drzewo celów” pomaga uzyskać stabilną strukturę celów, która będzie względnie stabilna przez pewien okres czasu przy zachodzących zmianach.

Cele, jakie stawia sobie organizacja, można sklasyfikować według następujących kryteriów:

▪ źródła występowania:

▪ zdeterminowane potrzebami otoczenia, w którym działa organizacja;

▪ wynikające z konieczności zaspokojenia potrzeb uczestników organizacji;

▪ z punktu widzenia złożoności:

▪ proste;

▪ złożone, które rozkładają się na cele cząstkowe;

▪ stopień ważności:

▪ strategiczne, które mają na celu rozwiązanie obiecujących problemów o dużej skali;

▪ taktyczne, które są opracowywane dla osiągnięcia celów strategicznych;

▪ czas potrzebny na ich realizację:

▪ długoterminowe (ponad 5 lat);

▪ średnioterminowy (od roku do 5 lat);

▪ krótkoterminowe (do roku);

▪ treść:

▪ technologiczne, które instaluje się w celu komputeryzacji organizacji i zapewnienia jej nowych technologii;

▪ ekonomiczny, niezbędny do osiągnięcia stabilności finansowej;

▪ marketingowe, które są opracowywane w celu stworzenia nowego produktu i wejścia na nowy rynek itp.;

▪ pod względem priorytetu:

▪ konieczne, które zapewniają funkcjonowanie organizacji;

▪ pożądane, którego osiągnięcie będzie miało korzystny wpływ na organizację;

▪ możliwe, co w chwili obecnej nie będzie miało żadnego wpływu na istnienie i rozwój organizacji;

▪ kierunki:

▪ od efektu końcowego, np. wydania produktu lub świadczenia określonej usługi;

▪ prowadzenie określonych działań, np. poprawa warunków pracy na produkcji;

▪ osiągnięcie określonego stanu obiektu zarządzania, np. zaawansowane szkolenie lub zdobycie nowego zawodu przez pracownika;

▪ forma wyrażenia:

▪ wyrażone ilościowo;

▪ opisane cechami jakościowymi;

▪ z punktu widzenia cech interakcji:

▪ obojętny – cele, które są sobie obojętne;

▪ konkurowanie;

▪ komplementarne – cele, które się uzupełniają;

▪ antagonistyczne – cele, które się wykluczają;

▪ identyczne, tj. pasujące;

▪ poziom występowania:

▪ misja (jest podstawą wszystkich dalszych celów organizacji.

Obejmuje filozofię organizacji, jej wartości, opis usług świadczonych przez organizację lub wytwarzanych towarów, charakterystykę jej rynku, zewnętrzny wizerunek firmy (wizerunek). Krótka i poprawnie sformułowana misja organizacji stworzy zrozumienie i wsparcie dla działań organizacji z jej otoczenia, pomoże pracownikom skoncentrować się na wybranych obszarach działalności i zjednoczyć ich działania);

▪ ogólne, które są rozwijane w perspektywie długoterminowej i odzwierciedlają główne kierunki działania organizacji.

Na przykład rozwój nowych obszarów działalności organizacji, zapewniających optymalną rentowność;

▪ szczegółowe, które są opracowywane w oparciu o wspólne cele w każdym pionie. Na przykład określenie rentowności dla każdego pojedynczego działu. 3. „Drzewo celów” budowane jest poprzez realizację 2 kroków.

▪ dekompozycja to operacja selekcji komponentów;

▪ strukturyzacja to operacja podkreślania połączeń pomiędzy komponentami.

Proces budowania „drzewa celów” dzieli się na następujące etapy:

▪ rozwój scenariusza;

▪ formułowanie celów;

▪ generowanie celów cząstkowych;

▪ doprecyzowanie formułowania celów cząstkowych (sprawdzenie niezależności celu cząstkowego);

▪ ocena znaczenia celów cząstkowych;

▪ sprawdzenie celów pod kątem wykonalności;

▪ sprawdzenie elementarności celów cząstkowych;

▪ budowanie drzewa celów.

Budując „drzewo celów”, musisz kierować się następującymi zasadami:

▪ każdy sformułowany cel musi posiadać środki i zasoby umożliwiające jego osiągnięcie;

▪ przy dekompozycji celów musi być spełniony warunek kompletności redukcji, tj. liczba celów cząstkowych każdego celu musi być wystarczająca do jego osiągnięcia;

▪ dekompozycja każdego celu na cele cząstkowe odbywa się według jednego wybranego kryterium klasyfikacji;

▪ rozwój poszczególnych gałęzi drzewa może kończyć się na różnych poziomach systemu;

▪ wierzchołki wyższego poziomu systemu reprezentują cele dla wierzchołków niższych poziomów;

▪ rozwój „drzewa celów” trwa do momentu, w którym osoba rozwiązująca problem będzie miała do dyspozycji wszystkie środki umożliwiające osiągnięcie wyższego celu.

Wykład 23

Eksperyment to metoda badania układu sterowania w określonych warunkach jego funkcjonowania, która może być realna lub sztucznie wytworzona przez badacza w celu uzyskania niezbędnych informacji. Eksperyment jest zwykle napędzany potrzebą potwierdzenia lub obalenia teorii lub hipotezy naukowej. Wynikiem eksperymentu mogą być zarówno jakościowe, jak i ilościowe cechy badanego obiektu. Ale wszystkie wyniki eksperymentalne wymagają interpretacji teoretycznej.

Zastosowanie tej metody ma następujące zalety:

▪ na prośbę badacza badany obiekt można nie tylko obserwować, ale także odtworzyć;

▪ w sztucznie stworzonych warunkach mogą ujawnić się nowe właściwości badanego obiektu, których nie da się zaobserwować w warunkach rzeczywistych;

▪ sztucznie stworzone warunki pozwalają wykluczyć niekorzystne czynniki, które mogą komplikować proces uczenia się;

▪ eksperyment pozwala na wykorzystanie różnych urządzeń i narzędzi do badania obiektu, którego nie da się wykorzystać w rzeczywistych warunkach;

▪ doświadczenie można powtarzać tyle razy, ile potrzeba do badania.

Wszystkie eksperymenty można sklasyfikować w zależności od tego, na czym są oparte. Eksperymenty oparte na różnych celach dzielą się na:

▪ do badań (poszukiwań) – eksperymenty, których celem jest odkrycie nowych, nieznanych nauce zjawisk lub ich nowych, nieoczekiwanych właściwości;

▪ testowanie (kontrola) – eksperymenty, których przeprowadzenie jest niezbędne do sprawdzenia przewidywania teoretycznego lub hipotezy teoretycznej. W tej grupie eksperymentów znajdują się:

▪ eksperyment konfirmacyjny – którego celem jest potwierdzenie hipotezy teoretycznej;

▪ obalanie eksperymentu – początkowo zmierzające do obalenia przewidywania teoretycznego;

▪ eksperyment decydujący – którego celem jest potwierdzenie jednej przewidywania teoretycznego i obalenie innej, całkowicie odwrotnej prognozy.

Zgodnie z warunkami eksperymentów dzieli się na:

▪ laboratoryjne - eksperymenty przeprowadzane w specjalnie stworzonych sztucznych warunkach w celu wykluczenia wpływu niekorzystnych czynników. Pozwala to zaoszczędzić zasoby materiałowe i czasowe;

▪ terenowe – doświadczenia prowadzone w rzeczywistych warunkach istnienia obiektu badań. Zaletą tych eksperymentów jest to, że wyniki są bardziej zgodne z prawdą, jednak przy ich przeprowadzaniu nie można brać pod uwagę wszystkich czynników ubocznych. Wymagają dużo czasu i kosztów materiałowych.

Zgodnie z uzyskanymi wynikami eksperymenty dzielą się na:

▪ ilościowe – eksperymenty, w wyniku których uzyskano ilościowe wskaźniki przedmiotu badań;

▪ jakościowe – eksperymenty, w wyniku których uzyskuje się cechy jakościowe badanego obiektu.

W zależności od charakteru eksperymentów dzielą się one na:

▪ model – eksperymenty prowadzone na specjalnie stworzonym modelu obiektu badań;

▪ rzeczywiste – eksperymenty prowadzone na obiekcie badań w rzeczywistych warunkach jego funkcjonowania poprzez zmianę tych warunków;

▪ myśl - eksperymenty, podczas których badany obiekt zostaje umieszczony w wyimaginowanych warunkach, którymi rządzą się prawa nauki i reguły logiki. Podstawą tego eksperymentu są obrazy sensoryczne lub modele teoretyczne. 4. Proces przeprowadzenia eksperymentu składa się z następujących elementów:

▪ opracowanie programu i planu eksperymentu;

▪ przygotowanie doświadczenia;

▪ projektowanie modeli, instalacji, środków bezpieczeństwa i redukcji ryzyka, systemów rejestracji, gromadzenia, gromadzenia i przetwarzania danych informacyjnych;

▪ prowadzenie prac doświadczalnych;

▪ analiza wyników eksperymentów;

▪ uogólnienie, ocena i opracowanie zaleceń dotyczących wykorzystania eksperymentu.

Wykład 24

Obserwacja – metoda badań polegająca na gromadzeniu informacji o badanym obiekcie, która jest realizowana poprzez obserwację wybranego obiektu badań. Podczas jej przeprowadzania badacz musi wykorzystywać takie zdolności sensoryczne, jak odczuwanie, percepcja i reprezentacja.

Wynikiem zastosowania tej metody jest wiedza o zewnętrznych i wewnętrznych właściwościach oraz cechach przedmiotu badań.

Korzystając z tej metody pozyskiwania informacji, badacz uzyskuje:

▪ informacje do konstruowania hipotez;

▪ informacje dotyczące sprawdzania danych uzyskanych innymi metodami;

▪ dodatkowe informacje o badanym obiekcie.

Obserwacje są klasyfikowane:

▪ na podstawie obserwacji badacza obiektu badań:

▪ do obserwacji bezpośredniej – bezpośrednia obserwacja zachowań np. pracowników w procesie produkcyjnym. Wadą prowadzenia tego typu badań jest to, że obiekt badany jest tylko pod pewnymi warunkami.

W rezultacie otrzymane dane cząstkowe mogą nie odpowiadać charakterystyce tego obiektu jako całości. Obecność obserwatora może również wpływać na wyniki obserwacji;

▪ pośrednia – obserwacja prowadzona poprzez badanie skutków zachowań, np. badanie danych dotyczących wydajności pracy każdego pracownika, na podstawie których można stwierdzić, który pracownik wytwarza więcej w procesie pracy;

▪ stopień świadomości obiektu badań na temat obserwacji:

▪ otwarty – obserwacja, podczas której obiekt badań wie, że jest obserwowany;

▪ ukryta – obserwacja, w której obiekt badań nie wie o prowadzonej obserwacji;

▪ poziom sformalizowania tej metody badawczej:

▪ ustrukturyzowany – obserwacja prowadzona według wcześniej opracowanego szczegółowego planu, w którym można określić np. przedmiot badań, miejsce obserwacji, wymagany czas na przeprowadzenie obserwacji;

▪ nieustrukturyzowany – obserwacja oparta na ogólnych koncepcjach prowadzonych badań. Podczas jego realizacji rejestrowane są wszelkiego rodzaju zachowania obiektu badawczego;

▪ warunki wydarzenia:

▪ terenowy – obserwacja prowadzona nad przedmiotem badań w naturalnych warunkach jego funkcjonowania;

▪ laboratorium – obserwacja prowadzona na obiekcie badawczym umieszczonym w sztucznie stworzonych warunkach i sytuacjach.

Podczas prowadzenia obserwacji dzieli się ją na następujące etapy:

▪ ustala się cel obserwacji, przedmiot i przedmiot obserwacji;

▪ zebrano materiał niezbędny do przeprowadzenia obserwacji;

▪ ustala się sposób obserwacji;

▪ przeprowadzana jest obserwacja, która pozwala uzyskać niezbędne dane.

Podczas obserwacji należy przestrzegać następujących zasad:

▪ elementy obserwowanych zdarzeń muszą być sklasyfikowane możliwie szczegółowo;

▪ ten sam element występuje w różnych sytuacjach: standardowej, konfliktowej itp.;

▪ rozróżniać i rejestrować treść i formę obserwowanych zdarzeń, ich cechy ilościowe (intensywność, regularność itp.);

▪ opisu zdarzeń nie należy mylić z interpretacją.

Istnieją 2 rodzaje trudności obserwacyjnych:

▪ subiektywne – trudności związane z osobowością obserwatora.

Powstają z powodu wpływu na wyniki badania wartości obserwatora, jego stanu emocjonalnego, doświadczenia, dominujących preferencji obserwatora;

▪ obiektywny – trudności pojawiające się w procesie obserwacji i niezależne od obserwatora. Mogą powstać z powodu braku zasobów czasowych lub niemożności zaobserwowania pewnych czynników.

Wykład 25

Ankieta jest metodą pytań i odpowiedzi zbierania informacji o przedmiocie badania, która jest zbierana poprzez zadawanie ankietowanym konkretnych pytań zawierających problem badawczy. Metoda ta opiera się na osobie (responderze), która staje się źródłem informacji. Aby uzyskać informacje o badanym obiekcie, respondentowi zadaje się pytania. Za pomocą tej metody można uzyskać cechy przedmiotu badań, które nie podlegają bezpośredniej obserwacji i są ukryte przed zewnętrznym okiem.

Przeprowadzając ankietę, musisz kierować się następującymi zasadami;

▪ respondent musi wiedzieć, kto i w jakim celu przeprowadza z nim wywiad, być zainteresowany przeprowadzeniem badania i podaniem nieprawdziwych informacji;

▪ pytania muszą być jasne i mieć to samo znaczenie;

▪ pytania muszą być formułowane bez błędów gramatycznych i leksykalnych; odpowiadać poziomowi kultury respondenta i nie być wobec niego obraźliwy;

▪ pytania muszą być formułowane w taki sposób, aby respondent mógł udzielić dokładnej i uzasadnionej odpowiedzi;

▪ pytania nie powinny nieść ze sobą obciążenia intelektualnego i psychologicznego;

▪ wszystkie opcje odpowiedzi muszą być sobie równoważne;

▪ badacz nie powinien wpływać na wybór odpowiedzi przez respondenta.

Ta metoda badawcza ma następujące zalety:

▪ umożliwia gromadzenie informacji statystycznych i dokumentacyjnych o obiekcie badawczym o niskich dochodach;

▪ eksploruje obiekty niedostępne bezpośredniej obserwacji;

▪ zapewnia wysoki poziom standaryzacji poprzez zadawanie respondentom tych samych pytań i zapewnianie tych samych opcji odpowiedzi;

▪ pozwala zaoszczędzić zasoby materiałowe i czasowe.

Wyniki są przetwarzane w oparciu o zastosowanie metod statystyki matematycznej oraz programów użytkowych na komputery osobiste.

Istnieją dwa główne rodzaje ankiet:

▪ ankieta – pisemna forma ankiety;

▪ wywiad – ustna forma przesłuchania.

Wykład 26

Kwestionowanie jest pisemną formą ankiety przeprowadzanej za pomocą specjalnie opracowanych kwestionariuszy i odbywającej się bez bezpośredniego kontaktu badacza z respondentem.

Najskuteczniejsze wykorzystanie tej formy ankiety w następujących przypadkach:

▪ duża liczba respondentów, z którymi należy przeprowadzić wywiad w krótkim czasie;

▪ potrzebę przemyślanych odpowiedzi, którą można osiągnąć, mając przed oczami wydrukowany kwestionariusz.

Proces ankiety przebiega w następujący sposób:

▪ respondent otrzymuje ankietę w specjalny sposób (pocztą lub bezpośrednio z ankiety);

▪ zapoznaje się z instrukcją jej wypełniania;

▪ czyta i wypełnia.

Ankietę można wypełnić zarówno w obecności ankiety, jak i bez niej.

Istnieje następująca klasyfikacja ankiet:

▪ według stopnia kontaktu badacza z respondentem:

▪ ankiety prasowe – ankiety publikowane w magazynach i gazetach;

▪ ankiety pocztowe – ankiety wysyłane pocztą;

▪ dystrybucja ankiet – badanie rozdaje ankiety respondentom mającym bezpośredni kontakt, podaje instrukcję dotyczącą zasad wypełniania ankiet;

▪ lokalizacja badania;

▪ miejsce zamieszkania;

▪ miejsce nauki lub pracy;

▪ w zależności od skali badania:

▪ zadawanie pytań ciągłych – ankiety wypełniają wszystkie osoby w ogólnej populacji osób objętych badaniem;

▪ badanie reprezentacyjne – ankiety wypełnia tylko część populacji ogólnej, co nazywa się próbą.

Przy tego typu badaniach można popełnić błąd reprezentatywności, w którym dane uzyskane z próby mogą nie odpowiadać danym, które zostałyby uzyskane w wyniku badania populacji ogólnej.

Wszystkie pytania użyte do przygotowania kwestionariuszy można sklasyfikować w następujący sposób:

▪ według treści:

▪ o faktach świadomości – pytania, których celem jest ujawnienie opinii, życzeń i oczekiwań respondentów;

▪ fakty dotyczące zachowań – pytania zadawane w celu wykrycia działań, działań i rezultatów działań respondentów;

▪ tożsamość respondenta – pytania zadawane w celu uzyskania danych osobowych respondenta (płeć, wiek, miejsce urodzenia itp.);

▪ forma.

▪ otwarte – pytania, które nie zawierają opcji odpowiedzi. Dzięki temu badacz może uzyskać pełniejsze informacje na interesujący go temat. Odpowiadając na takie pytania, respondenci podkreślają to, co ich najbardziej niepokoi i pokazują swój sposób myślenia. Ale te pytania mają również wady. Podczas wyrażania odpowiedzi zmieniają się granice oceny i akcentowania: dominująca informacja może pojawić się w tle i odwrotnie. Analizując dane uzyskane za pomocą pytań otwartych, badacz napotyka trudności w ich dekodowaniu i przetwarzaniu. Aby przetworzyć otrzymane dane, badacz musi dokonać dodatkowego grupowania, klasyfikacji, analizy treści itp.;

▪ zamknięte – pytania zawierające opcje odpowiedzi. Respondent ma obowiązek wybrać jedną z proponowanych odpowiedzi. Dzięki temu badacz może porównać uzyskane dane w jednakowych warunkach. Konstruując pytania zamknięte, dla badacza najważniejsze jest znalezienie wszystkich możliwych odpowiedzi. Formułując opcje odpowiedzi, na pierwszym miejscu należy postawić opcje najmniej prawdopodobne, gdyż respondent częściej wybiera pierwsze wersje odpowiedzi. Opcje odpowiedzi powinny być w przybliżeniu tej samej długości, ponieważ respondent zwykle oszczędza czas, a długie wersje odpowiedzi wymagają więcej czasu na opanowanie. Opcje odpowiedzi powinny być konkretne, gdyż abstrakcyjne wersje odpowiedzi powodują, że sytuacja jest niejasna, co prowadzi do irytacji respondentów.

Liczba opcji odpowiedzi nie powinna być duża, ponieważ w procesie przesuwania respondenta do końca wersji odpowiedzi obserwuje się zmęczenie i inercję respondenta w jego odpowiedziach;

▪ półzamknięte – pytania, na które wraz z określonymi możliwościami odpowiedzi sugerują możliwość wyrażenia przez respondenta swojej opinii;

▪ bezpośrednie – pytania, które powodują, że respondent ma krytyczny stosunek do siebie, otaczających go osób itp. Respondenci z reguły nie odpowiadają na takie pytania lub przekazują nierzetelne informacje;

▪ pośrednie – pytania, na które respondent ma odpowiedzieć w wyimaginowanej sytuacji, która nie wywołuje oceny jego cech osobistych;

▪ funkcja pełniona przez pytania:

▪ podstawowe – na podstawie tych pytań zbierane są informacje konkretnie o przedmiocie badań;

▪ non-core – pytania niezwiązane z przedmiotem studiów.

Mają one na celu nawiązanie kontaktu między badaczem a respondentem, stworzenie motywacji do udziału w badaniu, zapoznanie się z celem badania, pouczenie ich o wypełnieniu ankiety, sprawdzenie szczerości odpowiedzi.

Kwestionariusz składa się z następujących części:

▪ wprowadzenie, które głównie wskazuje kwestie organizacyjne:

▪ podano cel tej ankiety, kto prowadzi badanie (nie podano jednak autorów ankiety);

▪ zapewniona jest anonimowość odpowiedzi (jeśli jest wymagana) oraz sposób wykorzystania wyników odpowiedzi;

▪ udostępniono instrukcję wypełniania kwestionariusza;

▪ dziękujemy za wypełnienie ankiety;

▪ sekcja merytoryczna, która jest najważniejsza przy prowadzeniu badań i od której zależą wyniki badania. Zestawia się go w zależności od rodzaju kwestionariusza, rodzaju pytań, kolejności ich umieszczenia i lokalizacji kwestionariusza.

Zaleca się, aby ankiety ulotki nie były obszerne, aby respondent odpowiadając na nie nie zmęczył się i wypełnił ankietę do końca oraz nie wykazywał zaniedbań podczas jej wypełniania. Ankiety pocztowe i prasowe można wydłużyć, ponieważ respondenci mają więcej czasu na udzielenie na nie odpowiedzi. Krótkie ankiety budują wśród respondentów opinię o frywolności badania.

Rekomendowany czas na wypełnienie ankiety to 20-30 minut. W przypadku przekroczenia tego progu czasowego zmniejsza się uwaga poświęcana kwestionariuszowi, a respondenci stają się zmęczeni;

▪ wniosek („paszport”), na który składają się pytania społeczno-demograficzne. Sekcja ta jest niezbędna do sprawdzenia wiarygodności zebranych informacji, analizy uzyskanych danych itp. Zawiera pytania o tożsamość respondenta:

▪ podłoga;

▪ wiek;

▪ edukacja;

▪ miejsce pracy i staż pracy;

▪ miejsce zamieszkania;

▪ stan cywilny itp.

Przesłuchanie ma następujące zalety:

▪ ankiety pozwalają zebrać niezbędne informacje w krótkim czasie;

▪ informacje o badanym obiekcie, uzyskane w drodze ankiety, dają szeroki obraz;

▪ otrzymane odpowiedzi są indywidualnymi opiniami respondentów, na które nie ma wpływu osobowość ankietera ani jego poglądy;

▪ Aby przeprowadzić badanie, respondenci nie muszą być wysoko wykwalifikowanymi specjalistami;

▪ respondenci udzielają bardziej uzasadnionych odpowiedzi ze względu na pewność co do anonimowości badania i nieobecność badacza;

▪ czas i szybkość wypełniania ankiety respondent wybiera samodzielnie, w zależności od jego cech osobistych.

Kwestionariusze mają następujące wady:

▪ możliwość zastąpienia respondenta, co jest szczególnie powszechne w ankietach pocztowych;

▪ utrata indywidualności odpowiedzi (czasami respondenci udzielają odpowiedzi w porozumieniu z osobą, która w danej chwili znajduje się w pobliżu);

▪ niska zwrotność ankiet (w przypadku ankiet pocztowych).

Wykład 27

Wywiad jest ustną formą przesłuchania, która polega na bezpośrednim lub pośrednim kontakcie pomiędzy ankieterem a respondentem. Kontakt bezpośredni odbywa się za pomocą wywiadu osobistego („oko w oko”), a pośredniego za pomocą telefonu lub komputera.

Metoda ta opiera się na zasadzie rozmowy badacza z respondentem w celu uzyskania odpowiedzi na interesujące badacza pytania. Respondent wyraża swoją opinię na zadane pytania. Odpowiedzi należy udzielać szybko i sprawnie.

Wywiad można podzielić na następujące kryteria klasyfikacyjne:

▪ według miejsca:

▪ miejsce pracy, nauki – wywiady przeprowadzane w dowolnym lokalu biurowym, których celem jest poznanie grup produkcyjnych lub edukacyjnych, problemów ich funkcjonowania, przyczyn ich występowania itp.;

▪ miejsce zamieszkania – wywiady prowadzone w atmosferze nieformalnej, na udzielenie odpowiedzi nie mają wpływu powiązania zawodowe lub edukacyjne;

▪ forma.

▪ sformalizowany – badanie przeprowadza się z wykorzystaniem wcześniej opracowanych pytań, których treść i kolejność musi wziąć pod uwagę ankieter;

▪ skupiona – badanie charakteryzujące się mniej rygorystycznym wywiadem niż poprzednie. Pytania są przygotowywane z wyprzedzeniem, jednak ich kolejność i treść mogą się różnić. Głównym warunkiem tej rozmowy jest uzyskanie informacji na temat każdego przygotowanego pytania. W trakcie wywiadu zbierane są opinie i oceny dotyczące konkretnej badanej sytuacji, respondenci są z wyprzedzeniem zapoznawani z tematyką badania;

▪ swobodny – wywiad mniej sformalizowany, do którego nie opracowuje się szczegółowego kwestionariusza, a jedynie szkicuje ogólny plan wywiadu.

Ten rodzaj wywiadu charakteryzuje się bardziej szczerą i pełną zaufania atmosferą, w której nie powinno być żadnych ingerencji, rozmowa powinna być prowadzona w sposób swobodny i szanować interesy respondenta. Prowadząc wywiad swobodny należy przestrzegać zasad: brak krytycznych komentarzy pod adresem respondenta, robienie notatek w trakcie wywiadu wyłącznie za zgodą rozmówcy, czas trwania wywiadu wynosi średnio 2-3 godziny;

▪ sposób kontaktu:

▪ osobisty – realizowany w bezpośrednim kontakcie ankietera z respondentem;

▪ pośredni – podczas którego ankieter korzysta z telefonu lub komputera. Ten rodzaj wywiadu obejmuje:

▪ telefon tradycyjny – charakteryzuje się niskim kosztem, możliwością dotarcia do większej liczby respondentów, zapewnia wysoki poziom reprezentatywności oraz możliwością jego przeprowadzenia w stosunkowo krótkim czasie. Metoda ma następujące wady: brak możliwości pokazania czegokolwiek respondentowi, brak możliwości wyciągnięcia osobistego wrażenia ze spotkania z respondentami, trudność w uzyskaniu długich odpowiedzi na dużą liczbę pytań, gdyż cierpliwość respondenta może się wyczerpać. Ponadto trudno jest sprawdzić jakość wywiadu i ustalić, czy wszyscy respondenci zaplanowani do badania rzeczywiście zostali nim objęci;

▪ wywiad telefoniczny ze specjalnie wyposażonego pomieszczenia, podczas którego pracuje kilku ankieterów, a kontrolerzy mogą łączyć się ze swoimi telefonami;

▪ wywiad telefoniczny z wykorzystaniem komputera, który automatycznie wybiera numery telefonów respondentów, następnie na monitorze pojawia się tekst wprowadzający, a następnie kolejno zadawane pytania z możliwymi opcjami odpowiedzi. Osoba przeprowadzająca wywiad czyta pytania respondentowi i za pomocą kodu rejestruje nazwaną opcję odpowiedzi.

Ankieter odgrywa ważną rolę podczas rozmowy kwalifikacyjnej. W Stanach Zjednoczonych preferowane są kobiety jako ankieterki. Wybór ankietera odbywa się za pomocą testów.

Pożądane jest, aby ankieter był socjologiem. W trakcie wywiadu na respondentów wpływ mają:

▪ cechy osobowe ankietera: płeć, wiek, narodowość, zawód, poziom wykształcenia, kultura, umiejętności słuchania itp. Wpływ płci i wieku ankietera przeprowadza się:

▪ Z reguły nieformalne relacje rozwijają się między mężczyznami niż między kobietami;

▪ ankieterzy płci męskiej wolą pracować z mężczyznami, kobiety częściej przeprowadzają wywiady z respondentami obu płci;

▪ ankieterzy płci męskiej są bardziej krytyczni wobec swoich rozmówców niż kobiety;

▪ różnica płci ankietera i respondenta może powodować ograniczenia wśród respondentów;

▪ znaczna różnica wieku pomiędzy ankieterem a respondentem negatywnie wpływa na wyniki;

▪ cechy zewnętrzne ankietera:

▪ postać;

▪ schludność;

▪ ubrania;

▪ fryzura;

▪ mowa;

▪ styl komunikacji;

▪ zachowanie;

▪ reakcja na odpowiedzi respondenta itp.

Rozmowa kwalifikacyjna ma następujące zalety:

▪ respondenta nie można zastąpić innym, a mianowicie: wywiad prowadzony jest w drodze kontaktu, co stwarza pewność, że odpowiedzi udziela osoba pierwotnie do tego wybrana;

▪ do przeprowadzenia wywiadu nie jest konieczne wcześniejsze szczegółowe opracowywanie pytań, gdyż można go przeprowadzić zarówno w formie sformalizowanej, jak i swobodnej;

▪ pewność, że na wszystkie pytania zostaną udzielone odpowiedzi, a respondent potraktuje ankietę poważnie poprzez osobisty kontakt ankietera z respondentem;

▪ wywiady przeprowadza się z niewielką liczbą respondentów;

▪ wiarygodność otrzymanych danych;

▪ respondenci w trakcie badania odnotowują zarówno odpowiedzi werbalne, jak i reakcje niewerbalne, które pojawiają się w procesie udzielania odpowiedzi;

▪ w trakcie badania można wyjaśnić sprzeczności.

Rozmowa kwalifikacyjna ma następujące wady:

▪ niska wydajność;

▪ koszty czasu i materiałów;

▪ wykorzystanie dużej liczby ankieterów;

▪ trudności w znalezieniu ankieterów, gdyż ankieterzy muszą być wykwalifikowanymi specjalistami;

▪ możliwość przerwania wywiadu;

▪ brak możliwości sprawdzenia stopnia i charakteru wpływu ankietera na respondenta;

▪ złożoność przetwarzania otrzymanych danych.

Wykład 28

Metoda analizy dokumentów – metoda zbierania danych w trakcie prowadzenia badań nad systemami sterowania, polegająca na wykorzystaniu informacji zapisanych w formie pisemnej lub drukowanej, na taśmie magnetycznej, w formie elektronicznej, w formie ikonograficznej itp.

Dokument - informacja utrwalona na materialnym nośniku z określonymi szczegółami.

Zastosowanie tej metody daje badaczowi możliwość określenia struktury i. elementy badanego systemu kontroli, relacje, które istnieją między tymi elementami, badanie praw funkcjonowania tego systemu, zdobycie informacji niezbędnych do zmiany badanego systemu itp. Metody analizy dokumentów mogą być dwojakiego rodzaju:

▪ tradycyjny;

▪ sformalizowany.

Tradycyjna analiza dokumentów polega na badaniu treści dokumentów:

▪ jego autorzy;

▪ cele tworzenia;

▪ formy i rodzaje;

▪ wiarygodność dokumentów;

▪ wiarygodność wykorzystywanych informacji.

Ta metoda jest wykorzystywana w analizie:

▪ obowiązki funkcjonalne w połączeniu z analizą zleceń motywacyjnych;

▪ certyfikaty oparte na wynikach audytów działalności działów;

▪ pisma, skargi wpływające do kadry zarządzającej.

Sformalizowana analiza dokumentów (analiza treści) to metoda zbierania danych z wykorzystaniem ilościowego opisu informacji dostępnych w dokumentach. Analizowane są różne źródła informacji:

▪ dokumenty urzędowe organizacji (statut, dekrety, zarządzenia itp.);

▪ logo;

▪ emblematy;

▪ etykiety;

▪ nagrania wideo;

▪ artykuły z gazet i czasopism;

▪ fotografie itp.

Podstawą tej metody jest proces kodowania informacji w celu uzyskania ilościowej informacji o zawartości dokumentu.

Analiza treści podzielona jest na następujące etapy:

▪ zdefiniowanie systemu kategorii analizy, czyli jednostek semantycznych występujących w tekście. W takim przypadku konieczne jest zdefiniowanie układu jednostek semantycznych w taki sposób, aby:

▪ odpowiadał rozwiązaniu problemów badawczych;

▪ odzwierciedlił znaczenie głównych koncepcji badania;

▪ był niezawodny, jego elementy wzajemnie się wykluczały;

▪ wybór jednostki analizy tekstu, którą może być:

▪ słowo;

▪ oferta;

▪ temat;

▪ pomysł; 

▪ autor;

▪ znaki;

▪ sytuacja społeczna;

▪ część tekstu;

▪ ustalenie jednostki odniesienia – ilościowe kryterium jednostki analizy, które pozwala na odnotowanie częstotliwości występowania jednostek analizy w badanym dokumencie. Jednostkami odniesienia mogą być:

▪ liczba określonych słów;

▪ liczba czerwonych linii;

▪ całkowita liczba linii; Liczba linii;

▪ liczba liter w akapicie itp.

Wyniki analizy treści mogą być przetwarzane różnymi metodami: metodami grupowania statystycznego, metodami rankingowymi.

Wykład 29

Decyzja kierownicza jest wynikiem podjęcia pewnych działań w związku z problemem. Ponieważ decyzje zarządcze są pewnym rezultatem, wszelkie działania zarządcze opierają się na znalezieniu takich metod, środków i narzędzi, które przyczynią się do osiągnięcia najlepszego wyniku w określonych sytuacjach.

Decyzje kierownictwa różnią się w zależności od następujących kryteriów klasyfikacji:

▪ charakter oddziaływania na obiekt kontroli:

▪ polityczny;

▪ ekonomiczny;

▪ techniczne;

▪ liczba uczestników podejmujących decyzje:

▪ definiowanie – decyzje podejmowane przez jednego uczestnika;

▪ konkurencyjny – decyzje podejmuje dwóch lub więcej uczestników;

▪ adaptacja – decyzje podejmowane przez jednego lub więcej uczestników z uwzględnieniem czynników środowiskowych;

▪ z punktu widzenia niepewności;

▪ standard – decyzje, dla których istnieje ustalony zestaw alternatyw;

▪ binarny – decyzje, na które standardowe odpowiedzi brzmią „tak” lub „nie”;

▪ alternatywa – decyzje podejmowane na podstawie dużego wyboru dostępnych alternatyw;

▪ innowacyjne – decyzje, dla których nie ma akceptowalnych alternatyw;

▪ technologie tworzenia rozwiązań:

▪ organizacyjne – decyzje dotyczące menedżerów zgodnie z zakresem obowiązków, jakie muszą podjąć;

▪ zaprogramowane – decyzje jednoznacznie zdeterminowane przez sytuację i posiadające już algorytm rozwiązania;

▪ programowane – decyzje podejmowane w nowych, niepewnych sytuacjach, których algorytm jest nieznany;

▪ charakter celów i czas trwania działań:

▪ strategiczne – decyzje dotyczące celu głównego i sposobów jego osiągnięcia. Wynika z tego, że są projektowane na długi okres czasu i z reguły wiążą się z istotnymi przekształceniami organizacji (aktualizacją technologii, rewizją głównych celów itp.);

▪ taktyczne – rozwiązania opracowane w celu realizacji decyzji strategicznych i reprezentujące konkretne sposoby ich osiągnięcia, proces wdrażania nie przekracza jednego roku;

▪ operacyjny – opracowany w celu realizacji decyzji taktycznych, których proces wdrażania nie przekracza miesiąca;

▪ powody:

▪ intuicyjny – decyzje podejmowane przez menedżerów w oparciu o ich intuicję („szósty zmysł”) – nieświadome założenie, że dany wybór jest słuszny. Takie decyzje podejmowane są w skrajnych przypadkach, gdy nie ma na ich podjęcie czasu ani informacji;

▪ oparte na osądach – decyzje podejmowane na podstawie istniejącej wiedzy i zgromadzonego doświadczenia. Wybór alternatywnych rozwiązań problemu odbywa się na podstawie podobnych sytuacji, które miały miejsce wcześniej;

▪ racjonalny – uzasadniony naukową analizą badanego problemu i alternatywnymi rozwiązaniami;

▪ stopień pokrycia systemu zarządzania.

▪ ogólne – dotyczą systemu zarządzania jako całości i przyjęte są w odniesieniu do istotnych aspektów jego działalności;

▪ prywatny – wpływa na niektóre aspekty systemu zarządzania;

▪ lokalny – akceptowany w odniesieniu do odrębnego elementu systemu sterowania.

Problem - pytanie, które musi rozwiązać decydent (DM), które powstaje w wyniku niezadowolenia z czegoś. Stan niezadowolenia może powstać zarówno w środowisku zewnętrznym, jak i w strukturze wewnętrznej.

Celem jest pożądany rezultat, który decydent chce osiągnąć.

Osiągnięcie celu doprowadzi do rozwiązania problemu. Aby szybko i skutecznie osiągnąć cel, dzieli się go na podcele, które z kolei podzielone są na zadania dla każdej jednostki. Aby rozwiązać zadania przydzielone jednostkom, opracowywana jest operacja - zestaw metod, technik niezbędnych do osiągnięcia celu.

Rozwiązanie - plan rozwiązania problemu.

Decyzja zarządcza to proces, który obejmuje następujące kroki:

▪ przygotowanie decyzji zarządczej, składającej się z:

▪ od identyfikowania i formułowania problemów wymagających rozwiązania;

▪ zbieranie i przetwarzanie informacji w tym zakresie;

▪ analiza sytuacji wokół tego problemu;

▪ podjęcie decyzji polegającej na:

▪ w opracowywaniu możliwych rozwiązań;

▪ ich ocena;

▪ określenie kierunków działania;

▪ określenie kryteriów wyboru optymalnego rozwiązania;

▪ wybór optymalnego rozwiązania w oparciu o wcześniejsze procedury;

▪ wykonanie decyzji, podczas których:

▪ podjęta decyzja jest przekazywana wykonawcom;

▪ w trakcie jego realizacji przeprowadzana jest kontrola;

▪ dokonywane są niezbędne korekty w zależności od sytuacji.

Po wdrożeniu wybranej decyzji oceniany jest wynik przyjętej i wdrożonej decyzji zarządczej.

Wyniki można wyrazić następującymi wnioskami:

▪ problem został całkowicie wyeliminowany, a jego rozwiązanie nie spowodowało żadnych widocznych negatywnych konsekwencji;

▪ problem został częściowo wyeliminowany, ale nie obserwuje się żadnych negatywnych konsekwencji;

▪ problem został częściowo rozwiązany, a w trakcie jego rozwiązywania pojawiły się nowe trudności;

▪ problem nie został wyeliminowany, a wdrożenie rozwiązania eliminującego go spowodowało pojawienie się nowych, istotnych problemów.

Rozwój decyzji zarządczych odbywa się na 3 poziomach:

▪ koncepcyjny, gdzie zachodzi:

▪ ocena działań całej organizacji w oparciu o ogólne informacje o istniejącym problemie (źródła jego występowania, treść, ścieżki rozwoju itp.);

▪ opracowanie kierunków jego eliminacji w oparciu o metody naukowe i heurystyczne;

▪ określenie zadań działów w celu rozwiązania problemu;

▪ operacyjne. na którym odbywa się planowanie operacji w celu osiągnięcia założonych celów:

▪ budowany jest model działania;

▪ określa się czynniki na nią wpływające (na operację wpływają 2 rodzaje czynników: subiektywne (określane przez cechy osobowe decydenta: doświadczenie, wykształcenie, skupienie, charakter, wytrwałość, odporność na stres itp.) i obiektywne ( nie zależą od osobowości, charakterystyki sytuacji, która rozwija się wokół decydenta).Informacje wykorzystywane na tym poziomie są bardziej szczegółowe i dotyczą technologii operacji oraz osób wykonujących te operacje.Przy planowaniu operacji, metod i technologii służą do opracowania rozwiązań pozwalających osiągnąć cele wyznaczone na poprzednim etapie);

▪ zestawiane są możliwe opcje, spośród których wybierana jest ta najlepsza dla osiągnięcia celu;

▪ elementarny, na którym opracowywane są szczegóły wdrożenia rozwiązania:

▪ wybierani są wykonawcy powierzonych zadań:

▪ dobierane są metody technologiczne, które zapewnią najbardziej opłacalne rozwiązanie problemu;

▪ planowane są inne szczegóły.

Autor: Szewczuk D.A.

Polecamy ciekawe artykuły Sekcja Notatki z wykładów, ściągawki:

Psychologia ogólna. Kołyska

Ochrona i bezpieczeństwo pracy. Kołyska

Inwestycje. Notatki do wykładów

Zobacz inne artykuły Sekcja Notatki z wykładów, ściągawki.

Czytaj i pisz przydatne komentarze do tego artykułu.

<< Wstecz

Najnowsze wiadomości o nauce i technologii, nowa elektronika:

Nowy sposób kontrolowania i manipulowania sygnałami optycznymi 05.05.2024

Współczesny świat nauki i technologii rozwija się dynamicznie i każdego dnia pojawiają się nowe metody i technologie, które otwierają przed nami nowe perspektywy w różnych dziedzinach. Jedną z takich innowacji jest opracowanie przez niemieckich naukowców nowego sposobu sterowania sygnałami optycznymi, co może doprowadzić do znacznego postępu w dziedzinie fotoniki. Niedawne badania pozwoliły niemieckim naukowcom stworzyć przestrajalną płytkę falową wewnątrz falowodu ze stopionej krzemionki. Metoda ta, bazująca na zastosowaniu warstwy ciekłokrystalicznej, pozwala na efektywną zmianę polaryzacji światła przechodzącego przez falowód. Ten przełom technologiczny otwiera nowe perspektywy rozwoju kompaktowych i wydajnych urządzeń fotonicznych zdolnych do przetwarzania dużych ilości danych. Elektrooptyczna kontrola polaryzacji zapewniona dzięki nowej metodzie może stanowić podstawę dla nowej klasy zintegrowanych urządzeń fotonicznych. Otwiera to ogromne możliwości dla ... >>

Klawiatura Primium Seneca 05.05.2024

Klawiatury są integralną częścią naszej codziennej pracy przy komputerze. Jednak jednym z głównych problemów, z jakimi borykają się użytkownicy, jest hałas, szczególnie w przypadku modeli premium. Ale dzięki nowej klawiaturze Seneca firmy Norbauer & Co może się to zmienić. Seneca to nie tylko klawiatura, to wynik pięciu lat prac rozwojowych nad stworzeniem idealnego urządzenia. Każdy aspekt tej klawiatury, od właściwości akustycznych po właściwości mechaniczne, został starannie przemyślany i wyważony. Jedną z kluczowych cech Seneki są ciche stabilizatory, które rozwiązują problem hałasu typowy dla wielu klawiatur. Ponadto klawiatura obsługuje różne szerokości klawiszy, dzięki czemu jest wygodna dla każdego użytkownika. Chociaż Seneca nie jest jeszcze dostępna w sprzedaży, jej premiera zaplanowana jest na późne lato. Seneca firmy Norbauer & Co reprezentuje nowe standardy w projektowaniu klawiatur. Jej ... >>

Otwarto najwyższe obserwatorium astronomiczne na świecie 04.05.2024

Odkrywanie kosmosu i jego tajemnic to zadanie, które przyciąga uwagę astronomów z całego świata. Na świeżym powietrzu wysokich gór, z dala od miejskiego zanieczyszczenia światłem, gwiazdy i planety z większą wyrazistością odkrywają swoje tajemnice. Nowa karta w historii astronomii otwiera się wraz z otwarciem najwyższego na świecie obserwatorium astronomicznego - Obserwatorium Atacama na Uniwersytecie Tokijskim. Obserwatorium Atacama, położone na wysokości 5640 metrów nad poziomem morza, otwiera przed astronomami nowe możliwości w badaniu kosmosu. Miejsce to stało się najwyżej położonym miejscem dla teleskopu naziemnego, zapewniając badaczom unikalne narzędzie do badania fal podczerwonych we Wszechświecie. Chociaż lokalizacja na dużej wysokości zapewnia czystsze niebo i mniej zakłóceń ze strony atmosfery, budowa obserwatorium na wysokiej górze stwarza ogromne trudności i wyzwania. Jednak pomimo trudności nowe obserwatorium otwiera przed astronomami szerokie perspektywy badawcze. ... >>

Przypadkowe wiadomości z Archiwum

Opony do łazików planet 21.11.2017

Amerykańska Narodowa Agencja Aeronautyki i Przestrzeni Kosmicznej (NASA) opracowuje tak zwane superelastyczne opony dla nowej generacji łazików planetarnych.

Uszkodzenia kół to jeden z problemów, z jakimi borykają się obecnie roboty do eksploracji Marsa. Faktem jest, że łaziki planetarne muszą przedzierać się między ostrymi kamieniami i głazami pozaziemskiego krajobrazu. Tak więc wiosną tego roku okazało się, że jedno z kół łazika Curiosity doznało dość poważnych „okaleczeń”.

NASA proponuje rozwiązanie tego problemu za pomocą specjalnych kółek wykonanych z materiału z pamięcią kształtu. Struktura tworzonych prototypów przypomina kolczugę. Takie koła nie boją się uderzać o ostry bruk, a po odkształceniu przyjmują swoją poprzednią formę.

Eksperci NASA eksperymentują z różnymi stopami, w szczególności z nitinolem (NiTi). Posiada zdolność przywracania dawnego kształtu nawet po znacznych deformacjach.

Opony niepneumatyczne nowego typu mogą być szeroko stosowane na Ziemi. Jako możliwe obszary ich zastosowania wymienia się sprzęt wojskowy i rolniczy, ciężkie pojazdy budowlane, pojazdy terenowe i sprzęt lotniczy.

Inne ciekawe wiadomości:

▪ Elektroniczne buty nawigacyjne dla turystów

▪ Miłość do kawy jest genetyczna

▪ Wrażliwość imperiów

▪ Najpotężniejsze centrum superkomputerowe

▪ Ostre światła LED

Wiadomości o nauce i technologii, nowa elektronika

 

Ciekawe materiały z bezpłatnej biblioteki technicznej:

▪ sekcja strony Dokumentacja normatywna dotycząca ochrony pracy. Wybór artykułu

▪ artykuł Henry'ego Warda Beechera. Słynne aforyzmy

▪ artykuł Jaka jest różnica między osobami cierpiącymi na syndrom jerozolimski? Szczegółowa odpowiedź

▪ artykuł Torebka pasterza zwykła. Legendy, uprawa, metody aplikacji

▪ artykuł Światło steruje drzwiami. Encyklopedia elektroniki radiowej i elektrotechniki

▪ Artykuł Magiczne trio. Sekret ostrości

Zostaw swój komentarz do tego artykułu:

Imię i nazwisko:


Email opcjonalny):


komentarz:





Wszystkie języki tej strony

Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn

www.diagram.com.ua

www.diagram.com.ua
2000-2024