Menu English Ukrainian Rosyjski Strona główna

Bezpłatna biblioteka techniczna dla hobbystów i profesjonalistów Bezpłatna biblioteka techniczna


Notatki z wykładów, ściągawki
Darmowa biblioteka / Katalog / Notatki z wykładów, ściągawki

Fizyka medyczna. Ściągawka: krótko, najważniejsza

Notatki z wykładów, ściągawki

Katalog / Notatki z wykładów, ściągawki

Komentarze do artykułu Komentarze do artykułu

Spis treści

  1. Fizyka medyczna. Krótka historia
  2. Podstawowe problemy i koncepcje metrologii
  3. Metrologia medyczna i jej specyfika
  4. Wartość losowa. prawo dystrybucyjne
  5. Rozkład Maxwella (rozkład prędkości cząsteczek gazu) i Boltzmanna
  6. Statystyka matematyczna i zależność korelacji
  7. Systemy cybernetyczne
  8. Pojęcie cybernetyki medycznej
  9. Podstawy mechaniki
  10. Podstawowe pojęcia mechaniki
  11. Stawy i dźwignie w układzie mięśniowo-szkieletowym człowieka. Ergometria
  12. Wibracje mechaniczne
  13. woda mechaniczna
  14. efekt Dopplera
  15. Akustyka
  16. Fizyczne podstawy zdrowych metod badawczych w klinice
  17. Fizyka słuchu
  18. Ultradźwięki i ich zastosowanie w medycynie
  19. Hydrodynamika
  20. Właściwości mechaniczne ciał stałych i tkanek biologicznych
  21. Właściwości mechaniczne tkanek biologicznych
  22. Fizyczne problemy hemodynamiki
  23. Praca i siła serca. Maszyna płucno-sercowa
  24. Termodynamika
  25. Druga zasada termodynamiki. Entropia
  26. Stan stacjonarny
  27. Termometria i kalorymetria
  28. Właściwości fizyczne gorących i zimnych mediów stosowanych do obróbki
  29. Procesy fizyczne w błonach biologicznych
  30. Właściwości fizyczne i parametry membran
  31. Rodzaj pasywnego transferu cząsteczek i jonów przez błony biologiczne
  32. Elektrodynamika
  33. Dipol elektryczny i multipol
  34. Fizyczne podstawy elektrokardiografii
  35. Prąd elektryczny
  36. Przewodność elektryczna tkanek biologicznych i cieczy przy prądzie stałym. Wyładowania elektryczne w gazach
  37. Pole magnetyczne
  38. Siła pola magnetycznego i jego inne właściwości
  39. Właściwości magnesów i właściwości magnetyczne tkanek ludzkich
  40. Indukcja elektromagnetyczna. Energia pola magnetycznego
  41. Całkowity opór ((impedancja) tkanek ciała. Fizyczne podstawy reografii)
  42. Pojęcie teorii Maxwella. Prąd polaryzacji
  43. Klasyfikacja przedziałów częstotliwości przyjęta w medycynie
  44. Procesy fizyczne w tkankach zachodzące pod wpływem prądu i pól elektromagnetycznych
  45. Ekspozycja na prądy zmienne (impulsowe)
  46. Ekspozycja na zmienne pole magnetyczne
  47. Elektronika
  48. elektronika medyczna
  49. W jaki sposób zapewniona jest niezawodność sprzętu medycznego?
  50. System pozyskiwania informacji biomedycznych
  51. Wzmacniacz-oscylatory
  52. Optyka
  53. Optyka falowa
  54. Polaryzacja światła
  55. Układ optyczny oka i niektóre jego cechy
  56. Promieniowanie cieplne ciał

1. Fizyka medyczna. Krótka historia

Fizyka medyczna to nauka o systemie składającym się z urządzeń fizycznych i promieniowania, urządzeń i technologii medycznych i diagnostycznych.

Celem fizyki medycznej jest badanie tych systemów w celu zapobiegania i diagnozowania chorób, a także leczenia pacjentów metodami i środkami fizyki, matematyki i technologii. Charakter schorzeń i mechanizm zdrowienia w wielu przypadkach mają wytłumaczenie biofizyczne.

Fizycy medyczni są bezpośrednio zaangażowani w proces leczenia i diagnostyki, łącząc wiedzę fizyczną i medyczną, dzieląc z lekarzem odpowiedzialność za pacjenta.

Rozwój medycyny i fizyki zawsze były ze sobą ściśle powiązane. Już w starożytności medycyna wykorzystywała do celów leczniczych czynniki fizyczne, takie jak ciepło, zimno, dźwięk, światło, różne efekty mechaniczne (Hipokrates, Awicenna itp.).

Pierwszym fizykiem medycznym był Leonardo da Vinci (pięć wieków temu), który prowadził badania nad mechaniką ruchu ludzkiego ciała. Najbardziej owocne współdziałanie medycyny i fizyki zaczęło się od końca XVIII do początków XIX wieku, kiedy odkryto elektryczność i fale elektromagnetyczne, a więc wraz z nadejściem ery elektryczności.

Wymieńmy kilka nazwisk wielkich naukowców, którzy dokonali najważniejszych odkryć w różnych epokach.

Koniec XIX - połowa XX wieku związane z odkryciem promieni rentgenowskich, radioaktywności, teorii budowy atomu, promieniowania elektromagnetycznego. Odkrycia te są związane z nazwiskami VK Roentgena, A. Becquerela,

M. Skladovskoy-Curie, D. Thomson, M. Planck, N. Bohr, A. Einstein, E. Rutherford. Fizyka medyczna naprawdę zaczęła się ugruntować jako niezależna nauka i zawód dopiero w drugiej połowie XX wieku. wraz z nadejściem ery atomowej. W medycynie szeroko stosowane są radiodiagnostyczne urządzenia gamma, akceleratory elektroniczne i protonowe, radiodiagnostyczne gamma kamery, rentgenowskie tomografy komputerowe i inne, hipertermia i magnetoterapia, laser, ultradźwięki i inne technologie i urządzenia medyczno-fizyczne. Fizyka medyczna ma wiele sekcji i nazw: fizyka promieniowania medycznego, fizyka kliniczna, fizyka onkologiczna, fizyka terapeutyczna i diagnostyczna.

Za najważniejsze wydarzenie w dziedzinie badań lekarskich można uznać stworzenie tomografów komputerowych, które rozszerzyły badanie prawie wszystkich narządów i układów ludzkiego ciała. OCT zainstalowano w klinikach na całym świecie, a wielu fizyków, inżynierów i lekarzy pracowało nad ulepszeniem techniki i metod, aby doprowadzić go prawie do granic tego, co jest możliwe. Rozwój diagnostyki radionuklidowej to połączenie metod radiofarmaceutycznych i fizycznych metod rejestracji promieniowania jonizującego. Obrazowanie pozytonowej tomografii emisyjnej zostało wynalezione w 1951 roku i opublikowane w pracy L. Renna.

2. Główne problemy i koncepcje metrologii

Metrologia to nauka o pomiarach, metodach i środkach zapewnienia ich jedności oraz sposobach osiągania wymaganej dokładności. Pomiar to proces znajdowania wartości wielkości fizycznej eksperymentalnie przy użyciu środków technicznych. Pomiary pozwalają nam ustalić prawa natury i są elementem wiedzy o otaczającym nas świecie. Rozróżnia się pomiary bezpośrednie, w których wynik uzyskuje się bezpośrednio z pomiaru samej wielkości (na przykład pomiar temperatury ciała termometrem medycznym, pomiar długości przedmiotu linijką) i pośrednie, w których pożądaną wartość wielkości wyznacza się ze znanej zależności między nią a wielkościami bezpośrednio zmierzonymi (np. określenie masy ciała podczas ważenia z uwzględnieniem siły wyporu określonej przez lepkość cieczy na podstawie prędkości, z jaką spada kulka) w tym). Środki techniczne do wykonywania pomiarów mogą być różnego rodzaju. Najbardziej znane są przyrządy, w których informacja pomiarowa jest przedstawiana w formie dostępnej do bezpośredniego postrzegania (na przykład temperatura jest reprezentowana w termometrze przez długość słupka rtęci, natężenie prądu przez wskazówkę amperomierza lub wartość cyfrowa).

Jednostka wielkości fizycznej to wielkość fizyczna przyjęta w drodze umowy jako podstawa do ilościowego określenia odpowiedniej wielkości fizycznej.

Aby wyrazić poziom ciśnienia akustycznego, poziom natężenia dźwięku, wzmocnienie sygnału elektrycznego, wyrażenie przedziału częstotliwości itp. wygodniej jest użyć logarytmu wartości względnej (logarytm dziesiętny jest bardziej powszechny i ​​bardziej wspólny):

lg = a2/a1

gdzie1 i a2 - podobne wielkości fizyczne.

Jednostką wartości logarytmicznej jest bel (B):

1B \uXNUMXd lg \uXNUMXd a2/ai,

o godz2 = 10a,

jeśli a jest wielkością energii (moc, intensywność, energia itp.), lub

jeśli a jest wielkością mocy (siła, naprężenie mechaniczne, ciśnienie, natężenie pola elektrycznego itp.).

Dość powszechną jednostką podwielokrotną jest decybel (dB):

1dB = 0,1B.

1 dB odpowiada stosunkowi ilości energii a2 = 1,26a:

3. Metrologia medyczna i jej specyfika

Urządzenia techniczne stosowane w medycynie nazywane są uogólnionym terminem „sprzęt medyczny”. Większość sprzętu medycznego odnosi się do sprzętu medycznego, który z kolei dzieli się na urządzenia medyczne i urządzenia medyczne.

Za wyrób medyczny uważa się wyrób techniczny przeznaczony do pomiarów diagnostycznych lub terapeutycznych (termometr medyczny, ciśnieniomierz, elektrokardiograf itp.).

Urządzenie medyczne - urządzenie techniczne, które pozwala na wytworzenie efektu energetycznego o właściwościach terapeutycznych, chirurgicznych lub bakteriobójczych, a także na zapewnienie określonego składu różnych substancji do celów medycznych (terapia UHF, elektrochirurgia, sztuczna nerka, proteza ucha itp. ).

Wymagania metrologiczne stawiane wyrobom medycznym są dość oczywiste. Wiele wyrobów medycznych ma za zadanie zapewnić dozowane działanie energetyczne na organizm, dlatego zasługują na uwagę służby metrologicznej. Pomiary w medycynie są dość specyficzne, dlatego metrologia ma odrębny obszar - metrologię medyczną.

Mając na uwadze pewne problemy specyficzne dla metrologii medycznej i częściowo oprzyrządowania medycznego, należy zauważyć, że obecnie pomiary medyczne w większości przypadków wykonywane są przez personel medyczny (lekarz, pielęgniarka), który nie jest przeszkolony technicznie. Dlatego wskazane jest tworzenie wyrobów medycznych wyskalowanych w jednostkach wielkości fizycznych, których wartości stanowią ostateczną medyczną informację pomiarową (pomiary bezpośrednie).

Pożądane jest, aby czas pomiaru aż do uzyskania użytecznego wyniku był poświęcony jak najmniej, a informacje były jak najbardziej kompletne. Te wymagania spełniają komputery.

W standaryzacji metrologicznej wyrobu medycznego ważne jest uwzględnienie wskazań medycznych. Lekarz musi określić, z jaką dokładnością wystarczy przedstawić wyniki, aby można było wyciągnąć wnioski diagnostyczne.

Wiele urządzeń medycznych dostarcza informacji o urządzeniu rejestrującym (np. elektrokardiografie), dlatego należy wziąć pod uwagę błędy tkwiące w tej formie zapisu.

Jednym z problemów jest termologia. Zgodnie z wymogami metrologii nazwa przyrządu pomiarowego musi zawierać wielkość fizyczną lub jednostkę (amperomierz, woltomierz, miernik częstotliwości itp.). Nazwy urządzeń medycznych nie odpowiadają tej zasadzie (elektrokardiograf, fonokardiograf, reograf itp.). Tak więc elektrokardiograf powinien być nazywany miliwoltomierzem z odczytami zapisu.

W wielu pomiarach medycznych mogą być niewystarczające informacje o związku między bezpośrednio mierzoną wielkością fizyczną a odpowiadającymi jej parametrami biomedycznymi. Na przykład w klinicznej (bezkrwawej) metodzie pomiaru ciśnienia krwi zakłada się, że ciśnienie powietrza wewnątrz mankietu jest w przybliżeniu równe ciśnieniu krwi w tętnicy ramiennej.

4. Wartość losowa. prawo dystrybucyjne

Definicja zmiennej losowej. Wiele zdarzeń losowych można określić ilościowo jako zmienne losowe. Losowa to wielkość, która przybiera wartości w zależności od kombinacji losowych okoliczności. Istnieją zmienne losowe dyskretne i ciągłe.

Rozkład dyskretnej zmiennej losowej. Wartość dyskretną uważa się za podaną, jeśli wskazane są jej możliwe wartości i odpowiadające im prawdopodobieństwa. Oznaczmy dyskretną zmienną losową x, jej wartości x1, X2…, w prawdopodobieństwie: P (x1) =p2, P (x2) = p2 itp.

Zbiór x i P nazywamy rozkładem dyskretnej zmiennej losowej.

Ponieważ wszystkie możliwe wartości dyskretnej zmiennej losowej reprezentują kompletny system, suma prawdopodobieństw jest równa jeden:

Tutaj zakłada się, że dyskretna zmienna losowa ma n wartości. Wyrażenie nazywa się warunkiem normalizacji.

W wielu przypadkach, wraz z rozkładem zmiennej losowej lub zamiast niego, informacji o tych wielkościach mogą dostarczyć parametry liczbowe, które nazywane są charakterystykami liczbowymi zmiennej losowej. Najczęstsze z nich to: 1) oczekiwanie matematyczne (wartość średnia) zmiennej losowej to suma iloczynów wszystkich jej możliwych wartości i prawdopodobieństw tych wartości;

2) wariancja zmiennej losowej to matematyczne oczekiwanie kwadratu odchylenia zmiennej losowej od jej oczekiwań matematycznych.

Dla ciągłej zmiennej losowej oczekiwanie matematyczne i wariancję są zapisane jako:

gdzie f(x) jest gęstością prawdopodobieństwa lub funkcją rozkładu prawdopodobieństwa. Pokazuje, jak prawdopodobieństwo przypisania zmiennej losowej do przedziału dx zależy od wartości samej tej zmiennej. Prawo rozkładu normalnego. W teoriach prawdopodobieństwa i statystyki matematycznej, w różnych zastosowaniach, ważną rolę odgrywa prawo rozkładu normalnego (prawo Gaussa). Zmienna losowa rozkłada się zgodnie z tym prawem, jeśli jej gęstość prawdopodobieństwa ma postać:

gdzie a = M(x) - matematyczne oczekiwanie zmiennej losowej;

σ - odchylenie standardowe; W konsekwencji;

σ2jest wariancją zmiennej losowej. Krzywa rozkładu normalnego ma kształt dzwonu, symetryczny względem linii prostej x \uXNUMXd a (środek rozproszenia).

5. Rozkład Maxwella (rozkład prędkości cząsteczek gazu) i Boltzmanna

Rozkład Maxwella – w stanie równowagi parametry gazu (ciśnienie, objętość i temperatura) pozostają niezmienione, natomiast mikrostany – względne położenie cząsteczek, ich prędkości – ulegają ciągłym zmianom. Ze względu na ogromną liczbę cząsteczek praktycznie niemożliwe jest określenie w dowolnym momencie wartości ich prędkości, natomiast możliwe jest, uznając prędkość cząsteczek za ciągłą zmienną losową, wskazanie rozkładu cząsteczek ze względu na prędkość . Rozkład cząsteczek według prędkości został potwierdzony różnymi eksperymentami. Rozkład Maxwella można uznać za rozkład cząsteczek nie tylko ze względu na prędkość, ale także na energię kinetyczną (ponieważ pojęcia te są ze sobą powiązane).

Wyizolujmy pojedynczą cząsteczkę. Losowość ruchu pozwala, na przykład, rzutować prędkość Vx cząsteczki na przyjęcie prawa rozkładu normalnego. W tym przypadku, jak pokazał J.K. Maxwell, gęstość prawdopodobieństwa, że ​​cząsteczka ma składową prędkości Ux, jest zapisana w następujący sposób:

Możesz uzyskać funkcję rozkładu prawdopodobieństwa Maxwella dla wartości bezwzględnych prędkości (rozkład prędkości Maxwella):

Rozkład Boltzmanna. Jeśli cząsteczki znajdują się w jakimś zewnętrznym polu sił (na przykład w polu grawitacyjnym Ziemi), wówczas można znaleźć rozkład ich energii potencjalnej, czyli ustalić stężenie cząstek o określonej określonej wartości energia potencjalna. Rozkład cząstek według energii potencjalnych w polach sił – grawitacyjnych, elektrycznych itp. – nazywany jest rozkładem Boltzmanna.

W odniesieniu do pola grawitacyjnego rozkład ten można zapisać jako zależność stężenia n cząsteczek od wysokości h nad poziomem gruntu lub energię potencjalną mgh:

Taki rozkład cząsteczek w polu grawitacyjnym Ziemi można jakościowo wytłumaczyć, w ramach koncepcji kinetyki molekularnej, tym, że na cząsteczki oddziałują dwa przeciwstawne czynniki: pole grawitacyjne, pod wpływem którego wszystkie cząsteczki są przyciągane do Ziemia i ruch chaotyczny molekularny, mający tendencję do równomiernego rozpraszania cząsteczek na całym możliwym obiekcie.

6. Statystyka matematyczna i zależność korelacji

Statystyka matematyczna to nauka o matematycznych metodach systematyzowania i wykorzystywania danych statystycznych do rozwiązywania problemów naukowych i praktycznych. Statystyka matematyczna jest ściśle związana z teorią prawdopodobieństwa i opiera się na jej koncepcjach. Jednak najważniejsze w statystyce matematycznej nie jest rozkład zmiennych losowych, ale analiza danych statystycznych i ustalenie, któremu rozkładowi odpowiadają. Duża populacja statystyczna, z której wybierana jest część obiektów do badań, nazywana jest populacją ogólną, a zbiór zebranych z niej obiektów nazywaną populacją próbną lub próbą. Rozkład statystyczny to zbiór wariantów i odpowiadających im częstotliwości (lub częstotliwości względnych).

Dla jasności rozkłady statystyczne przedstawiono graficznie w postaci wielokąta i histogramu.

Wielokąt częstości jest linią przerywaną, której odcinki łączą punkty o współrzędnych (x1; P1), (X2; P2)…. lub dla wielokąta częstotliwości względnych - ze współrzędnymi (x1;R1),(X2;R2)….

Histogram częstotliwości - zbiór sąsiednich prostokątów zbudowanych na jednej prostej, podstawy prostokątów są takie same i równe a, a wysokości są równe stosunkowi częstotliwości (lub częstotliwości względnej) do a:

Najczęstszymi cechami rozkładu statystycznego są średnie: moda, mediana i średnia arytmetyczna (lub średnia z próby). Tryb (Mo) jest równy wariantowi, który odpowiada najwyższej częstotliwości. Mediana (Me) jest równa wariantowi znajdującemu się w środku rozkładu statystycznego. Dzieli szereg statystyczny (wariacyjny) na dwie równe części. Średnia próbki (XV) jest zdefiniowana jako średnia arytmetyczna wariantu szeregu statystycznego.

zależność korelacji. Zależności funkcjonalne można wyrazić analitycznie. Na przykład pole koła zależy od promienia (S = pr2), przyspieszenie F ciała - od siły i masy (a = F/m0). Istnieją jednak zależności, które nie są zbyt oczywiste i nie da się ich wyrazić prostymi i jednoznacznymi wzorami. Przykładowo istnieje związek między wzrostem człowieka a masą jego ciała, zmiany warunków pogodowych wpływają na liczbę przeziębień w populacji itp. Tą bardziej złożoną niż funkcjonalną, probabilistyczną zależnością jest korelacja (lub po prostu korelacja). W takim przypadku zmiana jednej z ich wartości wpływa na średnią wartość drugiej. Załóżmy, że badamy związek między zmienną losową X i zmienną losową Y. Każda konkretna wartość X będzie odpowiadać kilku wartościom Y: y1Mieć2 itp.

Warunkowa średnia Yх nazwijmy średnią arytmetyczną Y odpowiadającą wartości X = x. Zależność korelacji, czyli korelacja Y z X, jest funkcją Y x = f(x). Równość nazywa się równaniem regresji Y na X, a wykres funkcji nazywa się linią regresji Y na X.

7. Systemy cybernetyczne

System cybernetyczny to uporządkowany zbiór obiektów (elementów systemu), oddziałujących na siebie i wzajemnie powiązanych, zdolnych do postrzegania, zapamiętywania i przetwarzania informacji oraz ich wymiany. Przykładami systemów cybernetycznych są grupy ludzi, mózgi, komputery i automaty. Odpowiednio elementami systemu cybernetycznego mogą być obiekty o różnej naturze fizycznej: osoba, komórki mózgowe, bloki komputerowe itp. Stan elementów systemu opisuje pewien zestaw parametrów, które dzielą się na ciągłe, biorąc dowolne wartości rzeczywiste w pewnym przedziale i dyskretne, przyjmujące skończone zbiory wartości. Na przykład temperatura ciała danej osoby jest parametrem ciągłym, a płeć jest parametrem dyskretnym. Funkcjonowanie systemu cybernetycznego opisują trzy właściwości: funkcje uwzględniające zmiany stanów elementów systemu, funkcje powodujące zmiany w strukturze systemu (w tym pod wpływem czynników zewnętrznych) oraz funkcje określające sygnały przesyłane przez system poza jego granicami. Dodatkowo brany jest pod uwagę stan początkowy systemu.

Systemy cybernetyczne różnią się złożonością, stopniem pewności i poziomem organizacji.

Systemy cybernetyczne dzielimy na ciągłe i dyskretne. W układach ciągłych wszystkie sygnały krążące w układzie i stany elementów określone są parametrami ciągłymi, w dyskretnych - dyskretnymi. Istnieją jednak również układy mieszane, w których występują parametry obu typów. Podział systemów na ciągłe i dyskretne jest warunkowy i zależy od wymaganego stopnia dokładności badanego procesu, udogodnień technicznych i matematycznych. Niektóre procesy lub wielkości o charakterze dyskretnym, na przykład prąd elektryczny (dyskretność ładunku elektrycznego: nie może być on mniejszy niż ładunek elektronu), można wygodnie opisać wielkościami ciągłymi. Przeciwnie, w innych przypadkach sensowne jest opisanie procesu ciągłego o dyskretnych parametrach.

W cybernetyce i technologii systemy zwykle dzieli się na deterministyczne i probabilistyczne. System deterministyczny, którego elementy oddziałują w określony sposób, jego stan i zachowanie są jednoznacznie przewidywane i opisane jednoznacznymi funkcjami. Zachowanie systemów probabilistycznych można określić z pewną pewnością.

System nazywany jest zamkniętym, jeśli jego elementy wymieniają sygnały tylko ze sobą. Otwarte lub otwarte systemy z konieczności wymieniają sygnały ze środowiskiem zewnętrznym.

Aby odbierać sygnały ze środowiska zewnętrznego i przekazywać je do systemu, każdy system otwarty posiada receptory (czujniki lub przetworniki). U zwierząt, podobnie jak w systemie cybernetycznym, receptorami są narządy zmysłów – dotyk, wzrok, słuch itp., w automatach – czujniki: tensometryczny, fotoelektryczny, indukcyjny itp.

8. Pojęcie cybernetyki medycznej

Cybernetyka medyczna to kierunek naukowy związany z wykorzystaniem idei, metod i środków technicznych cybernetyki w medycynie i ochronie zdrowia. Konwencjonalnie cybernetyka medyczna może być reprezentowana przez następujące grupy.

Diagnostyka komputerowa chorób. Ta część dotyczy głównie wykorzystania komputerów do przygotowania diagnozy. Na strukturę każdego systemu diagnostycznego składa się pamięć medyczna (skumulowane doświadczenie medyczne dla danej grupy chorób) oraz urządzenie logiczne, które pozwala na porównanie objawów stwierdzonych u pacjenta za pomocą ankiety i badania laboratoryjnego z dostępnym doświadczeniem medycznym. Komputer diagnostyczny ma tę samą strukturę.

Najpierw opracowuje się metody formalnego opisu stanu zdrowia pacjenta i przeprowadza dokładną analizę objawów klinicznych wykorzystywanych w diagnostyce. Wybierz głównie te cechy, które można określić ilościowo.

Oprócz ilościowej ekspresji fizjologicznych, biochemicznych i innych cech pacjenta, diagnostyka obliczeniowa wymaga informacji o częstotliwości zespołów klinicznych i objawów diagnostycznych, ich klasyfikacji, zależności, oceny skuteczności diagnostycznej objawów itp. Wszystkie te dane są przechowywane w pamięci maszyny. Porównuje objawy pacjentki z danymi przechowywanymi w jej pamięci. Logika diagnostyki obliczeniowej odpowiada logice diagnozującego lekarza: całość objawów porównuje się z dotychczasowym doświadczeniem medycyny. Maszyna nie wykryje nowej (nieznanej) choroby. Lekarz, który napotka nieznaną chorobę, będzie w stanie opisać jej objawy. Szczegóły dotyczące takiej choroby można ustalić tylko poprzez przeprowadzenie specjalnych badań. Pomocniczą rolę w takich badaniach mogą odgrywać komputery.

Cybernetyczne podejście do procesu leczenia. Po ustaleniu diagnozy przez lekarza przepisuje się leczenie, które nie ogranicza się do jednorazowej ekspozycji. Jest to złożony proces, podczas którego lekarz na bieżąco otrzymuje informacje medyczne i biologiczne o pacjencie, analizuje je i zgodnie z nimi uszlachetnia, zmienia, zatrzymuje lub kontynuuje efekt terapeutyczny.

Obecnie cybernetyczne podejście do procesu leczenia ułatwia pracę lekarza, umożliwia skuteczniejsze leczenie ciężko chorych pacjentów, podejmowanie na czas działań w przypadku powikłań podczas operacji, opracowywanie i kontrolowanie procesu leczenia farmakologicznego, tworzenie protez biokontrolowanych , diagnozuj choroby i steruj urządzeniami regulującymi funkcje życiowe.

Do zadań operacyjnej kontroli medycznej należy monitorowanie stanu ciężko chorych pacjentów za pomocą systemów śledzących (systemy monitorujące stan zdrowia osób zdrowych w warunkach ekstremalnych: stresujące, nieważkość, stany hiperbaryczne, środowisko o niskiej zawartości tlenu itp.) .

9. Podstawy mechaniki

Mechanika to dział fizyki, który bada ruch mechaniczny ciał materialnych. Pod ruchem mechanicznym zrozum zmianę położenia ciała lub jego części w przestrzeni w czasie.

Dla lekarzy ta sekcja jest interesująca z następujących powodów:

1) rozumienia mechaniki ruchu całego organizmu na potrzeby medycyny sportowej i kosmicznej, mechaniki układu mięśniowo-szkieletowego człowieka – na potrzeby anatomii i fizjologii;

2) znajomość właściwości mechanicznych tkanek i płynów biologicznych;

3) zrozumienie podstaw fizycznych niektórych technik laboratoryjnych stosowanych w praktyce badań biomedycznych, takich jak wirowanie.

Mechanika ruchu obrotowego ciała absolutnie sztywnego

Ciało absolutnie sztywne to takie, którego odległość między dowolnymi dwoma punktami jest stała. Podczas ruchu nie zmieniają się wymiary i kształt absolutnie sztywnego korpusu. Prędkość obrotu ciała charakteryzuje się prędkością kątową równą pierwszej pochodnej kąta obrotu wektora promienia względem czasu:

ω = dt/da

Prędkość kątowa jest wektorem skierowanym wzdłuż osi obrotu i związanym z kierunkiem obrotu. Wektor prędkości kątowej, w przeciwieństwie do wektorów prędkości i siły, jest przesuwany. Zatem określenie wektora w określa położenie osi obrotu, kierunek obrotu i moduł prędkości kątowej. Szybkość zmiany prędkości kątowej charakteryzuje się przyspieszeniem kątowym równym pierwszej pochodnej prędkości kątowej względem czasu:

Z tego jasno wynika, że ​​wektor przyspieszenia kątowego pokrywa się w kierunku z elementarną, dość małą zmianą wektora prędkości kątowej dw: przy przyspieszonym obrocie przyspieszenie kątowe jest skierowane w taki sam sposób, jak prędkość kątowa, przy wolnym obrocie - w przeciwny kierunek. Przedstawmy wzory na kinematykę ruchu obrotowego ciała sztywnego wokół ustalonej osi:

1) równanie jednostajnego ruchu obrotowego:

za = waga + za0

gdzie0 - początkowa wartość kąta;

2) zależność prędkości kątowej od czasu w jednostajnym ruchu obrotowym:

w = et + W0,

gdzie w0 - początkowa prędkość kątowa;

3) równanie jednostajnego ruchu obrotowego:

10. Podstawowe pojęcia mechaniki

Moment mocy. Moment siły wokół osi obrotu jest iloczynem wektorowym wektora promienia i siły:

Mi = ri ×Fi,

gdzie jesteśi i F.i - wektory.

Moment bezwładności. Masa jest miarą bezwładności ciał w ruchu postępowym. Bezwładność ciał podczas ruchu obrotowego zależy nie tylko od masy, ale także od jej rozmieszczenia w przestrzeni względem osi.

Moment bezwładności ciała wokół osi jest sumą momentów bezwładności punktów materialnych tworzących ciało:

Moment bezwładności ciała stałego jest zwykle wyznaczany przez całkowanie:

Moment pędu ciała wokół osi jest równy sumie pędu punktów tworzących to ciało:

Energia kinetyczna wirującego ciała. Gdy ciało się obraca, jego energia kinetyczna wynosi

z energii kinetycznych jej poszczególnych punktów. Dla bryły sztywnej:

Przyrównajmy pracę elementarną wszystkich sił zewnętrznych podczas takiego obrotu do elementarnej zmiany energii kinetycznej:

Mda=Żwdw,

skąd

zmniejszamy tę równość o ω:

skąd

Prawo zachowania momentu pędu. Jeżeli całkowity pęd wszystkich sił zewnętrznych działających na ciało wynosi zero, to moment pędu tego ciała pozostaje stały. To prawo obowiązuje nie tylko w przypadku absolutnie sztywnego ciała. Tak więc dla układu składającego się z N ciał obracających się wokół wspólnej osi, prawo zachowania momentu pędu można zapisać w postaci:

11. Stawy i dźwignie w układzie mięśniowo-szkieletowym człowieka. Ergometria

Ruchome części mechanizmów są zwykle połączone w części. Ruchome połączenie kilku ogniw tworzy połączenie kinematyczne. Ciało ludzkie jest przykładem zależności kinematycznej. Układ mięśniowo-szkieletowy człowieka, składający się z kości szkieletowych i mięśni połączonych ze sobą przegubowo, jest z fizycznego punktu widzenia zespołem dźwigni utrzymujących człowieka w równowadze. W anatomii rozróżnia się dźwignie siły, w których następuje przyrost siły, ale utrata ruchu, oraz dźwignie szybkości, w których tracąc siłę, zyskują prędkość ruchu. Dobrym przykładem dźwigni prędkości jest żuchwa. Siła działająca jest wywierana przez mięsień żucia. Przeciwwaga – opór rozdrobnionego jedzenia – działa na zęby. Ramię siły działającej jest znacznie krótsze niż siły reakcji, dlatego mięsień żucia jest krótki i mocny. Kiedy musisz coś przeżuć zębami, siła oporu maleje.

Jeśli rozważymy szkielet jako zbiór oddzielnych ogniw połączonych w jeden organizm, to okazuje się, że wszystkie te ogniwa, przy normalnym stojaku, tworzą układ, który jest w skrajnie niestabilnej równowadze. Tak więc wsparcie ciała jest reprezentowane przez sferyczne powierzchnie stawu biodrowego. Środek masy ciała znajduje się nad podporą, co stwarza niestabilną równowagę z podporą kulową. To samo dotyczy stawu kolanowego i stawu skokowego. Wszystkie te ogniwa znajdują się w stanie niestabilnej równowagi.

Środek masy ciała człowieka w normalnej postawie znajduje się dokładnie w tym samym pionie ze środkami stawów biodrowych, kolanowych i skokowych nogi 2-2,5 cm poniżej peleryny kości krzyżowej i 4-5 cm powyżej oś biodra. Jest to więc najbardziej niestabilny stan spiętrzonych ogniw szkieletu. A jeśli cały system jest utrzymywany w równowadze, to tylko dzięki stałemu napięciu mięśni podporowych.

Praca mechaniczna, jaką dana osoba jest w stanie wykonać w ciągu dnia, zależy od wielu czynników, dlatego trudno wskazać jakąkolwiek wartość graniczną. Dotyczy to również władzy. Tak więc przy krótkoterminowych wysiłkach osoba może rozwinąć moc rzędu kilku kilowatów. Jeśli zawodnik ważący 70 kg wyskoczy z miejsca tak, że jego środek masy wzniesie się o 1 m w stosunku do normalnej postawy, a faza odpychania trwa 0,2 s, to rozwinie moc około 3,5 kW. Podczas chodzenia człowiek wykonuje pracę, ponieważ energia zużywana jest na okresowe niewielkie podnoszenie kończyn, głównie nóg.

Praca spada do zera, jeśli nie ma ruchu. Dlatego też, gdy ładunek znajduje się na podporze lub stojaku lub jest zawieszony na słupie, grawitacja nie wykonuje żadnej pracy. Jeśli jednak trzymasz nieruchomo ciężarek lub hantle na wyciągniętym ramieniu, obserwuje się zmęczenie mięśni ramienia i barku. W ten sam sposób mięśnie pleców i odcinka lędźwiowego ulegają zmęczeniu, jeśli na plecy osoby siedzącej zostanie umieszczony ładunek.

12. Drgania mechaniczne

Powtarzające się ruchy (lub zmiany stanu) nazywane są oscylacjami (przemienny prąd elektryczny, zjawisko wahadła, praca serca itp.). Wyróżnić:

1) oscylacje swobodne lub naturalne - takie oscylacje, które występują przy braku zmiennych wpływów zewnętrznych na układ oscylacyjny i powstają w wyniku dowolnego początkowego odchylenia tego układu od jego stanu stabilnej równowagi;

2) drgania wymuszone - drgania, podczas których układ oscylacyjny jest wystawiony na działanie zewnętrznej, okresowo zmieniającej się siły;

3) drgania harmoniczne to drgania, w których przemieszczenie zmienia się zgodnie z prawem sinusa lub cosinusa w zależności od czasu. Prędkość i przyspieszenie punktu wzdłuż osi X są odpowiednio równe:

gdzie jesteś0 = Aw - amplituda prędkości;

a0 =Aw2 =u0w jest amplitudą przyspieszenia;

4) drgania tłumione – drgania o wartościach amplitudy drgań malejących w czasie, na skutek utraty energii przez układ oscylacyjny na pokonanie siły oporu.

Okres drgań tłumionych zależy od współczynnika tarcia i jest określony wzorem:

Z bardzo małym tarciem (β2 <<ω02) okres drgań tłumionych jest zbliżony do okresu drgań swobodnych nietłumionych

W praktyce stopień tłumienia często charakteryzuje logarytmiczny dekrement tłumienia s:

gdzie Nl jest liczbą oscylacji, podczas których amplituda oscylacji zmniejsza się l razy. Współczynnik tłumienia i logarytmiczny dekrement tłumienia są powiązane dość prostą zależnością:

l = bT;

5) oscylacje wymuszone – oscylacje występujące w układzie z udziałem siły zewnętrznej. Równanie ruchu oscylacji wymuszonych ma postać:

gdzie F jest siłą napędową.

Siła napędowa zmienia się zgodnie z prawem harmonicznym F = F0 koszt.

13. Woda mechaniczna

Fale mechaniczne to zakłócenia, które rozchodzą się w przestrzeni i przenoszą energię. Istnieją dwa rodzaje fal mechanicznych: fale sprężyste i fale na powierzchni cieczy.

Fale sprężyste powstają w wyniku wiązań istniejących między cząstkami ośrodka: ruch jednej cząstki z położenia równowagi prowadzi do ruchu sąsiednich cząstek.

Fala poprzeczna to fala, której kierunek i propagacja są prostopadłe do kierunku oscylacji punktów ośrodka.

Fala podłużna to fala, której kierunek i propagacja pokrywają się z kierunkiem oscylacji punktów ośrodka.

Powierzchnia fali fali harmonicznej jest pojedynczo połączoną powierzchnią w ośrodku, która jest geometrycznie lub w fazie (w jednej fazie) szeregiem punktów oscylacyjnych ośrodka z harmoniczną falą wędrującą.

Czoło fali to najdalsza powierzchnia fali w tej chwili, na której fala dotarła do tego momentu.

Fala płaska to fala, której przód jest płaszczyzną prostopadłą do propagacji fali.

Fala sferyczna - fala, której przód jest powierzchnią kuli o promieniu pokrywającym się z kierunkiem propagacji fali.

Zasada Huygensa. Każdy punkt ośrodka, do którego dotarło zaburzenie, sam staje się źródłem wtórnych fal sferycznych. Prędkość propagacji fali (faza) - prędkość propagacji powierzchni o jednakowej fazie dla fali harmonicznej.

Prędkość fali jest równa iloczynowi częstotliwości drgań fali i długości fali:

n = lυ.

Fala stojąca to stan ośrodka, w którym położenie maksimów i minimów ruchu punktów oscylacyjnych nie zmienia się w czasie.

Fale sprężyste - sprężyste zaburzenia rozchodzące się w ośrodkach stałych, ciekłych i gazowych (na przykład fale powstające w skorupie ziemskiej podczas trzęsienia ziemi, fale dźwiękowe i ultradźwiękowe w ciałach gazowych, ciekłych i stałych).

Fale uderzeniowe są częstym przykładem fali mechanicznej. Fala dźwiękowa - ruchy oscylacyjne cząstek ośrodka elastycznego, rozchodzące się w postaci fal sprężystych (odkształcenie ściskające, ścinanie, które są przenoszone przez fale z jednego punktu ośrodka do drugiego) w ośrodku gazowym, ciekłym i stałym. Fale dźwiękowe oddziałujące na narząd słuchu człowieka są w stanie wywoływać wrażenia dźwiękowe, jeśli częstotliwości odpowiednich wibracji mieszczą się w przedziale 16 - 2 h 104 Hz (dźwięki słyszalne). Fale sprężyste o częstotliwości mniejszej niż 16 Hz nazywane są infradźwiękami, a fale o częstotliwości większej niż 16 Hz nazywane są ultradźwiękami. Prędkość dźwięku to prędkość fazowa fal dźwiękowych w ośrodku elastycznym. Prędkość dźwięku jest różna w różnych środowiskach. Prędkość dźwięku w powietrzu wynosi 330-340 m/s (w zależności od stanu powietrza).

Głośność dźwięku jest związana z energią drgań źródła i fali, a zatem zależy od amplitudy drgań. Wysokość dźwięku to jakość dźwięku określana przez człowieka subiektywnie na podstawie ucha i zależna głównie od częstotliwości dźwięku.

14. Efekt Dopplera

Efekt Dopplera to zmiana częstotliwości fal rejestrowanych przez odbiornik, która następuje na skutek ruchu źródła tych fal i odbiornika. Przykładowo, gdy zbliża się do nieruchomego obserwatora szybko jadącego pociągu, ton jego sygnału dźwiękowego jest wyższy, a gdy pociąg się oddala, jest niższy od tonu sygnału, jaki daje ten sam pociąg na postoju.

Wyobraźmy sobie, że obserwator zbliża się z prędkością v do nieruchomego względem ośrodka źródła fal. Jednocześnie napotyka więcej fal w jednym i tym samym przedziale czasu niż przy braku ruchu. Oznacza to, że postrzegana częstotliwość vy jest większa niż częstotliwość fali emitowanej przez źródło. Ale jeśli długość fali, częstotliwość i prędkość propagacji fali są powiązane przez:

Efekt Dopplera można wykorzystać do określenia prędkości ciała w ośrodku. Dla medycyny ma to szczególne znaczenie. Rozważmy na przykład ten przypadek. Generator ultradźwięków jest połączony z odbiornikiem w postaci jakiegoś systemu technicznego.

System techniczny jest nieruchomy w stosunku do otoczenia.

W medium z prędkością u0 obiekt (ciało) się porusza. Generator emituje ultradźwięki o częstotliwości v1. Poruszający się obiekt odbiera częstotliwość v1, który można znaleźć według wzoru:

gdzie v jest prędkością propagacji fali mechanicznej (ultradźwięki).

W zastosowaniach medycznych prędkość ultradźwięków jest znacznie większa niż prędkość obiektu

(u > u0). W tych przypadkach mamy:

Efekt Dopplera służy do określenia prędkości przepływu krwi, prędkości ruchu zastawek i ścian serca (echokardiografia Dopplera) i innych narządów; przepływ energii fal. Proces falowy związany jest z propagacją energii. Ilościową cechą energii jest przepływ energii.

Strumień energii fal jest równy stosunkowi energii niesionej przez fale przez określoną powierzchnię do czasu, w którym energia ta była przenoszona:

Jednostką strumienia energii fal jest wat (W).

Strumień energii fali związany z obszarem zorientowanym prostopadle do kierunku propagacji fali nazywany jest gęstością strumienia energii fali lub intensywnością fali.

15. Akustyka

Akustyka to dziedzina fizyki, która bada drgania i fale sprężyste od najniższych do najwyższych częstotliwości (1012-1013 Hz). Współczesna akustyka obejmuje szeroki zakres zagadnień, jest w niej szereg działów: akustyka fizyczna, badająca cechy propagacji fal sprężystych w różnych mediach, akustyka fizjologiczna, badająca strukturę odbioru i kształtowania dźwięku narządy u ludzi i zwierząt itp.

Akustyka rozumiana jest jako doktryna dźwięku, czyli drgań sprężystych i fal w gazach, cieczach i ciałach stałych, odbieranych przez ucho człowieka (częstotliwości od 16 do 20 000 Hz).

Słuch jest przedmiotem wrażeń słuchowych, dlatego jest oceniany przez człowieka subiektywnie. Postrzegając tony, osoba odróżnia je wzrostem.

Wysokość to cecha subiektywna, określona przede wszystkim przez częstotliwość tonu podstawowego. W znacznie mniejszym stopniu wysokość tonu zależy od złożoności tonu i jego intensywności: dźwięk o większej intensywności jest odbierany jako dźwięk o tonie niższym.

O barwie dźwięku decyduje niemal wyłącznie jego skład spektralny. Różne widma akustyczne odpowiadają różnym barwom, chociaż podstawowy ton, a co za tym idzie wysokość, są takie same.

Głośność charakteryzuje poziom wrażeń słuchowych. Chociaż głośność jest subiektywna, można ją określić ilościowo, porównując wrażenia słuchowe z dwóch źródeł. Tworzenie skali poziomu głośności opiera się na psychofizycznym prawie Webera-Fechnera. Zgodnie z tym prawem, jeśli zwiększamy irytację w postępie geometrycznym (tj. o tę samą liczbę razy), to odczucie tego podrażnienia rośnie w postępie arytmetycznym (tj. o tę samą wielkość). W odniesieniu do dźwięku oznacza to, że jeśli natężenie dźwięku przyjmuje szereg kolejnych wartości, na przykład a10, a210, a310 (a jest pewnym współczynnikiem, a > I) itd., to odpowiadające mu wrażenie głośności dźwięku wynosi E0, 2E0, 3E0 itd. d. Matematycznie oznacza to, że głośność dźwięku jest proporcjonalna do logarytmu natężenia dźwięku. Jeżeli istnieją dwa bodźce dźwiękowe o intensywnościach I i I0, i ja0 - próg słyszalności, a następnie na podstawie prawa Webera-Fechnera głośność względem niego związana jest z natężeniami w następujący sposób:

gdzie k jest pewnym współczynnikiem proporcjonalności zależnym od częstotliwości i intensywności. Metoda pomiaru ostrości dźwięku nazywana jest audiometrią. Za pomocą audiometrii na specjalnym urządzeniu (audiometrze) określa się próg czucia słuchu na różnych częstotliwościach; powstała krzywa nazywana jest audiogramem. Porównanie audiogramu osoby chorej z prawidłową krzywą progu słyszenia pomaga zdiagnozować chorobę narządu słuchu.

16. Fizyczne podstawy zdrowych metod badawczych w klinice

Dźwięk, podobnie jak światło, jest źródłem informacji i to jest jego główne znaczenie. Odgłosy natury, mowa otaczających nas ludzi, hałas pracujących maszyn wiele nam mówią. Aby wyobrazić sobie znaczenie dźwięku dla danej osoby, wystarczy tymczasowo pozbawić się możliwości postrzegania dźwięku - zamknąć uszy. Naturalnie dźwięk może być również źródłem informacji o stanie narządów wewnętrznych człowieka.

Powszechną zdrową metodą diagnozowania chorób jest osłuchiwanie (słuchanie). Do osłuchiwania używa się stetoskopu lub fonendoskopu. Fonendoskop składa się z wydrążonej kapsułki z membraną przenoszącą dźwięk nałożoną na ciało pacjenta, z której prowadzą gumowe rurki do ucha lekarza. W pustej kapsule dochodzi do rezonansu słupa powietrza, w wyniku którego dźwięk zostaje wzmocniony i poprawia się osłuchiwanie. Podczas osłuchiwania płuc słychać odgłosy oddechowe, różne świszczące oddechy, charakterystyczne dla chorób. Zmieniając tony serca i wygląd hałasu, można ocenić stan czynności serca. Za pomocą osłuchiwania można ustalić obecność perystaltyki żołądka i jelit, posłuchać bicia serca płodu.

Do jednoczesnego słuchania pacjenta przez kilku badaczy w celach edukacyjnych lub podczas konsultacji wykorzystuje się system składający się z mikrofonu, wzmacniacza i głośnika lub kilka telefonów.

Do diagnozowania stanu czynności serca stosuje się metodę podobną do osłuchiwania i zwaną fonokardiografią (FCG). Metoda ta polega na graficznym zapisie tonów i szmerów serca oraz ich interpretacji diagnostycznej. Fonokardiogram jest rejestrowany za pomocą fonokardiografu, który składa się z mikrofonu, wzmacniacza, systemu filtrów częstotliwości i urządzenia rejestrującego.

Zasadniczo różni się od dwóch opisanych powyżej metod brzmieniowych, perkusja. Dzięki tej metodzie słychać dźwięk poszczególnych części ciała, gdy są one stukane. Schematycznie ludzkie ciało można przedstawić jako kombinację objętości wypełnionych gazem (płuca), cieczy (narządy wewnętrzne) i stałej (kości). Podczas uderzania w powierzchnię ciała pojawiają się oscylacje, których częstotliwości mają szeroki zakres. Z tego zakresu niektóre drgania wygasną dość szybko, podczas gdy inne, zbieżne z naturalnymi drganiami pustych przestrzeni, będą się nasilać i dzięki rezonansowi będą słyszalne. Doświadczony lekarz określa stan i lokalizację (tonografię) narządów wewnętrznych tonem dźwięków perkusji.

17. Fizyka słuchu

Układ słuchowy łączy bezpośredni odbiornik fali dźwiękowej z mózgiem.

Korzystając z pojęć cybernetyki, możemy powiedzieć, że system słuchowy odbiera, przetwarza i przesyła informacje. Z całego układu słuchowego, ze względu na fizykę słuchu, wyróżnia się ucho zewnętrzne, środkowe i wewnętrzne.

Ucho zewnętrzne składa się z małżowiny usznej i przewodu słuchowego zewnętrznego. U człowieka małżowina uszna nie odgrywa znaczącej roli w słuchu. Pomaga określić lokalizację źródła dźwięku, gdy jest ono zlokalizowane - dźwięk ze źródła wchodzi do małżowiny usznej. W zależności od położenia źródła w płaszczyźnie pionowej, fale dźwiękowe będą różnie uginać się w małżowinie usznej ze względu na jej specyficzny kształt. Prowadzi to również do różnych zmian w składzie widmowym fali dźwiękowej wchodzącej do kanału słuchowego. Człowiek nauczył się kojarzyć zmiany widma fali dźwiękowej z kierunkiem w stronę źródła dźwięku.

Różne kierunki w kierunku źródła dźwięku w płaszczyźnie poziomej będą odpowiadać różnicom fazowym. Uważa się, że osoba o prawidłowym słuchu potrafi określić kierunek źródła dźwięku z dokładnością do 3°, co odpowiada różnicy fazowej wynoszącej 6°. Można zatem założyć, że człowiek jest w stanie rozróżnić zmiany różnicy fazowej fal dźwiękowych docierających do jego uszu z dokładnością do 6°.

Oprócz różnicy faz, efekt binauralny jest wspomagany przez różnicę w natężeniu dźwięku w różnych uszach, a także „cień akustyczny” od głowy do jednego ucha.

Długość przewodu słuchowego człowieka wynosi około 2,3 cm; dlatego rezonans akustyczny występuje z częstotliwością:

Najistotniejszymi częściami ucha środkowego są błona bębenkowa i kosteczek słuchowych: młoteczek, kowadełko i strzemię wraz z odpowiednimi mięśniami, ścięgnami i więzadłami.

Układ kosteczek słuchowych jest połączony z jednej strony z błoną bębenkową za pomocą młoteczka, a z drugiej strony za pomocą strzemiączka z owalnym okienkiem ucha wewnętrznego. Ciśnienie akustyczne działa na błonę bębenkową, która określa siłę F1 = P1 S1 (P1 - ciśnienie akustyczne, S1 - kwadrat).

Układ kosteczek słuchowych działa jak dźwignia, zwiększając siłę ludzkiego ucha wewnętrznego o 1,3 razy. Kolejną funkcją ucha środkowego jest osłabianie przenoszenia drgań w przypadku dźwięków o dużym natężeniu.

Ślimak ludzki jest strukturą kostną o długości około 3,5 mm i ma kształt spiralnej torebki z 2-3/4 zwojami. Wzdłuż ślimaka biegną trzy kanały. Jeden z nich, zaczynający się od owalnego okna, nazywany jest przedsionkiem scala. Z okrągłego okna wychodzi kolejny kanał, nazywany tympani scala. Łupka przedsionkowa i tympani skala są połączone w obszarze kopuły ślimaka poprzez mały otwór - helicotremę. Pomiędzy kanałem ślimakowym a łopatką bębenkową główna (podstawna) błona biegnie wzdłuż ślimaka. Zawiera narząd Cortiego, który zawiera komórki receptorowe (włosy), a nerw słuchowy pochodzi ze ślimaka.

18. Ultradźwięki i ich zastosowanie w medycynie

Ultradźwięki to niesłyszalne dla ludzkiego ucha drgania mechaniczne o wysokiej częstotliwości cząstek ośrodka stałego, ciekłego lub gazowego. Częstotliwość oscylacji ultradźwiękowych wynosi powyżej 20 000 na sekundę, czyli powyżej progu słyszenia.

W celach terapeutycznych stosuje się ultradźwięki o częstotliwości od 800 000 do 3 000 000 drgań na sekundę. Urządzenia zwane przetwornikami ultradźwiękowymi służą do generowania ultradźwięków.

Najbardziej rozpowszechnione są emitery elektromechaniczne. Zastosowanie ultradźwięków w medycynie wiąże się ze specyfiką jego propagacji i charakterystycznymi właściwościami. Ze swej natury fizycznej ultradźwięki, podobnie jak dźwięk, są falą mechaniczną (sprężystą). Jednak długość fali ultradźwiękowej jest znacznie krótsza niż długość fali dźwięku. Im większe są różne opory akustyczne, tym silniejsze jest odbicie i załamanie ultradźwięków na styku różnych ośrodków. Odbicie fal ultradźwiękowych zależy od kąta padania na dotknięty obszar – im większy kąt padania, tym większy współczynnik odbicia.

W organizmie ultradźwięki o częstotliwości 800-1000 kHz rozchodzą się na głębokość 8-10 cm, a przy częstotliwości 2500-3000 Hz - do 1,0-3,0 cm Ultradźwięki są absorbowane nierównomiernie przez tkanki: im wyższy poziom akustyczny gęstość, tym mniejsza absorpcja.

Podczas terapii ultradźwiękowej na organizm człowieka działają trzy czynniki:

1) mechaniczny - mikromasaż wibracyjny komórek i tkanek;

2) termiczny - wzrost temperatury tkanek i przepuszczalności błon komórkowych;

3) fizykochemiczne – stymulacja metabolizmu tkankowego i procesów regeneracji.

Biologiczny efekt ultradźwięku zależy od jego dawki, która może być stymulująca, przygnębiająca, a nawet destrukcyjna dla tkanek. Najbardziej odpowiednie dla efektów terapeutycznych i profilaktycznych są małe dawki ultradźwięków (do 1,2 W/cm2), zwłaszcza w trybie pulsacyjnym. Są w stanie zapewnić działanie przeciwbólowe, antyseptyczne (przeciwdrobnoustrojowe), rozszerzające naczynia krwionośne, rozdzielające, przeciwzapalne, odczulające (przeciwalergiczne).

W praktyce fizjoterapeutycznej stosuje się głównie domowe urządzenia trzech serii: UZT-1, UZT-2, UZT-3.

Ultradźwięki nie są stosowane do obszaru mózgu, kręgów szyjnych, wyniosłości kostnych, obszarów rosnących kości, tkanek z ciężkimi zaburzeniami krążenia, brzucha w czasie ciąży, moszny. Ostrożnie stosuje się ultradźwięki w okolicy serca, narządach dokrewnych.

Rozróżnij ultradźwięki ciągłe i pulsacyjne. Ciągłe ultradźwięki nazywane są ciągłym strumieniem fal ultradźwiękowych. Ten rodzaj promieniowania stosowany jest głównie do oddziaływania na tkanki miękkie i stawy. Ultradźwięki pulsacyjne to promieniowanie nieciągłe, tj. ultradźwięki są wysyłane w oddzielnych impulsach w regularnych odstępach czasu.

19. Hydrodynamika

Hydrodynamika to dział fizyki zajmujący się zagadnieniami ruchu płynów nieściśliwych i ich interakcji z otaczającymi ciałami stałymi, teorią deformacji i płynnością substancji.

Zbiór metod pomiaru lepkości nazywa się wiskozymetrią, a przyrządy używane do tego celu nazywane są wiskozymetrami. Najpopularniejsza metoda wiskozymetrii – kapilarna – polega na pomiarze czasu przepływu cieczy o znanej masie przez kapilarę pod wpływem grawitacji przy określonej różnicy ciśnień. Do określenia lepkości krwi stosuje się wiskozymetr kapilarny.

Stosowane są również wiskozymetry rotacyjne, w których ciecz znajduje się w szczelinie pomiędzy dwoma współosiowymi korpusami, np. cylindrami. Jeden z cylindrów (wirnik) obraca się, drugi jest nieaktywny. Lepkość mierzy się prędkością kątową wirnika wytwarzającą określony moment siły na nieruchomym cylindrze lub momentem siły działającej na nieruchomy cylinder lub momentem siły działającej na nieruchomy cylinder przy danej prędkości kątowej obrót rotora. Za pomocą wiskozymetrów rotacyjnych określa się lepkość cieczy - olejów smarowych, stopionych krzemianów i metali, lakierów i klejów o dużej lepkości, roztworów gliny.

Obecnie klinika używa lepkościomierza Hessa z dwoma kapilarami do określania lepkości krwi. W lepkościomierzu Hessa objętość krwi jest zawsze taka sama, a objętość wody mierzy się podziałami na rurce, dzięki czemu wartość względnej lepkości krwi jest uzyskiwana bezpośrednio. Lepkość krwi ludzkiej wynosi zwykle 0,4-0,5 Pas, przy patologii waha się od 0,17 do 2,23 Pas, co wpływa na szybkość sedymentacji erytrocytów (ESR). Krew żylna ma nieco wyższą lepkość niż krew tętnicza.

Przepływy laminarne i turbulentne. Numer Reynoldsa. Przepływ płynu może być warstwowy lub laminarny. Wzrost natężenia przepływu lepkiego płynu z powodu niejednorodności ciśnienia w przekroju rury powoduje zawirowanie, a ruch staje się wirowy, czyli turbulentny.

W przepływie turbulentnym prędkość cząstek w każdym miejscu zmienia się losowo, ruch jest niestabilny.

Lepkość kinematyczna pełniej niż dynamiczna uwzględnia wpływ tarcia wewnętrznego na charakter przepływu cieczy lub gazu. Tak więc lepkość wody jest około 100 razy większa niż powietrza (w temperaturze 0 °C), ale lepkość kinematyczna wody jest 10 razy mniejsza niż powietrza, a zatem lepkość ma silniejszy wpływ na charakter przepływ powietrza niż wody. Charakter przepływu cieczy lub gazu zależy od rozmiaru rury.

Przepływ krwi w tętnicach jest zwykle laminarny, z niewielkimi turbulencjami występującymi w pobliżu zastawek. W patologii, gdy lepkość jest mniejsza niż normalna, liczba Reynoldsa może być wyższa niż wartość krytyczna, a ruch stanie się turbulentny.

20. Właściwości mechaniczne ciał stałych i tkanek biologicznych

Cechą charakterystyczną ciała stałego jest zdolność do zachowania kształtu. Ciała stałe można podzielić na krystaliczne i amorficzne.

Charakterystyczną cechą stanu krystalicznego jest anizotropia - zależność właściwości fizycznych (mechanicznych, termicznych, elektrycznych, optycznych) od kierunku. Przyczyną anizotropii kryształów jest uporządkowany układ atomów lub cząsteczek, z których są zbudowane, objawiający się prawidłowym zewnętrznym fasetowaniem poszczególnych monokryształów. Jednak z reguły ciała krystaliczne występują w postaci polikryształów - zbioru zestawów pojedynczych małych kryształów (krystalitów) połączonych ze sobą, losowo zorientowanych. W zależności od charakteru cząstek znajdujących się w węzłach oraz charakteru sił oddziaływania wyróżnia się 4 typy sieci krystalicznych: jonowe, atomowe, metaliczne i molekularne. Dodatnie jony metali znajdują się we wszystkich węzłach sieci metalicznej. Elektrony poruszają się między sobą chaotycznie.

Główną cechą struktury wewnętrznej ciał w stanie amorficznym jest ścisłe powtarzanie w układzie atomów lub grup atomów we wszystkich kierunkach wzdłuż całego ciała. Ciała amorficzne w tych samych warunkach mają większą niż kryształy objętość właściwą, entropię i energię wewnętrzną. Stan amorficzny jest charakterystyczny dla substancji o bardzo różnym charakterze. Przy niskim ciśnieniu i wysokiej temperaturze substancje w tym stanie są bardzo ruchliwe: o niskiej masie cząsteczkowej są ciecze, o wysokiej masie cząsteczkowej są w stanie wysoce elastycznym. Wraz ze spadkiem temperatury i wzrostem ciśnienia zmniejsza się ruchliwość substancji amorficznych i wszystkie stają się ciałami stałymi.

Polimery to substancje, których cząsteczki są długimi łańcuchami złożonymi z dużej liczby atomów lub grup atomowych połączonych wiązaniami chemicznymi. Specyfika budowy chemicznej polimerów determinuje również ich szczególne właściwości fizyczne. Do materiałów polimerowych zalicza się niemal wszystkie materiały żywe i roślinne, takie jak wełna, skóra, róg, włosie, jedwab, bawełna, kauczuk naturalny i inne, a także wszelkiego rodzaju materiały syntetyczne - kauczuk syntetyczny, tworzywa sztuczne, włókna itp.

W medycynie dużym zainteresowaniem cieszą się kleje tkankowe (na przykład alkilo-a-cyjanoakrylany, p-butylo-a-zinokrylan), które szybko polimeryzują w folię, która służy do zamykania ran bez szycia.

Ciekłe kryształy to substancje, które mają właściwości zarówno cieczy, jak i kryształów. Substancje te swoimi właściwościami mechanicznymi przypominają ciecze - płyną. Ze względu na charakter porządku molekularnego rozróżnia się ciekłe kryształy nematyczne i smektyczne. W nematycznych ciekłych kryształach cząsteczki są zorientowane równolegle, ale ich środki są rozmieszczone losowo. Kryształy smektyczne składają się z równoległych warstw, w których uporządkowane są cząsteczki. Specjalną klasę stanowią kryształy cholesteryczne (ich struktura jest charakterystyczna dla związków zawierających cholesterol).

21. Właściwości mechaniczne tkanek biologicznych

Pod właściwościami mechanicznymi tkanek biologicznych rozumiemy ich dwie odmiany. Jeden z nich dotyczy procesów mobilności biologicznej: skurczu mięśni zwierząt, wzrostu komórek, przemieszczania się chromosomów w komórkach podczas ich podziału itp. Procesy te są wywoływane przez procesy chemiczne i są zasilane energią przez ATP, ich charakter jest uwzględniany w kurs biochemii. Konwencjonalnie ta grupa nazywana jest aktywnymi właściwościami mechanicznymi systemów biologicznych.

Kość. Kość jest głównym materiałem układu mięśniowo-szkieletowego. Dwie trzecie masy zwartej tkanki kostnej (0,5 objętości) to materiał nieorganiczny, minerałem kości jest hydroksylantyt 3 Ca3(PO) x Ca(OH)2. Substancja ta występuje w postaci mikroskopijnych kryształów.

Gęstość tkanki kostnej wynosi 2400 kg/m3, jej właściwości mechaniczne zależą od wielu czynników, m.in. od wieku, indywidualnych warunków wzrostu organizmu oraz oczywiście od umiejscowienia organizmu. Struktura kości nadaje jej niezbędne właściwości mechaniczne: twardość, elastyczność i wytrzymałość.

Skóra. Składa się z włókien kolagenu i elastyny ​​oraz tkanki głównej – matrix. Kolagen stanowi około 75% suchej masy, a elastyna około 4%. Elastyna rozciąga się bardzo mocno (do 200-300%), podobnie jak guma. Kolagen może rozciągać się do 10%, co odpowiada włóknu nylonowemu.

Dzięki temu skóra jest materiałem wiskoelastycznym o właściwościach wysoce elastycznych, jest dobrze rozciągnięta i wydłużona.

Mięśnie. Mięśnie składają się z tkanki łącznej zbudowanej z włókien kolagenowych i elastynowych. Dlatego właściwości mechaniczne mięśni są zbliżone do właściwości mechanicznych polimerów. Mechaniczne zachowanie mięśni szkieletowych jest następujące: gdy mięśnie są szybko rozciągane o określoną wartość, napięcie gwałtownie wzrasta, a następnie spada. Przy większej deformacji następuje wzrost odległości międzyatomowych w cząsteczkach.

Tkanka naczyń krwionośnych (tkanka naczyniowa). O właściwościach mechanicznych naczyń krwionośnych decydują przede wszystkim właściwości kolagenu, elastyny ​​i włókien mięśni gładkich. Zawartość tych składników tkanki naczyniowej zmienia się wraz z biegiem układu krążenia: stosunek elastyny ​​do kolagenu w tętnicy szyjnej wspólnej wynosi 2:1, a w tętnicy udowej 1:2. Wraz z odległością od serca wzrasta udział włókien mięśni gładkich, które w tętniczekach stanowią już główny składnik tkanki tkanki naczyniowej.

W szczegółowym badaniu właściwości mechanicznych tkanki naczyniowej rozróżnia się sposób wycinania próbki z naczynia (wzdłuż lub w poprzek naczynia). Możliwe jest uwzględnienie deformacji naczynia jako całości w wyniku działania ciśnienia od wewnątrz na elastyczny cylinder. Dwie połówki cylindrycznego naczynia oddziałują ze sobą wzdłuż odcinków ścianek cylindra. Całkowita powierzchnia tego przekroju interakcji wynosi 2hl. Jeżeli w ścianie naczyniowej występuje naprężenie mechaniczne, to siła oddziaływania między dwiema połówkami naczynia jest równa:

F = sx2hl.

22. Fizyczne problemy hemodynamiki

Hemodynamika to dziedzina biomechaniki, która bada ruch krwi przez układ naczyniowy. Fizyczną podstawą hemodynamiki jest hydrodynamika.

Istnieje związek między wyrzutową objętością krwi (objętość krwi wyrzucanej przez komorę serca w jednym skurczu), oporem hydraulicznym obwodowej części układu krążenia X0 i zmianą ciśnienia w tętnicach: ponieważ krew znajduje się w elastycznym zbiorniku, jej objętość w dowolnym momencie zależy od ciśnienia p zgodnie z następującym stosunkiem:

v=v0 +kp,

gdzie k - elastyczność, elastyczność zbiornika;

v0 - pojemność zbiornika przy braku ciśnienia (p = 0).

Elastyczny zbiornik (tętnice) odbiera krew z serca, wolumetryczny przepływ krwi jest równy Q.

Krew wypływa z elastycznego zbiornika z objętościowym natężeniem przepływu krwi Q0 w układzie obwodowym (tętniczki, naczynia włosowate). Możesz zrobić dość oczywiste równanie:

pokazując, że wolumetryczna prędkość przepływu krwi z serca jest równa szybkości wzrostu objętości elastycznego zbiornika.

Fala pulsacyjna. Kiedy mięsień sercowy kurczy się (skurcz), krew zostaje wyrzucona z serca do aorty i odchodzących od niej tętnic. Gdyby ściany tych naczyń były sztywne, wówczas ciśnienie powstające we krwi na wyjściu z serca byłoby przenoszone na obwód z prędkością dźwięku. Normalne ciśnienie skurczowe człowieka wynosi około 16 kPa. Podczas rozkurczu serca (rozkurczu) rozszerzone naczynia krwionośne zapadają się, a energia potencjalna przekazana im przez serce przez krew zamienia się w energię kinetyczną przepływu krwi, przy jednoczesnym utrzymaniu ciśnienia rozkurczowego około 11 kPa. Fala pulsacyjna rozchodzi się z prędkością 5-10 m/s lub nawet większą. Lepkość krwi i właściwości sprężysto-lepkie ścian naczyń zmniejszają amplitudę fali. Możemy napisać następujące równanie dla harmonicznej fali impulsowej:

gdzie p0 - amplituda ciśnienia w fali tętna;

x - odległość do dowolnego punktu od źródła drgań (serca);

t - czas;

w - kołowa częstotliwość oscylacji;

c jest pewną stałą, która określa tłumienie fali.

Długość fali tętna można znaleźć ze wzoru:

gdzie E jest modułem sprężystości;

p jest gęstością substancji w naczyniu;

h jest grubością ścianki naczynia;

d jest średnicą naczynia.

23. Praca i siła serca. Maszyna płucno-sercowa

Praca wykonywana przez serce jest wydatkowana na pokonanie oporu i przekazanie energii kinetycznej krwi.

Oblicz pracę wykonaną przy pojedynczym skurczu lewej komory.

Vу - objętość wyrzutowa krwi w postaci cylindra. Można przyjąć, że serce dostarcza tę objętość przez aortę o przekroju S na odległość I przy średnim ciśnieniu p. Wykonana praca jest równa:

A1=FI=pSI=pVy.

Praca poświęcona przekazywaniu energii kinetycznej do tej objętości krwi to:

gdzie p jest gęstością krwi;

υ - prędkość krwi w aorcie.

Tak więc praca lewej komory serca podczas skurczu to:

Ponieważ praca prawej komory jest równa 0,2 pracy lewej, praca całego serca przy jednym skurczu jest równa:

Wzór ten obowiązuje zarówno dla spoczynkowych, jak i aktywnych stanów organizmu, przy czym stany te różnią się różnym natężeniem przepływu krwi. Fizyczne podstawy chemicznej metody pomiaru ciśnienia krwi. Parametr fizyczny – ciśnienie krwi – odgrywa ważną rolę w diagnostyce wielu chorób.

Ciśnienie skurczowe i rozkurczowe w dowolnej tętnicy można zmierzyć bezpośrednio za pomocą igły podłączonej do manometru. Jednak bezkrwawa metoda zaproponowana przez N. S. Korotkowa jest szeroko stosowana w medycynie. Istota metody: mankiet zakłada się na ramię pomiędzy barkiem a łokciem. Kiedy powietrze jest pompowane przez wąż do mankietu, ramię kurczy się. Następnie tym samym wężem wypuszczane jest powietrze i mierzone jest ciśnienie powietrza w mankiecie za pomocą manometru. Wypuszczając powietrze, zmniejszają ciśnienie w mankiecie i tkankach miękkich, z którymi ma on kontakt. Kiedy ciśnienie zrówna się ze skurczowym, krew będzie mogła przebić się przez ściśniętą tętnicę - następuje turbulentny przepływ. Charakterystyczne tony i dźwięki towarzyszące temu procesowi lekarz nasłuchuje podczas pomiaru ciśnienia, umieszczając fonendoskop na tętnicy poniżej mankietu (czyli w dużej odległości od serca). Kontynuując zmniejszanie ciśnienia w mankiecie można przywrócić laminarny przepływ krwi, co jest zauważalne poprzez gwałtowne osłabienie słyszalnych tonów. Ciśnienie w mankiecie odpowiadające przywróceniu przepływu laminarnego w tętnicy rejestruje się jako rozkurczowe. Do pomiaru ciśnienia krwi stosuje się przyrządy - sfigmomanometr z manometrem rtęciowym, sfigmotonometr z manometrem z metalową membraną.

24. Termodynamika

Termodynamika jest rozumiana jako gałąź fizyki, która rozpatruje układy, pomiędzy którymi można wymieniać energię bez uwzględniania mikroskopowej struktury ciał tworzących układ. Rozróżnia się termodynamikę układów równowagi (lub układów przechodzących do równowagi) oraz termodynamikę układów nierównowagowych, która odgrywa szczególną rolę w rozważaniu układów biologicznych.

Podstawowe pojęcia termodynamiki. I zasada termodynamiki. Stan układu termodynamicznego charakteryzuje się wielkościami fizycznymi zwanymi parametrami (takimi jak objętość, ciśnienie, temperatura, gęstość itp.). Jeżeli parametry systemu podczas jego interakcji z otaczającymi ciałami nie zmieniają się w czasie, wówczas stan systemu nazywa się stacjonarnym. W różnych częściach systemu, który jest w stanie stacjonarnym, wartości parametrów zwykle różnią się: temperatura w różnych częściach ludzkiego ciała, stężenie cząsteczek dyfundujących w różnych częściach błony biologicznej itp. Stan ustalony jest utrzymywane dzięki przepływom energii i substancji przechodzących przez system. W stanie stacjonarnym mogą istnieć takie systemy, które albo wymieniają zarówno energię, jak i materię z otaczającymi systemami (układy otwarte), albo wymieniają tylko energię (układy zamknięte).

Układ termodynamiczny, który nie wymienia ani energii, ani materii z otaczającymi ciałami, nazywa się izolowanym. Izolowany układ ostatecznie osiąga stan równowagi termodynamicznej. W tym stanie, podobnie jak w stanie stacjonarnym, parametry systemu pozostają niezmienione w czasie. Ważne jest jednak, aby w stanie równowagi parametry niezależne od masy czy liczby cząstek (ciśnienie, temperatura itp.) były takie same w różnych częściach tego układu. Żaden układ termodynamiczny nie zostanie odizolowany, ponieważ nie da się go otoczyć powłoką, która nie przewodzi ciepła.

Izolowany system jest uważany za wygodny model termodynamiczny. Zasada zachowania energii dla procesów cieplnych jest sformułowana jako pierwsza zasada termodynamiki. Ilość ciepła przekazanego do systemu idzie na zmianę energii wewnętrznej systemu i wydajności pracy przez system. Energia wewnętrzna układu jest rozumiana jako suma energii kinetycznej i potencjalnej cząstek tworzących układ.

Energia wewnętrzna jest funkcją stanu układu i ma dla tego stanu określoną wartość: DU to różnica między dwiema wartościami energii wewnętrznej odpowiadającymi stanom końcowym i początkowym układu:

DU=U2- U1

Ilość ciepła, podobnie jak praca, jest funkcją procesu, a nie stanu. Pierwszą zasadę termodynamiki można zapisać jako:

dQ = du + dA.

Wartości Q, A, DU i dQ, dA, dU mogą być dodatnie (ciepło jest przekazywane do systemu przez ciała zewnętrzne, energia wewnętrzna wzrasta) lub ujemne (ciepło jest usuwane z systemu, energia wewnętrzna maleje).

25. Druga zasada termodynamiki. Entropia

Istnieje kilka sformułowań drugiej zasady termodynamiki: ciepło nie może samo z siebie przenosić się z ciała o niższej temperaturze do ciała o wyższej temperaturze (sformułowanie Clausiusa) lub maszyna perpetuum mobile drugiego rodzaju jest niemożliwa (sformułowanie Thomsona) .

Proces nazywamy odwracalnym, jeśli możliwe jest zakończenie procesu odwrotnego przez wszystkie stany pośrednie, tak aby po powrocie układu do stanu pierwotnego nie zaszły żadne zmiany w otaczających ciałach.

Sprawność silnika cieplnego, czyli obiegu bezpośredniego, to stosunek wykonanej pracy do ilości ciepła odbieranego przez substancję roboczą z nagrzewnicy:

Ponieważ praca silnika cieplnego odbywa się dzięki ilości ciepła, a energia wewnętrzna substancji roboczej nie zmienia się w cyklu (DU = 0), to z pierwszej zasady termodynamiki wynika, że ​​praca w procesach okrężnych jest równa sumie algebraicznej ilości ciepła:

A = P1 + Q2.

Dlatego:

Ilość ciepła Q1, odbierana przez substancję roboczą jest dodatnia, ilość ciepła Q2 oddawana przez substancję roboczą do lodówki jest ujemna.

Sumę zredukowanych ilości ciepła dla procesu odwracalnego można przedstawić jako różnicę między dwiema wartościami pewnej funkcji stanu systemu, która nazywa się entropią:

gdzie s2 i S1 - entropia odpowiednio w końcowym drugim i początkowym pierwszym stanie.

Entropia jest funkcją stanu układu, której różnica wartości dla dwóch stanów jest równa sumie zmniejszonych ilości ciepła podczas odwracalnego przejścia układu z jednego stanu do drugiego.

Fizyczne znaczenie entropii:

Jeżeli układ przeszedł z jednego stanu do drugiego, to niezależnie od charakteru procesu, zmianę entropii oblicza się według wzoru na dowolny proces odwracalny zachodzący między tymi stanami:

gdzie Q to całkowita ilość ciepła odebranego przez system podczas przejścia z pierwszego stanu do drugiego stanu w stałej temperaturze T. Ten wzór służy do obliczania zmiany entropii w procesach takich jak topienie, parowanie itp.

26. Stan stacjonarny

Zasada wytwarzania entropii. Ciało jako system otwarty

Kierunek procesów termodynamicznych w układzie izolowanym opisano powyżej. Jednak rzeczywiste procesy i stany w przyrodzie i technologii nie są równowagowe, a wiele systemów jest otwartych.

Te procesy i układy są rozpatrywane w termodynamice nierównowagi. Tak jak w termodynamice równowagowej stan równowagi jest stanem specjalnym, tak w termodynamice nierównowagowej szczególną rolę odgrywają stany stacjonarne. Pomimo tego, że w stanie stacjonarnym niezbędne procesy zachodzące w układzie (dyfuzja, przewodzenie ciepła itp.) zwiększają entropię, entropia układu się nie zmienia.

Reprezentujmy zmianę entropii DS układu jako sumę dwóch wyrazów:

DS=DSi+DSl,

gdzie DSi jest zmianą entropii spowodowaną procesami nieodwracalnymi w układzie; DSl to zmiana entropii spowodowana oddziaływaniem układu z ciałami zewnętrznymi (przepływami przechodzącymi przez układ). Nieodwracalność procesów prowadzi do DSi > 0, stacjonarność stanu - do DSi = 0; zatem: DSl = DS - DSi < 0. Oznacza to, że entropia w produktach (materii i energii) wchodzących do układu jest mniejsza niż entropia w produktach opuszczających układ.

Początkowy rozwój termodynamiki był stymulowany potrzebami produkcji przemysłowej. Na tym etapie (XIX w.) głównymi osiągnięciami było sformułowanie praw, opracowanie metod cykli i potencjałów termodynamicznych w odniesieniu do procesów wyidealizowanych.

Obiekty biologiczne są otwartymi układami termodynamicznymi. Wymieniają energię i materię z otoczeniem. Dla organizmu - układu stacjonarnego - możemy zapisać dS = 0, S = = const, dS i> 0, dSe < 0. Oznacza to, że większa entropia powinna występować w produktach wydalanych, a nie w produktach spożywczych.

W niektórych stanach patologicznych entropia układu biologicznego może wzrosnąć (dS > 0), jest to spowodowane brakiem stacjonarności, wzrostem nieporządku. Formuła może być reprezentowana:

lub dla stanu ustalonego

To pokazuje, że w normalnym stanie organizmu tempo zmiany entropii spowodowane procesami wewnętrznymi jest równe tempu zmiany ujemnej entropii spowodowanej wymianą materii i energii z otoczeniem.

27. Termometria i kalorymetria

Dokładne pomiary temperatury są istotną częścią badań i rozwoju, a także diagnostyki medycznej.

Metody uzyskiwania i pomiaru temperatur w szerokim zakresie są bardzo różne. Dziedzina fizyki, w której badane są metody pomiaru temperatury i zagadnienia pokrewne, nazywana jest termometrią. Ponieważ temperaturę określa wartość dowolnej cechy substancji termometrycznej, jej definicja polega na pomiarze takich parametrów fizycznych i właściwości, jak objętość, ciśnienie, efekty elektryczne, mechaniczne, optyczne, magnetyczne itp. Różnorodność metod pomiaru temperatury wiąże się z duża liczba substancji termometrycznych i właściwości w tym wykorzystywanych.

Termometr - urządzenie do pomiaru temperatury - składa się z czułego elementu, w którym realizowana jest właściwość termometryczna, oraz urządzenia pomiarowego (dylatometr, manometr, galwanometr, potencjometr itp.). Warunkiem koniecznym pomiaru temperatury jest równowaga termiczna elementu wrażliwego i ciała, którego temperaturę określa się. W zależności od mierzonych zakresów temperatur najczęściej spotykane są termometry cieczowe, termometry gazowe, termometry oporowe, termopary jako termometry i pirometry.

W termometrze cieczowym cechą termometryczną jest objętość, elementem wrażliwym jest zbiornik cieczy (zwykle rtęci lub alkoholu). Pirometry wykorzystują intensywność promieniowania jako właściwość termometryczną.

Przy pomiarze ultraniskich temperatur paramagnetyki pełnią rolę substancji termometrycznych, a mierzoną właściwością jest zależność ich namagnesowania od temperatury.

Stosowany w medycynie termometr rtęciowy wskazuje temperaturę maksymalną i nazywany jest termometrem maksymalnym. Ta cecha wynika z jego konstrukcji: zbiornik z rtęcią jest oddzielony od skalowanej kapilary zwężeniem, które nie pozwala rtęci na powrót do zbiornika, gdy termometr ostygnie. Istnieją również termometry minimalne, które pokazują najniższą temperaturę obserwowaną w długim okresie czasu. W tym celu stosuje się termostaty – urządzenia, w których utrzymywana jest stała temperatura, co odbywa się albo za pomocą automatycznych regulatorów, albo wykorzystując właściwość jednorazowych przejść zachodzących w stałej temperaturze.

Do pomiaru ilości ciepła uwalnianego lub pochłanianego w różnych procesach fizycznych, chemicznych i biologicznych stosuje się szereg metod, których całość stanowi kalorymetrię. Metody kalorymetryczne mierzą pojemność cieplną ciał, ciepło przemian fazowych, rozpuszczanie, zwilżanie, adsorpcję, ciepło towarzyszące reakcjom chemicznym, energię promieniowania, rozpad radioaktywny itp.

Podobne pomiary wykonuje się za pomocą kalorymetrów.

28. Właściwości fizyczne gorących i zimnych mediów stosowanych do obróbki

W medycynie gorące lub zimne ciała są wykorzystywane do miejscowego ogrzewania lub chłodzenia. Zazwyczaj do tego celu wybierane są stosunkowo dostępne media, niektóre z nich mogą mieć również użyteczne działanie mechaniczne lub chemiczne.

Właściwości fizyczne takich mediów zależą od ich przeznaczenia. Po pierwsze, konieczne jest, aby pożądany efekt był uzyskiwany przez stosunkowo długi okres czasu. Dlatego stosowane media muszą charakteryzować się dużym ciepłem właściwym (woda, muł) lub ciepłem właściwym przemiany fazowej (parafina, lód). Po drugie, media aplikowane bezpośrednio na skórę nie powinny powodować bólu. To z jednej strony ogranicza temperaturę takich mediów, z drugiej zachęca do wyboru mediów o małej pojemności cieplnej. Przykładowo woda używana do uzdatniania ma temperaturę do 45°C, a torf i muł do 50°C, ponieważ wymiana ciepła (konwekcja) w tych środowiskach jest mniejsza niż w wodzie. Parafinę podgrzewa się do temperatury 60-70°C, ponieważ ma niską przewodność cieplną, a części parafiny bezpośrednio przylegające do skóry szybko się wychładzają, krystalizują i opóźniają wypływ ciepła z pozostałych jej części.

Lód służy jako czynnik chłodzący stosowany do leczenia. W ostatnich latach niskie temperatury znalazły szerokie zastosowanie w medycynie. W niskiej temperaturze takie zachowanie poszczególnych narządów i tkanek odbywa się w związku z przeszczepem, gdy zdolność do normalnego życia i funkcjonowania jest zachowana przez wystarczająco długi czas.

Kriogeniczną metodę niszczenia tkanek podczas zamrażania i rozmrażania stosują lekarze do usuwania migdałków, brodawek itp. W tym celu tworzone są specjalne aparaty kriogeniczne i kriosondy.

Za pomocą zimna, które ma właściwości znieczulające, można zniszczyć komórki jądrowe w mózgu odpowiedzialne za niektóre choroby nerwowe, takie jak parkinsonizm.

Mikrochirurgia polega na zamrożeniu wilgotnych tkanek do zimnego narzędzia metalowego w celu wychwytywania i przenoszenia tych tkanek.

W związku z medycznym zastosowaniem niskiej temperatury pojawiły się nowe terminy: „medycyna kriogeniczna”, „krioterapia”, „kriochirurgia” itp.

29. Procesy fizyczne w błonach biologicznych

Błony biologiczne są ważną częścią komórki. Odgradzają komórkę od otoczenia, chronią ją przed szkodliwymi wpływami zewnętrznymi, kontrolują metabolizm między komórką a jej otoczeniem, przyczyniają się do wytwarzania potencjałów elektrycznych, uczestniczą w syntezie uniwersalnych akumulatorów energii ATP w mitochondriach itp.

Budowa i modele membran

Błony otaczają wszystkie komórki (osocze i zewnętrzne błony komórkowe). Bez błony zawartość komórki po prostu by się rozprzestrzeniła, dyfuzja prowadziłaby do równowagi termodynamicznej, co oznacza brak życia. Można powiedzieć, że pierwsza komórka pojawiła się, gdy została odgrodzona od otoczenia membraną.

Błony wewnątrzkomórkowe dzielą komórkę na szereg zamkniętych przedziałów, z których każdy pełni określoną funkcję. Podstawą struktury każdej błony jest podwójna warstwa lipidowa (głównie fosfolipidy). Dwuwarstwa lipidowa utworzona jest z dwóch monowarstw lipidów tak, że hydrofobowe „ogony” obu warstw są skierowane do wewnątrz. Zapewnia to najmniejszy kontakt hydrofobowych obszarów cząsteczek z wodą. Ta koncepcja budowy membrany nie dała odpowiedzi na wiele pytań.

Następnie zaproponowano model oparty na tej samej błonie biowarstwy lipidowej. Ten szkielet fosfolipidowy przypomina dwuwymiarowy rozpuszczalnik, w którym białka unoszą się, mniej lub bardziej zanurzone. Dzięki tym białkom w pełni lub częściowo realizowane są określone funkcje błon - przepuszczalność, wytwarzanie potencjału elektrycznego itp. Błony nie są strukturami nieruchomymi, cichymi. Lipidy i białka wymieniają błony i poruszają się zarówno wzdłuż płaszczyzny błony – dyfuzja boczna, jak i w poprzek niej – tzw. flip-flop.

Wyjaśnienie struktury biomembrany i badanie jej właściwości okazało się możliwe przy wykorzystaniu modeli fizykochemicznych membrany (membran sztucznych). Najbardziej rozpowszechnione są trzy takie modele. Pierwszy model to monowarstwy fosfolipidów na granicy faz woda-powietrze lub woda-olej.

Drugim rozpowszechnionym modelem biomembrany są liposomy, które są jak błona biologiczna całkowicie pozbawiona cząsteczek białka. Trzecim modelem, który umożliwił badanie niektórych właściwości biobłon metodami bezpośrednimi, jest błona biolipidowa (biowarstwa lipidowa) (BLM).

Błony pełnią dwie ważne funkcje: matrycową (tj. są matrycą, podstawą do utrzymywania białek pełniących różne funkcje) i barierową (chronią komórkę i poszczególne przedziały przed wnikaniem niepożądanych cząstek).

30. Właściwości fizyczne i parametry membran

Pomiar ruchliwości cząsteczek błony i dyfuzji cząsteczek przez błonę wskazuje, że warstwa bilipidowa zachowuje się jak ciecz. Membrana jest jednak strukturą uporządkowaną. Te dwa fakty sugerują, że fosfolipidy w błonie podczas jej naturalnego funkcjonowania są w stanie ciekłokrystalicznym. Gdy zmienia się temperatura w błonie, można zaobserwować przemiany fazowe: topienie lipidów po podgrzaniu i krystalizację po schłodzeniu. Stan ciekłokrystaliczny biowarstwy ma niższą lepkość i większą rozpuszczalność różnych substancji niż stan stały. Grubość biowarstwy ciekłokrystalicznej jest mniejsza niż warstwy stałej.

Struktura cząsteczek w stanie ciekłym i stałym jest inna. W fazie ciekłej cząsteczki fosfolipidów mogą tworzyć wnęki (załamania), do których można wprowadzić cząsteczki substancji różnicującej. Ruch załamania w tym przypadku doprowadzi do dyfuzji cząsteczki przez błonę.

Transport cząsteczek (atomów) przez błony

Ważnym elementem w funkcjonowaniu błon jest ich zdolność do przepuszczania lub nieprzepuszczania cząsteczek (atomów) i jonów. Prawdopodobieństwo takiej penetracji cząstek zależy zarówno od kierunku ich ruchu (np. do komórki lub poza komórkę), jak i od rodzaju cząsteczek i jonów.

Zjawiska przenoszenia to nieodwracalne procesy, w wyniku których w układzie fizycznym następuje przestrzenny ruch (przeniesienie) masy, pędu, ładunku lub innej wielkości fizycznej. Zjawiska przenoszenia obejmują dyfuzję (przenoszenie masy substancji), lepkość (przenoszenie pędu), przewodność cieplną (przenoszenie energii), przewodność elektryczną (przenoszenie ładunku elektrycznego).

Na membranie występuje różnica potencjałów, dlatego w membranie występuje pole elektryczne. Wpływa na dyfuzję naładowanych cząstek (jonów i elektronów). Transport jonów jest determinowany przez dwa czynniki: nierównomierność ich rozkładu (tj. gradient stężenia) oraz wpływ pola elektrycznego (równanie Nernsta-Plancka):

Równanie wiąże stacjonarną gęstość strumienia jonów z trzema wielkościami:

1) przepuszczalność membrany dla danego jonu, która charakteryzuje oddziaływanie struktur membranowych z jonem;

2) pole elektryczne;

3) stężenie jonów w wodnym roztworze otaczającym membranę.

Zjawiska przenoszenia dotyczą transportu pasywnego: dyfuzja cząsteczek i jonów następuje w kierunku ich mniejszego stężenia, ruch jonów zgodnie z kierunkiem działającej na nie siły od pola elektrycznego.

Transport pasywny nie wiąże się ze zużyciem energii chemicznej, odbywa się w wyniku ruchu cząstek w kierunku niższego potencjału elektrochemicznego.

31. Rodzaj pasywnego transferu cząsteczek i jonów przez błony biologiczne

Prosta dyfuzja przez warstwę lipidową w żywej komórce zapewnia przepływ tlenu i dwutlenku węgla. W warstwę lipidową przenika również szereg substancji leczniczych i trucizn. Jednak prosta dyfuzja przebiega dość wolno i nie może dostarczyć komórkom wymaganej ilości składników odżywczych. Istnieją zatem inne mechanizmy biernego przenoszenia materii w błonie, takie jak dyfuzja i dyfuzja ułatwiona (w połączeniu z nośnikiem).

Czasami lub kanał, nazywany jest sekcją błony, zawierającą cząsteczki białek i lipidy, które tworzą przejście w błonie. Ten pasaż umożliwia przechodzenie przez błonę nie tylko małym cząsteczkom, takim jak cząsteczki wody, ale także większym jonom. Kanały mogą wykazywać selektywność dla różnych jonów. Ułatwia dyfuzję transportu jonów przez specjalne cząsteczki nośnika.

Potencjał spoczynkowy. Błona powierzchniowa komórki nie jest jednakowo przepuszczalna dla różnych jonów. Ponadto stężenie poszczególnych jonów jest różne po różnych stronach błony, najkorzystniejszy skład jonów zostaje zachowany wewnątrz komórki. Czynniki te prowadzą do pojawienia się w normalnie funkcjonującej komórce różnicy potencjałów między cytoplazmą a środowiskiem (potencjał spoczynkowy).

Główny wkład w tworzenie i utrzymanie potencjału spoczynkowego mają jony Na+, K+, Cl-. Całkowity

gęstość strumienia tych elektronów, biorąc pod uwagę ich znaki, jest równa:

J=JNA + JK + JCI-.

W stanie stacjonarnym całkowita gęstość strumienia wynosi zero, tj. liczba różnych jonów przechodzących przez membranę do komórki w jednostce czasu jest równa liczbie opuszczającej komórkę przez membranę:

j = 0.

Równanie Goldmanna-Hodgkina-Katza (bezwymiarowy potencjał powraca do elektrycznego):

Różne stężenia jonów wewnątrz i na zewnątrz komórki wytwarzają pompy jonowe – aktywne systemy transportu. Główny udział w potencjale spoczynkowym mają jedynie jony K+ i Cl-.

Potencjał działania i jego propagacja

Po podekscytowaniu zmienia się potencjalna różnica między komórką a środowiskiem, powstaje potencjał czynnościowy.

Potencjał czynnościowy rozprzestrzenia się we włóknach nerwowych. Propagacja potencjału czynnościowego wzdłuż włókna nerwowego odbywa się w formie autowave. Aktywną pożywką są komórki pobudliwe: szybkość propagacji pobudzenia wzdłuż gładkich, niezmielinizowanych włókien nerwowych jest w przybliżeniu proporcjonalna do pierwiastka kwadratowego ich promienia (υ≈√r).

32. Elektrodynamika

Zjawiska elektryczne i magnetyczne związane są ze szczególną formą istnienia materii - polami elektrycznymi i magnetycznymi oraz ich wpływem. W ogólnym przypadku pola te są ze sobą tak powiązane, że zwyczajowo mówi się o jednym polu elektrycznym.

Zjawiska elektromagnetyczne mają trzy obszary zastosowań biomedycznych. Pierwszym z nich jest zrozumienie procesów elektrycznych zachodzących w organizmie, a także znajomość właściwości elektrycznych i magnetycznych ośrodków biologicznych.

Drugi kierunek związany jest ze zrozumieniem mechanizmu oddziaływania pól elektromagnetycznych na organizm.

Trzeci kierunek to oprzyrządowanie, sprzęt. Elektrodynamika jest teoretyczną podstawą elektroniki, aw szczególności elektroniki medycznej.

Pole energetyczne to rodzaj materii, przez którą wywierana jest siła na ładunki elektryczne w tym polu. Charakterystyki pola elektrycznego generowanego przez struktury biologiczne są źródłem informacji o stanie organizmu.

Napięcie i potencjał - charakterystyka pola elektrycznego. Charakterystyka mocy pola elektrycznego jest siłą równą stosunkowi siły działającej w danym punkcie pola na ładunek punktowy do tego ładunku:

E=F/q

Napięcie to wektor, którego kierunek pokrywa się z kierunkiem siły działającej na ładunek dodatni w danym punkcie pola. Natężenie pola elektrycznego wyraża się trzema równaniami:

Ex = ż1 (x, y, z);

Ey = ż2 (x, y, z);

Ez = ż3(x, y, z),

gdzie eх, Eу i Ez - rzuty wektora natężenia na odpowiednie osie współrzędnych wprowadzone do opisu pola. Cechą energetyczną pola elektrycznego jest potencjał. Różnica potencjałów między dwoma punktami pola to stosunek pracy wykonanej przez siły pola podczas przesuwania punktowego ładunku dodatniego z jednego punktu pola do drugiego, do tego ładunku:

gdzie F1 i F2 - potencjały w punktach 1 i 2 pola elektrycznego. Różnica potencjałów między dwoma punktami zależy od natężenia pola elektrycznego. Wraz z różnicą potencjałów pojęcie potencjału jest używane jako charakterystyka pola elektrycznego. Potencjały w różnych punktach mogą być reprezentowane jako powierzchnie o tym samym potencjale (powierzchnie ekwipotencjalne). Istniejące elektryczne przyrządy pomiarowe są przeznaczone do pomiaru różnicy potencjałów, a nie natężenia.

33. Dipol elektryczny i multipol

Dipol elektryczny to układ składający się z dwóch równych, ale przeciwnych ładunków elektrycznych o znaku, umieszczonych w pewnej odległości od siebie (ramię dipolowe). Główną cechą dipola jest jego moment elektryczny (lub dipolowy) - wektor równy iloczynowi ładunku i ramienia dipolowego, skierowany od ładunku ujemnego do dodatniego:

p = dł.

Jednostką momentu elektrycznego dipola jest metr kulombowski.

Dipol w jednorodnym polu elektrycznym jest poddawany momentowi obrotowemu zależnemu od momentu elektrycznego, orientacji dipola w polu i natężenia pola. Na dipol działa siła w zależności od jego momentu elektrycznego i stopnia niejednorodności pola

dE/dx

Jeśli dipol jest zorientowany w niejednorodnym polu elektrycznym nie wzdłuż linii siły, to działa na niego również moment obrotowy. Swobodny dipol jest prawie zawsze wciągany w obszar o dużym natężeniu pola.

Dipol jest szczególnym przypadkiem układu ładunków elektrycznych, który ma pewną symetrię. Ogólna nazwa takich rozkładów ładunków to multipole elektryczne (I = 0, 1, 2 itd.), liczbę ładunków multipola określa wyrażenie 21.

Zatem multipol zerowego rzędu (20 = 1) jest ładunkiem jednopunktowym, multipol pierwszego rzędu (21 = 2) jest dipolem, multipol drugiego rzędu (22 = 4) jest kwadrupolem, multipol trzeciego rzędu multipol (23 = 8) jest oktupolem itp. e. Potencjał pola multipolowego maleje w znacznych odległościach od niego (R > d, gdzie d jest wielkością multipola)

proporcjonalny do I/R1 + 1. Jeśli ładunek jest rozłożony w określonym obszarze przestrzeni, wówczas potencjał pola elektrycznego poza układem ładunków można przedstawić jako pewną przybliżoną serię:

Tutaj R jest odległością od układu ładunków do punktu A o potencjale F;

f1f2f3…. - niektóre funkcje w zależności od typu multipola, jego ładunku i kierunku do punktu A.

Pierwszy składnik odpowiada monopolowi, drugi dipolowi, trzeci kwadrupolowi itd. W przypadku neutralnego układu ładunków pierwszy składnik jest równy zero.

Dipolowy generator elektryczny (dipol prądowy) W próżni lub w idealnym izolatorze dipol elektryczny może utrzymywać się przez dowolnie długi czas. Jednak w rzeczywistej sytuacji (ośrodek przewodzący prąd elektryczny), pod działaniem pola elektrycznego dipola, następuje ruch swobodnych ładunków, a dipol zostaje zneutralizowany. Siła prądu w obwodzie zewnętrznym pozostanie prawie stała, prawie nie zależy od właściwości medium. Taki układ dwubiegunowy, składający się ze źródła prądowego i drenu prądowego, nazywany jest dipolowym generatorem elektrycznym lub dipolem prądowym.

34. Fizyczne podstawy elektrokardiografii

Żywe tkanki są źródłem potencjałów elektrycznych (biopotencjałów).

Rejestracja biopotencjałów tkanek i narządów do celów diagnostycznych nazywana jest elektrografią. Taki ogólny termin jest używany stosunkowo rzadko, bardziej powszechne są specyficzne nazwy odpowiednich metod diagnostycznych: elektrokardiografia (EKG) - rejestracja biopotencjałów występujących w mięśniu sercowym, gdy jest on wzbudzony, elektromiografia (EMG) - metoda rejestracji bioelektryka aktywność mięśni, elektroencefalografia (EEG) - metoda rejestracji bioelektrycznej aktywności mózgu itp.

W większości przypadków biopotencjały pobierane są przez elektrody nie bezpośrednio z narządu (serce, mózg), ale z innych sąsiednich tkanek, w których ten narząd wytwarza pola elektryczne.

Pod względem klinicznym znacznie upraszcza to samą procedurę rejestracji, czyniąc ją bezpieczną i nieskomplikowaną. Fizyczne podejście do elektrografii polega na stworzeniu (wyborze) modelu generatora elektrycznego odpowiadającego obrazowi potencjałów „usuwalnych”.

Całe serce jest elektrycznie reprezentowane jako rodzaj generatora elektrycznego w postaci rzeczywistego urządzenia oraz jako zestaw źródeł elektrycznych w przewodniku w kształcie ludzkiego ciała. Na powierzchni przewodnika, podczas działania równoważnego generatora elektrycznego, będzie występować napięcie elektryczne, które występuje na powierzchni ludzkiego ciała podczas czynności serca. Jest całkiem możliwe symulowanie aktywności elektrycznej serca, jeśli stosuje się generator elektryczny równoważny dipolowi. Dipolowy pogląd na serce leży u podstaw wiodącej teorii Einthovena. Według niej serce jest takim dipolem z momentem dipolowym, który obraca się, zmienia swoje położenie i punkt przyłożenia podczas cyklu pracy serca. V. Einthoven zaproponował zmierzenie różnic w biopotencjałach serca między wierzchołkami trójkąta równobocznego, które znajdują się w przybliżeniu w prawym i lewym ramieniu i lewej nodze.

Zgodnie z terminologią fizjologów różnicę biopotencjałów zarejestrowaną pomiędzy dwoma punktami ciała nazywa się porwaniem. Wyróżnia się odprowadzenie I (prawa ręka - lewa ręka), odprowadzenie II (prawa ręka - lewa noga) i odprowadzenie III (lewa ręka - lewa noga).

Według V. Einthovena serce znajduje się w środku trójkąta. Ponieważ moment elektryczny dipola – serca – zmienia się w czasie, w przewodach będą uzyskiwane tymczasowe napięcia, które nazywane są elektrokardiogramami. Elektrokardiogram nie dostarcza informacji o orientacji przestrzennej. Jednak dla celów diagnostycznych takie informacje są ważne. W związku z tym stosuje się metodę przestrzennego badania pola elektrycznego serca, zwaną kardiografią wektorową. Kardiogram wektorowy to geometryczne miejsce punktów odpowiadających końcowi wektora, którego położenie zmienia się podczas cyklu pracy serca.

35. Prąd elektryczny

Prąd elektryczny zwykle odnosi się do kierunkowego ruchu ładunków elektrycznych. Istnieje prąd przewodzenia i prąd konwekcyjny. Prąd przewodzenia to kierunkowy ruch ładunków w ciałach przewodzących: elektronów w metalach, elektronów i dziur w półprzewodnikach, jonów w elektrolitach, jonów i elektronów w gazach. Prąd konwekcyjny to ruch naładowanych ciał i przepływ elektronów lub innych naładowanych cząstek w próżni.

Gęstość prądu jest wektorową charakterystyką prądu elektrycznego, liczbowo równą stosunkowi natężenia prądu przechodzącego przez mały element powierzchniowy, normalny do kierunku ruchu naładowanych cząstek tworzących prąd, do obszaru tego element:

j = dl/dS

Jeśli ten wzór pomnożymy przez ładunek q nośnika prądu, otrzymamy gęstość prądu:

j = qj = qnv.

W formie wektorowej:

j = nw.

Wektor j jest skierowany stycznie do linii prądu. Dla aktualnej siły piszemy następujące wyrażenie:

j=dq/dt.

Obecna siła jest pochodną czasu ładunku przechodzącego przez pewien odcinek lub powierzchnię.

Aby prąd stały płynął przez przewodnik, konieczne jest utrzymanie różnicy potencjałów na jego końcach. Odbywa się to z aktualnych źródeł. Siła elektromotoryczna źródła jest wartością liczbowo równą pracy sił zewnętrznych podczas przemieszczania pojedynczego ładunku dodatniego w obwodzie.

W praktyce praca sił zewnętrznych różni się od zera tylko wewnątrz źródła prądu. Stosunek siły zewnętrznej do jednostkowego ładunku dodatniego jest równy natężeniu pola sił zewnętrznych:

ECT = FCT/ Q

Siła elektromotoryczna odpowiada gwałtownej zmianie potencjału w źródle prądu.

Przewodnictwo elektryczne elektrolitów. Płyny biologiczne to elektrolity, których przewodnictwo elektryczne jest podobne do przewodnictwa elektrycznego metali: w obu mediach, w przeciwieństwie do gazów, nośniki prądu istnieją niezależnie od pola elektrycznego.

Kierunek ruchu jonów w polu elektrycznym można w przybliżeniu uznać za jednorodny, natomiast siła qE działająca na jon z pola elektrycznego jest równa sile tarcia rv:

qE = rv,

gdzie otrzymujemy:

v = bE.

Współczynnik proporcjonalności b nazywa się ruchliwością jonów.

36. Przewodnictwo elektryczne tkanek i płynów biologicznych przy prądzie stałym. Wyładowanie elektryczne w gazach

Tkanki i narządy biologiczne są dość niejednorodnymi formacjami o różnych oporach elektrycznych, które mogą się zmieniać pod wpływem prądu elektrycznego. Utrudnia to pomiar oporności elektrycznej żywych systemów biologicznych.

Przewodność elektryczna poszczególnych części ciała znajdujących się pomiędzy elektrodami przyłożonymi bezpośrednio do powierzchni ciała zależy w znacznym stopniu od oporności skóry i warstw podskórnych. Wewnątrz ciała prąd rozprzestrzenia się głównie przez naczynia krwionośne i limfatyczne, mięśnie i pochewki pni nerwowych. Z kolei o odporności skóry decyduje jej stan: grubość, wiek, wilgotność itp.

Przewodność elektryczna tkanek i narządów zależy od ich stanu funkcjonalnego i dlatego może służyć jako wskaźnik diagnostyczny.

Na przykład podczas zapalenia, gdy komórki pęcznieją, zmniejsza się przekrój połączeń międzykomórkowych i wzrasta opór elektryczny; zjawiskom fizjologicznym powodującym pocenie się towarzyszy wzrost przewodności elektrycznej skóry itp.

Izolatorem jest gaz składający się wyłącznie z cząstek obojętnych. Jeśli jest zjonizowany, staje się przewodnikiem elektrycznym. Każde urządzenie, zjawisko, czynnik, który może spowodować jonizację cząsteczek i atomów gazu nazywamy jonizatorem. Mogą to być światło, promienie rentgenowskie, płomienie, promieniowanie jonizujące itp. Ładunek elektryczny w powietrzu może również powstać, gdy wtryśnie się do niego ciecze polarne (efekt baloelektryczny), czyli ciecze, których cząsteczki mają stały elektryczny moment dipolowy. Tak więc, na przykład, rozgnieciona w powietrzu woda rozpada się na naładowane kropelki. Znak ładunku dużych kropel (pozytywny dla twardej wody) jest przeciwny do znaku ładunku najmniejszych kropel. Większe kropelki osadzają się stosunkowo szybko, pozostawiając w powietrzu ujemnie naładowane cząsteczki wody. Zjawisko to obserwuje się przy fontannie.

Przewodność elektryczna gazu zależy również od wtórnej jonizacji. Zjonizowany potencjał elektronów wewnętrznych jest znacznie wyższy.

W warunkach ziemskich powietrze prawie zawsze zawiera pewną ilość jonów ze względu na naturalne jonizatory, głównie substancje radioaktywne zawarte w glebie i gazach oraz promieniowanie kosmiczne. Jony i elektrony w powietrzu mogą łączyć się z obojętnymi cząsteczkami i zawieszonymi cząsteczkami, tworząc bardziej złożone jony. Te jony w atmosferze nazywane są jonami powietrza. Różnią się one nie tylko znakiem, ale także masą, umownie dzieli się je na lekkie (jony gazu) i ciężkie (zawieszone cząstki naładowane – cząsteczki kurzu, cząstki dymu i wilgoci).

Jony ciężkie działają szkodliwie na organizm, korzystnie jony lekkie i przeważnie ujemne jony powietrza. Służą do leczenia (aerojonoterapia).

37. Pole magnetyczne

Pole magnetyczne to nazwa nadana wszelkiej materii, poprzez którą siła wywierana jest na poruszające się ładunki elektryczne umieszczone w polu oraz na inne ciała posiadające moment magnetyczny. Dla pola magnetycznego, podobnie jak dla elektrostatycznego, istnieje cecha ilościowa - moment magnetyczny (wielkość wektorowa).

Indukcja magnetyczna w pewnym punkcie pola jest równa stosunkowi maksymalnego momentu obrotowego działającego na pętlę z prądem w jednorodnym polu magnetycznym do momentu magnetycznego tej pętli. Jednostką strumienia magnetycznego jest weber (Wb):

1Wb = 1Tlm2.

Tl jest jednostką indukcji magnetycznej (Tesla). Ze wzoru wynika, że ​​przepływ może być zarówno dodatni, jak i ujemny.

Prawo Ampera. Energia obwodu z prądem w polu magnetycznym. Jednym z głównych przejawów pola magnetycznego jest jego wpływ siły na poruszające się ładunki elektryczne i prądy. A. M. Ampere ustanowił prawo, które określa ten efekt siły.

W przewodniku w polu magnetycznym wybieramy dość mały przekrój dI, który jest uważany za wektor skierowany w stronę prądu. Produkt IdI nazywany jest bieżącym elementem. Siła działająca z pola magnetycznego na bieżący element jest równa:

dF = kIB sinb × dl,

gdzie k jest współczynnikiem proporcjonalności; lub w formie wektorowej

dF = ldl × B.

Te stosunki wyrażają prawo Ampère'a.

Siła działająca zgodnie z prawem Ampère'a na przewodnik z prądem w polu magnetycznym jest wynikiem jej działania na poruszające się ładunki elektryczne, które wytwarzają ten prąd. Siła działająca na oddzielny ruchomy ładunek jest określona przez stosunek siły F przyłożonej do przewodnika przewodzącego prąd do całkowitej liczby N nośników prądu w nim:

fЛ =F/N(I)

Obecna siła to:

ja = jS,

F = jSBL sinb,

gdzie j jest aktualną gęstością. Otrzymujemy:

F = jSBL sinb = qnvSBL sinb2,

gdzie n =N/SI to stężenie cząstek.

Zastępując ostatnie wyrażenie pierwszym, otrzymujemy wyrażenie na siłę działającą z pola magnetycznego na oddzielny poruszający się ładunek elektryczny i nazywane siłą Lorentza:

Kierunek siły Lorentza można wyznaczyć z zapisu wektorowego równania

fn = qvB.

38. Siła pola magnetycznego i jego inne właściwości

Siła pola magnetycznego zależy od właściwości medium i jest determinowana jedynie siłą prądu płynącego przez obwód. Na siłę pola magnetycznego wytworzonego przez prąd stały składa się siła pól wytworzonych przez poszczególne jego elementy (prawo Biota-Savarta-Laplace'a):

(dH - napięcie, k - współczynnik proporcjonalności, di i r - wektory). Całkując, znajdujemy siłę pola magnetycznego wytwarzanego przez obwód z prądem lub część tego obwodu:

Okrągły to prąd płynący przez przewodnik w postaci koła. Ten prąd odpowiada również wirującemu kołowo ładunkowi elektrycznemu. Znając siłę pola magnetycznego i względną przenikalność magnetyczną ośrodka można znaleźć indukcję magnetyczną:

B = M + M0H = mNf(2r).

Magnetyczne właściwości materii

Nie ma substancji, których stan nie zmienia się pod wpływem pola magnetycznego. Co więcej, będąc w polu magnetycznym, same substancje stają się źródłami tego pola. W tym sensie wszystkie substancje są zwykle nazywane magnetycznymi. Ponieważ makroskopowe różnice między materiałami magnetycznymi zależą od ich struktury, zaleca się uwzględnienie właściwości magnetycznych elektronów, jąder, atomów i cząsteczek, a także zachowania tych cząstek w polu magnetycznym.

Stosunek momentu magnetycznego cząstki do momentu jej pędu nazywa się magnetomechanicznym. Relacje pokazują, że istnieje dobrze zdefiniowany „twardy” związek między momentem magnetycznym i mechanicznym (pędu); związek ten przejawia się w zjawiskach magnetomechanicznych. Zjawiska magnetomechaniczne pozwalają określić zależności magnetomechaniczne i na tej podstawie wyciągnąć wnioski na temat roli orbitalnych lub spinowych momentów magnetycznych w procesach namagnesowania. Na przykład eksperymenty Einsteina wykazały, że spinowe momenty magnetyczne elektronów są odpowiedzialne za namagnesowanie materiałów ferromagnetycznych (żelazo-magnetycznych).

Jądra, atomy i cząsteczki również mają moment magnetyczny. Moment magnetyczny cząsteczki jest sumą wektorów momentów magnetycznych tworzących ją atomów. Pole magnetyczne oddziałuje na orientację cząstek, które mają momenty magnetyczne, w wyniku czego substancja zostaje namagnesowana. Stopień namagnesowania substancji charakteryzuje się namagnesowaniem. Średnia wartość wektora namagnesowania jest równa stosunkowi całkowitego momentu magnetycznego Spmi wszystkich cząstek znajdujących się w objętości magnesu do tej objętości:

Zatem namagnesowanie to średni moment magnetyczny na jednostkę objętości magnesu. Jednostką namagnesowania jest amper na metr (A/m).

39. Właściwości magnesów i właściwości magnetyczne tkanek ludzkich

Cząsteczki paramagnetyczne mają niezerowe momenty magnetyczne. W przypadku braku pola magnetycznego momenty te są rozmieszczone losowo, a ich namagnesowanie wynosi zero. Stopień uporządkowania momentów magnetycznych zależy od dwóch przeciwstawnych czynników - pola magnetycznego i chaotycznego ruchu molekularnego, dlatego namagnesowanie zależy zarówno od indukcji magnetycznej, jak i temperatury.

W niejednorodnym polu magnetycznym w próżni cząstki substancji paramagnetycznej poruszają się w kierunku wyższej wartości indukcji magnetycznej, jak mówią, są wciągane w pole. Paramagnesy obejmują aluminium, tlen, molibden itp.

Diamagnetyzm jest nieodłącznym elementem wszystkich substancji. W paramagnetykach diamagnetyzm jest dominowany przez silniejszy paramagnetyzm.

Jeżeli moment magnetyczny molekuł jest zerowy lub tak mały, że diamagnetyzm przeważa nad paramagnetyzmem, to substancje składające się z takich molekuł nazywane są diamagnetyzmem. Namagnesowanie diamagnesów jest skierowane przeciwnie do indukcji magnetycznej, jej wartość wzrasta wraz ze wzrostem indukcji. Cząsteczki diamagnesu w próżni w niejednorodnym polu magnetycznym zostaną wypchnięte poza pole.

Ferromagnesy, podobnie jak paramagnesy, wytwarzają namagnesowanie mające na celu wywołanie pola; ich względna przenikalność magnetyczna jest znacznie większa niż jedność. Właściwości ferromagnetyczne nie są nieodłącznie związane z poszczególnymi atomami lub cząsteczkami, ale tylko z niektórymi substancjami, które są w stanie krystalicznym. Ferromagnesy obejmują żelazo krystaliczne, nikiel, kobalt, wiele stopów tych pierwiastków ze sobą iz innymi związkami nieferromagnetycznymi, a także stopy i związki chromu i manganu z pierwiastkami nieferromagnetycznymi. Namagnesowanie ferromagnesów zależy nie tylko od indukcji magnetycznej, ale również od ich poprzedniego stanu, od czasu, w którym próbka znajdowała się w polu magnetycznym. Chociaż w przyrodzie nie ma zbyt wielu ferromagnetyków, są one wykorzystywane głównie jako materiały magnetyczne w technice.

Tkanki ciała są w dużej mierze diamagnetyczne, podobnie jak woda. Jednak ciało zawiera również substancje, cząsteczki i jony paramagnetyczne. W organizmie nie ma cząstek ferromagnetycznych. Bioprądy powstające w organizmie są źródłem słabych pól magnetycznych. W niektórych przypadkach można zmierzyć indukcję takich pól. Przykładowo na podstawie rejestracji zależności czasowej indukcji pola magnetycznego serca (bioprądów serca) stworzono metodę diagnostyczną – magnetokardiografię. Ponieważ indukcja magnetyczna jest proporcjonalna do natężenia prądu, a natężenie prądu (bioprąd) zgodnie z prawem Ohma jest proporcjonalne do napięcia (biopotencjał), to magnetokardiogram jest ogólnie podobny do elektrokardiogramu. Magnetokardiografia w odróżnieniu od elektrokardiografii jest jednak metodą bezkontaktową, gdyż pole magnetyczne można rejestrować w pewnej odległości od obiektu biologicznego – źródła pola.

40. Indukcja elektromagnetyczna. Energia pola magnetycznego

Istotą indukcji elektromagnetycznej jest to, że zmienne pole magnetyczne wytwarza pole elektryczne (odkryte przez M. Faradaya w 1831 r.). Podstawowe prawo indukcji elektromagnetycznej Przy każdej zmianie strumienia magnetycznego powstają w nim siły elektromotoryczne indukcji elektromagnetycznej.

gdzie e - siły elektromotoryczne;

dt - przedział czasu;

dФ to zmiana strumienia magnetycznego. Jest to podstawowe prawo indukcji elektromagnetycznej, czyli prawo Faradaya.

Gdy zmienia się strumień magnetyczny przenikający obwód (pole magnetyczne zmienia się w czasie, magnes zbliża się lub oddala, zmienia się natężenie prądu w obwodzie sąsiednim lub odległym itp.), w obwodzie zawsze pojawia się siła elektromotoryczna indukcji elektromagnetycznej, proporcjonalna do szybkości zmian strumienia magnetycznego. Zmiana pola magnetycznego powoduje powstanie pola elektrycznego. Ponieważ prąd jest pochodną ładunku po czasie, możemy napisać:

Wynika z tego, że ładunek płynący w przewodzie na skutek indukcji elektromagnetycznej zależy od zmiany strumienia magnetycznego przenikającego obwód i jego rezystancji. Zależność ta jest wykorzystywana do pomiaru strumienia magnetycznego przez urządzenia rejestrujące ładunek elektryczny indukowany w obwodzie.

Jednym z przejawów indukcji elektromagnetycznej jest występowanie zamkniętych prądów indukcyjnych (prądów wirowych lub prądów Foucaulta) w ciałach stałych przewodzących, takich jak części metalowe, roztwory elektrolitów, organy biologiczne itp. Prądy wirowe powstają podczas poruszania się ciała przewodzącego pole magnetyczne, gdy zmienia się wraz z czasem indukcji pola, jak również pod wpływem połączonego działania obu czynników. Natężenie prądów wirowych zależy od rezystancji elektrycznej ciała, a co za tym idzie od rezystywności i wymiarów, a także od szybkości zmian strumienia magnetycznego. W fizjoterapii ogrzewanie poszczególnych części ludzkiego ciała prądami wirowymi jest zalecane jako zabieg medyczny zwany induktotermią.

Oscylacje elektromagnetyczne nazywane są okresowymi, wzajemnie powiązanymi zmianami ładunków, prądów, natężenia pola elektrycznego i magnetycznego. Propagacja oscylacji elektromagnetycznych w przestrzeni odbywa się w postaci fal elektromagnetycznych. Wśród różnych zjawisk fizycznych szczególne miejsce zajmują oscylacje i fale elektromagnetyczne.

Prąd przemienny to każdy prąd, który zmienia się w czasie. Częściej jednak termin „prąd przemienny” stosuje się do prądów quasi-stacjonarnych, które zależą od czasu zgodnie z prawem harmonicznym.

41. Całkowity opór ((impedancja) tkanek ciała. Fizyczne podstawy reografii)

Tkanki ciała przewodzą nie tylko prąd stały, ale i przemienny. W korpusie nie ma takich układów, które byłyby podobne do cewek indukcyjnych, więc jego indukcyjność jest bliska zeru.

Błony biologiczne (a co za tym idzie cały organizm) mają właściwości pojemnościowe, w związku z czym całkowitą oporność tkanek ciała określają jedynie opory omowe i pojemnościowe.Obecność elementów pojemnościowych w układach biologicznych potwierdza fakt, że natężenie prądu wyprzedza przyłożone napięcie w fazie. Zależność częstotliwościowa impedancji umożliwia ocenę żywotności tkanek organizmu, co jest ważne przy przeszczepianiu (przeszczepianiu) tkanek i narządów. Impedancja tkanek i narządów zależy również od ich stanu fizjologicznego, dlatego przy napełnieniu naczyń krwionośnych impedancja zmienia się w zależności od stanu czynności układu krążenia.

Metodę diagnostyczną polegającą na rejestracji wykorzystania impedancji tkanek w procesie czynności serca nazywamy reografią (pletyzmografią impedancyjną). Za pomocą tej metody uzyskuje się reogramy mózgu (reoencefalogramy), serca (reokardiogramy), naczynia główne, płuca wątroby i kończyn. Pomiary są zwykle przeprowadzane z częstotliwością 30 kHz. Impuls elektryczny i prąd impulsowy Impuls elektryczny to krótkotrwała zmiana napięcia elektrycznego lub natężenia prądu. W technologii impulsy dzielą się na dwie duże grupy: impulsy wideo i radiowe.

Impulsy wideo to takie impulsy prądu elektrycznego lub napięcia, które mają składową stałą różną od zera. Tak więc impuls wideo ma głównie jedną biegunowość. Kształt impulsów wideo jest prostokątny, piłokształtny, trapezowy, wykładniczy, dzwonowaty itp.

Impulsy radiowe to modulowane oscylacje elektromagnetyczne.

W fizjologii termin „impuls elektryczny” (lub „sygnał elektryczny”) odnosi się konkretnie do impulsów wideo. Powtarzające się impulsy nazywane są prądem impulsowym. Charakteryzuje się okresem (okresem powtarzania impulsów) T – średnim czasem pomiędzy początkami sąsiednich impulsów oraz częstotliwością (częstotliwością powtarzania impulsów):

f=1/T.

Cykl pracy impulsów to stosunek:

Odwrotność cyklu pracy to współczynnik wypełnienia:

42. Pojęcie teorii Maxwella. Prąd polaryzacji

J. Maxwell stworzył teorię pola elektromagnetycznego w ramach fizyki klasycznej. Teoria J. Maxwella opiera się na dwóch przepisach.

1. Każde przemieszczone pole elektryczne generuje wirowe pole magnetyczne. Zmienne pole elektryczne zostało nazwane przez Maxwella, ponieważ, podobnie jak zwykły prąd, indukuje pole magnetyczne. Wirowe pole magnetyczne jest generowane zarówno przez prądy przewodzenia Ipr (przemieszczające się ładunki elektryczne), jak i prądy przemieszczania (przemieszczone pole elektryczne E).

Pierwsze równanie Maxwella

2. Każde przemieszczone pole magnetyczne generuje wirowe pole elektryczne (podstawowe prawo indukcji elektromagnetycznej).

Drugie równanie Maxwella:

Odnosi się do szybkości zmiany strumienia magnetycznego przez dowolną powierzchnię i cyrkulacji wektora natężenia pola elektrycznego, które w tym przypadku powstaje. Cyrkulacja odbywa się wzdłuż konturu, na którym spoczywa powierzchnia.

Z zapisów teorii Maxwella wynika, że ​​pojawienie się dowolnego pola (elektrycznego lub magnetycznego) w jakimś punkcie przestrzeni pociąga za sobą cały łańcuch wzajemnych przemian: przemienne pole elektryczne generuje pole magnetyczne, zmiana pola magnetycznego generuje elektryczne jeden.

Wzajemne powstawanie pól elektrycznych i magnetycznych prowadzi do powstania pola elektromagnetycznego - propagacji pojedynczego pola elektromagnetycznego w przestrzeni. Prędkość rozchodzenia się fal elektromagnetycznych jest równa prędkości światła. Posłużyło to jako podstawa do stworzenia przez Maxwella elektromagnetycznej teorii światła. Teoria ta stała się bardzo ważnym etapem w dalszym rozwoju fizyki medycznej.

43. Klasyfikacja przedziałów częstotliwości przyjęta w medycynie

Z teorii Maxwella wynika, że ​​różne fale elektromagnetyczne, w tym fale świetlne, mają wspólny charakter. W związku z tym wskazane jest reprezentowanie wszystkich rodzajów fal elektromagnetycznych w postaci jednej skali.

Każda skala jest warunkowo podzielona na sześć zakresów: fale radiowe (długie, średnie i krótkie), promieniowanie podczerwone, widzialne, ultrafioletowe, rentgenowskie i gamma. Ta klasyfikacja jest określona albo przez mechanizm powstawania fal, albo przez możliwość ich wizualnej percepcji przez osobę. Fale radiowe są powodowane przez prądy przemienne w przewodnikach i przepływy elektroniczne (makroradiatory).

Promieniowanie podczerwone, widzialne i ultrafioletowe pochodzi z atomów, cząsteczek i szybko naładowanych cząstek (mikroemiterów). Promieniowanie rentgenowskie występuje podczas procesów wewnątrzatomowych. Promieniowanie gamma ma pochodzenie jądrowe.

Niektóre zakresy zachodzą na siebie, ponieważ fale o tej samej długości mogą być wytwarzane w różnych procesach. Tak więc większość krótkofalowego promieniowania ultrafioletowego jest blokowana przez promieniowanie rentgenowskie o długich falach. Pod tym względem obszar graniczny fal podczerwonych i fal radiowych jest bardzo charakterystyczny. Do 1922 r. istniała luka między tymi zakresami. Najkrótsze promieniowanie w tej niewypełnionej szczelinie pochodziło z atomów molekularnych (promieniowanie nagrzanego ciała), natomiast najdłuższą emitowały wibratory makroskopowe Hertza. Nawet fale milimetrowe mogą być generowane nie tylko przez inżynierię radiową, ale także przez przejścia molekularne. Pojawił się dział „Radiospektroskopia”, który bada pochłanianie i emisję fal radiowych przez różne substancje.

W medycynie przyjmuje się następujący warunkowy podział oscylacji elektromagnetycznych na zakresy częstotliwości (tab. 1).

Tabela 1

Warunkowy podział oscylacji elektromagnetycznych na zakresy częstotliwości

Elektroniczny sprzęt fizjoterapeutyczny o niskich i dźwiękowych częstotliwościach często nazywany jest urządzeniami o niskiej częstotliwości. Sprzęt elektroniczny wszystkich innych częstotliwości nazywany jest ogólną koncepcją - „sprzętem wysokiej częstotliwości”.

44. Procesy fizyczne w tkankach, które zachodzą pod wpływem prądu i pól elektromagnetycznych

Wszystkie substancje składają się z cząsteczek, każda z nich jest układem ładunków. Dlatego stan ciał w istotny sposób zależy od przepływających przez nie prądów i działającego pola elektromagnetycznego. Właściwości elektryczne ciał biologicznych są bardziej złożone niż właściwości obiektów nieożywionych, ponieważ organizm to także zbiór jonów o zmiennym stężeniu w przestrzeni.

Podstawowy mechanizm oddziaływania prądów i pól elektromagnetycznych na organizm ma charakter fizyczny.

Pierwotne działanie prądu stałego na tkanki ciała. Galwanizacja. Elektroforeza substancji leczniczych

Ciało ludzkie składa się w dużej mierze z płynów biologicznych zawierających dużą liczbę jonów, które biorą udział w różnych procesach metabolicznych. Pod wpływem pola elektrycznego jony poruszają się z różnymi prędkościami i gromadzą się w pobliżu błon komórkowych, tworząc przeciwpole elektryczne, zwane polaryzacją. Zatem pierwotny efekt prądu stałego jest związany z ruchem jonów w różnych elementach tkanek.

Wpływ prądu stałego na organizm zależy od siły prądu, dlatego bardzo ważny jest opór elektryczny tkanek, zwłaszcza skóry. Wilgoć i pot znacznie zmniejszają opór, co już przy niewielkim napięciu może spowodować przepływ prądu przez ciało. Jako terapeutyczną metodę fizjoterapii (galwanizacja) stosuje się ciągły prąd stały o napięciu 60-80 V. Źródłem prądu jest prostownik pełnookresowy - aparat cynkowniczy. Wykorzystuje się do tego elektrody wykonane z blachy ołowianej o grubości 0,3-0,5 mm. Ponieważ produkty elektrolizy roztworu soli kuchennej zawarte w tkankach powodują kauteryzację, pomiędzy elektrody a skórę umieszcza się podkładki hydrofilowe zwilżone ciepłą wodą.

Prąd stały wykorzystuje się także w praktyce lekarskiej do podawania substancji leczniczych przez skórę lub błony śluzowe. Metoda ta nazywana jest elektroforezą substancji leczniczych. W tym celu należy postępować analogicznie jak przy cynkowaniu, z tą różnicą, że uszczelkę elektrody aktywnej zwilża się roztworem odpowiedniej substancji leczniczej. Lek podawany jest z bieguna, którego ładunek ma: aniony wprowadzane są z katody, kationy z anody.

Galwanizację i elektroforezę substancji leczniczych można przeprowadzić za pomocą elektrod płynnych w postaci kąpieli, w których zanurzone są kończyny pacjenta.

45. Wpływ prądów przemiennych (impulsowych)

Wpływ prądu przemiennego na organizm zależy w dużej mierze od jego częstotliwości. Przy niskich częstotliwościach dźwiękowych i ultradźwiękowych prąd przemienny, podobnie jak prąd stały, działa drażniąco na tkanki biologiczne. Wynika to z przemieszczania się jonów roztworów elektrolitów, ich separacji, zmian ich stężenia w różnych częściach komórki i przestrzeni międzykomórkowej.

Podrażnienie tkanek zależy również od kształtu prądu pulsującego, czasu trwania impulsu i jego amplitudy. Czyli np. zwiększenie stromości czoła impulsu powoduje zmniejszenie progowej siły prądu, która powoduje skurcz mięśni. Wskazuje to, że mięśnie dostosowują się do zmian aktualnej siły i rozpoczynają się procesy kompensacji jonowej. Ponieważ specyficzne fizjologiczne działanie prądu elektrycznego zależy od kształtu impulsów, w medycynie do stymulacji ośrodkowego układu nerwowego (elektrosen, znieczulenie elektronowe), układu nerwowo-mięśniowego, układu sercowo-naczyniowego (rozruszniki, defibrylatory) i innych, prądy o różnych są używane zależności czasowe.

Wpływając na serce, prąd może powodować migotanie komór, co prowadzi do śmierci człowieka. Próg siły prądu powodujący migotanie zależy od gęstości prądu przepływającego przez serce, częstotliwości i czasu jego działania. Prąd lub fala elektromagnetyczna mają działanie termiczne. Ogrzewanie lecznicze wibracjami elektromagnetycznymi o wysokiej częstotliwości ma szereg zalet w stosunku do tradycyjnej i prostej metody – poduszki grzewczej. Ogrzewanie narządów wewnętrznych za pomocą poduszki grzewczej odbywa się dzięki przewodności cieplnej tkanek zewnętrznych - skóry i tłuszczu podskórnego. Ogrzewanie wysoką częstotliwością następuje na skutek powstawania ciepła w wewnętrznych częściach ciała, czyli może ono powstać tam, gdzie jest potrzebne. Rozgrzewka oscylacjami o wysokiej częstotliwości jest również wygodna, ponieważ regulując moc generatora, można kontrolować siłę wydzielania ciepła w narządach wewnętrznych, a przy niektórych zabiegach można dozować ogrzewanie. Do ogrzewania tkanek prądami wykorzystuje się prądy o wysokiej częstotliwości. Przepuszczanie prądu o wysokiej częstotliwości przez tkankę wykorzystuje się w zabiegach fizjoterapeutycznych zwanych diatermią i miejscową darsonwizacją.

Podczas diatermii stosuje się prąd o częstotliwości około 1 MHz ze słabo tłumionymi oscylacjami, napięcie 100-150 V; prąd wynosi kilka amperów. Ponieważ skóra, tłuszcz, kości, mięśnie mają największy opór właściwy, bardziej się nagrzewają. Najmniejszym ogrzewaniem w narządach bogatych w krew lub limfę są płuca, wątroba i węzły chłonne.

Wadą diatermii jest to, że w warstwie skóry i tkance podskórnej uwalniana jest bezproduktywnie duża ilość ciepła. W ostatnim czasie diatermia odchodzi od praktyki terapeutycznej i jest zastępowana innymi metodami ekspozycji na wysokie częstotliwości.

Prądy wysokiej częstotliwości są również wykorzystywane do celów chirurgicznych (elektrochirurgia). Pozwalają na przyżeganie, „spawanie” tkanek (diatermocoagulacja) lub ich preparację (diatermotomia).

46. ​​​​Ekspozycja na zmienne pole magnetyczne

Prądy wirowe powstają w masywnych ciałach przewodzących w polu przemiennym. Prądy te można wykorzystać do ogrzewania tkanek i narządów biologicznych. Ta metoda terapeutyczna – induktotermia – ma szereg zalet w stosunku do metody diatermii. W induktotermii ilość ciepła uwalnianego w tkankach jest proporcjonalna do kwadratów częstotliwości i indukcji zmiennego pola magnetycznego i odwrotnie proporcjonalna do rezystywności. Dlatego tkanki bogate w naczynia krwionośne (na przykład mięśnie) nagrzeją się bardziej niż tkanki tłuszczowe. Leczenie prądami wirowymi jest również możliwe przy ogólnej darsonwalizacji. W tym przypadku pacjenta umieszcza się w klatce elektromagnetycznej, przez której zwoje przepuszczany jest pulsacyjny prąd o wysokiej częstotliwości.

Ekspozycja na zmienne pole elektryczne. W tkankach w zmiennym polu elektrycznym powstają prądy przesunięcia i prądy przewodzenia. Zazwyczaj do tego celu wykorzystuje się pola elektryczne o ultrawysokiej częstotliwości, dlatego odpowiednia metoda fizjoterapeutyczna nazywana jest terapią UHF. W urządzeniach UHF zwyczajowo stosuje się częstotliwość 40,58 MHz, przy prądach o tej częstotliwości tkanki dielektryczne ciała nagrzewają się intensywniej niż tkanki przewodzące.

Narażenie na fale elektromagnetyczne. Metody fizjoterapeutyczne oparte na wykorzystaniu fal elektromagnetycznych w zakresie mikrofal, w zależności od długości fali, otrzymały dwie nazwy: „terapia mikrofalowa” i „terapia DCV”. Obecnie najbardziej rozwiniętą teorią jest termiczny wpływ pól mikrofalowych na obiekty biologiczne.

Fala elektromagnetyczna polaryzuje cząsteczki substancji i okresowo zmienia ich orientację jako dipole elektryczne. Ponadto fala elektromagnetyczna wpływa na jony układów biologicznych i powoduje przemienny prąd przewodzący. Wszystko to prowadzi do ogrzewania substancji.

Fale elektromagnetyczne mogą wpływać na procesy biologiczne, rozrywając wiązania wodorowe i wpływając na orientację makrocząsteczek DNA i RNA.

Kiedy fala elektromagnetyczna uderza w obszar ciała, jest częściowo odbijana od powierzchni skóry. Stopień odbicia zależy od różnicy stałych dielektrycznych powietrza i tkanek biologicznych. Głębokość wnikania fal elektromagnetycznych do tkanek biologicznych zależy od zdolności tych tkanek do pochłaniania energii fal, o której z kolei decyduje zarówno budowa tkanek (głównie zawartość wody), jak i częstotliwość fal elektromagnetycznych. Zatem centymetrowe fale elektromagnetyczne stosowane w fizjoterapii wnikają w mięśnie, skórę i płyny biologiczne na głębokość około 2 cm, a w tkankę tłuszczową i kości - na głębokość około 10 cm.

Biorąc pod uwagę złożony skład tkanek, tradycyjnie uważa się, że przy terapii mikrofalowej głębokość wnikania fal elektromagnetycznych wynosi 3-5 cm od powierzchni ciała, a przy terapii DCV - do 9 cm.

47. Elektronika

Elektronika to pojęcie, które jest obecnie szeroko rozpowszechnione. Elektronika bazuje przede wszystkim na zdobyczach fizyki. Dziś bez sprzętu elektronicznego nie jest możliwa diagnoza chorób ani ich skuteczne leczenie.

Termin „elektronika” jest w dużej mierze arbitralny. Najbardziej słuszne jest rozumienie elektroniki jako dziedziny nauki i techniki, w której rozważa się pracę i zastosowanie urządzeń (urządzeń) elektropróżniowych, jonowych i półprzewodnikowych. Wyróżniają elektronikę fizyczną, czyli dział fizyki, który zajmuje się przewodnością elektryczną ciał, kontaktem i zjawiskami termowizyjnymi. Przez elektronikę techniczną rozumie się te sekcje, które opisują urządzenia urządzeń i aparatury oraz ich obwody przełączające. Elektronika półprzewodnikowa odnosi się do wykorzystania urządzeń półprzewodnikowych itp.

Czasami całą elektronikę dzieli się na trzy duże obszary: elektronikę próżniową, która obejmuje tworzenie i zastosowanie elektrycznych urządzeń próżniowych (takich jak lampy próżniowe, urządzenia fotoelektroniczne, lampy rentgenowskie, urządzenia wyładowcze); elektronika półprzewodnikowa, która obejmuje tworzenie i zastosowanie urządzeń półprzewodnikowych, w tym układów scalonych; elektronika kwantowa to specyficzna gałąź elektroniki związana z laserami.

Elektronika to dynamiczna gałąź nauki i techniki. W oparciu o nowe efekty (zjawiska) powstają urządzenia elektroniczne, w tym wykorzystywane w biologii i medycynie.

Każde urządzenie techniczne (radiotechniczne lub elektroniczne) jest modernizowane, zmniejszane itp. Pojawiają się jednak w tym trudności. Na przykład zmniejszenie wymiarów produktu może zmniejszyć jego niezawodność itp.

Istotną zmianą w miniaturyzacji urządzeń elektronicznych było wprowadzenie diod i triod półprzewodnikowych, co pozwoliło na sprowadzenie gęstości urządzeń elektronicznych do 2-3 elementów na 1 cm3.

Kolejnym etapem miniaturyzacji elektroniki, który w chwili obecnej wciąż się rozwija, jest tworzenie układów scalonych. To miniaturowe urządzenie elektroniczne, w którym wszystkie elementy (lub ich część) są nierozerwalnie połączone strukturalnie i elektrycznie. Istnieją dwa główne typy układów scalonych: półprzewodnikowe i foliowe.

Półprzewodnikowe układy scalone są wykonane z półprzewodników o wysokiej czystości. Za pomocą obróbki termicznej, dyfuzyjnej i innej sieć krystaliczna półprzewodnika ulega zmianie tak, że jego poszczególne obszary stają się różnymi elementami obwodu. Foliowe układy scalone powstają poprzez nakładanie próżniowe różnych materiałów na odpowiednie podłoża. Stosowane są również hybrydowe układy scalone - połączenie obwodów półprzewodnikowych i foliowych.

48. Elektronika medyczna

Jednym z powszechnych zastosowań urządzeń elektronicznych jest diagnostyka i leczenie chorób. Sekcje elektroniki, które uwzględniają cechy zastosowania systemów elektronicznych do rozwiązywania problemów biomedycznych, a także urządzenia odpowiedniego sprzętu, nazywane są elektroniką medyczną.

Elektronika medyczna opiera się na informacjach z fizyki, matematyki, inżynierii, medycyny, biologii, fizjologii i innych nauk, obejmuje elektronikę biologiczną i fizjologiczną.

Obecnie wiele tradycyjnie „nieelektrycznych” charakterystyk (temperatura, przemieszczenie ciała, parametry biochemiczne itp.) jest mierzonych podczas pomiarów, które są przekształcane na sygnał elektryczny. Informacje reprezentowane przez sygnał elektryczny można wygodnie przesyłać na odległość i niezawodnie rejestrować. Możemy wyróżnić następujące główne grupy urządzeń i aparatury elektronicznej wykorzystywanej do celów biomedycznych.

1. Urządzenia do odbioru (schematu), transmisji i rejestracji informacji biomedycznych. Taka informacja może dotyczyć nie tylko procesów zachodzących w organizmie (w tkance biologicznej, narządach, układach), ale także o stanie środowiska (cel sanitarno-higieniczny), o procesach zachodzących w protezach itp. Obejmuje to m.in. duża część sprzętu diagnostycznego: balistokardiografy, fonokardiografy itp.

2. Urządzenia elektroniczne, które zapewniają działanie dozujące na organizm przez różne czynniki fizyczne (takie jak ultradźwięki, prąd elektryczny, pola elektromagnetyczne itp.) w celu leczenia: urządzenia do terapii mikrofalowej, urządzenia elektrochirurgiczne, rozruszniki serca itp. 3. Elektronika cybernetyczna urządzenia:

1) komputery elektroniczne do przetwarzania, przechowywania i automatycznej analizy informacji medycznych i biologicznych;

2) urządzenia do sterowania procesami życiowymi i automatycznej regulacji środowiska człowieka;

3) elektroniczne modele procesów biologicznych itp. Jednym z ważnych zagadnień związanych z urządzeniem

elektroniczny sprzęt medyczny to jego bezpieczeństwo elektryczne zarówno dla pacjentów, jak i personelu medycznego. W sieci elektrycznej i urządzeniach technicznych zwykle ustawia się napięcie elektryczne, ale prąd elektryczny, czyli ładunek przepływający przez obiekt biologiczny w jednostce czasu, ma wpływ na ciało lub narządy.

Opór ludzkiego ciała między dwoma dotknięciami (elektrodami) jest sumą oporu tkanek i narządów wewnętrznych oraz oporu skóry.

Głównym i głównym wymaganiem jest uniemożliwienie dotykania sprzętu pod napięciem. W tym celu przede wszystkim części urządzeń i aparatów pod napięciem są odizolowane od siebie i od korpusu sprzętu.

49. W jaki sposób zapewniona jest niezawodność sprzętu medycznego?

Podczas wykonywania zabiegów z użyciem elektrod przyłożonych do pacjenta trudno jest przewidzieć wiele możliwości stworzenia sytuacji zagrożenia elektrycznego, dlatego należy wyraźnie postępować zgodnie z instrukcjami dotyczącymi tej procedury, nie odbiegając od niej.

Niezawodność sprzętu medycznego. Sprzęt medyczny musi działać normalnie. Zdolność produktu do nieprzerwanej pracy w danych warunkach eksploatacji i utrzymania swojej funkcjonalności przez zadany okres czasu charakteryzuje się ogólnym terminem „niezawodność”. W przypadku sprzętu medycznego problem niezawodności jest szczególnie istotny, ponieważ awaria urządzeń i urządzeń może prowadzić nie tylko do strat ekonomicznych, ale także do śmierci pacjentów. Zdolność sprzętu do bezawaryjnej pracy zależy od wielu czynników, których skutków jest prawie niemożliwych do uwzględnienia, dlatego też ilościowa ocena niezawodności ma charakter probabilistyczny. Przykładowo ważnym parametrem jest prawdopodobieństwo bezawaryjnej pracy. Ocenia się ją eksperymentalnie na podstawie stosunku liczby produktów działających (nie zepsutych) w określonym czasie do całkowitej liczby przetestowanych produktów. Ta cecha ocenia zdolność produktu do utrzymania funkcjonalności w danym przedziale czasu. Kolejnym ilościowym wskaźnikiem niezawodności jest wskaźnik awaryjności. W zależności od możliwych konsekwencji awarii w trakcie eksploatacji, wyroby medyczne dzieli się na cztery klasy.

A - produkty, których awaria stwarza bezpośrednie zagrożenie dla życia pacjenta lub personelu. Produkty tej klasy obejmują urządzenia do monitorowania funkcji życiowych pacjenta, urządzenia do sztucznego oddychania i krążenia krwi.

B - wyroby, których awaria powoduje zniekształcenie informacji o stanie organizmu lub otoczenia, co nie prowadzi do bezpośredniego zagrożenia życia pacjenta lub personelu lub wymusza niezwłoczne użycie urządzenia o podobnym funkcji do trybu czuwania. Produkty te obejmują systemy monitorujące pacjenta, urządzenia do stymulacji czynności serca.

B - produkty, których awaria zmniejsza skuteczność lub opóźnia proces leczenia i diagnostyki w sytuacjach niekrytycznych lub zwiększa obciążenie personelu medycznego lub konserwacyjnego lub prowadzi wyłącznie do szkód materialnych. Ta klasa obejmuje większość sprzętu diagnostycznego i fizjoterapeutycznego, narzędzi itp.

G - produkty, które nie zawierają części odpornych na awarie. Sprzęt elektromedyczny nie należy do tej klasy.

50. System pozyskiwania informacji medycznych i biologicznych

Wszelkie badania biomedyczne wiążą się z pozyskiwaniem i rejestrowaniem brakujących informacji. Do pozyskiwania i rejestrowania informacji o stanie i parametrach systemu medyczno-biologicznego niezbędne jest posiadanie całego zestawu urządzeń. Podstawowy element tego zestawu – czuły element przyrządu pomiarowego, zwany urządzeniem przetwornikowym – z pewnością styka się lub współdziała z samym systemem.

W urządzeniach elektroniki medycznej element czujnikowy albo bezpośrednio wytwarza sygnał elektryczny, albo zmienia taki sygnał pod wpływem układu biologicznego. Urządzenie odbierające przetwarza informacje o treści biomedycznej i fizjologicznej na sygnał urządzenia elektronicznego. W elektronice medycznej stosuje się dwa rodzaje urządzeń odbierających: elektrody i czujniki.

Elektrody to specjalnie ukształtowane przewodniki, które łączą obwód pomiarowy z systemem biologicznym. Podczas diagnozowania elektrody służą nie tylko do odbierania sygnału elektrycznego, ale także do wywoływania zewnętrznego efektu elektromagnetycznego (na przykład w reografii). W medycynie elektrody są również wykorzystywane do dostarczania efektów elektromagnetycznych w celu leczenia i stymulacji elektrycznej.

Wiele cech biomedycznych nie może być „zapisanych” przez elektrody, ponieważ nie są one odzwierciedlane przez sygnał bioelektryczny: ciśnienie krwi, temperatura, tony serca i wiele innych. W niektórych przypadkach informacja biomedyczna jest powiązana z sygnałem elektrycznym, w tych przypadkach stosuje się czujniki (przetworniki pomiarowe). Czujnik to urządzenie, które przekształca zmierzoną lub kontrolowaną wartość na sygnał dogodny do transmisji, dalszej konwersji lub rejestracji. Czujniki dzielą się na generatorowe i parametryczne.

Generator – są to czujniki, które pod wpływem mierzonego sygnału generują bezpośrednio napięcie lub prąd. Te typy czujników obejmują:

1) piezoelektryczny;

2) termoelektryczny;

3) indukcja;

4) fotowoltaiczne.

Czujniki parametryczne to czujniki, w których niektóre parametry zmieniają się pod wpływem mierzonego sygnału.

Te czujniki obejmują:

1) pojemnościowy;

2) reostatyczny;

3) indukcyjny.

W zależności od energii będącej nośnikiem informacji rozróżnia się czujniki mechaniczne, akustyczne (dźwięku), temperatury, elektryczne, optyczne i inne.

Potencjały bioelektryczne są podstawowym wskaźnikiem diagnostycznym wielu chorób. Dlatego bardzo ważne jest prawidłowe rejestrowanie tych potencjałów i wydobywanie niezbędnych informacji medycznych.

51. Wzmacniacz-oscylatory

Wzmacniacze sygnałów elektrycznych lub wzmacniacze elektroniczne to urządzenia, które przekształcają energię źródeł napięcia stałego na energię oscylacji elektromagnetycznych o różnej postaci.

Zgodnie z zasadą działania rozróżnia się generatory z samowzbudzeniem i generatory z zewnętrznym wzbudzeniem, które są zasadniczo wzmacniaczami mocy o wysokiej częstotliwości.

Generatory są podzielone według częstotliwości i mocy oscylacji. W medycynie generatory elektroniczne znajdują trzy główne zastosowania: w fizjoterapeutycznym sprzęcie elektronicznym; w stymulatorach elektronicznych; w oddzielnych urządzeniach diagnostycznych, na przykład w reografie.

Wszystkie generatory dzielą się na niskiej częstotliwości i wysokiej częstotliwości. Wyroby medyczne - generatory harmonicznych i impulsowych oscylacji elektromagnetycznych o niskiej częstotliwości łączą w sobie dwie duże grupy urządzeń, które trudno jednoznacznie rozróżnić: stymulatory elektroniczne (stymulatory elektryczne) i urządzenia do fizjoterapii. Przy niskich częstotliwościach najbardziej znaczący jest raczej specyficzny niż termiczny efekt prądu. Terapia elektryczna ma charakter stymulujący, dlatego też istnieje swego rodzaju pomieszanie pojęć „urządzenie terapeutyczne” i „stymulator elektryczny”.

Elektrostymulatory dzielą się na stacjonarne, nadające się do noszenia i wszczepialne (wszczepiane).

Rozrusznik serca nadający się do noszenia i często wszczepialny to wszczepialny stymulator częstotliwości radiowej EKSR-01. Odbiornik odbiera sygnały radiowe z zewnętrznego nadajnika. Sygnały te są odbierane wewnątrz ciała pacjenta przez część wszczepialną i są przesyłane do serca w postaci impulsów przez elektrody. Urządzenia techniczne do stymulacji elektrycznej obejmują również elektrody do dostarczania sygnału elektrycznego do systemu biologicznego. W wielu przypadkach stymulacja elektryczna jest realizowana przez elektrody płytkowe, które są nakładane na ludzkie ciało jak elektrody do elektrokardiografii.

Duża grupa wyrobów medycznych - generatory drgań i fal elektromagnetycznych - działa w zakresie częstotliwości ultradźwiękowych, wysokich, ultrawysokich i ogólnie nazywana jest „sprzętem elektronicznym wysokiej częstotliwości”.

W terapii UHF ogrzewana część ciała umieszczana jest pomiędzy metalowymi elektrodami w kształcie dysku, pokrytymi warstwą izolatora. Pod wpływem fal elektromagnetycznych emiter tych fal zbliża się do ciała.

Inne urządzenia fizjoterapeutyczne obejmują:

1) aparat „Iskra-1” - generator wysokiej częstotliwości działający w trybie pulsacyjnym i służący do lokalnej darsonwalizacji;

2) aparat IKV-4 do induktotermii pracujący na częstotliwości 13,56 MHz;

3) przenośny aparat do terapii UHF - UHF-66;

4) aparat do terapii mikrofalowej „Luch-58”.

Urządzenia elektrochirurgiczne (chirurgia wysokiej częstotliwości) są również określane jako elektroniczny sprzęt medyczny wysokiej częstotliwości.

52. Optyka

Optyka to dział fizyki zajmujący się prawami promieniowania, pochłaniania i propagacji światła.

Prawo prostoliniowego rozchodzenia się światła.

Światło w przezroczystym jednorodnym ośrodku rozchodzi się w linii prostej.

Wiązka światła to nieskończenie cienka wiązka światła rozchodzącego się w linii prostej, jest to linia wskazująca kierunek rozchodzenia się energii świetlnej.

Płaskie lustro. Jeśli padające promienie równoległe pozostają równoległe po odbiciu od płaskiej powierzchni, wówczas takie odbicie nazywa się odbiciem zwierciadlanym, a powierzchnia odbijająca jest płaskim lustrem.

Prawa załamania światła. Promienie padające i załamane oraz normalna do granicy między ośrodkami w punkcie padania leżą w tej samej płaszczyźnie.

sinα /sinβ = n,

gdzie α jest kątem między wiązką padającą a normalną; β to kąt między załamaną wiązką a normalną. Bezwzględne i względne współczynniki załamania.

Względny współczynnik załamania światła n = n1/ nie2,

gdzie n1 oraz n2 - bezwzględne współczynniki załamania dwóch ośrodków, równe stosunkowi prędkości światła w próżni do prędkości światła w ośrodku:

n=c/v1, n2= c/w2

Przebieg promieni w pryzmacie. Prawo załamania światła umożliwia obliczenie przebiegu promieni w różnych urządzeniach optycznych, w szczególności w pryzmacie trójkątnym.

całkowite ugięcie belki

d = za1 + B2 ×w,

w=b1 + a2.

Jeśli w jest małe, to:

d = (n-1) hw,

gdzie n jest współczynnikiem załamania materiału pryzmatu.

Zjawiska całkowitego wewnętrznego odbicia. Jeżeli wiązka przechodzi z ośrodka, który jest gęstszy optycznie (o wyższym współczynniku załamania) do ośrodka, który jest mniej gęsty optycznie, to:

Przy określonej wartości kąta padania a0 załamana wiązka przesuwa się po granicy między medium

и

β = n/2, to sinα0 =n1/ nie2

53. Optyka falowa

Falowe właściwości światła. Światło to fale elektromagnetyczne w zakresie częstotliwości 13 x 1014-8 x h 1014 Hz odbierane przez ludzkie oko, czyli długość fali to 380 x 770 nm. Światło ma wszystkie właściwości fal elektromagnetycznych: odbicie, załamanie, interferencję, dyfrakcję, polaryzację.

Elektromagnetyczna natura światła. Do połowy XIX wieku kwestia natury światła pozostawała praktycznie nierozwiązana. Odpowiedź na to pytanie znalazł J. Maxwell, który uzasadnił ogólne prawa pola elektromagnetycznego. Z teorii J. Maxwella wyciągnięto wniosek, że światło to fale elektromagnetyczne o pewnym zakresie. Prędkość światła w ośrodku jednorodnym. Prędkość światła zależy od właściwości elektrycznych i magnetycznych ośrodka. Potwierdza to zbieżność prędkości światła w próżni ze stałą elektrodynamiczną:

0 - stała elektryczna, m0 jest stałą magnetyczną). Jak wiadomo, prędkość światła w jednorodnym ośrodku jest określona przez współczynnik załamania ośrodka n. Prędkość światła w substancji:

υ=c/n

gdzie c jest prędkością światła w próżni.

Z teorii Maxwella wynika:

tj. współczynnik załamania światła, a w konsekwencji prędkość w ośrodku, są określone przez przepuszczalność dielektryczną i magnetyczną ośrodka:

Interferencja to dodanie fal z dwóch lub więcej źródeł, gdy w wyniku dodawania naruszona jest zasada superpozycji natężeń.

Gęstość energii fali elektromagnetycznej jest proporcjonalna do kwadratu amplitudy fali i określa intensywność fali świetlnej, którą ludzkie oko ocenia jako oświetlenie. Dyfrakcja światła to zjawisko odchylenia światła od kierunku prostoliniowego podczas przejścia w pobliżu krawędzi przeszkody.

Dyfrakcja fali to zespół zjawisk obserwowanych podczas przechodzenia fal w ośrodkach niejednorodnych, prowadzących do odchylenia fal od pierwotnej propagacji prostoliniowej.

Zasada Huygensa-Fresnela. Każdy punkt na powierzchni, do którego w danym momencie dotarła fala, służy jako punktowe źródło wtórnych fal sferycznych, które są spójne: powierzchnia fali w dowolnym momencie nie jest tylko otoczką fal wtórnych, ale wynikiem ich interferencji.

Metoda stref Fresnela. W przypadku źródła punktowego w ośrodku jednorodnym i izotropowym powierzchnie fal mają kształt kulisty. Fresnel zaproponował podzielenie powierzchni fali na oddzielne sekcje, zwane strefami Fresnela, tak aby oscylacje pochodzące z dwóch sąsiednich stref do punktu obserwacji znosiły się nawzajem po dodaniu.

54. Polaryzacja światła

Światło to poprzeczne fale elektromagnetyczne. Polaryzacja światła to uporządkowanie wektorów natężenia pola elektrycznego i magnetycznego fali świetlnej w płaszczyźnie prostopadłej do wiązki światła. Światło naturalne (światło słoneczne, żarówki) jest niespolaryzowane, tj. wszystkie kierunki oscylacji wektorów elektrycznego i magnetycznego prostopadłego do promieni świetlnych są równe. Istnieją urządzenia zwane polaryzatorami, które mają zdolność przepuszczania promieni świetlnych o jednym kierunku drgań wektora elektrycznego E, tak że na wyjściu polaryzatora światło staje się spolaryzowane płasko (liniowo). Przy dowolnym kącie a pomiędzy kierunkami analizatora i polaryzatora amplituda oscylacji światła wychodzącego z analizatora jest równa:

Ea = En cos a,

gdzie En jest amplitudą oscylacji na wyjściu polaryzatora.

W fali elektromagnetycznej gęstość energii (natężenie) jest proporcjonalna do kwadratu amplitudy drgań E, tj. In -E2n i jaa -E2a.

Na tej podstawie otrzymujemy:

Ia = In cos2

Ta relacja nazywana jest prawem Malusa.

Stopień polaryzacji światła (maksymalnej i minimalnej) jest równy intensywności częściowo spolaryzowanego światła przepuszczanego przez analizator.

Polaryzacja występuje również na granicy dwóch izotropowych dielektryków. Jeżeli padające światło jest naturalne, wówczas promienie załamane i odbite są częściowo spolaryzowane, a dominujący kierunek oscylacji wektora elektrycznego załamanej fali leży w płaszczyźnie padania, a odbity jest do niej prostopadły. Stopień polaryzacji zależy od współczynnika załamania światła drugiego ośrodka w stosunku do pierwszego:

n21 =n2/n1

oraz na kącie padania a, ponadto pod kątem padania ab, dla którego tg aБ =n21 (prawo Brewstera), odbita wiązka jest prawie całkowicie spolaryzowana, a stopień polaryzacji wiązki załamanej jest maksymalny.

Dwójłomność to zdolność niektórych substancji, w szczególności kryształów, do rozszczepiania padającej wiązki światła na dwa promienie - zwyczajny (O) i nadzwyczajny (E), które rozchodzą się w różnych kierunkach z różnymi prędkościami fazowymi i są spolaryzowane we wzajemnie prostopadłych płaszczyznach.

Kiedy światło przechodzi przez niektóre substancje, zwane optycznie czynnymi, płaszczyzna polaryzacji światła obraca się wokół kierunku wiązki. Kąt obrotu płaszczyzny polaryzacji f jest proporcjonalny do drogi, którą przebyło światło w substancji optycznie czynnej:

gdzie a jest stałą obrotu, w zależności od właściwości

f = ai,

substancje i długości fal światła

55. Układ optyczny oka i niektóre jego cechy

Ludzkie oko to rodzaj urządzenia optycznego, które zajmuje szczególne miejsce w optyce. Dla lekarzy oko jest nie tylko narządem zdolnym do zaburzeń czynnościowych i chorób, ale także źródłem informacji o niektórych chorobach nieocznych. Zatrzymajmy się krótko na budowie ludzkiego oka.

Samo oko to gałka oczna, która ma nieregularny kulisty kształt. Ściany oka składają się z trzech koncentrycznie rozmieszczonych błon: zewnętrznej, środkowej i wewnętrznej. Zewnętrzna błona białkowa - twardówka - w przedniej części oka zamienia się w przezroczystą wypukłą rogówkę - rogówkę. Pod względem właściwości optycznych rogówka jest częścią oka o najsilniejszym współczynniku załamania światła. Jest jak okno, przez które promienie światła wpadają do oka. Zewnętrzna warstwa rogówki łączy się ze spojówką, która jest przyczepiona do powiek.

Do twardówki przylega naczyniówka, której wewnętrzna powierzchnia jest pokryta warstwą ciemnych komórek pigmentowych, które zapobiegają wewnętrznemu rozproszonemu rozpraszaniu światła w oku. W przedniej części oka naczyniówka przechodzi do tęczówki, w której znajduje się okrągły otwór - źrenica. Bezpośrednio do źrenicy po wewnętrznej stronie oka znajduje się soczewka - przezroczysty i elastyczny korpus, podobny do soczewki dwuwypukłej. Średnica soczewki wynosi 8-10 mm, promień krzywizny powierzchni przedniej wynosi średnio 10 mm, powierzchnia tylna 6 mm. Współczynnik załamania substancji soczewki jest nieco wyższy - 11,4. Struktura soczewki przypomina warstwową strukturę cebuli, a współczynnik załamania warstw nie jest taki sam. Komora przednia oka znajduje się pomiędzy rogówką a soczewką i jest wypełniona wilgocią – cieczą o właściwościach optycznych podobnych do wody. Całe wnętrze oka, od soczewki po tylną ścianę, zajmuje przezroczysta, galaretowata substancja zwana ciałem szklistym. Współczynnik załamania cieczy szklistej jest taki sam jak cieczy wodnistej.

Omówione powyżej elementy oka dotyczą głównie jego aparatu przewodzącego światło.

Nerw wzrokowy wchodzi do gałki ocznej przez tylną ścianę; rozgałęziając się, przechodzi do najgłębszej warstwy oka - siatkówki lub siatkówki, która jest aparatem oka postrzegającym światło (receptywnym). Siatkówka składa się z kilku warstw, ma różną grubość i wrażliwość na światło, zawiera światłoczułe komórki wzrokowe, których obwodowe końce mają różne kształty. Na wejściu nerwu wzrokowego znajduje się martwa plamka, która nie jest wrażliwa na światło.

Oko można przedstawić jako centralny układ optyczny utworzony przez rogówkę, płyn w komorze przedniej i soczewkę (cztery powierzchnie załamujące światło), ograniczony z przodu przez środowisko powietrzne, a z tyłu przez ciało szkliste. Główna oś optyczna przechodzi przez geometryczne środki rogówki, źrenicy i soczewki.

Ponadto wyróżnia się również oś wzrokową oka, która wyznacza kierunek największej światłoczułości i przechodzi przez środki soczewki i plamki.

56. Promieniowanie cieplne ciał

Z całej różnorodności promieniowania elektromagnetycznego, widocznego lub niewidocznego dla ludzkiego oka, można wyróżnić jedno, które jest nieodłączne we wszystkich ciałach. Jest to promieniowanie nagrzanych ciał, czyli promieniowanie cieplne. Podczas promieniowania cieplnego energia jest przenoszona z jednego ciała do drugiego dzięki emisji i absorpcji fal elektromagnetycznych. Promieniowanie cieplne nagrzanych ciał występuje w dowolnej temperaturze, dlatego jest emitowane przez wszystkie ciała.

Promieniowanie równowagowe (czarne) to promieniowanie będące w równowadze termodynamicznej z ciałami o określonej temperaturze. Ciało całkowicie czarne to ciało, które całkowicie pochłania wszelkie promieniowanie elektromagnetyczne padające na jego powierzchnię, niezależnie od temperatury ciała.

Dla ciała całkowicie czarnego zdolność absorpcji (stosunek energii pochłoniętej do energii promieniowania padającego) jest równa jeden.

Zgodnie z jego charakterystyką takie promieniowanie jest zgodne z prawem promieniowania Plancka, które określa emisyjność i jasność energetyczną ciała doskonale czarnego. Postawił hipotezę, z której wynikało, że ciało doskonale czarne promieniuje i pochłania energię nie w sposób ciągły, ale w pewnych porcjach kwantowych.

Prawo Kirchgaarda ustanawia ilościową zależność między promieniowaniem a absorpcją - przy tej samej gęstości jasności energii do współczynnika absorpcji światła monochromatycznego dla dowolnych ciał, w tym czarnych. Prawo Kirchgaarda stanowi, że stosunek emisyjności r ciała do jego zdolności absorpcyjnej ciała absolutnie czarnego f(w, T) przy tych samych wartościach temperatury i częstotliwości:

gdzie w jest częstotliwością fali.

Prawo Stefana-Boltzmanna: całkowita jasność energii R (T) ciała doskonale czarnego jest proporcjonalna do czwartej potęgi temperatury bezwzględnej:

R(T) = QT4.

Wartość liczbowa stałej Q, zwanej stałą Stefana-Boltzmanna, wynosi:

Prawo przemieszczenia Vipa - długość lm, która odpowiada maksymalnej energii promieniowania ciała całkowicie czarnego, jest odwrotnie proporcjonalna do temperatury bezwzględnej T.

Wartość stałej Wiepa wynosi 2,898 × ​​10-3 μK.

μK jest stałą Wipa. To prawo dotyczy również szarych ciał.

Przejaw prawa Vipa znany jest z codziennych obserwacji. W temperaturze pokojowej promieniowanie cieplne ciał występuje głównie w zakresie podczerwieni i nie jest postrzegane przez ludzkie oko. Jeśli temperatura wzrasta, ciało zaczyna świecić ciemnoczerwonym światłem, a przy bardzo wysokiej temperaturze - białym z niebieskawym odcieniem, zwiększa się uczucie rozgrzania ciała.

Autor: Podkolzina V.A.

Polecamy ciekawe artykuły Sekcja Notatki z wykładów, ściągawki:

Mikrobiologia. Kołyska

Język rosyjski. Testy końcowe

Ekonomia i socjologia pracy. Kołyska

Zobacz inne artykuły Sekcja Notatki z wykładów, ściągawki.

Czytaj i pisz przydatne komentarze do tego artykułu.

<< Wstecz

Najnowsze wiadomości o nauce i technologii, nowa elektronika:

Maszyna do przerzedzania kwiatów w ogrodach 02.05.2024

We współczesnym rolnictwie postęp technologiczny ma na celu zwiększenie efektywności procesów pielęgnacji roślin. We Włoszech zaprezentowano innowacyjną maszynę do przerzedzania kwiatów Florix, zaprojektowaną z myślą o optymalizacji etapu zbioru. Narzędzie to zostało wyposażone w ruchome ramiona, co pozwala na łatwe dostosowanie go do potrzeb ogrodu. Operator może regulować prędkość cienkich drutów, sterując nimi z kabiny ciągnika za pomocą joysticka. Takie podejście znacznie zwiększa efektywność procesu przerzedzania kwiatów, dając możliwość indywidualnego dostosowania do specyficznych warunków ogrodu, a także odmiany i rodzaju uprawianych w nim owoców. Po dwóch latach testowania maszyny Florix na różnych rodzajach owoców wyniki były bardzo zachęcające. Rolnicy, tacy jak Filiberto Montanari, który używa maszyny Florix od kilku lat, zgłosili znaczną redukcję czasu i pracy potrzebnej do przerzedzania kwiatów. ... >>

Zaawansowany mikroskop na podczerwień 02.05.2024

Mikroskopy odgrywają ważną rolę w badaniach naukowych, umożliwiając naukowcom zagłębianie się w struktury i procesy niewidoczne dla oka. Jednak różne metody mikroskopii mają swoje ograniczenia, a wśród nich było ograniczenie rozdzielczości przy korzystaniu z zakresu podczerwieni. Jednak najnowsze osiągnięcia japońskich badaczy z Uniwersytetu Tokijskiego otwierają nowe perspektywy badania mikroświata. Naukowcy z Uniwersytetu Tokijskiego zaprezentowali nowy mikroskop, który zrewolucjonizuje możliwości mikroskopii w podczerwieni. Ten zaawansowany instrument pozwala zobaczyć wewnętrzne struktury żywych bakterii z niesamowitą wyrazistością w skali nanometrowej. Zazwyczaj ograniczenia mikroskopów średniej podczerwieni wynikają z niskiej rozdzielczości, ale najnowsze odkrycia japońskich badaczy przezwyciężają te ograniczenia. Zdaniem naukowców opracowany mikroskop umożliwia tworzenie obrazów o rozdzielczości do 120 nanometrów, czyli 30 razy większej niż rozdzielczość tradycyjnych mikroskopów. ... >>

Pułapka powietrzna na owady 01.05.2024

Rolnictwo jest jednym z kluczowych sektorów gospodarki, a zwalczanie szkodników stanowi integralną część tego procesu. Zespół naukowców z Indyjskiej Rady ds. Badań Rolniczych – Centralnego Instytutu Badań nad Ziemniakami (ICAR-CPRI) w Shimla, wymyślił innowacyjne rozwiązanie tego problemu – napędzaną wiatrem pułapkę powietrzną na owady. Urządzenie to eliminuje niedociągnięcia tradycyjnych metod zwalczania szkodników, dostarczając dane dotyczące populacji owadów w czasie rzeczywistym. Pułapka zasilana jest w całości energią wiatru, co czyni ją rozwiązaniem przyjaznym dla środowiska i niewymagającym zasilania. Jego unikalna konstrukcja pozwala monitorować zarówno szkodliwe, jak i pożyteczne owady, zapewniając pełny przegląd populacji na dowolnym obszarze rolniczym. „Oceniając docelowe szkodniki we właściwym czasie, możemy podjąć niezbędne środki w celu zwalczania zarówno szkodników, jak i chorób” – mówi Kapil Kumar Sharma, główny badacz tego badania. ... >>

Przypadkowe wiadomości z Archiwum

Ametyst kosmiczny w umierającej gwieździe 13.11.2020

Na Ziemi ametysty mogą tworzyć się, gdy pęcherzyki gazu w lawie ochładzają się w odpowiednich warunkach. W kosmosie umierająca gwiazda o masie podobnej do Słońca może stworzyć strukturę, która pod względem atrakcyjności może rywalizować z tymi pięknymi klejnotami.

Kiedy gwiazdy takie jak Słońce spalają swoje paliwo, zrzucają swoje zewnętrzne warstwy, a jądro gwiazdy się kurczy. Korzystając z Obserwatorium Rentgenowskiego Chandra, astronomowie wykryli bąbel supergorącego gazu w centrum jednej z takich wychodzących gwiazd, mgławicy planetarnej w naszej galaktyce zwanej IC 4593. Położona około 7800 lat świetlnych od Ziemi IC 4593 jest najbardziej odległą mgławica planetarna wykryta przez Chandrę.

Na tym nowym zdjęciu IC 4593 magenta promieni X Chandry przypomina ametysty. Bańka odkryta przez Chandrę to gaz podgrzany do ponad miliona stopni. Te wysokie temperatury były prawdopodobnie spowodowane oderwaniem się materii od skurczonego jądra gwiazdy i uderzeniem w gaz, który został wcześniej wyrzucony przez gwiazdę.

To złożone zdjęcie zawiera również dane dotyczące światła widzialnego z Kosmicznego Teleskopu Hubble'a (różowe i zielone). Różowe obszary na zdjęciu z Hubble'a to nakładanie się promieniowania z chłodniejszego gazu składającego się z kombinacji azotu, tlenu i wodoru, podczas gdy zielone promieniowanie pochodzi głównie z azotu.

IC 4593 jest tym, co astronomowie nazywają „mgławicą planetarną”, co brzmi zwodniczo, ponieważ ta klasa obiektów nie ma nic wspólnego z planetami. Nazwę nadano około dwa wieki temu, ponieważ wyglądały jak dysk planety oglądany przez mały teleskop. W rzeczywistości mgławica planetarna powstaje, gdy wnętrze gwiazdy o masie Słońca kurczy się, a jej zewnętrzne warstwy rozszerzają się i ochładzają. Jeśli chodzi o Słońce, jego zewnętrzne warstwy mogą rozciągać się na orbitę Wenus podczas fazy czerwonego olbrzyma kilka miliardów lat w przyszłość.

Wiadomości o nauce i technologii, nowa elektronika

 

Ciekawe materiały z bezpłatnej biblioteki technicznej:

▪ sekcja strony Builder, mistrz domu. Wybór artykułu

▪ artykuł Łączenie wielu plików AVI. sztuka wideo

▪ artykuł Gdzie można zobaczyć palmę wyrosłą z nasionka sprzed ponad dwóch tysięcy lat? Szczegółowa odpowiedź

▪ Chiński artykuł Liji. Legendy, uprawa, metody aplikacji

▪ artykuł Włączanie świetlówki w sieci. Encyklopedia elektroniki radiowej i elektrotechniki

▪ artykuł Półautomatyczna wiertarka ze wskaźnikiem laserowym. Encyklopedia elektroniki radiowej i elektrotechniki

Zostaw swój komentarz do tego artykułu:

Imię i nazwisko:


Email opcjonalny):


komentarz:





Wszystkie języki tej strony

Strona główna | biblioteka | Artykuły | Mapa stony | Recenzje witryn

www.diagram.com.ua

www.diagram.com.ua
2000-2024