Sesja S4B

Fizyka medyczna - fizyka w praktyce medycznej


Grzegorz Pawlicki

Co medycyna zawdzięcza fizyce? - Jeśli nie uwzględniać biologii i chemii, to z pewną dozą przesady można powiedzieć, że wszystko. Takiej samej odpowiedzi można udzielić na pytanie "co fizyka zawdzięcza medycynie"? Zwłaszcza gdy ma się na myśli zdrowie, a często i życie fizyków.

Jakie są zatem związki fizyki z medycyną? - Niewątpliwie relacje pomiędzy fizyką a medycyną są długotrwałe, liczne i ścisłe. Wiele odkryć fizyki, tych dawnych i całkiem świeżych, umożliwiło zrozumienie wielu problemów medycznych (struktura ciała, fizjologia), a przełożenie ich przez inżynierię biomedyczną na praktyczne zastosowania kliniczne, zaowocowało wieloma bardzo złożonymi i bardzo skutecznymi metodami instrumentalnymi oraz urządzeniami diagnostycznymi, terapeutycznymi i rehabilitacyjnymi. Tym samym fizyka umożliwiła rozwój nowoczesnej medycyny i powstanie techniki medycznej. Dzisiejszy poziom medycyna zawdzięcza nie tylko lekarzom i biologom ale w znacznej mierze także udziałowi fizyków i inżynierów, którzy inspirowali i tworzyli te metody i urządzenia. Sprawiedliwość wymaga jednak, aby powiedzieć że często inspiracje medyczne stanowiły punkt wyjścia dla prac badawczych i konstrukcyjnych fizyków i inżynierów. Te wzajemne inspiracje okazywały się niezwykle cenne społecznie zarówno dla praktyki medycznej jak i nauki.

Jak ważną rolę w medycynie odgrywa fizyka, może świadczyć także nazwanie podstawowego badania lekarskiego, stanowiącego główny kanon postępowania diagnostycznego, badaniem fizykalnym. Badanie fizykalne polega na ocenie stanu zdrowia pacjenta na podstawie informacji o strukturze i czynności narządów ciała, takich jak: kształt, rozmiary, twardość, ruch (w tym drgania), temperatura, a nawet zabarwienie powłok. Dane te uzyskiwane są bezpośrednio metodami fizycznymi za pomocą badań wykorzystujących zmysły lekarza (wzrok, dotyk, słuch, powonienie) przeprowadzonych na powierzchni ciała pacjenta. Co ciekawe, badanie fizykalne w zasadzie nie wymaga żadnych przyrządów (nie licząc fonendoskopu).

W Anglii, gdzie po raz pierwszy użyto pojęcia "fizyka medyczna", słowo "physician" , oznaczające lekarza, wskazuje na bliskie związki fizyki z medycyną.

W przeszłości wielu fizyków uprawiało medycynę i równie wielu medyków zajmowało się fizyką. Także obecnie zdarzają się takie przypadki, chociaż częściej fizycy praktykują medycynę. Termin fizyka medyczna pojawił się na początku XIX wieku. Inicjatorem prawdopodobnie był wykładowca fizyki dla studentów medycyny, Szkot Neil Arnott urodzony w 1788 roku w Forfar. Był on także autorem pierwszego podręcznika fizyki dla medyków. Jego zasługą jest wprowadzenie na Uniwersytecie Londyńskim obowiązku zdawania egzaminów z fizyki i chemii przez adeptów medycyny.

Pierwsza publikacją książkową na kontynencie europejskim była książka Adolfa Ficka (1829 – 1901), zajmującego się fizjologią, znanego twórcy prawa transportu masy, zatytułowana "Fizyka Medyczna” (Medizinische Physik), wydana w Zurichu w 1856 roku.

Określenie "Fizyka medyczna" budzi czasami sprzeciw niektórych fizyków, którzy uważają, że fizyka jest jedna i nie wymaga stosowania przymiotnika. Rzeczywiście słowo "medyczna" nie oznacza innej fizyki ale wskazuje jedynie na obszar gdzie występuje i gdzie obowiązują jej prawa. Wskazuje na jej ważną obecność w podstawach medycyny współczesnej. Nie zawsze zdawano sobie sprawę z tego faktu.

Jest rzeczą niezmiernie interesującą, że od samego początku rozwoju fizyki medycznej, a także inżynierii biomedycznej, gdy dyscypliny naukowe nie były tak zróżnicowane jak obecnie, zagadnieniami biologii, medycyny i fizyki zajmowali się wybitni przedstawiciele wielu ówczesnych dyscyplin, przekraczając bez obawy naruszenia czyichkolwiek kompetencji, niewyraźną granicę pomiędzy biologią i naukami ścisłymi.

Próby opisu procesów biologicznych i mechanizmów życiowych, były podejmowane między innymi przez Galileusza (student medycyny - pomiary pulsu; pierwszym autorem rozprawy o tętnie był poznański lekarz W. Struś), Kartezjusza (mechaniczne podstawy fizjologii), Boyla (płuca, oddychanie ryb), Roberta Hooka (prawo sprężystości, termin komórka na oznaczenie najmniejszej jednostki życia) i wielu innych. Warto wspomnieć także lekarza, TomaszaYounga (zagadnienia sprężystości, moduł Younga).

Za ojca fizyki medycznej i inżynierii biomedycznej jako dyscyplin naukowych, niektórzy uważają Hermana von Helmholtza (1821 – 1894), profesora fizjologii, patologii i anatomii na Uniwersytecie w Heidelbergu i profesora fizyki na Uniwersytecie w Berlinie (od 1871 roku). Stanowi on klasyczny przykład integralnego traktowania fizyki i medycyny.

W moim przekonaniu początkiem nowoczesnej fizyki i inżynierii biomedycznej jako dyscyplin naukowych i specjalności zawodowych było jednak dopiero odkrycie promieniowania X przez Konrada Wilhelma Roentgena w 1895r. oraz pierwiastków promieniotwórczych polonu i radu przez Marię Skłodowską-Curie i Piotra Curie w 1898r. Odkrycia te zastosowane niezwłocznie w praktyce medycznej, dały początek współczesnej diagnostyce radiologicznej, radioterapii i medycynie nuklearnej, mających do dziś największy udział w metodach instrumentalnych diagnostyki i terapii medycznej. Wartość urządzeń medycznych wykorzystujących promieniowanie jonizujące, przekracza 50% wartości wszystkich urządzeń medycznych zainstalowanych w zakładach opieki zdrowotnej.

Badania radiologiczne należą do najczęściej wykonywanych badań diagnostycznych. Dla 60% przypadków stanowią podstawowe badanie obrazowe; dla dalszych 20% są badaniem zalecanym jako uzupełniające. Tak więc około 80% pacjentów podlega diagnostyce radiologicznej, pomimo dynamicznego rozwoju innych metod diagnostyki obrazowej, wykorzystujących promieniowanie niejonizujące, na przykład ultradźwięki (USG) czy magnetyczny rezonans jądrowy (MRI).

Biorąc pod uwagę złożoność metod radiologicznych, kosztowność aparatury i potencjalne zagrożenie pacjenta ze strony promieniowania jonizującego, które pociąga za sobą konieczność stosowania zabezpieczeń i pomiarów dawek, stosunkowo wcześnie wprowadzono do zespołów lekarskich osoby z przygotowaniem fizycznym, a wkrótce potem także technicznym. Fizykom i inżynierom medycznym postawiono zadanie obsługi skomplikowanych urządzeń lub nadzoru nad ich użytkowaniem oraz zapewnienie bezpieczeństwa badań. W zakresie zwłaszcza zabiegów radioterapeutycznych jednym z najważnieszych zadań jest planowanie naświetlań zewnętrznych i wewnętrznych.

Jednym z pierwszych fizyków pracujących w szpitalu wśród lekarzy, był S. Russ zatrudniony w Midlessex Hospital w Londynie w 1910r. W tym samym mniej więcej czasie na oddziale radioterapii Szpitala w Monachium został zatrudniony fizyk F. Voltz. Nieco później, podczas I Wojny Światowej, jako rentgenolog w wojskowych szpitalach polowych pracowała jako wolontariuszka M.Skłodowska-Curie. Były to czasy gdy medycyna wspomagana była nielicznymi i bardzo prostymi narzędziami mieszczącymi się całkowicie w charakterystycznej podręcznej torbie, nie licząc oczywiście wchodzących do użytku prymitywnych zestawów rentgenowskich i elektrokardiografów z galwanometrem strunowym jako detektorem biopotencjałów serca.

Zainteresowania fizyki medycznej zdominowane początkowo przez zagadnienia związane głównie z aplikacjami promieniowania rentgenowskiego i izotopów promieniotwórczych, z czasem skierowały się w stronę innych zagadnień takich jak: jak czynność bioelektryczna tkanek i narządów, oddziaływanie fal elektromagnetycznych, w tym podczerwieni, ultrafioletu, a także ultradźwięków na organizm żywy. Ważnym polem zainteresowań fizyków medycznych jest diagnostyka laboratoryjna, zwłaszcza oparta na analizie metodami fizycznymi materiału biologicznego pobranego od pacjenta .

Rozwój technologii przemysłowych i kosmicznych, a zwłaszcza wojskowych stworzył w latach 60 - tych nowe możliwości rozwojowe medycynie. Powstała potrzeba transferu tych technologii do medycyny. Równocześnie w rozwijającej się medycynie pojawiły się bariery do których pokonania potrzebna była technologia. W tej sytuacji narodziła się inżynieria biomedyczna. Wzrastająca oferta przemysłu na dostawę stale ulepszanych urządzeń medycznych zakładom opieki zdrowotnej wymagała zaangażowania inżynierów do zespołow medycznych. Inżynieria biomedyczna objęła część zagadnień wchodzących do tej pory w zakres fizyki medycznej.

Spektakularne osiągnięcia diagnostyczne i niezwykłe sukcesy terapeutyczne współczesnej medycyny są możliwe dzięki bliskiej codziennej współpracy lekarzy z fizykami i inżynierami i ogromnego potencjału środków technicznych. Według tradycyjnego podziału, metody i urządzenia stosowane w medycynie można podzielić na:

Metody fizyczne i urządzenia stosowane w diagnostyce, służą do wyznaczania wartości wielkości fizycznych, generowanych przez tkanki i narządy charakteryzujących czynne własności organizmu (potencjał czynnościowy, ruch, siła) oraz wielkości fizycznych, chemicznych i biologicznych charakteryzujących bierne właściwości ciała, jego narządów i tkanek (długość, kształt, struktura ciała, struktura tkanek, skład chemiczny, stężenia elektrolitów, itp.)

O ile wyznaczanie wielkości charakteryzujących czynne własności organizmu oparte jest na pomiarach sygnału generowanego przez organizm (np. elektrografie – ekg, emg, eeg), wyznaczenie biernych właściwości organizmu wymaga zazwyczaj zastosowania środka penetrującego organizm jak promieniowanie jonizujące (X i jądrowe), pole elektromagnetyczne (MRI), ultradźwięki (USG), światło (mikroskop optyczny), prąd elektryczny (badania elektroimpedancyjne), itp.

Metodami fizycznymi i urządzeniami stosowanymi w terapii, wymusza się, wspomaga lub hamuje niektóre procesy biologiczne albo niszczy się niepożądaną tkankę (zwłaszcza nowotworową), za pomocą zewnętrznego środka fizycznego takiego jak promieniowanie elektromagnetyczne jonizujące (promieniowanie X, cząstki naładowane), niejonizujące (diatermia, światło podczerwone i ultrafioletowe), prąd elektryczny, ciepło , zimno, siła, ruch itp., w celu przywrócenie zdrowia.

Metody fizyczne i urządzenia rehabilitacyjne, podobnie jak terapeutyczne mają na celu poprawienie stanu pacjenta, a jeśli to możliwe, przywrócenie do formy jaką miał przed zachorowaniem i przed rozpoczęciem leczenia. Rehabilitacja jest zatem rodzajem postępowania leczniczego i wykorzystuje znaczną część metod i urządzeń terapeutycznych.

Kosztowne, trafiające do medycyny w coraz większej ilości, nowoczesne środki techniczne diagnostyki i terapii, aby mogły być racjonalnie wykorzystane i aby nie zagroziły bezpieczeństwu pacjenta wymagają właściwego i ostrożnego użycia. W tym celu istnieje potrzeba wsparcia personelu medycznego kadrą specjalistów o przygotowaniu fizycznym i inżynieryjnym.

Warto powiedzieć, że obecnie co roku na świecie oferowany jest sprzęt medyczny o wartości przeszło 10 mld dolarów (1999r.). Tak wielka ilość środków technicznych diagnostyki i terapii wymaga fachowej i odpowiedzialnej osługi, a zwłaszcza systematycznej kontroli sprawności i bezpiecznego użytkowania.

Mało kto wie, że po raz pierwszy systematyczne kształcenie na poziomie wyższym "fizyków medycznych" i inżynierów medycznych rozpoczęto w Polsce, w Politechnice Warszawskiej, na Wydziale Elektrycznym w 1946r. Twórcą i organizatorem studiów był fizyk, uczeń prof. Pieńkowskiego i M. Skłodowskiej-Curie, prof. Cezary Pawłowski.

Dzisiaj nie istnieje wyraźna granica pomiędzy fizyką medyczną a inżynierią biomedyczną. Zakres tematyki bedącej domeną każdej z tych dyscyplin zależy od tradycji środowiska i lokalnych potrzeb klinik i innych zakładów ochrony zdrowia .

Zwyczajowo utarło się, że fizyka medyczna obejmuje zagadnienia związane z badaniami naukowymi dotyczącymi oddziaływania promieniowania jonizującego na organizmy żywe (radiobiologia, radiosterylizacja) i praktyką medyczną, w których wykorzystuje się to promieniowanie w celach diagnostycznych i terapeutycznych oraz z ochroną radiologiczną personelu medycznego i pacjenta. Natomiast urządzenia generujące promieniowanie jonizujące i niejonizujące stosowane w technice obrazowania narządów wewnętrznych (diagnostyka radiologiczna, MRI, USG) czynnych i biernych właściwości elektrycznych tkanek organizmu, oddziaływanie na organizm żywy promieniowania elektromagnetycznego niejonizującego stosowanego w terapii zwłaszcza w fizykoterapii, urządzeń do badań laboratoryjnych i licznych innych urządzeń diagnostycznych i sprzętu medycznego jest domeną inżynierii biomedycznej.

Osoby o przygotowaniu fizycznym jak i inżynierskim są w równej mierze potrzebne lekarzom w codziennej praktyce medycznej. Stosowanie skomplikowanych urządzeń i metod diagnostycznych i terapeutycznych wymaga wiedzy i umiejętności wykraczających poza programy nauczania lekarzy. Wiedzy którą dysponują fizycy i inżynierowie.

Współczesna medycyna jest nasycona technologią jak nigdy dotąd. Podstawą wartościowania zakładu opieki zdrowotnej, w odczuciu społecznym, są już nie tylko kwalifikacje personelu lekarskiego i pielęgniarskiego ale przede wszystkim stan technicznego wyposażenia. Trudno sobie wyobrazić aby wspólczesny szpital mógł funkcjonować racjonalnie bez uczestnictwa w procedurach diagnostycznych i terapeutycznych bez udziału fizyków i inżynierów medycznych.

Obecnie pod względem organizacyjnym zarówno radiologiczne jak i nieradiologiczne metody i urządzenia diagnostyki obrazowej są traktowane łącznie i wchodzą w zakres czynności Zakładów Diagnostyki Obrazowej, zatrudniających obok lekarzy także fizyków i inżynierów.

Obrazowanie za pomocą promieniowania X

Radiografia cyfrowa

Klasyczny obraz radiograficzny ma charakter analogowy i uzyskiwany jest zazwyczaj na kliszy rentgenowskiej. W tej postaci może być oglądany i analizowany bezpośrednio za pomocą negatoskopu lub po zamianie (przez skanowanie laserowe) na obraz cyfrowy, za pomocą monitora. Obraz w postaci cyfrowej jakkolwiek zubożony o część informacji ma tę zaletę, że może być przetwarzany, jak to ma miejsce w opisanych dalej nowoczesnych metodach wizualizacji oraz łatwo archiwizowany.

Nowoczesne urządzenia rentgenowskie wyposażone w tak zwany tor wizyjny składający się ze wzmacniacza obrazu, kamery wideo, łączącego je układu optycznego oraz komputera, umożliwiają uzyskiwanie obrazu cyfrowego bezpośrednio w czasie rzeczywistym. Dzięki temu jest możliwa wizualizacja nie tylko struktury ale także czynności narządów, a w szczególności układu krążenia. Procedura otrzymywania i przetwarzania radiologicznych obrazów cyfrowych nazywa się radiografią cyfrową. Jednym z ważnych zastosowań radiografii cyfrowej jest angiografia subtrakcyjna. Polega ona na wyeksponowaniu z obrazu radiologicznego (cyfrowego) naczyń krwionośnych przez odjęcie (cyfrowe) tkanek stanowiących maskujące tło. W celu poprawienia widoczności naczyń dodatkowo są one wypełniane środkiem cieniującym. Można także uzyskać obrazy subrakcyjne innych narządów na przykład płuc a właściwie dróg oddechowych.

Tomografia wspomagana komputerem

Używane potocznie określenie tomografia komputerowa, a poprawnie jak powinno być tomografia wspomagana komputerem, jest to sposób obrazowania kolejnych przekrojów (zwykle) poprzecznych względem osi ciała pacjenta. Cechuje ją dokładność i drobiazgowość w przedstawianiu szczegółów struktury ciała przewyższająca zwykłą radiografię, przy mniejszym obciążeniu pacjenta dawką promieniowania.

Obraz dwuwymiarowy (2-D) uzyskiwany tą metodą, przedstawia w płaszczyźnie przekroju rozmieszczenie narządów i ich budowę anatomiczną. Na podstawie szeregu przekrojów poprzecznych można odtworzyć obraz trójwymiarowy (3-D).

Najbardziej rozpowszechnioną tomografia jest tomografia komputerowa wykorzystująca promieniowanie X, zwana w skrócie tomografią komputerową (TK).

TK jest tomografią transmisyjną, co oznacza że promieniowanie rtg przechodzi przez ciało, które je osłabia. Ponieważ poszczególne składniki ciała (tkanki) osłabiają promieniowanie w różnym stopniu, zależnym od gęstości elektronów w badanej strukturze, całkowite osłabienie skolimowanej wiązki promieniowania penetrującego ciało w określonym kierunku, składa się z sumy osłabień przez nie powodowanych. Przedmiotem pomiaru jest wartość sumarycznego osłabienia promieniowania.

Jako źródła promieniowania w zwykłej, konwencjonalnej TK, jako źródła promieniowania używa się lampy rtg, która wraz z sprzężonymi z nią detektorami, przemieszcza się po torze kołowym wokół osi pacjenta w pełnym kącie 360 stopni, dokonując ekspozycji co 0,5 d0 1,0 stopnia. Dla poszczególnych kierunków leżących w płaszczyźnie otrzymuje się różne wartości osłabienia promieniowania. Dzieje się tak dlatego, że wraz ze zmianą kierunku zmienia się układ składników ciała.

Na podstawie tych danych oraz uwzględnieniu grubości warstwy dokonuje się obliczenia wartości (objętościowych) współczynników osłabienia promieniowania przez elementarne objętości (voxel) poszczególnych tkanek. Przyporządkowując współczynnikom osłabienia określone wartości jasności otrzymuje się na ekranie monitora obraz przekroju ciała. Po przesunięciu pacjenta, względem obrotowego zespołu lampa – detektory, wzdłuż osi ciała, otrzymuje się obraz kolejnego przekroju.

Równomierne ciągłe przesuwanie pacjenta względem obracającego się zespołu lampa – detektory, umożliwia zbieranie informacji o osłabieniu promieniowania w sposób ciągły. Dzięki temu nie są pomijane obszary na granicy warstw. Ten rodzaj badania nazywa się tomografią spiralną.

Płaska wiązka promieniowania X generowanego przez skrajnie małe ognisko lampy ("punktowe"), umożliwia uzyskiwanie plasterków przekroju o grubości od 1 do 10 mm i zdolności rozdzielczej obrazu przekroju od 0 ,1 do 1,0 mm kw. Przy tej zdolności rozdzielczej jest możliwe uzyskanie około 100 przekrojów ciała. (Biorąc pod uwagę, że źródłem danych do rekonstrukcji obrazu są zdolność rozdzielcza w płaszczyźnie przekroju i objętość określona grubością warstwy, rekonstrukcja dokonywana jest zazwyczaj za pomocą matrycy o wymiarach od 512x512x1 do 512x512x100).

Zdolność rozdzielcza kontrastu jest równa 0,5% pełnego zakresu różnicy wartości jasności sygnału. Rozdzielczość czasowa wynosi w przybliżeniu 2 sekundy co odpowiada czasowi pełnego obrotu układu lampa – detektory wokół pacjenta (360o). Zazwyczaj dane cyfrowe obrazu są przedstawiane w skali Hounsfielda (HU), w zakresie od -1000 do +1000 (lub 0 - 2048 w 16 bitowej wartości komputerowej).

Szybka tomografia komputerowa EBT

Podana wyżej wartość rozdzielczości czasowej konwencjonalnej TK, jest niewystarczająca do wizualizacji czynności narządów, a w szczególności serca. Zbyt duża jej wartość wynika z niedoskonałości rozwiązania ruchu źródła promieniowania na drodze mechanicznej. Wady tej nie ma tomograf wiązki elektronowej (Electron Beam Tomography), w którym układ źródło - detektory pozostaje mechanicznie nieruchomy. Dzięki specjalnej konstrukcji lampy rentgenowskiej porusza się jedynie wiązka elektronów, która generuje kolejno promieniowanie w licznych przylegających do siebie ogniskach anody (lampy) w postaci półokręgu. W ten sposób wiązka promieniowania szybko przesuwając się po licznych ogniskach zmienia kierunek, co warunkuje otrzymanie obrazu tomograficznego zmieniającej się konfiguracji obiektu (np. serca). Dzięki temu obraz można uzyskać już po upływie około 50 ms, co oznacza bardzo dużą rozdielczość czasową. Urządzenie musi mieć jednak odpowiednio dużą liczbę detektorów umieszczonych na listwie w postaci półokręgu. Zdolność rozdzielcza obrazu przekroju tego tomografu jest nieco mniejsza w porównaniu z TK i wynosi około 0,5 mm2, przy grubości warstwy 10 mm, co stanowi kompromis w stosunku do możliwości rekonstrukcji 3 wymiarowej. Nieco gorszy jest także kontrast.

Obrazowanie za pomocą promieniowania jądrowego

Właściwość tkanek do selektywnego gromadzenia niektórych substancji podanych pacjentowi dożylnie, lub drogą oddechową (przez inhalacje), stanowi punkt wyjścia dla wizualizacji narządów, a szczególnie ich czynności metabolicznej metodami medycyny nuklearnej. Substancje te zwane radiofarmaceutykami, znakowane izotopami promieniotwóczymi, po podaniu są następnie odnajdywane w organizmie za pomocą detektorów promieniowania, w postaci rozkładu aktywności. Uzyskany obraz dostarcza informacji o strukturze narządu lub jego czynności, a często obu informacji równocześnie.

Podstawą rozwoju metod obrazowania za pomocą rodioizotopów była metoda skaningu, polegająca na przesuwaniu, nad okolicą narządu wzdłuż kolejnych linii, pojedyńczego detektora połączonego z urządzeniem piszącym kreski, który wybiórczo kumulował substancję znakowaną izotopem promieniotwórczym. Kreski rejestrowane na papierze układały się w postaci kształtu narządu. Udoskonalenie tej metody polegało na zastąpieniu pojedynczego detektora gammakamerą, spełniającą rolę wielu detektorów ułożonych w postaci matrycy.

Obecnie w praktyce są stosowane dwie nowoczesne metody tomograficzne oparte na tej samej zasadzie: metoda tomografii emisyjnej pojedyńczego fotonu (SPECT – Single Photon Emission Computed Tomography) i metoda tomografii emisyjnej pozytonowej (PET – Positron Emission Tomography).

Tomografia emisyjna pojedynczego fotonu SPECT

W tomografii pojedynczego fotonu wykorzystywane są radiofarmaceutyki emitujące fotony gamma, a jako detektorów używa się gamma kamer, zazwyczaj kilku rozmieszczonych symetrycznie wokół pacjenta, dzięki czemu można równocześnie rejestrować fotony emitowane w kilku różnych kierunkach. Ten sposób akwizycji danych umożliwia uzyskanie obrazu o lepszej rozdzielczości przestrzennej i w krótszym czasie. Jednakże większość tomografów SPECT zawiera tylko jedną gamma kamerę, która podobnie jak detektory w tomografie komputerowym porusza się po okręgu wokół pacjenta. W ten sposób zbiera kolejno fotony emitowane w różnych kierunkach i na tej podstawie identyfikuje się miejsce skąd zostały wyemitowane. Tym samym określa się strukture lub czynność narządu w którym radiofarmaceutyk się usadowił (przejściowo).

Proces rekonstrukcji obrazu na podstawie tych informacji jest podobny jak w innych rodzajach tomografów poprzecznych (obrazujących poprzeczne przekroje ciała). Podobnym także celem tomografii SPECT jest eliminacja nakładających się na siebie informacji strukturalnych w celu uzyskania wartościowych, w miarę możliwości ilościowych danych zawartych w obrazie przekroju ciała. Tomografia SPECT jest niezwykle czuła i dokładna, obrazy rzeczywiście takich danych dostarczają i to na podstawie bardzo małej ilości podanego radiofarmaceutyku. Można tą metodą uzyskać informacje o czynności metabolicznej narządów lub hemodynamice układu krążenia, którą jest trudno lub wręcz nie można uzyskać w inny sposób.

Podstawową zaletą tomografii SPECT są potencjalne możliwości uzyskania ilościowych danych o przestrzennym rozkładzie radiofarmaceutyka, dzięki czemu można otrzymać wierny obraz trójwymiarowy (3D). Wadą są trudności związane z realizacją precyzyjnego ruchu okrężnego gamma kamery. Niedokładności trajektorii tego ruchu generują, podobnie jak w zwykłej tomografii komputerowej, błędy w obrazie.

Warto zaznaczyć, że badania nad zastosowaniem emiterów pojedyńczych fotonów poprzedzały pracę Hounsfielda nad tomografią wykorzystującą promieniowanie X. Wcześniej też uzyskano pierwsze tomogramy (obrazy tomograficzne) głowy wykonane metodą SPECT. Dzisiaj jednak w praktyce klinicznej góruje tomografia komputerowa za pomocą promieniowania X i jeszcze młodsza metoda Rezonansu magnetycznego.

Tomografia emisyjna pozytonowa PET

Tomografia emisyjna pozytonowa anihilacji pozytonu przez połączenie z elektronem otaczającej go materii.

Niewątpliwą zaletą jest to, że radionuklidy emitujące pozytony należą do pierwiastków szczególnie ważnych w procesach metabolicznych organizmu to jest węgiel C-11 (czas połowicznego zaniku 20 min), tlen O-15 (czas zaniku 2 min.), azot N-10 (czas zaniku 10 min.), fluor F-18 (czas zaniku 110 min.). Znakowane promieniotwórczym węglem lub tlenem substraty metaboliczne, na przykład glukoza, są doskonałymi wskaźnikami intensywności przemian zachodzących w narządach. Rewelacyjne wyniki tą metodą otrzymuje się zwłaszcza przy badaniu mózgu. Można za jej pomocą identyfikować mózgowe ośrodki poszczególnych czynności na przykład funkcji intelektualnych. Można się przekonać czy człowiek myśli! Szkoda jednak, że nie można się dowiedzieć o czym !

Praktyczne wykorzystanie tej metody ogranicza wiele czynników. Przede wszystkim wysokie koszty aparatury i jej eksploatacji. Chodzi tu o trudne do spełnienia wymagania aparaturowe. Zwłaszcza wiążące się z koniecznością instalowania generatora (cyklotronu) izotopów emitujących pozytony, zazwyczaj krótko żyjące, bezpośrednio w miejscu przeprowadzanych badań. Kłopoty wiążą się także z systemem detekcji fotonów o znacznej energii (511keV), wymagających specjalnych detektorów.

Obrazowanie za pomocą pola magnetycznego

Obrazowanie metodą rezonansu magnetycznego polega na wykorzystaniu magnetycznych właściwości jąder atomowych w szczególności atomów wodoru czyli protonów. Właściwości magnetyczne protonów są następstwem spinu i związanego z nim momentu magnetycznego. Wodór występujący w rożnych związkach ma największy udział wśród pierwiastków tworzących składniki ciała ludzkiego i zarazem relatywnie duży moment magnetyczny. Dzięki temu jest najsilniejszym źródłem sygnału spośród wszystkich jąder. Z tych względów jest niezwykle atrakcyjny dla obrazowania struktury i czynności narządów.

W warunkach naturalnych rozkład momentów magnetycznych jąder wodoru (w ciele człowieka) jest bezładny. Ustawiczny ruch termiczny (Browna) powoduje, że ich orientacja przestrzenna zmienia się ustawicznie. Wprowadzenie zewnętrznego stałego pola magnetycznego powoduje uporządkowanie momentów magnetycznych jąder zgodnie (większość) z kierunkiem pola lub przeciwnie. Źródłem sygnału diagnostycznie użytecznego są jądra stanowiące różnicę pomiędzy liczbą jąder skierowanych zgodnie z kierunkiem pola i liczbą jąder skierowanych przeciwnie (nadwyżka liczby jąder skierowanych zgodnie z kierunkiem pola). Istotną rzeczą jest to, że uporządkowanie nie jest perfekcyjne, to znaczy że momenty magnetyczne nie układają się dokładnie w kierunku pola, lecz wykonują wokół tego kierunku ruchy precesyjne (Larmora) ze ściśle określoną częstotliwością. Częstotliwość ta jest proporcjonalna do natężenia pola magnetycznego. Dla pola o natężeniu H = 1 T (tesla) częstotliwość Larmora wynosi 42,58 MHz, a dla pola H= 0,5 T jest o płowę mniejsza. Sa to częstotliwości leżące w pasmie radiowym.

Aby uzyskać użyteczny diagnostycznie sygnał należy zmienić kierunek momentów magnetycznych uporządkowanych wzdłuż stałego pola na prostopadły do jego kierunku lub przeciwny. Dokonuje się tego impulsowo, za pomocą energii dodatkowego pola magnetycznego wytworzonego przez cewkę umieszczoną (na zewnątrz) w płaszczyźnie równoległej do kierunku pola stałego. Cewka ta generuje krótki impuls o częstotliwości rezonansowej równej częstotliwości Larmora. Stąd nazwa metody obrazowanie za pomocą rezonansu magnetycznego. Następuje odchylenie momentów magnetycznych jąder wodoru o 90o lub 180o . W tym stanie jądra pozostają prze czas trwania impulsu odchylającego, a następnie wracają do położenia wymuszanego przez pole stałe. Wracając oddają energię dostarczoną przez cewke odchylająca wysyłając sygnał radiowy o takiej samej częstotliwości. Po wysłaniu impulsu odchylającego cewka staje się anteną i odbiera sygnał generowany przez jądra powracajace do stanu wyjściowego. Przedmiotem pomiaru jest rezonansowa częstotliwość Larmora oraz czasy relaksacji sygnałów, T1 pochodzacego od jąder odchylonych będący następstwem narastania składowej momentu magnetycznego w kierunku pola (relaksacja podłużna) i T2 (relaksacja poprzeczna) będący następstwem zanikania składowej momentu magnetycznego w kierunku poprzecznym czyli w kierunku odchylenia. Czasy relaksacji poprzecznej T2 i relaksacji wzdłużnej T1 różnią się między sobą. T2 jest krótszy co jest powodowane między innymi utratą zgodności fazowej ruchu precesyjnego protonów na skutek oddziaływań pomiędzy spinami cząsteczek, zwłacza o znacznym stopniu swobody cząsteczek wody.

Wartości częstotliwości Larmora i czasów relaksacji zależą od gęstości protonów i rodzaju tkanki i tym samym stanowią podstawę do rekonstrukcji obrazu przekroju ciała. W szczególności czynnikiem różnicującym tkanki oraz zachodzące w nich zmiany chorobowe są czasy relaksacji T1 i T2. Ponieważ na wartości czasów relaksacji mają wpływ warunki pomiaru (na przykład stopień jednorodności pola magnetycznego), nie są one wyznaczane wprost lecz za pośrednio metodami: nasycenia i odrostu, odwrócenia i odrostu (T1) oraz echa spinowego (T2).

Czynnikiem wyznaczającym (ograniczającym) obszar z którego zbierana jest informacja jest kształt rozkładu pola magnetycznego, a w szczególności gradientów pola; gradientu wzdłuż osi pacjenta w celu (wyodrębnienia) określenia położenia warstwy i gradientu pola poprzecznego (wytworzonego przez oddzielną cewkę zewnętrzną) w celu identyfikacji poszczególnych obiektów w warstwie.

Obrazowanie za pomocą pola biomagnetycznego

Źródłem informacji w tej metodzie jest pole magnetyczne towrzyszące czynności elektrycznej organizmu, na przykład serca (ekg), mózgu (eeg) itp. Pole to jest bardzo słabe w porównaniu z polem magnetycznym Ziemi (maksymalnie 10-2T) i wynosi w przybliżeniu dla serca 10-10 T, a dla potencjałów wywołanych mózgu 10-13 T.

Jest to stosunkowo nowa metoda obrazowania czynności elektrycznej narządów a zwłaszcza mózgu i może być komplementarną metodą do metody PET. Pomiary tego pola są bardzo trudne i wymagają specjalnych warunków. Izolowanych, od innych zewnętrznych pól zakłócających, pomieszczeń i niezwykle czułych detektorów pola magnetycznego, wykorzystujących elementy nadprzewodzące (SQUID).

Metoda ta zwana magnetografią, umożliwia obrazowanie czynności mózgu lub innych narządów, z dokładnością lokalizacji zmian (na przykład ogniska epilepsji) z dokładnością do kilku milimetrów. Ta stosunkowo mała dokładność lokalizacji wymaga skorelowania wyników z wynikami badań innymi metodami.

Obrazowanie nieelektromagnetyczne

Ultrasonografia

W ultrasonograficznym (a właściwie należałoby powiedzieć ultrasonicznym, zastrzegając przyrostek "graficzny" dla obrazów zarejestrowanych na papierze) sposobie obrazowania wykorzystywane są ultradźwięki. Informacje o strukturze i czynności ruchowej narządów uzyskuje się na podstawie odbicia wiązki fal ultradźwiękowych (efekt echa) od różniących się własnościami fizycznymi struktur tkankowych lub zmiany ich częstotliwości (efekt Dopplera) od ruchomych części narządów w penetrowanym obiekcie. Istnieją także metody transmisyjne, lecz nie mają one większego znaczenia w diagnostyce medycznej. Warto przypomnieć, że powstanie i rozwój ultrasonografii medycznej był stymulowany osiągnięciami wojskowymi, w tym wypadku w dziedzinie radarów i sonarów.

Częstotliwości stosowane w obrazowaniu medycznym mieszczą się w zakresie od 0,5 (w badaniach leżących głęboko narządów jamy brzusznej) do 15 MHz (w okulistyce i badaniach zmian tuż pod skórą np. guzów sutka ). Trwają jednak obiecujące badania dotyczące możliwości wykorzystania także wyższych częstotliwości aż do 70 MHz, które mogą znaleźć zastosowanie do wizualizacji mikroobiektów, na przykład struktury powierzchniowej tkanek. Główną trudnośc techniczną stanowi konstrukcja przetwornika drgań elektrycznych na mechaniczne i odwrotnie. Należy bowiem wiedzieć, że przetwornik ultradźwiękowy spełnia zarazem dwie role: nadajnika i odbiornika sygnału. Przetwornik ultradźwiękowy dla częstotliwości niższych, zrobiony z ceramiki jest dość masywny. Przetwornik generujący wyższe częstotliwości musi mieć bardzo małą masę.

Ultrasonografia jest jedynym sposobem wizualizacji, który nie jest oparty na elektromagnetycznym oddziaływaniu czynnika penetrującego z ciałem człowieka.

Podstawą obrazowania ultradźwiękowego są informacje, o gęstości, sprężystości tkanek i ruchomości narządów (lub przepływu krwi), na podstawie pomiaru sposobu w jaki wiązka fal penetrująca ciało zostanie odbita lub zmieniona jej częstotliwość. Informacje te są przetwarzane na użyteczny diagnostycznie obraz prezentowany na ekranie monitora.

Obrazowanie ultradźwiękowe ma charakter tomograficzny (w szczególności typ prezentacji B). Uzyskiwane obrazy przedstawiają przekrój ciała lub narządu w płaszczyźnie przemieszczania wąskiej (do granicy możliwości) wiązki fal penetrującej obiekt. Na podstawie danych zawartych w obrazach dwuwymiarowych, podobnie jak w innych sposobach obrazowania, można zrekonstruować obraz trójwymiarowy. Obrazy uzyskiwane są w czasie rzeczywistym czyli natychmiast w trakcie badania.

Metody echa

W przeważającej większości urządzeń ultrasonograficznych stosowanych w diagnostyce medycznej wykorzystywane jest efekt echa. Przetwornik piezoelektryczny emituje krótkotrwały silnie tłumiony impuls drgań (o natężeniu akustycznym od 1 do 10 mW/cm2), który penetruje wnętrza ciała. Przechodząca przez ciało wiązka ultradźwięków ulega osłabieniu na skutek rozproszenia, odbicia i pochłonięcia przez tkanki leżące na jej drodze. Fale odbite od poszczególnych granic strukrutr tkankowych wracają do przetwornika piezoelektrycznego, który po wysłaniu impulsu przyjmuje rolę detektora. Skuteczność odbijania fal akustycznych przez płaszczyzny odgraniczające sąsiednie struktury tkankowe zależy od zmiany impedancji akustycznej występującej na danej granicy. Wartość impedancji akustycznej Z tkanki jest iloczynem gęstości tkanki ro i prędkości c rozchodzenia się dźwięku w danej tkance.

Różnice impedancji pomiędzy poszczególnymi tkankami miękkimi są bardzo małe. Podobnie bardzo mała (kilka promili) jest wartość współczynnika odbicia fali, będącego funkcją różnicy impedancji akustycznej tkanek przed i za odbijającą granicą. Szczególna sytuacja ma miejsce na granicy tkanka – powietrze gdzie odbicie jest prawie całkowite, oraz na granicy tkanka miękka – kość gdzie odbicie wynosi około 50%. Wynikają stąd praktyczne wnioski: aby poprawić transmisję fali ultradźwiękowej pomiędzy skórą badanego pacjenta a przetwornikiem należy umieścić żel eliminujący warstewkę powietrza oraz unikać maskujących własności kości podczas badania tkanek miękkich przez wyszukiwanie okienek pomiędzy kośćmi szkieletu w celu wprowadzenia wiązki ultradźwiękowej do wnętrza ciała, na przykład między żebrami podczas badania struktury serca. Widać z tego, że kość czaszki stanowi istotną barierę dla ultradźwięków wskutek czego szczegółowe badanie struktury mózgu metodą ultradźwiękową jest w bardzo dużym stopniu utrudnione. W praktyce metoda ultrasonograficzna nie jest wykorzystywana do badań struktury mózgu.

Przechodząca przez obiekt wiązka fal akustycznych generuje znaczną liczbę ech, które są odbierane w sekwencji czasowej proporcjonalnej do odległości miejsca odbicia od przetwornika. Poszczególne echa w postaci pikseli są wyświetlane na monitorze tworząc obraz w postaci linii.

Wyróżnia się trzy sposoby prezentacji obrazu ultradźwiękowego uzyskiwanego metodą echa: A, B i M.

Prezentacja typu A (nazywana tak ze względu na amplidudowy charakter modulacji, po angielsku Amplitude), realizowana jest za pomocą nieruchomej, zawierającej przetwornik, głowicy umieszczonej na powierzchni ciała. Dostarcza informacji jednowymiarowych. Amplituda sygnałów echa jest przedstawiana jako funkcja odległości od przetwornika, czyli głębokości położenia obiektu odbijającego. Poruszające się wewnątrz ciała powierzchnie graniczne między tkankami można rozpoznawać na podstawie przemieszczania się na osi odległości, w przód i do tyłu odpowiadających im amplitud echa.

Prezentacja typu B (od angieskiego Brightness – jasność) jest prezentacją dwuwymiarową. Sygnał echa przedstawiany jest na monitorze w postaci pikseli (świecących plamek) o jasności proporcjonalnej do jego amplitudy. Dwuwymiarowość obrazu otrzymywana jest dzięki przesuwaniu głowicy z przetwornikiem po powierzchni ciała. W rezultacie uzyskuje się obraz przekroju ciała w płaszczyźnie wyznaczanej przez kierunek wiązki i kierunek ruchu głowicy.

Ruch głowicy po powierzchni ciała zastępowany jest w nowoczesnych rozwiązaniach ruchem wahadłowym przetwornika znajdującego się wewnątrz głowicy. W ten sposób otrzymuje się dwuwymiarowy obraz sektora ciała. Aby uzyskać obraz kolejnego, przylegającego sektora należy przesunąć lub przechylić głowicę. Głowice wyposażone w taki ruchomy przetwornik noszą nazwę sektorowych.

Prezentacja typu M (od angielskiego Motion – ruch), uzyskiwana jest w podobny sposób co w prezentacji A, to jest przy zachowaniu nieruchomości głowicy zawierającej przetwornik. Różnica polega na tym, że echa są przedstawiane jak w prezentacji B czyli w postaci plamek – pikseli, o zróżnicowanej jasności. Piksele kreślą linie na przesuwającym się papierze fotograficznym lub ekranie monitora. Na podstawie przesuwanie się linii w górę i do dołu można ocenić ruchomość badanych obiektów.

Metody doplerowskie

Źródłem informacji niezbędnych do utworzenia obrazu dopplerowskiego jest zmiana częstotliwości wiązki fal akustycznych odbitych od ruchomego obiektu. W szczególności dotyczy to obiektów (w tym także krwi), które mają składową ruchu w kierunku propagacji wiązki. Zgodnie z zasadą Dopplera (matematyczny związek pomiędzy zmianą długości fali odbitej a częstotliwością fali padającej i kątam zawartym pomiędzy kierunkiem propoagacji fali i kierunkiem ruchu obiektu odbijającego) jeśli obiekt zbliża się do przetwornika, to częstotliwość fali odbitej zwiększa się i odwrotnie, maleje gdy obiekt się oddala.

Szczególnie istotne znaczenie ten sposób wizualizacji ma w diagnostyce układu krążenia, obejmującej czynność serca oraz przepływy krwi w sercu, dużych naczyniach klatki piersiowej i większych tętnicach obwodowych.

Metody wizualizacji dopplerowskiej obejmują dwa rodzaje metod: metody fali ciągłej i metody impulsowe.

W metodzie fali ciągłej funkcje nadawczo - odbiorcze przetwornika muszą być rozdzielone. Wiązka fal odbitych zawiera informacje o poruszających się obiektach leżących w całym obszarze penetracji, co powoduje że na przykład pomiar wartości natężenia przepływu krwi w konkretnym naczyniu jest obarczony znacznym błędem. Zsadniczą wadą tej metody jest jednak to, że nie dostarcza ona danych o położeniu obiektu (odległości od przetwornika lub powierzchni ciała).

Wady tej nie ma metoda impulsowa. W celu uzyskania informacji o badanym obiekcie leżącym na danej głębokości należy dokonać selekcji sygnałów zwrotnych. W tym celu stosuje się "bramkę", otwierającą się tylko na te odbite impulsy (paczki fal odbitych), które wracają po czasie potrzebnym na przebycie drogi (odległości) od danego obiektu. Zmieniając chwilę otwarcia bramki można penetrować różne głebokości ciała. Analizowane i przetwarzane na obraz są tylko te sygnały, które przychodzą we właściwym czasie.

Oprócz informacji o , dopplerowskie widmo częstotliwości zawiera także informacje o dynamice serca i przepływu krwi (w sercu i naczyniach). (Aby je wydobyć należy zastosować odpowiednie przekształcenia za pomocą szybkiej transformaty Fouriera).

Rozwinięciem techniki dopplerowskiej w zakresie badania rozkładu prędkości przepływu krwi jest analiza przepływów w całym przekroju narządu lub ciała i przedstawienia obrazu ultradźwiękowego tego przekroju w postaci kodowanej kolorem (doppler kolorowy).