Zastosowanie technik komputerowych w rekonstrukcji twarzy

Rekonstrukcja antropologiczna twarzy (z ang. Forensic Facial Reconstruction) to technika odtworzenia wyglądu twarzy na podstawie kości czaszki. Może ona kojarzyć się wielu osobom z tworzeniem artystycznych portretów znanych postaci historycznych. Każdy chociaż raz słyszał o rekonstrukcjach wyglądu twarzy króla Ryszarda III, Jana Sebastiana Bacha, króla Tutenchamona, Mikołaja Kopernika, a nawet Świętego Mikołaja. Mogłoby się wydawać, że rekonstrukcja antropologiczna twarzy nie ma praktycznego zastosowania w innych obszarach nauki, a jednak tak nie jest. Techniki rekonstrukcji wyglądu twarzy są wykorzystywane w laboratoriach kryminalistycznych jako narzędzia wspomagające identyfikację osób zaginionych, gdy inne metody identyfikacji nie są skuteczne. Kolejnym zastosowaniem metod rekonstrukcji jest chirurgia pourazowa twarzy (chirurgia plastyczna).

Komputerowa rekonstrukcja twarzy Mikołaja Kopernika wykonana przez podinsp. mgr Dariusza Zajdela z Centralnego Laboratorium Kryminalistycznego KGP, na podstawie czaszki znalezionej w archikatedrze we Fromborku, fot. Centralne Laboratorium Kryminalistyczne Komendy Głównej Policji we Fromborku

W chwili obecnej jest wiele metod antropologicznej rekonstrukcji twarzy, bazujących zarówno na dwu- i trójwymiarowych technikach manualnych, jak i komputerowych. Podstawą do rekonstrukcji antropologicznej, niezależnie od wybranej metody, są wartości grubości tkanek miękkich zmierzone w odpowiednich punktach twarzy. Punkty, o których jest mowa, nie są dobierane losowo. Są to punkty anatomiczne, położone na powierzchni kości czaszki (punkty kraniometryczne, z ang. Craniometric Landmarks) i ich projekcje na powierzchnie twarzy (punkty antropometryczne, z ang. Anthropometric Landmarks), które w najlepszy sposób opisują indywidualne cechy i geometrię twarzy człowieka. Zwykle są one położone na najbardziej wklęsłych lub wypukłych obszarach powierzchni czaszki i opisują cechy konkretnego obszaru twarzy. Właśnie od prawidłowo dobranych wartości grubości referencyjnych w dużej mierze zależy dokładność rekonstrukcji twarzy. Pomiar grubości tkanki miękkiej przeprowadza się w prosty sposób – obliczana jest odległość euklidesowa pomiędzy punktem kraniometrycznym i antropometrycznym. Bardziej złożona jest natomiast metodyka pomiaru grubości tkanki miękkiej, gdyż przeszła długą drogę i ewoluowała razem z rozwojem medycznych technik obrazowych.

Ewolucja technik pomiaru grubości tkanki miękkiej twarzy

Pierwsze podejścia do pomiarów grubości tkanki miękkiej twarzy zostały dokonane jeszcze pod koniec XIX wieku i polegały na pomiarze głębokości penetracji cienkiego ostrza (lub igły) w tkanki miękkie twarzy zwłok. Nie jest trudno się domyślić, że wyniki uzyskiwane tą metodą były obarczone dużym błędem pomiarowym i nie mogą być stosowane, gdy chcemy uzyskać rekonstrukcję wyglądu twarzy „żywego” człowieka. Rozwój techniki RTG umożliwił dokładny pomiar grubości tkanki miękkiej twarzy w punktach zlokalizowanych tylko na płaszczyźnie strzałkowej głowy (obraz w innych płaszczyznach jest zniekształcony, a pomiary są niewiarygodne). W latach 80. po raz pierwszy zastosowano metodę ultradźwiękową (z ang. Ultrasonography – USG), która nadal zachowuje swoje miejsce w czołówce najpopularniejszych metod pomiaru grubości tkanki miękkiej twarzy. Metoda USG jest często wybierana ze względu na brak przeciwwskazań zdrowotnych do stosowania ultradźwięków, dostępność i stosunkowo niski koszt sprzętu. Niestety nie jest ona pozbawiona wad, którymi są kontaktowość metody i zależność wyników od umiejętności i doświadczenia operatora. Zatem metoda USG jest czasochłonna i nie pozwala zautomatyzować procesu pomiarowego.

Rewolucja w metodach pomiarowych nastąpiła wraz z opracowaniem obrazowych technik tomograficznych. Pomiary na podstawie tomografii komputerowej (z ang. Computed Tomography – CT) oraz rezonansu magnetycznego (z ang. Magnetic Resonance Imaging – MRI) są dokładne, ale stosunkowo drogie. Dawka promieniowania jonizującego emitowana w badaniach CT jest szkodliwa dla zdrowia, co ogranicza zastosowanie CT do pomiarów grubości tkanki miękkiej w dużych populacjach. Technika MRI nie ma tego ograniczenia i zapewnia wyraźne, szczegółowe obrazy tkanki miękkiej. Czynnikiem znacznie wpływającym na obniżenie wartości diagnostycznej badania MRI jest obecność różnego rodzaju artefaktów (np. artefakty ruchu, niejednorodność intensywności, sygnały od plomb dentystycznych). Artefakty powodują zniekształcenie danych obrazowych i utrudniają znalezienie granic między tkanką miękką, kością, a powietrzem. Ponadto sygnał pochodzący od struktur kostnych ma niską i niejednorodną intensywność, co znacznie komplikuje precyzyjną lokalizację punktów kraniometrycznych i skutkuje wydłużeniem czasu wykonania pomiarów. Zwykłe punkty w badaniach CT i MRI są definiowane ręcznie, a więc wyniki końcowe bardzo zależą od wprawy i doświadczenia osoby wykonującej pomiary. W chwili obecnej zdecydowana większość naukowców w swoich badaniach preferuje użycie technik USG i CT, pomijając potencjał, który zawiera w sobie technika rezonansu magnetycznego. Niemniej jednak warto zaznaczyć, że istnieje możliwość przyspieszenia i automatyzacji pomiarów w obrazach tomograficznych, co pozwala spojrzeć na technikę MR z nowej perspektywy.

Przyszłość metod pomiaru grubości tkanki miękkiej i rekonstrukcji antropologicznej

We wszystkich obszarach współczesnego życia dążymy do usprawnienia i automatyzacji procesów. Najlepsze wyniki uzyskuje się używając jak największej ilości danych, przetwarzanie których manualnie już dawno przestało się opłacać i mieć uzasadnienie. Operator coraz częściej jest zastępowany, co pozwała wyeliminować subiektywizm i zwiększyć wydajność. W przypadku pomiarów grubości tkanki miękkich sytuacja wygląda nie najlepiej. Opisane powyżej techniki pomiarowe są „sztywne” i nie pozwalają na szybkie i skuteczne zebranie danych z dużych populacji. Poszerzenie zestawu punktów pomiarowych lub powtórzenie pomiaru jest bardzo trudne i czasami niemożliwe (w przypadku techniki USG). To wszystko prowadzi do konieczności zaprojektowania automatycznych metod pomiaru niewymagających analizy w czasie rzeczywistym. Rozwiązaniem są klasyczne metody przetwarzania obrazów lub bardzo popularne obecnie sieci neuronowe.

Spośród klasycznych metod szczególną uwagę należy poświęcić metodom elastycznego dopasowania. Te metody są oparte na fantomach i należą do grupy nieliniowych, iteracyjnych metod. Algorytm elastycznego dopasowania jest używany do znalezienia optymalnego zestawu parametrów transformacji do przenoszenia punktów kranio- i antropometrycznych z przestrzeni fantomu do przestrzeni danych pacjenta. Optymalna transformacja jest znajdywana poprzez minimalizację funkcji kosztu między fantomem a danymi pacjenta. Fantomy mają być przygotowane zgodnie z cechami populacji, dla której będą prowadzone pomiary. Fantom ma obejmować całą głowę, nie posiadać szumów i artefaktów, być znormalizowanym i wyrównanym do standardowej pozycji anatomicznej, ponieważ pierwotny stopień dopasowania przestrzennego może znacznie przyspieszyć i usprawnić znajdywanie optymalnej transformacji. Dane obrazowe fantomu muszą mieć dobry kontrast międzytkankowy i jednolitą intensywność wokseli wewnątrz tej samej struktury anatomicznej. Wzorcowy zestaw punktów kranio- i antropometrycznych definiuje się ręcznie w fantomie w oparciu o wiedzę anatomiczną. Takie podejście nie pozwala całkowicie wyeliminować wpływu operatora, ale znacznie go niweluje. Udział operatora kończy się na przygotowaniu fantomu i odpowiadającego mu zestawu punktów, co już jest postępem w kierunku automatyzacji.

Alternatywnym podejściem jest wykorzystanie konwolucyjnych sieci neuronowych (z ang. Convolution Neural Networks) oraz architektur GANs (z ang. Generative Adversarial Networks), które obecnie znajdują zastosowanie w komputerowej rekonstrukcji twarzy. Ich głównymi zaletami są wysoka dokładność i lepsza wydajność, jednakże uczenie modeli GAN zajmuje dużo czasu i wymaga różnorodności danych treningowych. Jest to bardzo obiecujący i przyszłościowy kierunek rozwoju rekonstrukcji antropologicznej twarzy i metodyki pomiaru grubości tkanki miękkiej z wykorzystaniem obrazów rezonansu magnetycznego.

Analityk w Laboratorium Stosowanej Sztucznej inteligencji w Ośrodku Przetwarzania Informacji – Państwowym Instytucie Badawczym (OPI PIB). Ukończyła szkołę doktorską na Wydziale Mechatroniki Politechniki Warszawskiej, a tytuły magistra inżyniera i doktora uzyskała w dziedzinie inżynierii biomedycznej (Politechnika Warszawska, Wydział Mechatroniki). Pracowała przy tworzeniu trójwymiarowych modeli serca i głowy, a także implementacji algorytmów przetwarzania obrazów medycznych w PMOD Technologies. Od początku roku bierze udział w projekcie naukowym eRADS, służącym do standaryzacji badań, analizy obrazu i tworzenia modeli sztucznej inteligencji do wspomagania diagnostyki nowotworów prostaty.

ZACZNIJ WPISYWAĆ I NACIŚNIJ ENTER, ABY WYSZUKIWAĆ