AI która tłumaczy swoje decyzje – podejście polskich naukowców do analizy obrazów płuc docenione za granicą
Kopiuj tekst

Photo by Accuray on Unsplash

AI która tłumaczy swoje decyzje – podejście polskich naukowców do analizy obrazów płuc docenione za granicą

- Sztuczna inteligencja musi być kontrolowalna i wyjaśnialna, jeśli ma zrobić rewolucję w medycynie. Lekarz wspierający się jej sugestiami, powinien rozumieć, skąd się one wzięły - uważają naukowcy z Politechniki Warszawskiej, którzy wybierają się na prestiżową konferencję naukową w Singapurze. Opowiedzą na niej o podejściu do obszaru wyjaśnialnej AI, które zastosowali w narzędziu Xlungs pomagającym diagnozować płuca.

Pod koniec kwietnia grupa polskich badaczy wystąpi na konferencji naukowej International Conference on Learning Representations (ICLR), która w tym roku odbywa się w Singapurze. To jedno z najważniejszych na świecie spotkań naukowców i ekspertów z obszaru uczenia maszynowego, sztucznej inteligencji i uczenia głębokiego (deep learning).

Xlungs - polska AI, która wspiera analizę badań tomografii komputerowej klatki piersiowej

Zagadnienia, których dotyczy praca polskich naukowców, nie są wyłącznie przedmiotem akademickiej dyskusji. Zespół badawczy MI².AI, z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej, przedstawiane rozwiązanie stosuje już we własnym projekcie Xlungs. Dzięki współpracy z Polską Grupą Raka Płuca, naukowcy wykorzystali 40 tys. obrazów tomografii komputerowej płuc do tworzenia modelu sztucznej inteligencji, który będzie mógł wspierać lekarzy w szybszym i skuteczniejszym diagnozowaniu chorób. Narzędzie to można zintegrować z już wykorzystywanymi w leczeniu systemami, gdyż współpracuje z powszechnie przyjętymi standardami dokumentacji medycznej.

W swojej pracy, zatytułowanej „Rethinking Visual Counterfactual Explanations Through Region Constraint” (Przedefiniowanie wizualnych wyjaśnień kontrfaktycznych poprzez regionalne ograniczenie), która zostanie zaprezentowana w Singapurze, zespół badaczy z Politechniki Warszawskiej wprowadza nowatorską metodę, która pozwala lepiej zrozumieć, jak sztuczna inteligencja podejmuje decyzje podczas analizy obrazów. Zamiast generować ogólne sugestie dotyczące całego obrazu, jak to ma miejsce w tradycyjnych wyjaśnieniach kontrfaktycznych, ich metoda koncentruje się na wybranych fragmentach obrazu. Dzięki temu lekarze mogą łatwiej zrozumieć, które konkretne zmiany w analizowanym obrazie wpłynęłyby na inną decyzję modelu AI. To podejście może być szczególnie pomocne w medycynie, gdzie precyzyjna interpretacja obrazów ma kluczowe znaczenie dla postawienia diagnozy.

Dlaczego wyjaśnialna AI jest potrzebna w medycynie?

- W praktyce, podczas analizy danych pacjentów może dochodzić do sytuacji, w których to model “zobaczy” na obrazie z tomografii komputerowej klatki piersiowej potencjalnie groźną zmianę i sygnalizuje to. Wówczas osoba prowadząca badanie powinna mieć dostęp do informacji, co naprowadziło sztuczną inteligencję do takiego wniosku - wyjaśnia prof. Przemysław Biecek, kierownik projektu i lider zespołu MI2.AI oraz współautor pracy zakwalifikowanej n konfernecję ICLR.
Tego właśnie dotyczy zagadnienie wyjaśnialności (Explainable AI - XAI), które przeciwstawiane jest koncepcji modelu sztucznej inteligencji jako “czarnej skrzynki”, z której otrzymujemy gotowe rozwiązanie, ale nie wiemy, za pomocą jakiego wnioskowania AI do niego doszła i czy przypadkiem nie jest ono błędne.
Coraz więcej krajów wymaga, aby narzędzia AI, które wspierają decyzje diagnostów były transparentne. W Unii Europejskiej wymóg wyjaśnialności wprowadził AI Act, który wszedł w życie na początku tego roku. Modele AI stosowane w medycynie mogą zostać uznane za systemy wysokiego ryzyka, więc wymaga się od nich wyjaśnialności.
- Wyjaśnialność AI jest szczególnie ważna w medycynie, gdzie interpretacja zdjęcia z tomografii komputerowej decyduje o rodzaju zalecanej terapii. Lekarze, ale także ich pacjenci, potrzebują przekonania, że mogą polegać na narzędziach, które wykorzystują do wspierania diagnozy i rozumieją, jak one dochodzą do danych wniosków. Lekarz nie zaufa “czarnej skrzynce”. Musi mieć możliwość zweryfikowania, czy taka sugestia ma sens - zauważa dr hab. inż. Marcin Luckner, kierownik prac deweloperskich w projekcie Xlungs.

Xlungs to projekt naukowy wykorzystujący sztuczną inteligencję do monitorowania i analizy zmian chorobowych w klatce piersiowej. Jego zadaniem jest wspieranie lekarzy – głównie pulmonologów i radiologów - przy analizie badań tomografii komputerowej. Rozwiązanie opracował zespół naukowców z Politechniki Warszawskiej weryfikując dane wspólnie z radiologami zatrudnionymi w projekcie. Stworzyli oni unikalny model sztucznej inteligencji , który wydobywa kluczowe informacje z historycznych obrazów CT, automatyzuje proces opisywania wyników i skraca czas ich analizy. Projekt jest finansowany przez Narodowe Centrum Badań i Rozwoju w ramach programu INFOSTRATEG I. 

MI².AI to zespół badawczy zajmujący się data science i uczeniem maszynowym. Tworzą go pracownicy naukowi i doktoranci dwóch wiodących wydziałów matematyki i informatyki w Polsce: MIM Uniwersytetu Warszawskiego i MiNI Politechniki Warszawskiej. Zajmuje się prowadzeniem badań naukowych z dziedziny sztucznej inteligencji jak również praktycznym zastosowaniem ich efektów oraz popularyzacją wiedzy z obszaru swojej ekspertyzy.


Używamy plików cookie do działania naszej strony internetowej, analizowania Twojego korzystania z naszych usług, zarządzania Twoimi preferencjami online i personalizowania treści reklamowych. Akceptując nasze pliki cookie, otrzymasz odpowiednie treści oraz funkcje mediów społecznościowych, spersonalizowane reklamy i ulepszony sposób przeglądania. Aby zarządzać swoimi wyborami, kliknij „Ustawienia plików cookie”. Pliki cookie niezbędne są do podstawowego funkcjonowania strony internetowej i nie mogą być odrzucone. Więcej informacji znajdziesz w naszej Polityce plików cookie.
Polityka plików cookies
Pliki cookie używane w witrynie są podzielone na kategorie. Poniżej możesz zapoznać się z każdą kategorią oraz zezwolić na niektóre lub wszystkie z nich lub je odrzucić, z wyjątkiem niezbędnych plików cookie, które są wymagane do zapewnienia podstawowej funkcjonalności witryny. Jeśli wcześniej dozwolone kategorie zostaną wyłączone, wszystkie pliki cookie przypisane do tej kategorii zostaną usunięte z Twojej przeglądarki. Listę plików cookies przypisanych do poszczególnych kategorii oraz szczegółowe informacje na ich temat znajdziesz w zakładce „Polityka plików cookies".
Niezbędne pliki cookie
Niektóre pliki cookie są wymagane do zapewnienia podstawowej funkcjonalności. Bez tych plików cookie witryna nie będzie działać prawidłowo. Są one domyślnie włączone i nie można ich wyłączyć.
Preferencje
Preferencyjne pliki cookie umożliwiają witrynie internetowej zapamiętywanie informacji w celu dostosowania wyglądu i zachowania witryny do potrzeb każdego użytkownika. Może to obejmować przechowywanie wybranej waluty, regionu, języka lub motywu kolorystycznego.
Analityczne pliki cookie
Analityczne pliki cookie pomagają nam ulepszać naszą witrynę internetową, gromadząc i raportując informacje na temat jej użytkowania.
Marketingowe pliki cookie
Marketingowe pliki cookie służą do śledzenia odwiedzających na stronach internetowych, aby umożliwić wydawcom wyświetlanie trafnych i angażujących reklam. Włączając marketingowe pliki cookie, wyrażasz zgodę na spersonalizowane reklamy na różnych platformach.