Czy sztuczna inteligencja zapewni spersonalizowaną medycynę?
Według Guardiana, wielu ekspertów widzi w sztucznej inteligencji szansę dla medycyny, w tym obniżenie kosztów świadczeń.
Może się wydawać, że skuteczna i przystępna cenowo opieka zdrowotna jest niemożliwa. Sytuacja będzie się tylko pogarszać wraze wzrostem częstości występowania chorób przewlekłych i odkrywaniem nowych sposobów leczenia wcześniej śmiertelnych chorób. Te nowe metody leczenia są zwykle kosztowne, a nowe podejścia mogą być trudne do wprowadzenia w systemach opieki zdrowotnej, które są albo odporne na zmiany, albo zmęczone zbyt dużą ich ilością. Tymczasem rosnące zapotrzebowanie na opiekę społeczną potęguje presję na finansowanie i jeszcze bardziej komplikuje alokację zasobów.
Sztuczna inteligencja (AI) jest często przedstawiana jako odpowiedź dla usług, które są już zmuszone robić więcej za mniej. Jednak pomysł, że inteligentne komputery mogłyby po prostu zastąpić ludzi w medycynie, jest mrzonką. Sztuczna inteligencja zwykle nie działa dobrze w prawdziwym świecie. Złożoność okazuje się przeszkodą. Jak dotąd, technologie AI miały niewielki wpływ na nieuporządkowany, z natury ludzki świat medycyny. Ale co by było, gdyby narzędzia AI zostały zaprojektowane specjalnie dla prawdziwej medycyny - z całą jej złożonością organizacyjną, naukową i ekonomiczną?
To "skoncentrowane na rzeczywistości" podejście do sztucznej inteligencji jest przedmiotem zainteresowania laboratorium na Uniwersytecie Cambridge. Ściśle współpracując z klinicystami i szpitalami, opracowuje narzędzia AI dla naukowców, lekarzy, pielęgniarek i pacjentów. Ludzie często myślą, że główne możliwości sztucznej inteligencji w opiece zdrowotnej polegają na analizowaniu obrazów, takich jak skany MRI, lub znajdowaniu nowych związków leków. Istnieje jednak wiele innych możliwości. Jedną z rzeczy, które bada laboratorium, jest medycyna spersonalizowana lub precyzyjna. Zamiast jednego rozmiaru dla wszystkich, stara się zobaczyć, w jaki sposób można dostosować leczenie, aby odzwierciedlało unikalny profil medyczny i styl życia danej osoby.
Wykorzystanie spersonalizowanej medycyny opartej na sztucznej inteligencji może pozwolić na skuteczniejsze leczenie powszechnych schorzeń, takich jak choroby serca i nowotwory, lub rzadkich chorób, takich jak mukowiscydoza. Mogłoby to pozwolić klinicystom na optymalizację czasu i dawki leków dla poszczególnych pacjentów lub przesiewanie pacjentów przy użyciu ich indywidualnych profili zdrowotnych, a nie obecnych ogólnych kryteriów wieku i płci. Takie spersonalizowane podejście może prowadzić do wcześniejszej diagnozy, zapobiegania i lepszego leczenia, ratując życie i lepiej wykorzystując zasoby.
Wiele z tych samych technik można zastosować w badaniach klinicznych. Próby kliniczne czasami kończą się niepowodzeniem, ponieważ średnia odpowiedź na lek nie spełnia celów badania. Jeśli jednak niektóre osoby biorące udział w badaniu dobrze zareagowały na leczenie, sztuczna inteligencja może pomóc znaleźć te grupy w istniejących danych z badań. Tworzenie modeli danych poszczególnych pacjentów lub "cyfrowych bliźniaków" mogłoby pozwolić naukowcom na przeprowadzenie wstępnych badań przed rozpoczęciem kosztownych badań z udziałem prawdziwych ludzi. Skróciłoby to czas i inwestycje potrzebne do stworzenia leku, sprawiając, że interwencje poprawiające jakość życia stałyby się komercyjnie opłacalne.
Naukowcy wykorzystali sztuczną inteligencję do analizy 6680 związków, ostatecznie odkrywając dziewięć potencjalnych antybiotyków, w tym abaucin. Klinicyści i specjaliści AI już teraz rozważają potencjał dużych modeli językowych, takich jak ChatGPT, dla opieki zdrowotnej. Narzędzia te mogłyby pomóc w wypełnianiu formalności, zalecać protokoły badań leków lub proponować diagnozy. Ale chociaż mają ogromny potencjał, ryzyko i wyzwania są oczywiste. Nie można polegać na systemie, który regularnie fabrykuje informacje lub jest szkolony na podstawie stronniczych danych. ChatGPT nie jest w stanie zrozumieć złożonych warunków i niuansów, co może prowadzić do błędnych interpretacji lub niewłaściwych zaleceń. Mogłoby to mieć katastrofalne skutki, gdyby zostało wykorzystane w dziedzinach takich jak zdrowie psychiczne.
Jeśli sztuczna inteligencja zostanie wykorzystana do zdiagnozowania kogoś i popełni błąd, musi być jasne, kto jest za to odpowiedzialny: twórcy sztucznej inteligencji czy pracownicy służby zdrowia, którzy z niej korzystają? Wytyczne i regulacje etyczne muszą jeszcze nadążyć za tymi technologiami. Trzeba zająć się kwestiami bezpieczeństwa związanymi z używaniem dużych modeli językowych z prawdziwymi pacjentami i upewnić się, że sztuczna inteligencja jest opracowywana i wdrażana w sposób odpowiedzialny.
Źródło: Guardian