Hackeři stále častěji útočí na nemocnice, dokáží oklamat algoritmy pro nalezení rakoviny
Podle nové studie mohou být programy na bázi umělé inteligence kontrolující lékařské snímky na přítomnost rakoviny oklamány hackery a kybernetickými útoky, načež vykazují nesprávné diagnózy, informuje server theverge.com.
Hackeři se stále častěji zaměřují na nemocnice a zdravotnická zařízení pomocí kybernetických útoků. To vedlo k výzkumům, které nyní prokázali, že počítačový program může přidat nebo odstranit důkazy rakoviny z mamogramů a tyto změny oklamou jak nástroj umělé inteligence, tak lidské radiology. Což by mohlo vést k nesprávné možná fatální diagnóze.
Program umělé inteligence, který pomáhá kontrolovat mamografy, by mohl tvrdit, že snímek neprokazuje rakovinu, i když ve skutečnosti na něm její známky jsou nebo naopak – mohl by nesprávně tvrdit, že pacient má rakovinu.
Zatím není známo, že by k takovým hackerským útokům došlo v reálném světě, ale nová studie doplňuje rostoucí počet výzkumů, které naznačují, že zdravotnické organizace na ně musí být připraveny.
Cílem většiny dosavadních hackerských útoků je odčerpat údaje o pacientech, které jsou následně prodány na černém trhu. Jindy hackeři uzamknou počítačové systémy organizace, dokud neobdrží výkupné.
Odborníci se však stále více obávají i možnosti přímých útoků na zdraví lidí. Bezpečnostní výzkumníci prokázali, že hackeři se mohou například na dálku nabourat do inzulínových pump připojených k internetu a dodávat nebezpečné dávky léků. Nebo se hacker může zaměřit na konkrétního pacienta, například politickou osobnost, či může chtít pozměnit vlastní snímky, aby získal peníze od pojišťovny nebo přihlásit se k invalidnímu důchodu.
Autor studie Shandong Wu, docent radiologie, biomedicínské informatiky a bioinženýrství na Pittsburské univerzitě, uvedl ve svém prohlášení, že modelům umělé inteligence by měly být během jejich výcviku ukazovány zmanipulované snímky, aby se naučily rozpoznat ty falešné. Radiologové by také měli být vyškoleni v rozpoznávání falešných snímků.
„Doufáme, že tento výzkum přiměje lidi přemýšlet o bezpečnosti lékařských modelů umělé inteligence a o tom, co můžeme udělat pro obranu proti potenciálním útokům,“ řekl Wu.
Zdroj: theverge.com