Díky strojovému učení budeme konečně umět předpovídat zemětřesení nebo pandemie
Vědci z Brownu a MIT tvrdí, že mohou využít kombinaci pokročilého strojového učení a technik sekvenčního vzorkování k předpovídání extrémních událostí, aniž by potřebovali velké soubory dat, uvádí server SciTech Daily.
Pokud jde o předpovídání katastrof způsobených extrémními událostmi (zemětřesení, pandemie nebo ničivé vlny, které by mohly zničit pobřežní stavby), čelí počítačové modelování téměř nepřekonatelné výzvě: statisticky vzato jsou tyto události tak vzácné, že o nich prostě není dostatek údajů, aby bylo možné pomocí prediktivních modelů přesně předpovědět, kdy k nim dojde příště.
Skupina vědců z Brownovy univerzity a Massachusettského technologického institutu však tvrdí, že tomu tak být nemusí.
Ve studii zveřejněné v časopise Nature Computational Science vědci vysvětlují, jak využili statistické algoritmy, které pro přesné předpovědi vyžadují méně dat, v kombinaci s výkonnou technikou strojového učení vyvinutou na Brownově univerzitě. Tato kombinace jim umožnila předpovídat scénáře, pravděpodobnosti, a dokonce i časový průběh vzácných událostí navzdory nedostatku historických dat.
„Musíte si uvědomit, že se jedná o stochastické události,“ řekl George Karniadakis, profesor aplikované matematiky a inženýrství na Brownově univerzitě a autor studie. „Vypuknutí pandemie, jako je COVID-19, ekologická katastrofa v Mexickém zálivu, zemětřesení, obrovské požáry v Kalifornii, třicetimetrová vlna, která převrátí loď – to jsou vzácné události, a protože jsou vzácné, nemáme mnoho historických dat. Nemáme dostatek vzorků z minulosti, abychom je mohli předpovídat do vzdálenější budoucnosti. Otázka, kterou v řešíme, zní: Jaká jsou nejlepší možná data, která můžeme použít, abychom minimalizovali počet datových bodů, které potřebujeme?„

Výzkumníci našli odpověď v technice sekvenčního vzorkování, která se nazývá aktivní učení. Tyto typy statistických algoritmů jsou nejen schopny analyzovat data, která do nich vstupují, ale co je důležitější, dokáží se z těchto informací učit a označovat nové relevantní datové body, které jsou pro vypočítávaný výsledek stejně důležité nebo dokonce důležitější. Na nejzákladnější úrovni umožňují udělat více s menším množstvím.
To je pro model strojového učení, který výzkumníci použili ve studii, rozhodující. Model nazvaný DeepOnet je typem umělé neuronové sítě, která využívá vzájemně propojené uzly v po sobě jdoucích vrstvách, které zhruba napodobují spojení vytvářená neurony v lidském mozku. DeepOnet je známý jako hluboký neuronový operátor. Je pokročilejší a výkonnější než typické umělé neuronové sítě, protože jde vlastně o dvě neuronové sítě v jedné, které zpracovávají data ve dvou paralelních sítích.
Nevýhodou tohoto výkonného nástroje, zejména pokud jde o vzácné události, je potřeba tun dat, aby byl vycvičen k efektivním a přesným výpočtům.
Zdroj: scitechdaily.com, redakce