• No results found

Deep Learning Applications From image analysis to medical diagnosis

N/A
N/A
Protected

Academic year: 2021

Share "Deep Learning Applications From image analysis to medical diagnosis"

Copied!
2
0
0

Loading.... (view fulltext now)

Full text

(1)

Institutionen för fysik

Deep Learning Applications

From image analysis to medical diagnosis

Saga Helgadottir

Institutionen för Fysik

Göteborgs Universitet

Akademisk avhandling för filosofie doktorsexamen i fysik, som med tillstånd från Naturvetenskapliga fakulteten kommer att offentligt försvaras

onsdagen den 16.06.2021 kl. 9 i PJ-salen, institutionen för fysik, Fysikgården 2b, Göteborg.

(2)

Deep Learning Applications

From image analysis to medical diagnosis

Saga Helgadottir Institutionen för Fysik Göteborgs Universitet

Sammanfattning

Djupinlärning är ett område inom maskininlärning och artificiell intelligens. Istället för att utgå ifrån förutbestämda regler för att utföra en önskad uppgift som i konventionella metoder, lär maskininlärningsalgoritmer sig att hitta regler för önskad funktion genom att hitta mönster i data. Idén med djupinlärning har funnits sedan 1950-talet men var länge begränsad av tillgänglig beräkningskraft och mängd träningsdata. Efter att ha övervunnit dessa problem, har djupinlärning senaste åren gjort stora framsteg när det gäller att lösa olika problem.

I denna avhandling visar jag hur djupinlärning kan användas i bildanalys och medicinsk diagnos, och samtidigt överträffa vanliga algoritmiska met-oder och enklare maskininlärningsmetmet-oder. Jag börjar med att visa att ett neuralt nätverk tränad på simulerade partikelbilder kan spåra mikroskop-iska partiklar, även i dåliga belysningsförhållanden. Sedan visar jag hur detta inspirerade utvecklingen av en allt-i-ett-mjukvaruprogram för att des-igna, träna och validera djupinlärningslösningar för digital mikroskopi, från partikelspårning och deras karakterisering i två och tre dimensioner till seg-mentering, karakterisering och räkning av biologiska celler samt bildomvand-ling. Jag visar att detta mjukvaruprogram kan vidare användas för att utveckla ett neuralt nätverk för att virtuell färga in ljusmikroskopibilder av celler och på så sätt ersätta traditionell kemisk infärgning för analys av bio-logiskt relevanta egenskaper. Sedan går jag vidare från applikationer inom mikroskopi och bildanalys till att visa djupinlärnings potential inom medic-insk diagnos. Jag visar att neurala nätverk fungerar bättre än både enklare maskininlärningsalgoritmer och den kliniska standarden för att diagnostisera en genetisk sjukdom samt i förutsägelsen av kortsiktig och långsiktig mor-biditet hos patienter med medfödd hjärtsjukdom. Slutligen visar jag hur en neural-nätverksdriven strategi för testning och isolering av individer anpas-sar sig till parametrarna för ett sjukdomsutbrott och uppnår en epidemisk inneslutning.

References

Related documents

In this project, the architecture has been trained on CT-CT images for mono-modal image registration and on MR-CT images for the multi-modality case, using synthetic deformations

In the beginning of my studies, I stumbled upon a problem when analyzing experimental microscopy data that I solved by developing a convolutional neural network (CNN) trained

To find a good way to improve the accuracy of segmentation within limited datasets, we implemented a new automatic chest radiographs segmentation experiment based on preliminary

Computational Medical Image Analysis

“VizWiz-like” samples. We compute the most frequent answer of each sample in VQA v2.0 and VizWiz and use that as ground truth answer a for the entire augmentation process. For

Keywords: Medical image segmentation, medical image registration, ma- chine learning, shape models, multi-atlas segmentation, feature-based registration, convolutional neural

Table 7.8: Patients’ characteristics. All patients had MPI images taken from stress in upright and supine position. The following auxiliary parameters were used: BMI, age and

The traditional approach for integration of prior information into CNNs is simple; context channels are concatenated with the image and the result is fed as the definite input to