使用深度神經(jīng)網(wǎng)絡(luò)實現(xiàn)卓越的相位恢復(fù)和全息圖重建
深度學(xué)習(xí)已經(jīng)為各種成像任務(wù)取得了基準結(jié)果,包括全息顯微鏡,其中一個重要步驟是使用僅強度測量來恢復(fù)樣本的相位信息。通過在精心設(shè)計的數(shù)據(jù)集上進行訓(xùn)練,深度神經(jīng)網(wǎng)絡(luò)已被證明在準確性和計算效率方面優(yōu)于經(jīng)典的相位檢索和全息重建算法。然而,模型泛化是指將神經(jīng)網(wǎng)絡(luò)的能力擴展到訓(xùn)練期間從未見過的新型樣本,這對于現(xiàn)有的深度學(xué)習(xí)模型仍然是一個挑戰(zhàn)。
加州大學(xué)洛杉磯分校的研究人員最近創(chuàng)建了一種稱為傅立葉成像網(wǎng)絡(luò)(FIN)的新型神經(jīng)網(wǎng)絡(luò)架構(gòu),它展示了對看不見的樣本類型的前所未有的泛化能力,還在相位檢索和全息圖像重建任務(wù)中實現(xiàn)了卓越的計算速度。在這種新方法中,他們引入了空間傅里葉變換模塊,使神經(jīng)網(wǎng)絡(luò)能夠利用整個圖像的空間頻率。加州大學(xué)洛杉磯分校的研究人員在人類肺組織樣本上訓(xùn)練了他們的FIN模型,并通過重建人類前列腺和唾液腺組織切片的全息圖以及在訓(xùn)練階段從未見過的巴氏涂片樣本證明了其優(yōu)越的泛化能力。
發(fā)表在Light:Science&Applications中,據(jù)報道,與經(jīng)典全息圖重建算法和最先進的深度學(xué)習(xí)模型相比,這種基于深度學(xué)習(xí)的新框架實現(xiàn)了更高的圖像重建精度,同時將重建時間縮短了~50次。這種新的深度學(xué)習(xí)框架可廣泛用于為各種顯微成像和計算機視覺任務(wù)創(chuàng)建高度泛化的神經(jīng)網(wǎng)絡(luò)。
這項研究由AydoganOzcan博士領(lǐng)導(dǎo),他是加州大學(xué)洛杉磯分校校長教授和Volgenau工程創(chuàng)新主席,也是霍華德休斯醫(yī)學(xué)研究所的HHMI教授。這項工作的其他作者包括來自加州大學(xué)洛杉磯分校電氣與計算機工程系的HanlongChen、LuzheHuang和TairanLiu。Ozcan教授還在加州大學(xué)洛杉磯分校的生物工程和外科部門擔(dān)任教職,并且是加州納米系統(tǒng)研究所的副主任。
標簽: