- · 《中国耳鼻咽喉头颈外科[01/26]
- · 《中国耳鼻咽喉头颈外科[01/26]
- · 中国耳鼻咽喉头颈外科版[01/26]
基于组合网络的图像头颈放疗危及器官自动分割(3)
作者:网站采编关键词:
摘要:表 2 为不同参赛队伍在看不见的测试集上的结果比较。从表 2 可以看出,本文方法无论在 DSC 还是在 95% HD 上都取得了第 2 名的成绩,同时在 DSC 系数上比
表 2 为不同参赛队伍在看不见的测试集上的结果比较。从表 2 可以看出,本文方法无论在 DSC 还是在 95% HD 上都取得了第 2 名的成绩,同时在 DSC 系数上比 nnU-Net 的器官分割平均提高了 0.78%,表明本文方法的优越性。此外,竞赛规定每套数据的分割时间不超过 2 min,本文提出的算法分割一套数据只需要 60 s,达到竞赛要求。
5 讨 论
图 5 定性分割结果比较Fig. 5 Qualitative results from model注:图中右下角的 2D 和 3D 表示分割结果来自 2D 模型或 3D 模型;(a) 组图为在数据增强中使用 x 轴上的镜像翻转结果;(b)、(c)和(d)组图为 2D 模型和 3D 模型对比结果(红色框表示分割较差的区域)
表 2 不同参赛者在 SturctSeg 2019 竞赛测试集结果比较Table 2 Comparison results from different teams on testing set in StructSeg 2019?
本文提出一种全自动的头颈 CT 放疗高危及器官分割算法,且获得了较好的分割精度。首先,与传统的多图谱方法相比,本文提出的方法精度有了很大的提升,尤其在微小器官的分割方面。如表 1 所示,脑垂体(标签 11)、左右中耳(标签 16 和 17)、左右晶状体(标签 4 和 5)微小器官在本文方法上的分割 DSC 值为 0.776、0.855、0.840、0.770、0806,远远超过多图谱方法[19]的 0.446、0.564、0.562、0.240 和 0.269,而和其他基于深度学习的 Focus-net[7]、nnU-Net[18]方法的结果相差不大,这说明了深度学习方法的优越性。其次,从不同参赛者在测试集上的结果比较来看,本文方法基于 nnU-Net 方法且使用了与 nnU-Net 方法同样的训练方法,但结果比原始的 nnU-Net 方法 DSC 值提高了 0.78%(表 2 所示)。这得益于本文方法根据分割图像的特点,设计出了实用且有效的数据预处理方法及数据增强的方法。通过图 5 的定性对比结果可以看出,不使用翻转数据增强能够防止左右器官的混淆。因此,本文重新设计了 3 个 U-net 网络组合型的网络结构。从表 1 中 3 个网络的分割结果可以看出,不同模型有着各自擅长的分割器官,如右晶状体和左侧视神经在 2D 模型上的分割 DSC 值分别为 0.806 和 0.708,而在 3D 模型上的分割结果仅为 0.796 和 0.674;左眼、左侧腮腺、右侧腮腺、左颞下颌关节、脊椎在 3D 模型上的分割 DSC 值分别为 0.895、0.861、0.851、0.759、0.832,远远超过了 2D 模型上 0.886、0.841、0.813、0.741、0.811,验证了本文所提出组合模型方法的实用性,证明了本文算法思路的可行性。
但本文算法比第 1 名的算法的平均 DSC 值低 0.43%。表 2 中第 1 名算法使用了 2D 和 3D 模型的组合特征融合提取,而本文算法仅是 2D 与 3D 模型的结果组合,相比之下第 1 名的方法特征提取更有效。未来本文将在端到端的 2D 与 3D 特征同时融合提取方面进行改进。
6 结 论
本文提出一种全自动头颈风险器官三组合 U-Net 模型分割方法。具体是在 nnU-Net 模型架构基础上,根据图像特点设计合适的图像预处理、裁剪方法、数据增强方法及网络参数,最终算法取得了前沿精度,在 22 个头颈风险器官上分割的平均 DSC 系数为 80.66%,95% 豪斯道夫(HD)距离为 2.96 mm。本文方法结果表明,得出组合 U-Net 网络就可取得有竞争力的结果,这将为其他医学图像分割提供一种实用有效的解决方案。
[1] Dawson LA, Sharpe MB. Image-guided radiotherapy: rationale, benefits, and limitations [J]. The Lancet Oncology, 2006, 7(10): 848-858.
[2] Tubiana M. Can we reduce the incidence of second primary malignancies occuring after radiothearpy? A critical review [J]. Radiotherapy and Oncology, 2009, 91(1): 4-15.
[3] Iglesias JE, Sabuncu MR. Multi-atlas segmentation of biomedical images: a survey [J]. Medical Image Analysis, 2015, 24(1): 205-219.
[4] Raudaschl PF, Zaffino P, Sharp GC, et al. Evaluation of segmentation methods on head and neck CT: auto-segmentation challenge 2015 [J]. Medical Physics, 2017, 44(5): 2020-2036.
[5] Ren XH, Xiang L, Nie D, et al. Interleaved 3D CNNs for joint segmentation of small-volume structures in head and neck CT images [J]. Medical Physics, 2018, 45(5): 2063-2075.
[6] Tappeiner E, Pr?ll S, H?nig M, et al. Multiorgan segmentation of the head and neck area: an efficient hierarchical neural networks approach [J]. International Journal of Computer Assisted Radiology and Surgery, 2019, 14(5): 745-754.
[7] Gao YH, Huang R, Chen M, et al. FocusNet: imbalanced large and small organ segmentation with an end-to-end deep neural network for head and neck CT images [C] // The Medical Image Computing and Computer Assisted Intervention Society, 2019: 829-838.
[8] Tong N, Gou SP, Yang SY, et al. Fully automatic multi-organ segmentation for head and neck cancer radiotherapy using shape representation model constrained fully convolutional neural networks [J]. Medical Physics, 2018, 45(10): 4558-4567.
文章来源:《中国耳鼻咽喉头颈外科》 网址: http://www.zgebyhtgwk.cn/qikandaodu/2021/0708/570.html
上一篇:一觉醒来落枕了怎么办
下一篇:头颈动脉数字减影应用自动毫安与能谱成像的辐