投稿指南
一、本刊要求作者有严谨的学风和朴实的文风,提倡互相尊重和自由讨论。凡采用他人学说,必须加注说明。 二、不要超过10000字为宜,精粹的短篇,尤为欢迎。 三、请作者将稿件(用WORD格式)发送到下面给出的征文信箱中。 四、凡来稿请作者自留底稿,恕不退稿。 五、为规范排版,请作者在上传修改稿时严格按以下要求: 1.论文要求有题名、摘要、关键词、作者姓名、作者工作单位(名称,省市邮编)等内容一份。 2.基金项目和作者简介按下列格式: 基金项目:项目名称(编号) 作者简介:姓名(出生年-),性别,民族(汉族可省略),籍贯,职称,学位,研究方向。 3.文章一般有引言部分和正文部分,正文部分用阿拉伯数字分级编号法,一般用两级。插图下方应注明图序和图名。表格应采用三线表,表格上方应注明表序和表名。 4.参考文献列出的一般应限于作者直接阅读过的、最主要的、发表在正式出版物上的文献。其他相关注释可用脚注在当页标注。参考文献的著录应执行国家标准GB7714-87的规定,采用顺序编码制。

基于组合网络的图像头颈放疗危及器官自动分割(3)

来源:中国耳鼻咽喉头颈外科 【在线投稿】 栏目:期刊导读 时间:2021-07-08
作者:网站采编
关键词:
摘要:表 2 为不同参赛队伍在看不见的测试集上的结果比较。从表 2 可以看出,本文方法无论在 DSC 还是在 95% HD 上都取得了第 2 名的成绩,同时在 DSC 系数上比

表 2 为不同参赛队伍在看不见的测试集上的结果比较。从表 2 可以看出,本文方法无论在 DSC 还是在 95% HD 上都取得了第 2 名的成绩,同时在 DSC 系数上比 nnU-Net 的器官分割平均提高了 0.78%,表明本文方法的优越性。此外,竞赛规定每套数据的分割时间不超过 2 min,本文提出的算法分割一套数据只需要 60 s,达到竞赛要求。

5 讨 论

图 5 定性分割结果比较Fig. 5 Qualitative results from model注:图中右下角的 2D 和 3D 表示分割结果来自 2D 模型或 3D 模型;(a) 组图为在数据增强中使用 x 轴上的镜像翻转结果;(b)、(c)和(d)组图为 2D 模型和 3D 模型对比结果(红色框表示分割较差的区域)

表 2 不同参赛者在 SturctSeg 2019 竞赛测试集结果比较Table 2 Comparison results from different teams on testing set in StructSeg 2019?

本文提出一种全自动的头颈 CT 放疗高危及器官分割算法,且获得了较好的分割精度。首先,与传统的多图谱方法相比,本文提出的方法精度有了很大的提升,尤其在微小器官的分割方面。如表 1 所示,脑垂体(标签 11)、左右中耳(标签 16 和 17)、左右晶状体(标签 4 和 5)微小器官在本文方法上的分割 DSC 值为 0.776、0.855、0.840、0.770、0806,远远超过多图谱方法[19]的 0.446、0.564、0.562、0.240 和 0.269,而和其他基于深度学习的 Focus-net[7]、nnU-Net[18]方法的结果相差不大,这说明了深度学习方法的优越性。其次,从不同参赛者在测试集上的结果比较来看,本文方法基于 nnU-Net 方法且使用了与 nnU-Net 方法同样的训练方法,但结果比原始的 nnU-Net 方法 DSC 值提高了 0.78%(表 2 所示)。这得益于本文方法根据分割图像的特点,设计出了实用且有效的数据预处理方法及数据增强的方法。通过图 5 的定性对比结果可以看出,不使用翻转数据增强能够防止左右器官的混淆。因此,本文重新设计了 3 个 U-net 网络组合型的网络结构。从表 1 中 3 个网络的分割结果可以看出,不同模型有着各自擅长的分割器官,如右晶状体和左侧视神经在 2D 模型上的分割 DSC 值分别为 0.806 和 0.708,而在 3D 模型上的分割结果仅为 0.796 和 0.674;左眼、左侧腮腺、右侧腮腺、左颞下颌关节、脊椎在 3D 模型上的分割 DSC 值分别为 0.895、0.861、0.851、0.759、0.832,远远超过了 2D 模型上 0.886、0.841、0.813、0.741、0.811,验证了本文所提出组合模型方法的实用性,证明了本文算法思路的可行性。

但本文算法比第 1 名的算法的平均 DSC 值低 0.43%。表 2 中第 1 名算法使用了 2D 和 3D 模型的组合特征融合提取,而本文算法仅是 2D 与 3D 模型的结果组合,相比之下第 1 名的方法特征提取更有效。未来本文将在端到端的 2D 与 3D 特征同时融合提取方面进行改进。

6 结 论

本文提出一种全自动头颈风险器官三组合 U-Net 模型分割方法。具体是在 nnU-Net 模型架构基础上,根据图像特点设计合适的图像预处理、裁剪方法、数据增强方法及网络参数,最终算法取得了前沿精度,在 22 个头颈风险器官上分割的平均 DSC 系数为 80.66%,95% 豪斯道夫(HD)距离为 2.96 mm。本文方法结果表明,得出组合 U-Net 网络就可取得有竞争力的结果,这将为其他医学图像分割提供一种实用有效的解决方案。

[1] Dawson LA, Sharpe MB. Image-guided radiotherapy: rationale, benefits, and limitations [J]. The Lancet Oncology, 2006, 7(10): 848-858.

[2] Tubiana M. Can we reduce the incidence of second primary malignancies occuring after radiothearpy? A critical review [J]. Radiotherapy and Oncology, 2009, 91(1): 4-15.

[3] Iglesias JE, Sabuncu MR. Multi-atlas segmentation of biomedical images: a survey [J]. Medical Image Analysis, 2015, 24(1): 205-219.

[4] Raudaschl PF, Zaffino P, Sharp GC, et al. Evaluation of segmentation methods on head and neck CT: auto-segmentation challenge 2015 [J]. Medical Physics, 2017, 44(5): 2020-2036.

[5] Ren XH, Xiang L, Nie D, et al. Interleaved 3D CNNs for joint segmentation of small-volume structures in head and neck CT images [J]. Medical Physics, 2018, 45(5): 2063-2075.

[6] Tappeiner E, Pr?ll S, H?nig M, et al. Multiorgan segmentation of the head and neck area: an efficient hierarchical neural networks approach [J]. International Journal of Computer Assisted Radiology and Surgery, 2019, 14(5): 745-754.

[7] Gao YH, Huang R, Chen M, et al. FocusNet: imbalanced large and small organ segmentation with an end-to-end deep neural network for head and neck CT images [C] // The Medical Image Computing and Computer Assisted Intervention Society, 2019: 829-838.

[8] Tong N, Gou SP, Yang SY, et al. Fully automatic multi-organ segmentation for head and neck cancer radiotherapy using shape representation model constrained fully convolutional neural networks [J]. Medical Physics, 2018, 45(10): 4558-4567.

文章来源:《中国耳鼻咽喉头颈外科》 网址: http://www.zgebyhtgwk.cn/qikandaodu/2021/0708/570.html



上一篇:一觉醒来落枕了怎么办
下一篇:头颈动脉数字减影应用自动毫安与能谱成像的辐

中国耳鼻咽喉头颈外科投稿 | 中国耳鼻咽喉头颈外科编辑部| 中国耳鼻咽喉头颈外科版面费 | 中国耳鼻咽喉头颈外科论文发表 | 中国耳鼻咽喉头颈外科最新目录
Copyright © 2019 《中国耳鼻咽喉头颈外科》杂志社 版权所有
投稿电话: 投稿邮箱: