1. 网站地图
  2. 设为首页
  3. 关于我们


基于深度学习的 CT 肾结石分割及其 在手术中的应用

发布时间:2022-08-11 10:50
1.1 研究背景与意义
肾脏是人体的最重要器官之一,它能生成尿液,排泄体内代谢产物和有害的物质,以此维持人体的水平衡,保证人体正常的新陈代谢。肾结石是一种常见的疾病,是由于尿中的矿物质过多而在肾脏内部积聚而成,多发生于青壮年,大多患病者根据结石大小形状等特征具有不同程度的腰痛[1]。体积较小的肾结石可以由人体通过尿液自行排出,但若遇到直径体积较大的结石在泌尿系统中,则极易引发泌尿系统疾病,而且肾结石特别容易复发,并引发心血管疾病、慢性肾病、高钙尿等危险疾病[2, 3]。起初,肾结石的临床表现大多无症状,但若引发肾内感染等情况,患者可能会出现血尿、尿路感染、肾积水等情况,而这些情况往往伴随着剧烈的疼痛,甚至恶心和呕吐。这时患者需要及时取出结石,否则将会导致严重的健康问题。因此能高效的识别肾结石是非常重要的,特别是针对肾结石的直径体积参数和结石类型,这对医生的诊断来说至关重要。在医学临床针对肾结石的诊断与治疗中,精确的肾结石分割对结石类型诊断、手术规划以及术后的评估等工作都受到人们的重视。而与核磁共振成像(MagneticResonance Imaging, MRI)相比,计算机断层扫描影像技术(Computed Tomography,CT)成像速度快,器官的运动伪影较小,且可以提供更详细的人体组织信息,病理结构更清楚,便于医生对患者进行肾结石术前诊断。这是因为 CT 成像是用 X 射线照射人体,利用不同的人体组织对 X 线的吸收系数不同,将沿着 X 线束通过的组织分割为若干个体积相同的长方体(体素),再利用计算机进行一系列矩阵处理得到 CT 图像,进而以病灶的相对位置、形状和大小等改变来判断病情[4]。但是过量的 X 射线辐射也可能会对人体造成伤害。因此 CT 肾结石的精确分割,一直是医学图像分析中最具挑战的任务之目前,肾结石的分割在临床上主要依赖于经验丰富的医学专家手工勾画完成,如果肾结石的分割完全取决于医生的经验和水平,那么医生的个人主观性会变得很强、且存在勾画时间长、定量分析不够的问题。因此,实现全自动的肾结石精确分割具有重要的临床意义,能帮助医生做出准确的诊断。通常人们的研究集中于分割算法,然后由医生人工观察结石位置,测量结石直径体积大小,并根据结石形态特征来判断结石类型,最后给出专业意见,制定治疗
方案,这一套术前检查的流程大部分由医生完成。但若在医生疲惫的状态下来独自进行以上这一套术前流程,可能会出现因观察不仔细或忽视了肾脏结石周围的关

1电子科技大学硕士学位论文
键信息导致手术成功率低,术后患者复发率高的情况。因此,本文设计了一套 CT肾结石术前状态研究方案,包括 CT 肾结石三维分割,计算结石最大直径、HU 值及体积三个重要临床参数,并对结石类型进行识别的算法实现以及实际工程部署,为肾结石手术提供更全面的术前信息,辅助医生术前规划以及术后评估。

1.2 国内外研究现状
1.2.1 医学图像语义分割研究现状
随着医学影像领域的壮大,医学数据的海量出现以及医学图像数据的规范性越来越高,计算机辅助诊断系统的不断深入,传统的医学图像分割算法已经不能满足需要,人们更倾向于采用深度学习方法来进行医学图像语义分割,其结果也令人满意。经过不断的探索,Simonyan 等[5]提出 VGGNet 采用卷积计算来提取图像特征。受到 VGGNet 的启发,Long 等[6]提出的全卷积网络(Fully Convolutional Networks,FCN)使用卷积层代替了全连接层,将最后一层输出的特征图通过反卷积运算恢复到与输入图像相同的尺寸,并对图像中的每一点像素产生一个分类结果。同年,Badrinarayanan 等[7]提出的 SegNet 网络主要探讨了不同解码器结构对图像分割性能的影响。为探讨不同卷积核尺寸对图像特征提取的影响,Chen 等[8]提出的 Deep-Lab V3+网络在编码器部分使用不同大小的卷积核提取不同尺度的特征,为了改善梯度流,Ronneberger[9]提出的 U-Net 网络结构使用跳跃连接方式融合了上下采样结构中高层和底层信息,提高了分割结果精度。在此基础上衍生了一系列 U-Net 改进网络,Milletari 等[10]提出的 V-Net 网络添加了残差连接,并使用了 3D 卷积替换了 2D 卷积操作来处理三维图像,并建议使用 Dice 分数作为医学图像分割指标。同年,Cicek 等[11]提出 3D U-Net 网络采用稀疏采样方式加以标注,但由于 GPU 内存的限制,不得不减小感受野,从而分割效果降低。Zhou 等[12]提出的 U-Net++网络采用密集连接模式,在提高精度的同时也降低了网络参数量,同年,Zhang[13]继而提出的 Res U-Net 网络中加入了残差块的设计,在跳跃连接的基础上进一步简化了深度训练网络,融入了更多的图像特征信息,网络性能更佳。除了对网络结构的关注,人们也开始重视医学图像的数据处理方式,Fabian 等[14]提出的 nnU-Net 网络基于原始的 U-Net 网络,更关注于自动调整其结构来适应给定图像的几何形状,一套数据预处理流程,其中包括数据的裁剪、重采样、正则化等处理来更好的学习数据特征,并在 23 个公开的医学数据集上取得较好的成绩。此外,Huang 等[15]提出的 UNet 3+网络采用了全尺寸跳跃连接融合不同尺度特征,使用混合损失函
 
第一章 绪论
数和一个分类引导模块增强图像边缘,以产生更准确的分割结果。Chen 等[16]提出的 TransUNet 网络从序列到序列预测的角度建立了注意力机制,首次采用 ViT(Vision Transformer, ViT)[17]模型应用于全尺寸图像,受到 TransUNet 网络的启发,Hatamizadeh 等[18] 提出了 UNETR 网络,在遵循 U 型网络结构的同时引入Transformer 编码器提取图像体积序列特征,并采用跳跃连接的方式直接连接解码器,以计算最终的语义分割输出。

1.2.2 医学图像分类研究现状
图像分类,即给定一幅输入图像,通过某种分类算法来判断该图像所属的类别[19]。图像分类的主要过程包括图像预处理、特征提取和分类器设计[20]。在传统的图像分类研究中,多数都是根据不同类型的图像差异性,提取纹理、颜色、形状等视觉特征,再通过分类器来对这些特征进行分类,从而达到图像分类的目的。伴随着海量医学数据的出现,传统的图像分类算法下的分类精度已经不能满足实际需求。目前,医学图像分类主要分为两个研究方向,基于深度学习的医学图像分类和基于放射组学特征的医学图像分类,前者主要是通过神经网络自主的从训练样本中学习特征、提取更高维、更抽象的特征,并且这些特征与分类器关系紧密[20]。简而言之,前者更关注于神经网络的结构发展变化。LeCun 等[21]提出的LeNet-5 网络是历史上第一个卷积神经网络(Convolutional Neural Networks, CNN)方法,该网络虽然只有 7 层,但在手写数字识别任务中取得了 0.8%的分类错误率[20],证明了卷积神经网络在图像分类任务中的优越性。Krizhevsky 等[22]紧接着提出 AlexNet 网络,首次使用 ReLU 激活函数,解决了网络较深时的梯度弥散问题,同时引入了 Dropout 技术,减轻网络过拟合。Simonyan 等[5]在 AlexNet 的基础上提出 VGGNet 使用卷积核来提取图像特征,考虑到网络深度增加可能会造成梯度消失的问题,从而导致网络训练效果差,Szegedy 等[23]朝着降低网络复杂度的方向提出了 GoogleNet 网络,由若干 Inception 模块级联而成,提高了网络对不同尺度的适应性。He 等[24]提出了 ResNet 网络,引入残差学习模块,加快网络收敛速度,不同尺度的特征融合让网络性能更高。同年,He 等[25]提出了每一层使用了 BN 归一化技术的 ResNet V2 模型,能有效防止梯度爆炸和消失。在 ResNet 网络的基础上,Huang 等[26]提出了 DenseNet 网络,以前馈的方式将网络的每一层和前面的所有层相连,考虑到计算效率,Iandola 等[27]提出一种轻量级的模SqueezeNet。Howard等[28]针对嵌入式视觉应用提出了 MobileNet,同年,Wang 等[29]借鉴人们对不同事物关注度不同的情况,提出了将注意力机制用于卷积网络,在此基础上,Hu 等[30]提出了 SENet 模型,采用 Squeeze 操作拉伸特征层和 Excitation 机制去建模特征通
 
电子科技大学硕士学位论文
道之间的相关性,防止过拟合,提高了网络的泛化能力。Dosovitskiy 等[17]提出 ViT对图像块进行线性分割,添加位置嵌入后将向量序列送至编码器,再添加标签即可进行图像分类。至此,基于注意力的神经网络在多项计算机视觉基准测试中表现优秀,为研究 ViT 的缩放规律,Zhai 等[31]对 ViT 模型进行向上和向下的扩展,研究了数据和计算之间的关系,能在 ImageNet 上达到 90.45%的准确率。然而,Dai 等[32]认为 ViT 模型虽然具有强大的模型容量,但泛化能力较弱,并提出 CoAtNet 网络来垂直堆叠卷积层和注意力层,提高了图像分类精度。同时,Wortsman 等[33]针对传统的多个模型选择方式做了改进,对多个模型的权重进行平均,在 ImageNet图像数据库上表现最佳,精度可达 90.94%。后者更关注小样本下的小目标医学图像分类问题,直接从 2D 或者 3D 医学图像数据中提取大量的放射学特征,其中,放射学特征可分为形态特征、直方图特征、纹理特征和高阶特征[34],这些特征可以在一定程度上反应致癌物质或肿瘤生物学特征,之后再送入分类器,包括 K 最近邻(K-Nearest Neighbor, KNN)[35]、决策树(Decision Tree, DT)[36]、支持向量机(Support Vector Machine, SVM) [37]、随机森林(Random Forest, RF)[38]、逻辑回归(Logistic Regression, LR) [39]、人工神经网络[40]等方法。简而言之,后者更加关注于医学图像的 2D 或 3D 放射学特征提取与筛选过程。早期的放射组学研究主要使用 TexRAD 软件[41],该软件具备多种半自动、自动分割工具。随后,MaZda 软件[42, 43]也扩展应用于 3D 图像,提供了更多图像分析工具。同年,Fang 等[44]提出一款基于 MATLAB 的纹理分析软件程序,即CGITA,专注于分析分子图像。Zhang 等[45]于 2015 年提出了基于 MATLAB/C 的放射学图像特征提取的开源C++语言编程工具,可以导入各种轮廓格式的医学图像。目前,Griethuysen 等[46]提出的基于 Python 语言的 Pyradiomics 开源软件包支持 2D和 3D 医学影像特征提取,能自定义特征提取方案,是当下最流行的图像特征提取器之一。

1.3 技术研究难点
随着影像学领域的不断发展,国家越来越重视人工智能在医学数据上的应用,特别是在智慧医疗、辅助诊断、医疗设备革新等方面备受研究人员的关注。不同于自然图像分析,医学图像分析还面临着以下几点难题:(1)难以获取的数据集医学图像数据集来之不易,患者的图像信息属于个人隐私,非医学性质的公司、企业难以获取患者数据,更难以按照统一标准对患者数据进行收集。(2)不完美的数据集
 
第一章 绪论
医学图像数据集标注的要求非常高,通常需要有 2 年从医经验以上的专业人士进行标注。然而,医院每天面临大量的病流量,医生们堆积着大量的病人需要诊断,即使该医院有海量的医学数据,医生们没有更多的时间能够对数据进行勾画,从而导致能够得到公开的标注好的数据集是非常少的。如一个病人的 3D 医学图像一般包括了 300 张左右的 2D 切面,而勾画一个 3D 数据需要医生按照切片逐层对图像进行核对检查,大概花费 10 分钟到 20 分钟的时间不等,因此数据集标注工作费时费力,标注成本昂贵。其次,病人的扫描 CT 图像可能存在损坏或者不完整,导致该病人数据作废,数据集数量减少。再者,数据集可能还存在异质性,数据集的少量异质性可以作为数据的多样性存在,有利于训练。但是过多的异质性会稀释研究结果的潜在影响,数据集中具有过多的可变性,导致训练过程被扰乱。所以历来人们很少能拥有一个完美大小和仔细标注的数据集来训练分割、分类模型,其训练数据往往只有稀疏注释、噪声注释,在这样的数据集缺陷下,即使是最先进的模型也难以推广到真实世界的临床数据集上。
(3) 小目标的 ROI(Region of Interest, ROI)区域医学图像领域与计算机领域类似,也有小目标任务,在临床实验中,如果某患者的脏器肿瘤症状处于早期阶段,该组织结构混杂在正常的组织结构中,不仅肉眼观察该结构是困难的,而且在训练的过程中,也可能因为其像素数量太少,而将其
归结到背景像素中去,导致模型训练效果不佳。因为肿瘤太小了,很多图像特征在临床上是没有意义的,尽管有一些作者建议将5cm3 作为 ROI 区域临界值,但是目前还没有关于可评估的最小 ROI 的一致指南[47]。因此,如何提高小目标组织分割准确性也是人们一直在探寻的问题。
(4)过大的数据尺寸
医学图像数据的尺寸是非常大的,如一个病人的 3D 肾结石 CT 图像,该图像有 200 到 300 张切片不等,每一张切片的大小为512512,那么一个病人的 CT 图像数据大小为512512(200 ,当把该数据大小原封不动的送进深度学习模型时,硬件压力会非常大。因此对于这类大尺寸数据,通常的做法是对原始图像进行下采样、取样部分切片、截断 CT 阈值等操作,但是这样的操作往往会导致模型精度的下降。因此,医学图像尺寸过大一直是医学图像在深度学习领域中需要克服的难点。
(5)临床应用的困难目前,深度学习技术在临床应用中面临如下问题。
 
电子科技大学硕士学位论文
a)医疗人员专职于医疗事业,对深度学习领域涉及颇少,即使有数据也不知道如何应用到模型中去,另一方面,做深度学习的研究人员对医学领域了解甚少,不能完全把控数据集的重要特征,且两者之间的沟通机会也是非常难得,不同领域间的碰撞力度大,实践起来很困难。b)大多数深度学习方法过于理想化,且各个医院、各个科室间的数据集不存在共享的情况,很难对多个数据集进行外部验证,这导致不能应对实际临床中各类复杂的数据集,实用性大打折扣。c)模型在实际部署过程中需要考虑硬件设备差异性、模型剪枝、时间复杂度
等实际因素,可移植性较差。且硬件设备的整体性能优化还需要考虑厂家的因素,从模型本身、研究人员、医疗人员,再到厂家,在这一整套优化流程中缺一不可。因此,深度学习在临床应用中面临的困难较多。

1.4 论文结构及内容安排
本文设计了一套 CT 肾结石术前状态研究方案,其重点在于 CT 肾结石三维分割,计算结石最大直径、HU 值及体积三个重要临床参数,并对结石类型进行识别的算法实现与实际工程部署。第一章介绍了论文的研究背景与意义,以及医学图像语义分割、分类技术的国内外研究现状,同时总结了医学图像领域面临的技术难点。第二章主要研究了 CT 肾结石图像处理中的基本理论,从深度卷积神经网络,医学图像语义分割,基于放射组学的医学图像分类这三个方面来展开介绍,并给出本文的总体设计方案。第三章实现了 CT 肾结石三维分割方法以及肾结石临床参数的计算。首先介绍了华西 CT 肾结石数据集的获取标准和标注规则,给出 3D 数据预处理方案,并基于 Res U-Net 网络结构,实现了多路损失函数下的 CT 肾结石分割方法。其次,基于 Dice 分数指标对各路输出模型进行测评,探讨了模型分割性能与多路输出之间的关系,分析了导致模型性能较差的原因,并从平衡速度与精度的角度对目前常用的医学分割网络进行测评。最后,计算了肾结石的体积、最长径、HU 值这三个重要临床参数,为泌尿外科医生提供更全面的术前参考信息。第四章实现了基于放射组学的 CT 肾结石分类方法。首先,从放射组学角度出发,介绍了其中的自定义特征提取、特征筛选、分类器这三个重要过程,给出了分类器训练过程和测评指标。其次,对 7 种常见的分类器进行性能分析,并引入 TPOT(Tree-based Pipeline Optimization Tool, TPOT)[48]工具和 NNI(Neural NetworkIntelligence, NNI)[49]工具来提高结石类型识别精度。
 
第一章 绪论
第五章介绍了 Philips ISD(IntelliSpace Discovery, ISD)[50]人工智能平台,对ISD 平台的功能以及插件运行机制进行了说明,并完成了 CT 肾结石术前状态研究方案在 ISD 人工智能平台上的部署开发。第六章作为论文的结束语,全面总结了本文的研究工作和贡献,指出研究工作
的不足之处,并指明了下一步的研究方向。
 
电子科技大学硕士学位论文
第二章 基于深度学习的医学图像分析理论基础人们通常根据过去的经验不断的学习和更新知识,而在机器学习中经验通常以数据的形式存在,机器学习一直在研究如何通过计算的手段,利用经验来改善系统自身性能[39]。在机器学习这门学科中,神经网络算法应用广泛,许多的著名的算法、网络均在此基础上加以改动。其中,深度学习是机器学习的应用之一,根据各种抽象特征来模仿人脑做出判断,能对语音、图像等复杂的事物进行处理,实现端到端的学习。本章将围绕论文基本理论和工作基础展开介绍,针对深度卷积神经网络、医学图像语义分割、基于放射组学特征的医学图像分类来做相关理论介绍,同时给出本文的总体设计方案。

2.1 深度卷积神经网络
神经网络是一个多学科交叉的领域,借鉴于大脑皮层中神经元信号的传送方式,神经网络可看作是由具有适应性的简单神经元组成广泛并行互连的网络[39]。卷积神经网络的名字来源于卷积运算,得益于卷积操作,卷积神经网络无需考虑图像特征间的差异,可以通过自主学习得到图像中的特征信息,被广泛应用于计算机视觉领域。本节将从最基础的神经元模型出发,引出多层感知机的概念,介绍卷积神经网络的基本组成结构以及常用的网络训练优化方法。

2.1.1 神经元与多层感知机
神经网络中最基本的成分是神经元模型,该模型由输入数据、激活函数和输出结果构成。首先,与生物神经系统的细胞工作原理类似,当该神经元被触及,它将接收与它相连的 n 个其他神经元的输入信号,信号通过带权值的连接进行传递,在该神经元末梢处进行加权和,之后与网络的偏置项进行对比,再通过激活函数的映射就可得到输出结果。简而言之,神经元的工作就是一个加权和信号映射的过程,其中,神经元模型如图 2-1 所示。图 2-1 中,x x 表示神经元的输入信号,1, 2 w w 表示其他神经元信号1, 2传送通道上的连接权值大小,而函数 ( )f x 表示该神经元模型中的激活函数,b 表
w,b示网络的偏置项。由此,神经元模型的数学表达式如(2-1)所示:
 
第二章 基于深度学习的医学图像分析理论基础
图 2-1 神经元模型
如图 2-1 所示,神经元其实就是一个简单的单层神经网络,当多个层面上的神经元按照一定连接规则组成后就成为了人们熟知的神经网络,而这些新增的多个层结构就被称作多层感知机,也可称作隐藏层,与神经元模型工作原理类似,隐藏层的神经元与前一层中所有神经元相连,这些层之间往往采用带权值的连接来进行传递工作。其中,多层感知机网络结构见图 2-2。如图 2-2 所示, h1,h2 ,h3,h4 这四个神经元所在的层面就是一个隐藏层,随着隐藏层的数量、隐藏层的神经元的数量越来越多,一个深层的神经网络就诞生了,这便是最典型的深度学习网络[39]。虽然多层网络的学习能力比单层神经网络强得多,但此时网络中的连接权参数量、激活函数的嵌套层数等网络参数量也是非常庞大的。在实际应用中,常常使用权共享的方式来减少网络参数训练量,不仅能节省训练开销,更有效地减少了网络过拟合现象的发生。
 
电子科技大学硕士学位论文
2.1.2 卷积神经网络
随着大数据时代的来临,传统神经网络已经不能满足任务需求,于是卷积神经网络开始走入大众视野,它和传统神经网络类似,都有分层的概念。一般情况下,卷积神经网络由卷积层、激励层、池化层、全连接层构成。与传统神经网络工作理类似,卷积神经网络也是在端到端的训练过程学习如何表示数据,而且在数据拟合的过程中能不断的改进自身状态,从而获得更佳的数据表示,这样的特性使得卷积神经网络在图像领域应用广泛。下面将围绕这四层结构展开介绍。
(1)卷积层
卷积层的名字来源于卷积运算,不同尺寸的卷积核可提取不同的图像特征。在数字图像处理中,卷积核看作是滤波器,卷积运算与滤波操作相对应。与之对应的还有相关运算,相关运算可看作是窗口滑动求和运算,而卷积运算可看作是函数冲激函数的卷积,同等滤波器下,相关结果在原始数据上旋转了180 。因此,卷积运算常常先将滤波器水平翻转,再进行滑动求和运算。为了方便运算,卷积层中常常使用相关运算。如图 2-3 所示,图中表示一个66 二维数组和一个33 大小的卷积核进行相关运算的计算过程。卷积核按照从左到右,从上到下的滑动规则,依次与输入数组进行按位相乘求和。例如深蓝色框在图 2-3 中可发现实际输入的图像矩阵大小其实是 44 ,在二维矩阵的两侧都填充了 0 值元素,且在该图中卷积核每次滑动的步长设置为 1,这样做保证了通过卷积层后输出的图像矩阵大小和输入的图像矩阵大小相等。在实际应用中,填充的行列数和步长往往会根据实际情况来设置不同的数值,而且通过改变这两者的值就可以达到改变输出数组大小的效果,这也解释了为什么有的网络通过卷积层后的特征图越来越小。
 
第二章 基于深度学习的医学图像分析理论基础
图 2-3 中是单通道时的二维卷积运算,如果输入矩阵是多个通道,为保证每个通道上的数据特征都能被提取,卷积核的通道数等于输入数据的通道数。与单通道时的卷积运算类似,将每个通道上的数据与该通道上的卷积核做卷积运算,然后再对这多个通道的输出结果进行合并处理,具体运算过程如图 2-4 所示。卷积核 特征映射图
图 2-4 多通道二维卷积运算如图 2-4 所示,每个通道后都跟着一个卷积核,该卷积核只负责该通道上的特征提取,因此,输入层通道数等于卷积核通道数,卷积核个数等于输出通道数。在实际应用中,得到多个特征映射图后并不会直接将其作为网络的输出结果,往往还需要将这些特征映射图按照一定规则进行组合后再进行卷积或者池化等操作。在处理语音、图像等较为复杂的数据对象时,常常使用多通道卷积来对其进行处理,特别是面对 3D 图像格式,仅靠单一通道的卷积核对其处理提出的特征往往是不全面的,需要从多个角度来获取图像特征,而多个角度正应对多个卷积核。最后,在
卷积运算后,往往还需要加上偏置项来作为网络的输出,这一点也符合传统神经网络的结构特点。
(2)激活层
在卷积层后,往往需要连接一个激活函数来加速网络的收敛。常见的激活函数有 ReLU 函数、PReLU 函数、Sigmoid 函数等,因为本文研究的网络中采用了 PReLU函数,因此这里本小节只详细讲解常用的两种激活函数,即 ReLU 函数和 PReLU函数。其中 PReLU 函数表示带参数的 ReLU 函数,ReLU 函数定义见表达式(2-2)。
 
电子科技大学硕士学位论文
两者的函数图像可如图2-5所示,图2-5(a)中ReLU函数的作用是只留下正数,将负数变成 0,减少了参数间的依赖关系,其导数为 1,保证梯度进行正常的反向传播。图 2-5(b)中 PReLU 函数在负轴上斜率 避免了 ReLU 梯度消失的问题,其中, 默认值为 0.25。(a) (b)图 2-5 激活函数。(a) ReLU 函数;(b) PReLU 函数
(3)池化层
在多次卷积运算后,不仅网络参数量会快速增长,其特征的冗余度也提高了,这是因为平时处理的图像、语音数据中相邻像素差距小,通过卷积层后相似值数量较多,网络中存在大量的冗余信息,而池化层可以对卷积结果进行降维处理,从而滤除冗余信息。目前,平均池化和最大池化操作是最常见特征降维方式,使用平均池化时,是在池化窗口中求数组均值,而最大池化是求池化窗口中数组最大值,如图 2-6 所示。图 2-6 中的池化窗口尺寸为22 ,滑动步长设置为 2,针对蓝色窗口中的数字,选择了该窗口最大的数值 6,类似于卷积运算的左到右,从上到下窗口滑动原则,其余窗口的数据操作与其相同,依次计算得到 5,4,9。同时,滑动步长对应着降维尺度,可根据实际情况进行设置。
高校学术论文网提供专业的硕士毕业论文写作、毕业论文辅导写作、博士论文写作发表、硕士论文写作发表、SCI论文写作发表、职称论文写作发表、英文论文润色的服务网站,多年来,凭借优秀的服务和声誉赢得了社会的广泛认可和好评,为毕业生解决写论文的烦恼
【本文地址:https://www.xueshulunwenwang.com//yixuelei/fangsheyixue/2869.html

上一篇:能谱 CT 定量参数结合纹理分析鉴别甲状腺 良恶性结节及预测颈部淋巴结转移的研究

下一篇:介入诊疗中患者受照剂量研究

相关标签: