当前位置:首页 > 天道酬勤 > 正文内容

ct图像(ct内外定位线怎么用)

张世龙2021年12月21日 23:53天道酬勤1020

深度学习的兴起带动了卷积神经网络(CNN )的发展,目前一系列的CNN改进网络如雨后春笋般涌现,目前盛行的Faster R-CNN网络被广泛应用于图像检测领域。 将Faster R-CNN用于目标定位时,在定位的区域内目标边经常模糊,该目标不是理想的阶跃边,而是较弱的边[1]。 对工件来说,缺陷只占图像的很小比例,特别是气泡和浮渣,附近之间的灰度差异也不明显。 针对这种情况,实现工件的正确分割需要采用合适的算法。

由于阈值法简单,多用于图像分割领域。 其中应用最广泛的是最大熵阈值法和Otsu阈值法。

Pun首先将信息熵定义引用到图像分割区域,然后Kapur等人提出了最大香农信息熵阈值法[2] . 文献[3]采用最大熵阈值法及其改进算法进行了图像分割。

Otsu阈值法效率很高,因此被认为是最佳的阈值选择法。 如文献[4]所示采用二维直方图Otsu法; 文献[5]提出了三维直方图重构的Otsu阈值法。

近年来,在图像分割领域中,数学形态学等边缘检测法被广泛使用。 文献[6]中,通过数学形态学和Otsu分割算法的结合,取得了优于直接分割方法的效果。

为此,结合文献[6]的思想,提出了形态学与上述两种阈值法相结合的方法。 实验结果证明,本算法能准确分割工件抗缺陷的弱边和小目标,比直接分割法有更好的效果。

1图像分割理论综述

1.1形态学重建

图像是以数学形态学为基础发展起来的非线性图像处理方法,通过具有一定形态的结构要素“探测”图像,从而获得物体更本质的形态,便于图像的分析和识别[7]。

本文将形态学开闭重构算法用于图像滤波,其重构流程如图1所示。

1.2 Otsu阈值分割

Otsu阈值法又称最大类间差分法[8],该算法假设图像由前景和背景构成,通过统计学方法选择阈值,利用该阈值尽量分离图像的前景和背景。 将一张图像的灰度值设为1~L,将阈值t从1~L变化,将其中类别间方差最大的t*设为最佳阈值。

如果对象相对于背景很小,或者图像中有两个以上的对象,可以将其展开为多个阈值的选择,然后将图像分割为多个阈值。

1.3最大熵阈值分割

根据灰度级,用阈值t将图像分为背景和目标两类,求出背景熵和目标熵之和最大的最佳阈值的方法就是最大熵阈值分割法[8]。

假设目标熵和背景熵分别为ho(t )和HB ) t ),则熵函数定义如下。

式(1)取值最大的t*是最佳阈值。

2算法的流程和步骤

针对工件弱边和小目标缺陷在分割时容易过度分割或不足分割的现象,本文研究了精确分割的算法,具体流程如图2所示。

根据上述缺陷类型进行分布操作是因为炉渣和其他两种缺陷的灰度分布相反。 如果进行同样的操作,就不能进行正确的分割。

3实验结果与分析

3.1分割实验和结果

模拟是在MATLAB R2014a环境中编程的,分割结果如图3~图5所示。

图3是裂纹缺陷的分割图。 其中,图3(a )是定位后的裂纹图像; 图3(b )是裂纹区域提取图像; 图3(c )是形态学重建裂缝的结果。 图3(d )是对重建后的裂纹进行Otsu双阈值变换后的图像。 图3(e )是最终的分割结果,即图3(f )是图3 ) e )的边界提取结果。 图3(g )是裂纹区域的列的灰度变化的图表,反映了相邻的2列灰度的不同。 由该图可知,列的灰度曲线平缓,裂纹与周围背景无明显的灰度差。 由图3(e )和图3 ) f )可知,本算法对灰度过渡不明显的裂纹实现了良好的分割。

图4是气泡缺陷的分割图。 由图4(e )和图4 ) f )可以看出,本算法正确分割了微弱的气泡。

图5是间隙缺陷的分割图。 由图5(b )可知,提取出的标量区域1和2中包含细长的黑色背景区域的一部分; 同时在炉渣2的右侧存在过渡区域。 从图5(e )和图5 ) f )可以看出,利用本论文的分割算法实现了炉渣1和2的良好分割。

上述结果和分析表明,本算法具有优良的泛化能力,不仅准确分割了具有明显灰度对比度的气泡缺陷,而且对灰度对比度差异不明显的裂纹缺陷和过渡区域的标量缺陷也实现了良好的分割。

3.2比较实验

为了进一步验证本文讨论的算法对缺陷分割的正确性,这里设计了比较实验。 比较实验采用最大熵阈值分割法和

Otsu双阈值分割法。

3.2.1 分割结果的定性分析

将对比实验的结果与本文实验的结果进行比较和分析,如图6~图8所示。

对图6裂纹分割对比图进行分析,从图6(a)可以看出,对于灰度对比差异不明显的裂纹,最大熵阈值法和Otsu阈值法的分割结果均出现了严重的误分割现象,如图6(b)和图6(d)所示。而采用本文的算法能实现裂纹的精确分割,如图6(f)所示;同时,图6(g)表明,提取的边界与裂纹具有很高的吻合度。

对图7气泡分割对比图进行分析,为清晰地观察气泡的轮廓,对图7(a)进行预处理,即得到图4(b),把它与图7(b)、图7(c)、图7(d)和图7(e)进行对比,表明最大熵阈值法和Otsu阈值法不能分割出气泡灰度极弱的边缘;而与图7(f)和图7(g)对比,可以看出本文算法很好地分割出了气泡的弱边缘,实现了精确的分割。

对图8夹渣分割对比图进行分析,图8(b)、图8(c)、图8(d)和图8(e)表明,最大熵阈值法和Otsu阈值分割法对夹渣1和2均产生了误分割现象,即将一部分与夹渣灰度相近的背景分割出来了;同时,对于夹渣2还存在过分割现象。而图8(f)和图8(g)表明了本文分割算法的正确性。

3.2.2 分割结果的定量分析

为了说明算法具有客观性和准确性,本文引入了分割精度、均方根误差和相关性系数三项指标[9]对上面3种算法的结果分别进行量化评价。

分割精度的计算按照如下公式:

其中,SA表示分割精度,RS为手动勾画出的分割图像的参考面积,TS为分割结果的真实面积,|RS-TS|为错分割的像素点个数。

分割精度的值越大,分割结果越好;均方根误差(Root Mean Square Error,RMSE)的值越小,分割结果越接近于理想状态;相关性系数γ的值越大,分割结果与参考图像的相似度越高。

上述3种实验结果的评价见表1。由表1可知,对于灰度对比差异不明显的裂纹缺陷,最大熵阈值法和Otsu阈值法的分割结果都不是很好,尤其是Otsu阈值法的效果极差,而本文算法实现的结果较优;对于有明显灰度差异的气泡,本文算法较另外两种算法能很好地分割出边缘细节;对于含有过渡区域的夹渣缺陷,最大熵阈值法和Otsu阈值法的分割效果很接近,它们均不能很好地分割出目标,而本文算法具有较大的分割精度、较小的均方根误差和较高的相关性系数,因此实现了较好的分割效果。

3.3 缺陷的测量

缺陷分割的目的是对缺陷进行分析和测量,因此,深入地了解缺陷的形状、大小及空间位置是非常重要的。本文选取了面积、周长、面积无辜的信封、长宽比(即最小外接矩形的长宽比)和缺陷面积与定位区域的比5个指标来测量缺陷,其中,面积和周长均用像素点的个数来计算,具体统计结果见表2。

由表2中缺陷面积与定位区域的比值可知,本文研究的工件缺陷都以小目标的形式存在,再结合表1中本文算法对应的各类缺陷评价指标的值,验证了本文算法对小目标缺陷分割的有效性。

4 结束语

本文在Faster R-CNN定位的基础上,针对大部分的工业工件存在缺陷,且许多以弱边缘或小面积的形式存在的现状,利用形态学重建、最大熵阈值法和Otsu双阈值分割法,提出了一种可实现工业CT图像缺陷精确分割的算法。该算法不存在误分割或过分割现象;同时,用对比实验从定性和定量的角度,分别验证了本文算法的优越性。本文算法具有较好的应用价值。

参考文献

[1] jddc,梅卫,轻松的鸡.基于改进Faster R-CNN的空中目标检测[J].光学学报,2018,38(6):0615004.

[2] 哭泣的牛排,wxdtd,心灵美的朋友.分形维-最大熵阈值的弱边缘工业CT图像分割算法[J].兰州交通大学学报,2018,37(1):45-50.

[3] 激昂的哑铃,ttdyt.基于Sobel算子的图像快速二维最大熵阈值分割算法[J].计算机科学,2015,42(6):209-210.

[4] 矮小的店员,淡定的奇异果,乐观的盼望,等.基于二维直方图重建的Otsu图像分割算法[J].计算机科学,2013,40(8):313-315.

[5] cqdfd,凶狠的老虎,dwbl,等.三维直方图重建和降维的Otsu阈值分割算法[J].电子学报,2011,39(5):1108-1114.

[6] ssdxl,czdxss,和思海,等.基于最大类间方差法与数学形态学的遥感图像潮沟提取方法[J].上海海洋大学学报,2017,26(1):146-153.

[7] 悲凉的耳机,czdpj.二值图像膨胀腐蚀的快速算法[J].计算机工程与应用,2017,53(5):207-209.

[8] 成就的店员.数字图像处理[M].北京:电子工业出版社,2014.

[9] 周莉莉,姜枫.图像分割方法综述研究[J].计算机应用研究,2017,34(7):1921-1928.

作者信息:

qcdsg1,哭泣的牛排1,wxdtd1,2

(1.兰州交通大学 自动化与电气工程学院,甘肃 兰州730070;

2.兰州交通大学 光电技术与智能控制教育部重点实验室,甘肃 兰州730070)

扫描二维码推送至手机访问。

版权声明:本文由花开半夏のブログ发布,如需转载请注明出处。

本文链接:https://www.zhangshilong.cn/work/26666.html

分享给朋友:

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。