CN116524477A - 一种识别检测盒检测结果的方法及系统 - Google Patents

一种识别检测盒检测结果的方法及系统 Download PDF

Info

Publication number
CN116524477A
CN116524477A CN202310373622.8A CN202310373622A CN116524477A CN 116524477 A CN116524477 A CN 116524477A CN 202310373622 A CN202310373622 A CN 202310373622A CN 116524477 A CN116524477 A CN 116524477A
Authority
CN
China
Prior art keywords
value
detection
confidence
line
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310373622.8A
Other languages
English (en)
Inventor
李耀高
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Aeonmed Co Ltd
Original Assignee
Beijing Aeonmed Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Aeonmed Co Ltd filed Critical Beijing Aeonmed Co Ltd
Priority to CN202310373622.8A priority Critical patent/CN116524477A/zh
Publication of CN116524477A publication Critical patent/CN116524477A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种识别检测盒检测结果的方法及系统,所述方法包括:对试剂盒图片使用目标检测方法,检测出基准线和检测线所在的区域,以及该区域每种检测类型的置信度,取置信度最大的类型作为该试剂盒的检测类型;根据检测类型的置信度计算试剂盒图片中的基准线和检测线的具体值;所述目标检测方法为BP神经网络或卷积神经网络。本发明的优势在于:本发明不需要背景卡的配合即可进行检测;本发明使用检测置信度来计算现有基准线与检测线的颜色值,这样在经验值与检测值中间通过一个合理的计算参数得出的颜色值,使基准线与检测线的值更加准确客观,对于检测结果有极强的参考意义。

Description

一种识别检测盒检测结果的方法及系统
技术领域
本发明属于图像检测技术领域,具体涉及一种识别检测盒检测结果的方法及系统。
背景技术
试剂盒为现在市场上的检测试剂的主要载体,例如新冠抗原检测试剂盒、验孕棒等试剂盒,而试剂条被固定在试剂盒内,为检测提供唯一的检测结果标识。
heyer公司的COVID-19Neutralizing Ab Test产品,是一款新冠病毒抗原检测的试剂盒,与市面上的其他产品不同的是,本款产品通过手机APP与云端进行连接交互,从而管理使用者的抗原检测结果。
试剂盒上有两条线,分别是C线与T线,其中在检测结果中如果C线显示红色代表此试剂条可以正常使用,不显示颜色则表示此试剂条不可以正常使用;T线颜色的深浅代表检测结果的多样性,比如说弱阳、中等、强阳等类型。但是在实际的检测结果测试过程中,C线的颜色的值只是代表试剂条是否正常使用,现阶段无特殊具体的意义,但是T线的颜色的值,代表的是弱阳、中等、强阳具体类型的量化,COVID-19病毒有很多种,例如德尔塔病毒、奥密克戎病毒等,单纯这两种病毒来说它们的毒性并不相同,德尔塔病毒毒性强,奥密克戎病毒毒性弱,具体数值的意义为毒性强的病毒的弱阳、中等、强阳等类型的阈值与毒性弱的阈值高,比如说德尔塔病毒的量化数值弱阳(0<x<59)、中等(60<x<149)、强阳(150<x<249),而奥密克戎病毒的量化数值弱阳(0<x<39)、中等(40<x<119)、强阳(120<x<249),两种不同的病毒在试剂条上同一种颜色代表的感染程度不同,尤其是在类型的阈值附近很容易产生误判。
heyer公司的技术方案是首先必须有一张背景卡,背景卡中有左上、右上、左下、右下四个定位二维码,通过这四个二维码做位置标定,中间的黑框中有检测盒的标准样例图片,生产出的检测盒大小与黑框一致,只有将检测盒与黑框位置吻合,才可以进行下一步的检测;
具体方法如下:
(1)将待识别的试剂条放置在四只角有定位二维码的背景卡中,将试剂条的位置与背景卡的检测盒标准样例图相对应;
(2)使用手机拍摄待识别的试剂条为图片,并将图片加载到内存中;
(3)根据预设在程序中的位置坐标,对图片中的二维码、待识别C、T值区域进行切割;
(4)计算出二维码的字符串值;
(5)根据传统的计算机视觉计算颜色值的方法(图像特征颜色矩计算),粗略计算出C、T值。
现有的识别技术依赖于检测试剂盒上的C线与T线的位置,相当于不可以兼容众多试剂条厂商的识别结果,因为每个厂商的试剂盒刻模有差异,C线与T线的位置有差异,所以对于其他厂商的试剂条识别不出结果。
现有的识别技术使用传统的计算机视觉方法,机械化的去识别C线与T线的位置,然后根据固定的方法去计算C线与T线的颜色值,这种方法会受检测环境光照、拍摄手机等外界因素的强烈影响,可能会造成结果与现实结果有较大的误差。
现有技术中很明显存在不能很好兼容检测众多厂商不同尺寸的试剂条的缺陷,即满足了试剂条A的检测,却不兼容试剂条B、C的检测,如果兼容的更多,需要在程序中预设更多的待切割坐标,这样对程序的鲁棒性,兼容性都有很大的困难与挑战,提高了公司的运营成本。除此之外,现有技术也只是使用传统的计算机视觉计算颜色值的方法,粗略的计算了C、T的颜色值,对于一些边界值计算的并不是很准确,这样对于用户来说,可能会在程序层面出现错误计算从而造成COVID-19检测误判的情况,对公司的权威性造成一定的负面影响。
发明内容
本发明的目的在于克服现有技术只能识别一种规格的试剂盒,且必须依靠背景卡进行识别,识别出的结果不精确的缺陷。
为了实现上述目的,本发明提出了一种识别检测盒检测结果的方法,所述方法包括:
对试剂盒图片使用目标检测方法,检测出基准线和检测线所在的区域,以及该区域每种检测类型的置信度,取置信度最大的类型作为该试剂盒的检测类型;
根据检测类型的置信度计算试剂盒图片中的基准线和检测线的具体值;
所述目标检测方法为BP神经网络或卷积神经网络。
作为上述方法的一种改进,所述目标检测方法包括采样层和全连接层,具体步骤包括:
步骤B1:获得与预设输入图片大小相同的特征图;
步骤B2:采样层提取特征图中的待识别特征;
步骤B3:获得若干个预测框用于待检测目标的选择;
步骤B4:全连接层计算并提取预测框中的目标物信息;
步骤B5:计算得到预测的目标物框、目标物坐标与每种检测类型的置信度。
作为上述方法的一种改进,获得预测框的方法包括:
将图片分割为若干个N*N的网格,对其中的每个网格都预测M个位于该网格附近的矩形框,即预测框。
作为上述方法的一种改进,预测M个位于网格附近的矩形框具体为:
如果目标物在网格的左上角,则预测框取左边和上方的两个网格;
如果目标物在网格的右上角,则预测框取右边和上方的两个网格;
如果目标物在网格的左下角,则预测框取左边和下方的两个网格;
如果目标物在网格的右下角,则预测框取右边和下方的两个网格。
作为上述方法的一种改进,计算置信度公式如下:
其中,Convalue表示计算的置信度的值;numm表示检测目标周围的预测框的数量;α表示显著性水平;
loss(z,x,y)表示置信度损失值,计算公式如下:
loss(z,x,y)=-L(z,x,y)*logP(z,x,y)-(1-L(z,x,y))*log(1-P(z,x,y))
式中:0≤z≤3;0≤x≤Width;0≤y≤Height
其中,z表示图片的通道数;x表示预测框中心点的横坐标;y表示预测框中心点的纵坐标;Width表示图片对应的宽的值;Height表示图片对应的高的值;
L(z,x,y)表示置信度标签所对应的矩阵,即每个预测框中初始化置信度矩阵;矩阵中包含有每个预测框的通道号、横坐标、纵坐标初始化的置信度组成,此矩阵为一个一维矩阵;
P(z,x,y)表示需要预测的置信度矩阵;即通过神经网络计算的每个预测框中参考置信度矩阵,矩阵中包含有每个预测框的通道号、横坐标、纵坐标与预测到的参考置信度组成,此矩阵为一个一维矩阵。
作为上述方法的一种改进,α值优先为0.1。
作为上述方法的一种改进,基准线和检测线的值计算方法为:
Cvalue=Valuestart+Convalue*Valuerandom
Tvalue=Valuestart+abs(atan(100*Convalue-50)*2/π)*(Valueend-Valuestart)
其中,Cvalue表示基准线计算值;Tvalue表示检测线计算值;Valuestart表示在检测实践中的经验起始值;Valueend表示在检测实践中的经验终止值;Convalue表示通过计算得到的类别置信度值;atan()表示atan归一化处理;abs()表示取绝对值;Valuerandom表示随机值,计算公式如下:
Valuerandom=Valuelow+rand()%(Valuehigh-Valuelow+1)
其中,rand()表示生成随机数的函数;Valuelow表示生成随机数范围的最小值;Valuehigh表示生成随机数范围的最大值。
本申请还提供一种识别检测盒检测结果系统,基于上述方法实现,所述系统包括:
目标检测模块,用于对试剂盒图片使用目标检测方法,检测出基准线和检测线所在的区域,以及该区域每种检测类型的置信度,取置信度最大的类型作为该试剂盒的检测类型;和
计算基准线和检测线模块,用于根据检测类型的置信度计算试剂盒图片中的基准线和检测线的具体值。
与现有技术相比,本发明的优势在于:
1、本发明不需要背景卡的配合即可进行检测,使用目标检测的方法识别出待识别区域,包括待识别的二维码、C线与T线的检测框,然后将这些识别框切割下来。这种识别方法不会依赖于厂商检测盒的刻模位置,可以识别出检测盒中任意位置的C线与T线;
2、本发明使用检测置信度来计算现有C线与T线的颜色值,这样在经验值与检测值中间通过一个合理的计算参数得出的颜色值,使C线与T线的值更加准确客观,对于检测结果有极强的参考意义;
3、本发明使用人工智能,目标检测与分类的方法获得待要识别的C线与T线的目标位置,使识别结果更加客观准确。
附图说明
图1所示为识别检测盒检测结果的方法流程图;
图2所示为目标检测方法示意图;
图3所示为目标检测方法流程图;
图4所示为目标检测方法中预测框置信度计算示例图;
图5所示为目标检测方法中目标点在网格的左上角时取预测框示意图;
图6所示为目标检测方法中目标点在网格的右上角时取预测框示意图;
图7所示为目标检测方法中目标点在网格的左下角时取预测框示意图;
图8所示为目标检测方法中目标点在网格的右下角时取预测框示意图。
具体实施方式
下面结合附图对本发明的技术方案进行详细的说明。
本申请的实施例1:
如图1所示,本申请一种识别检测盒检测结果的方法的流程包括:
步骤1:肉眼观察待检测试剂盒的完整性,在本申请中,不需要刻意将待检测的试剂盒放置在背景卡或者与背景卡相匹配的黑色框中,可以随意放置待检测试剂盒的位置,在此过程中,只需要保持试剂盒的完整性即可;
步骤2:使用手机或相机拍摄待检测的试剂盒,再此过程中需要尽量保证试剂盒的位置为正方向,允许试剂盒有一定的倾角(<10°),但是尽量避免大的倾角比如45°、50°等;
步骤3:将图片与程序加载到计算机内存中,等待检测;
步骤4:对图片进行目标检测,检测出待识别计算的基准线和检测线所在的区域,以及每种检测类型的置信度,得到基准线和检测线的检测类型;
以COVID-19试剂盒为例,基准线为C线,检测线为T线。检测出C、T值所在的区域,与此同时判断C、T值所在的区域框属于那种检测类型,现行设置的检测类型一共有cptpvl(None or Very Low阴性)、cptpl(Low弱阳)、cptp(Medium中阳)、cptph(High强阳)、cptpvh(Very High特强阳)、cntp(C Error基准线错误)、cntn(C And T Error基准线和检测线错误)7种类型,并得到此7种检测类型的置信度。
在数学领域,置信度是以测量值为中心,在一定范围内真值出现在该范围内的几率。如图2所示,在本发明中,置信度的定义为目标检测框中出现的识别类型的可信度(取值范围为0-100%),例如某次检测结果为cptn类型,并且有76%的可能为cptn类型,76%为检测程序检测出的最大类型。
目标检测是人工智能领域的一个很重要的分支,目标检测的主要任务为关注并检测出特定的物体目标,同时给出这一目标的类别信息和位置信息,在检测过程中并不需要给出具体的目标位置。
如图3所示,本申请中目标检测的具体流程为:
步骤A1:输入待检测的图片;
步骤A2:获得与预设输入图片大小相同的特征图;
图像的像素值经过过滤器(也叫卷积核)计算后的产物即为图像特征图,也就是说,在神经网络的卷积层上,图像经过卷积核后生成的内容,这一操作也就是所谓的卷积操作。本申请中获取特征图的方法为SIFT算子特征提取法。
步骤A3:使用神经网络中的采样层提取上述特征图中的待识别特征(此特征通过训练得到,此处不赘述训练过程);
步骤A4:通过神经网络获得若干个锚定目标的边界框用于待检测目标的选择;
步骤A5:通过神经网络中的全连接层计算并提取锚定框中的目标物信息;
步骤A6:通过神经网络推理,得到预测的目标物框、目标类型与目标物坐标;
步骤A7:计算得到目标物每种检测类型的置信度;
步骤A8:根据置信度大小,排序待识别的预测目标,得出最可能的识别目标。
上述步骤中的神经网络可以为BP神经网络或卷积神经网络等。
在目标检测过程中,对于一张目标图片,可将图片分割为若干个80*80的网格,检测过程会对其中的每个格子都预测三个位于该格子附近的矩形框(简称预测框),每个预测框的预测信息中都包含有该预测框的中心坐标、宽、高、置信度等信息,因此预测程序会输出总共3*80*80个0~100%的预测置信度,并且与3*80*80个预测框一一对应。如图4所示中,点A、B、C、D表示检测物体目标,在这种情况下每个点所在格子的三个预测置信度比较大或者接近1,而其他格子的预测置信度会很小甚至接近于0。
为了加快训练和检测的速度,定义80*80目标框格子的坐标为(xg,yg),如图4所示中的A、B、C、D四个随机点的坐标为(x0,y0),此时需要在点所在的网格(xg,yg)的左右、上下再各取一个邻近的网格:(x1,y0)和(x0,y1),从而计算出一个不是在格子中央的新的点作为预测目标,用来防止训练与检测是发生的过拟合现象。具体的取法为:
如图5所示,如果点(x0,y0)在格子的左上角,则取左边、上方的两个格子;
如图6所示,如果点(x0,y0)在格子的右上角,则取右边、上方的两个格子;
如图7所示,如果点(x0,y0)在格子的左下角,则取左边、下方的两个格子;
如图8所示,如果点(x0,y0)在格子的右下角,则取右边、下方的两个格子;
根据上述点的定义规则,可得到x1和y1的计算公式如下:
x1=x0+(2*round(xg-x0)-1)
y1=y0+(2*round(yg-y0)-1)
其中,round()为四舍五入运算。
计算置信度的神经网络使用的损失函数如下:
loss(z,x,y)=-L(z,x,y)*logP(z,x,y)-(1-L(z,x,y))*log(1-P(z,x,y))
式中:0≤z≤3;0≤x≤Width;0≤y≤Height
其中,z表示一张图片有三个通道;x表示预测框中心点的横坐标;y表示预测框中心点的纵坐标;
loss(z,x,y)表示需要计算的置信度损失值;
L(z,x,y)表示置信度标签所对应的矩阵,即每个(3*80*80个)预测框中初始化置信度矩阵;矩阵中包含有每个预测框的通道号、横坐标、纵坐标初始化的置信度组成,此矩阵为一个一维矩阵。由于神经网络的计算特性,需要一个初始值,故需将此置信度初始化置为1。
P(z,x,y)表示需要预测的置信度矩阵;即通过神经网络计算的每个(3*80*80个)预测框中参考置信度矩阵,矩阵中包含有每个预测框的通道号、横坐标、纵坐标与预测到的参考置信度组成,此矩阵为一个一维矩阵。
Width表示图片对应的宽的值;Height表示图片对应的高的值。
计算置信度的公式如下:
其中,Convalue表示需要计算的置信度的值;
numm表示检测目标周围的预测框的数量;
loss(z,x,y)表示置信度损失值,需要计算所有检测目标周围的预测框的损失值;对于置信度的损失值,通过置信度的损失函数计算,损失函数主要用于衡量模型所作出的预测值与真实值之间的偏离程度,损失值就为这个偏离程度的具体量化。通过损失函数计算公式,可以计算出图像中所有点所在的预测框的置信度损失值,就是预测置信度与真实置信度的偏差值;
α表示显著性水平,在此项目中取0.1;显著性水平是估计总体参数落在某一区间内,可能犯错误的概率,对于本目标检测任务,取经验显著性水平值为0.1。
根据置信度的概念,可由此公式先计算出具有潜在物体目标的置信度目标的平均值与显著性水平的乘积,为最终计算的置信度的具体值,用来量化检测的物体目标的准确性。
步骤5:根据计算出的类别置信度,取到最大置信度的类别,再在此基础上计算图片中的基准线和检测线具体的最终值;
基准线计算值:
计算原理:对于待要生成的基准线值,由于基准线值为校验试剂条是否正常的值,所以在实际检测中如果检测到试剂条的基准线为正常的,此时可以通过一个临床上的经验值作为起始值,再加上通过计算出的类别置信度与随机值的积,即为计算出的基准线计算值作为参考;
基准线值计算公式:
Cvalue=Valuestart+Convalue*Valuerandom
其中,Cvalue表示通过计算得到的基准线计算值;Valuestart表示在检测的临床实践中的经验起始值;Convalue表示检测过程中通过计算得到的类别置信度值;
Valuerandom表示随机值,为了计算一个处在Valuelow~Valuehigh范围内的随机值,需要生成一个随机值,再取此随机值与范围步长的余数,再加上范围内的最低值,这样可以保证此随机值100%处在此范围内;计算公式如下:
Valuerandom=Valuelow+rand()%(Valuehigh-Valuelow+1)
其中,rand()表示生成随机数的函数;Valuelow表示生成随机数范围的最小值;Valuehigh表示生成随机数范围的最大值。
检测线计算值:
计算原理:通过计算类别置信度的归一化值的绝对值,再乘以经验起始值的差,得到的值最后与经验起始值相加,可以得到一个位于经验起始值与终止值之间的一个检测线参考计算值,计算公式如下:
Tvalue=Valuestart+abs(atan(100*Convalue-50)*2/π)*(Valueend-Valuestart)
其中,Tvalue表示通过计算得到的检测线计算值;abs()表示对计算的置信度的值取其绝对值;atan()表示对置信度的值进行atan归一化,提高结果的可信度与准确度;Convalue表示检测过程中通过计算得到的类别置信度值;Valuestart表示在检测的临床实践中的经验起始值;Valueend表示在检测的临床实践中的经验终止值。
本申请的实施例2:
本申请还提供一种识别检测盒检测结果系统,基于上述方法实现,所述系统包括:
目标检测模块,用于对试剂盒图片使用目标检测方法,检测出基准线和检测线所在的区域,以及该区域每种检测类型的置信度,取置信度最大的类型作为该试剂盒的检测类型;和
计算基准线和检测线模块,用于根据检测类型的置信度计算试剂盒图片中的基准线和检测线的具体值。
本发明还可提供一种计算机设备,包括:至少一个处理器、存储器、至少一个网络接口和用户接口。该设备中的各个组件通过总线系统耦合在一起。可理解,总线系统用于实现这些组件之间的连接通信。总线系统除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。
其中,用户接口可以包括显示器、键盘或者点击设备。例如,鼠标,轨迹球(trackball)、触感板或者触摸屏等。
可以理解,本申请公开实施例中的存储器可以是易失性存储器或非易失性存储器,或可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(Read-Only Memory,ROM)、可编程只读存储器(Programmable ROM,PROM)、可擦除可编程只读存储器(Erasable PROM,EPROM)、电可擦除可编程只读存储器(Electrically EPROM,EEPROM)或闪存。易失性存储器可以是随机存取存储器(Random Access Memory,RAM),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(Static RAM,SRAM)、动态随机存取存储器(Dynamic RAM,DRAM)、同步动态随机存取存储器(Synchronous DRAM,SDRAM)、双倍数据速率同步动态随机存取存储器(Double DataRate SDRAM,DDRSDRAM)、增强型同步动态随机存取存储器(Enhanced SDRAM,ESDRAM)、同步连接动态随机存取存储器(Synchlink DRAM,SLDRAM)和直接内存总线随机存取存储器(Direct Rambus RAM,DRRAM)。本文描述的存储器旨在包括但不限于这些和任意其它适合类型的存储器。
在一些实施方式中,存储器存储了如下的元素,可执行模块或者数据结构,或者他们的子集,或者他们的扩展集:操作系统和应用程序。
其中,操作系统,包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序,包含各种应用程序,例如媒体播放器(Media Player)、浏览器(Browser)等,用于实现各种应用业务。实现本公开实施例方法的程序可以包含在应用程序中。
在本上述的实施例中,还可通过调用存储器存储的程序或指令,具体的,可以是应用程序中存储的程序或指令,处理器用于:
执行上述方法的步骤。
上述方法可以应用于处理器中,或者由处理器实现。处理器可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器可以是通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific IntegratedCircuit,ASIC)、现场可编程门阵列(Field Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行上述公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合上述公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。
可以理解的是,本发明描述的这些实施例可以用硬件、软件、固件、中间件、微码或其组合来实现。对于硬件实现,处理单元可以实现在一个或多个专用集成电路(Application Specific Integrated Circuits,ASIC)、数字信号处理器(Digital SignalProcessing,DSP)、数字信号处理设备(DSP Device,DSPD)、可编程逻辑设备(ProgrammableLogic Device,PLD)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)、通用处理器、控制器、微控制器、微处理器、用于执行本申请所述功能的其它电子单元或其组合中。
对于软件实现,可通过执行本发明的功能模块(例如过程、函数等)来实现本发明技术。软件代码可存储在存储器中并通过处理器执行。存储器可以在处理器中或在处理器外部实现。
本发明还可提供一种非易失性存储介质,用于存储计算机程序。当该计算机程序被处理器执行时可以实现上述方法实施例中的各个步骤。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (8)

1.一种识别检测盒检测结果的方法,所述方法包括:
对试剂盒图片使用目标检测方法,检测出基准线和检测线所在的区域,以及该区域每种检测类型的置信度,取置信度最大的类型作为该试剂盒的检测类型;
根据检测类型的置信度计算试剂盒图片中的基准线和检测线的具体值;
所述目标检测方法为BP神经网络或卷积神经网络。
2.根据权利要求1所述的识别检测盒检测结果的方法,其特征在于,所述目标检测方法包括采样层和全连接层,具体步骤包括:
步骤B1:获得与预设输入图片大小相同的特征图;
步骤B2:采样层提取特征图中的待识别特征;
步骤B3:获得若干个预测框用于待检测目标的选择;
步骤B4:全连接层计算并提取预测框中的目标物信息;
步骤B5:计算得到预测的目标物框、目标物坐标与每种检测类型的置信度。
3.根据权利要求2所述的识别检测盒检测结果的方法,其特征在于,获得预测框的方法包括:
将图片分割为若干个N*N的网格,对其中的每个网格都预测M个位于该网格附近的矩形框,即预测框。
4.根据权利要求3所述的识别检测盒检测结果的方法,其特征在于,预测M个位于网格附近的矩形框具体为:
如果目标物在网格的左上角,则预测框取左边和上方的两个网格;
如果目标物在网格的右上角,则预测框取右边和上方的两个网格;
如果目标物在网格的左下角,则预测框取左边和下方的两个网格;
如果目标物在网格的右下角,则预测框取右边和下方的两个网格。
5.根据权利要求1所述的识别检测盒检测结果的方法,其特征在于,计算置信度公式如下:
其中,Convalue表示计算的置信度的值;numm表示检测目标周围的预测框的数量;α表示显著性水平;
loss(z,x,y)表示置信度损失值,计算公式如下:
loss(z,x,y)=-L(z,x,y)*logP(z,x,y)-(1-L(z,x,y))*log(1-P(z,x,y))
式中:0≤z≤3;0≤x≤Width;0≤y≤Height
其中,z表示图片的通道数;x表示预测框中心点的横坐标;y表示预测框中心点的纵坐标;Width表示图片对应的宽的值;Height表示图片对应的高的值;
L(z,x,y)表示置信度标签所对应的矩阵,即每个预测框中初始化置信度矩阵;矩阵中包含有每个预测框的通道号、横坐标、纵坐标初始化的置信度组成,此矩阵为一个一维矩阵;
P(z,x,y)表示需要预测的置信度矩阵;即通过神经网络计算的每个预测框中参考置信度矩阵,矩阵中包含有每个预测框的通道号、横坐标、纵坐标与预测到的参考置信度组成,此矩阵为一个一维矩阵。
6.根据权利要求5所述的识别检测盒检测结果的方法,其特征在于,α值优先为0.1。
7.根据权利要求1所述的识别检测盒检测结果的方法,其特征在于,基准线和检测线的值计算方法为:
Cvalue=Valuestart+Convalue*Valuerandom
其中,Cvalue表示基准线计算值;Tvalue表示检测线计算值;Valuestart表示在检测实践中的经验起始值;Valueend表示在检测实践中的经验终止值;Convalue表示通过计算得到的类别置信度值;atan()表示atan归一化处理;abs()表示取绝对值;Valuerandom表示随机值,计算公式如下:
Valuerandom=Valuelow+rand()%(Valuehigh-Valuelow+1)
其中,rand()表示生成随机数的函数;Valuelow表示生成随机数范围的最小值;Valuehigh表示生成随机数范围的最大值。
8.一种识别检测盒检测结果系统,基于权利要求1-7任一所述方法实现,其特征在于,所述系统包括:
目标检测模块,用于对试剂盒图片使用目标检测方法,检测出基准线和检测线所在的区域,以及该区域每种检测类型的置信度,取置信度最大的类型作为该试剂盒的检测类型;和
计算基准线和检测线模块,用于根据检测类型的置信度计算试剂盒图片中的基准线和检测线的具体值。
CN202310373622.8A 2023-04-10 2023-04-10 一种识别检测盒检测结果的方法及系统 Pending CN116524477A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310373622.8A CN116524477A (zh) 2023-04-10 2023-04-10 一种识别检测盒检测结果的方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310373622.8A CN116524477A (zh) 2023-04-10 2023-04-10 一种识别检测盒检测结果的方法及系统

Publications (1)

Publication Number Publication Date
CN116524477A true CN116524477A (zh) 2023-08-01

Family

ID=87405622

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310373622.8A Pending CN116524477A (zh) 2023-04-10 2023-04-10 一种识别检测盒检测结果的方法及系统

Country Status (1)

Country Link
CN (1) CN116524477A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117152745A (zh) * 2023-10-23 2023-12-01 杭州迪安医学检验中心有限公司 一种基于图像处理技术的支原体识别和录入方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117152745A (zh) * 2023-10-23 2023-12-01 杭州迪安医学检验中心有限公司 一种基于图像处理技术的支原体识别和录入方法及系统

Similar Documents

Publication Publication Date Title
CN109886928B (zh) 一种目标细胞标记方法、装置、存储介质及终端设备
CN111325716A (zh) 屏幕划痕碎裂检测方法及设备
CN108764352B (zh) 重复页面内容检测方法和装置
CN111325717B (zh) 手机缺陷位置识别方法及设备
CN111311556B (zh) 手机缺陷位置识别方法及设备
CN111429482A (zh) 目标跟踪方法、装置、计算机设备和存储介质
CN111175318A (zh) 屏幕划痕碎裂检测方法及设备
CN108734161B (zh) 冠字号区域的识别方法、装置、设备及存储介质
CN112634201A (zh) 目标检测方法、装置和电子设备
CN111310826A (zh) 样本集的标注异常检测方法、装置及电子设备
CN116524477A (zh) 一种识别检测盒检测结果的方法及系统
TW202225682A (zh) 電路板檢測方法、電子裝置及存儲介質
CN113936280A (zh) 一种嵌入式仪表码盘字符自动识别系统及方法
CN114638294A (zh) 一种数据增强方法、装置、终端设备及存储介质
CN113469167A (zh) 仪表读数识别方法、装置、设备及存储介质
CN112287905A (zh) 车辆损伤识别方法、装置、设备及存储介质
CN113034449B (zh) 目标检测模型训练方法、装置及通信设备
CN112308061B (zh) 一种车牌字符识别方法及装置
CN111292374B (zh) 一种自动插拔usb接口的方法及设备
CN110827261B (zh) 图像质量检测方法及装置、存储介质及电子设备
CN115004245A (zh) 目标检测方法、装置、电子设备和计算机存储介质
CN114220011A (zh) 货物数量识别方法、装置、电子设备和存储介质
CN113392455A (zh) 基于深度学习的户型图比例尺检测方法、装置及电子设备
CN109977937B (zh) 图像处理方法、装置及设备
CN112966671A (zh) 一种合同检测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination