CN112634246A - 一种口腔图像识别方法及相关设备 - Google Patents

一种口腔图像识别方法及相关设备 Download PDF

Info

Publication number
CN112634246A
CN112634246A CN202011586672.7A CN202011586672A CN112634246A CN 112634246 A CN112634246 A CN 112634246A CN 202011586672 A CN202011586672 A CN 202011586672A CN 112634246 A CN112634246 A CN 112634246A
Authority
CN
China
Prior art keywords
oral cavity
oral
image
module
confidence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011586672.7A
Other languages
English (en)
Other versions
CN112634246B (zh
Inventor
陈勇全
高庆
曾祥容
梁翌
黄锐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Institute of Artificial Intelligence and Robotics
Chinese University of Hong Kong CUHK
Original Assignee
Shenzhen Institute of Artificial Intelligence and Robotics
Chinese University of Hong Kong CUHK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Institute of Artificial Intelligence and Robotics, Chinese University of Hong Kong CUHK filed Critical Shenzhen Institute of Artificial Intelligence and Robotics
Priority to CN202011586672.7A priority Critical patent/CN112634246B/zh
Publication of CN112634246A publication Critical patent/CN112634246A/zh
Application granted granted Critical
Publication of CN112634246B publication Critical patent/CN112634246B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Abstract

本申请实施例公开了一种口腔图像识别方法,包括:使用神经网络模型对口腔图像进行识别,以获得口腔图像的识别结果,类别包括口腔及口腔内器官组织;判断口腔内器官组织对应的图像区域与口腔对应的图像区域之间的关系是否符合预设位置关系规则,得到判断结果;基于所述判断结果调整所述多个类别对应的置信度;基于所述多个类别对应的置信度输出所述识别结果。通过上述方式对使用神经网络模型识别获得的识别结果进行了进一步的识别,通过其位置关系相应调整置信度,避免某些不符合相应位置关系的错误结果被输出,提高了口腔图像识别所获得的结果的准确度,提供了一种适用于对口腔图像进行识别的新方法。

Description

一种口腔图像识别方法及相关设备
技术领域
本申请实施例涉及图像处理领域,尤其涉及一种口腔图像识别方法及相关设备
背景技术
图像识别,是指利用计算机对图像进行处理、分析和理解,以识别各种不同模式的目标和对象的技术,是应用深度学习算法的一种实践应用。现阶段图像识别技术一般分为人脸识别与商品识别,人脸识别主要运用在安全检查、身份核验与移动支付中;商品识别主要运用在商品流通过程中,特别是无人货架、智能零售柜等无人零售领域
目前图像实例分割算法都是针对常见目标,如行人、车辆等进行研究,口腔图像与这类目标相比,具有特征少、区域边界不明显等特点,传统图像识别算法不能很好的应用到口腔图像的识别过程中,而目前还没有专门针对口腔部位进行识别的有效算法。
发明内容
本申请实施例第一方面提供了一种口腔图像识别方法,包括:
使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果,所述识别结果包括多个类别、各个所述类别分别对应的图像区域及各个所述类别分别对应的置信度,所述多个类别包括口腔及口腔内器官组织;
判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,得到判断结果;其中所述位置关系规则用于表示口腔与口腔内器官组织之间的预设标准位置关系;
基于所述判断结果调整所述多个类别对应的置信度;
基于所述多个类别对应的置信度输出所述识别结果。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,所述判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,包括:
判断所述口腔对应的置信度是否大于第一预设值;
若所述口腔对应的置信度大于所述第一预设值,则判断所述口腔对应的图像区域是否包括所述口腔内器官组织对应的图像区域;
所述基于所述判断结果调整所述多个类别对应的置信度,包括:
若所述口腔外围类别对应的图像区域包括所述口腔内器官组织对应的图像区域,则提高所述口腔内器官组织对应的置信度;
若所述口腔外围类别对应的图像区域不包括所述口腔内器官组织对应的图像区域,则降低所述口腔内器官组织对应的置信度。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,所述判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,包括:
基于所述口腔对应的图像区域预估所述口腔内器官组织对应的图像区域所在的预估位置;
判断所述口腔对应的置信度是否大于第一预设值;
若所述口腔对应的置信度大于所述第一预设值,则判断所述口腔内器官器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距是否大于第二预设值;
所述基于所述判断结果调整所述多个类别对应的置信度,包括:
若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距大于所述第二预设值,则降低所述口腔内器官组织对应的置信度;
若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距小于等于所述第二预设值,则提高所述口腔内器官组织对应的置信度;
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,所述判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,包括:
判断所述口腔对应的置信度是否大于第一预设值;
若所述口腔对应的置信度小于等于所述第一预设值,则获取多个所述口腔内器官组织对应的图像区域之间的距离;
判断多个所述口腔内器官组织之间的距离是否符合预设范围;
所述基于所述判断结果调整所述多个类别对应的置信度,包括:
若多个所述口腔内器官组织之间的距离符合预设范围,则提高所述口腔内组织对应的置信度;
若多个所述口腔内器官组织之间的距离不符合预设范围,则降低所述口腔内组织对应的置信度。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,其特征在于,所述口腔内器官组织包括:扁桃体、咽后壁、悬雍垂、舌头和牙齿。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,
所述神经网络模型为Mask R-CNN模型,所述Mask R-CNN模型包括残差网络下采样模块、区域生成网络模块、感兴趣区域对齐模块、全卷积网络上采样模块和全连接层。
所述残差网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域;
所述区域生成网络模块用于对所述感兴趣区域进行分类处理;
所述感兴趣区域对齐模块对所述区域生成网络模块的处理结果进行对齐处理;
所述全卷积网络上采样模块用于对所述感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述图像语义分割的识别结果;
所述全连接层用于对所述目标检测特殊层的处理结果进行回归处理,获得类别及方框的识别结果。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,所述神经网络模型为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型包括双侧分割网络下采样模块,所述双侧分割网络下采样模块用于替换原有Mask R-CNN模型中的残差网络下采样模块,所述双侧分割网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,所述神经网络模型为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型包括数据相关型上采样模块,所述数据相关型上采样模块用于替换原有Mask R-CNN模型中的全卷积网络上采样模块,所述数据相关型上采样模块用于对感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述口腔图像语义分割的识别结果。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,所述神经网络模型为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型包括:双侧分割网络下采样模块和数据相关型上采样模块;
所述双侧分割网络下采样模块用于替换原有Mask R-CNN模型中的残差网络下采样模块,所述双侧分割网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域;
所述数据相关型上采样模块用于替换原有Mask R-CNN模型中的全卷积网络上采样模块,所述数据相关型上采样模块用于对感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述口腔图像语义分割的识别结果。
基于本申请实施例第一方面提供的口腔图像识别方法,可选地,
所述基于所述多个类别对应的置信度输出所述识别结果包括:
判断所述各个类别对应的置信度是否大于第二预设值;
若大于,则输出所述各个类别及所述各个类别分别对应的图像区域。
本申请实施例第二方面提供了一种口腔图像识别设备,包括:
识别模型,用于使用神经网络模型对口腔图像进行识别;获得对所述口腔图像的识别结果,所述识别结果包括多个类别、所述多个类别分别对应的图像区域及所述多个类别分别对应的置信度,所述多个类别包括口腔外围类别及口腔内器官组织;
判断模型,用于判断所述口腔内器官组织对应的图像区域与所述口腔外围类别对应的图像区域之间的关系是否符合预设规则;
调整模型,用于基于所述判断结果调整所述多个类别对应的置信度;
输出模型,用于基于所述多个类别对应的置信度输出所述识别结果。
本申请实施例第三方面提供了一种口腔图像识别设备,包括:
中央处理器,存储器,输入输出接口,有线或无线网络接口以及电源;
所述存储器为短暂存储存储器或持久存储存储器;
所述中央处理器配置为与所述存储器通信,在所述口腔图像识别设备上执行所述存储器中的指令操作以执行本申请实施例第一方面中任意一项所述的方法。
本申请实施例第四方面提供了一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使得计算机执行如本申请实施例第一方面中任意一项所述的方法。
本申请实施例第五方面提供了一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如本申请实施例第一方面中任意一项所述的方法。
从以上技术方案可以看出,本申请实施例具有以下优点:本申请通过对使用神经网络模型识别获得的识别结果进行重识别,判断识别结果中所获得的各个类别对应的图像区域是否符合预设标准位置关系,并依据判断结果调整对各个识别结果的置信度,基于调整后的各个识别结果的置信度输出识别结果,通过上述方式对使用神经网络模型识别获得的识别结果进行了进一步的识别,通过其位置关系相应调整置信度,避免某些不符合相应位置关系的错误结果被输出,提高了口腔图像识别所获得的结果的准确度,提供了一种适用于对口腔图像进行识别的新方法。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本申请口腔图像识别方法实施例的一个流程示意图;
图2为本申请口腔图像识别方法实施例的另一个流程示意图;
图3为本申请口腔图像识别方法实施例的另一个流程示意图;
图4为本申请口腔图像识别方法实施例的另一个流程示意图;
图5为本申请口腔图像识别方法所使用的Mask R-CNN网络的一个结构示意图;
图6为本申请口腔图像识别方法所使用的改进后的Mask R-CNN网络的一个结构示意图;
图7为本申请所使用的双侧分割网络的一个结构示意图;
图8为本申请口腔图像识别方法所使用的改进后的Mask R-CNN网络的另一个结构示意图;
图9为本申请所使用的数据相关型上采样模块的一个结构示意图;
图10为本申请口腔图像识别方法所使用的改进后的Mask R-CNN网络的另一个结构示意图;
图11为本申请口腔图像识别设备实施例的一个结构示意图;
图12为本申请口腔图像识别设备实施例的另一个结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的实施例能够以除了在这里图示或描述的内容以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
需要说明的是,在本申请中涉及“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
请参阅图1,本申请口腔图像识别方法的一个实施例包括:步骤101-步骤 105。
101、使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果。
使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果,所述识别结果包括多个类别、各个所述类别分别对应的图像区域及各个所述类别分别对应的置信度,所述多个类别包括口腔及口腔内器官组织。使用预先训练好的神经网络模型对口腔图像进行识别,具体的该神经网络模型可为卷积神经网络(Convolutional NeuralNetworks,CNN)或其他具有相应功能的基于深度学习的神经网络模型,具体此处不做限定。基于神经网络模型对口腔图像进行处理,获得的处理结果包括多个类别以及各个类别对应的置信度和图像区域,具体而言,类别可包括口腔和口腔内组织两个大的类别,其中口腔内器官组织还可细分为牙齿、舌头、悬垂雍、咽后壁、扁桃体等多个种类的口腔内器官组织,具体此处不做限定。
102、判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,得到判断结果。
判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,得到判断结果。判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,得到判断结果;其中所述位置关系规则用于表示口腔与口腔内器官组织之间的预设标准位置关系。基于识别获得的口腔内器官组织对应的图像区域和口腔对应的图像区域进行与预设位置关系规则的判断,预设位置关系规则用于表示标准口腔内器官组织及口腔之间的位置关系,具体的预设位置关系规则可基于人的生理结构获得也可基于对大量图像进行分析口腔内器官组织与口腔的位置关系分析提取所获得的规则具体此处不做限定。可以理解的是,在对各个类别图像区域对应的位置关系进行分析时,预设位置关系规则可包括多个位置规则,用于表示不同类别之间的关系,具体此处不做限定。
103、基于所述判断结果调整所述多个类别对应的置信度。
基于所述判断结果调整所述多个类别对应的置信度。基于上述步骤102 的识别结果进行对所述多个类别对应的置信度调整,具体而言,若判断结果为被分析的口腔图像符合预设位置关系规则,则相应提高或保持有关类别对应的置信度,若判断结果为被分析的口腔图像不符合预设位置关系规则,则降低有关类别对应的置信度,具体此处不做限定。
104、基于所述多个类别对应的置信度输出所述识别结果。
基于所述多个类别对应的置信度输出所述识别结果,具体的,可对经上述步骤103调整后各个口腔图像类别对应的置信度进行判断,判断其执行度是否符合输出要求,如判断置信度是否大于某一预设值,若大于,则将类别对应的图像区域及种类名称进行输出,若不符合,则不输出相应结果,具体此处不做限定。
基于图1所描述的实施例,下面提供一种本方案在实施过程中可选择执行的详细实施例,请参阅图2,本申请口腔图像识别方法的一个实施例包括:步骤201-步骤206。
201、使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果。
使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果。本步骤与上述图1对应实施例中步骤101类似,具体此处不做赘述。
202、判断所述口腔对应的置信度是否大于第一预设值。
判断所述口腔对应的置信度是否大于第一预设值。其中第一预设值可依据自身需求进行设置,由于口腔为整个图像中范围最大最有价值的感兴趣区域,且与图像中其他部分之间存在明显的边界,因此在对图像进行重识别时,可首先对口腔对应的置信度进行判断,判断其是否符合第一预设值的设定,若符合,则可以识别获得的口腔部分结果为真实的基础上进行进一步判断,具体而言,第一预设值可为80%,具体可依据实际情况进行调整,此处不做限定。若所述口腔对应的置信度大于所述第一预设值,则执行步骤203、判断口腔对应的图像区域是否包括口腔内器官组织对应的图像区域。若所述口腔对应的置信度小于等于所述第一预设值,则可使用其他规则进行置信度的调整,具体此处不做限定。
203、判断口腔对应的图像区域是否包括口腔内器官组织对应的图像区域。
若口腔对应的置信度是否大于第一预设值,则判断口腔对应的图像区域是否包括口腔内器官组织对应的图像区域。由于口腔为最大范围的图像区域,因此若对口腔的识别结果正确,则各个口腔内器官组织对应的图像区域应均位于口腔对应的图像区域,若存在口腔内器官组织对应的图像区域位于口腔对应的图像区域外的情况,则说明该口腔内器官组织的识别出现了误差,具体的口腔内器官组织的种类可包括:扁桃体、咽后壁、悬雍垂、舌头和牙齿等类别,具体此处不做限定。在具体执行过程中可分别对各个种类进行识别并得出相应结果。若所述口腔外围类别对应的图像区域包括所述口腔内器官组织对应的图像区域,则执行步骤204,若所述口腔外围类别对应的图像区域不包括所述口腔内器官组织对应的图像区域,则执行步骤205。
204、提高所述口腔内器官组织对应的置信度。
若所述口腔外围类别对应的图像区域包括所述口腔内器官组织对应的图像区域,则提高所述口腔内器官组织对应的置信度,若口腔外围类别对应的图像区域包括所述口腔内器官组织对应的图像区域,则说明对口腔图像的识别结果符合预设位置规则,则可相应提高口腔内器官组织对应的置信度,具体对置信度的调整幅度可依据实际情况而定,此处不做限定。
205、降低所述口腔内器官组织对应的置信度。
若所述口腔外围类别对应的图像区域不包括所述口腔内器官组织对应的图像区域,则降低所述口腔内器官组织对应的置信度,若口腔外围类别对应的图像区域包括所述口腔内器官组织对应的图像区域,则说明对口腔图像的识别结果符合预设位置规则,则可相应提高口腔内器官组织对应的置信度,具体对置信度的调整幅度可依据实际情况而定,此处不做限定。
206、基于所述多个类别对应的置信度输出所述识别结果。
基于所述多个类别对应的置信度输出所述识别结果。具体的,在获得调整后的置信度后,可判断各个类别对应的置信度是否大于第二预设值,若大于,则认为该类别符合输出约束规则,对该类别的识别结果进行输出,若不符合,则放弃对该类别的识别结果,不进行输出,可以理解接的是,由于口腔图像中不同类别图像区域的识别难度不同,因此可分别对各个类别设置不同的第二预设值,进而尽可能多的获得口腔图像信息,具体此处不做限定。
从以上技术方案可以看出,本申请实施例具有以下优点:本申请通过对使用神经网络模型识别获得的识别结果进行重识别,判断识别结果中所获得的各个类别对应的图像区域是否符合预设标准位置关系,并依据判断结果调整对各个识别结果的置信度,基于调整后的各个识别结果的置信度输出识别结果,通过上述方式对使用神经网络模型识别获得的识别结果进行了进一步的识别,通过其位置关系相应调整置信度,避免某些不符合相应位置关系的错误结果被输出,提高了口腔图像识别所获得的结果的准确度,提供了一种适用于对口腔图像进行识别的新方法。
请参阅图3,本申请口腔图像识别方法的一个实施例包括:步骤301至步骤306。
301、使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果。
302、判断所述口腔对应的置信度是否大于第一预设值。
上述步骤301至步骤302与图2对应实施例中步骤201至步骤202类似,此处不再赘述。
303、基于所述口腔对应的图像区域预估所述口腔内器官组织对应的图像区域所在的预估位置。
若所述口腔对应的置信度大于第一预设值,则基于所述口腔对应的图像区域预估所述口腔内器官组织对应的图像区域所在的预估位置,由于口腔为最大范围的图像区域,因此若对口腔的识别结果正确,则可基于口腔对应的图像区域进一步对口腔内器官组织的准确程度进行进一步的分析,具体而言可使用口腔对应的图像区域预估所述口腔内器官组织对应的图像区域所在的预估位置,即基于口腔内各个器官组织与口腔之间所遵循的相对位置关系进行预估,得到各个器官组织的预估位置,如牙齿一般分布在口腔中较靠外的位置,基于此类规律对各个器官组织所在位置进行预估,获得预估位置,其中预估位置可为某一范围或该器官组织中心点的坐标,具体此处不做限定。
304、判断口腔内器官器官组织对应的图像区域的实际位置与预估位置之间的位置差距是否大于第二预设值。
判断口腔内器官器官组织对应的图像区域的实际位置与预估位置之间的位置差距是否大于第二预设值。基于上述步骤303所获得的预估位置结果与神经网络模型所获得的实际位置进行比较,判断二者之间的位置误差是否超出第二预设值,其中第二预设值可依据自身需求进行设定,此处不做限定,具体的在判断位置差距过程中可对识别获得的口腔内器官器官组织对应的图像区域取其中心点所在位置,与上述步骤303中预估获得的中心点坐标进行比较,进而得出位置差距,具体此处不做限定。若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距小于等于所述第二预设值,执行步骤305、提高所述口腔内器官组织对应的置信度,若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距大于所述第二预设值,执行步骤306、降低所述口腔内器官组织对应的置信度。
305、提高所述口腔内器官组织对应的置信度。
若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距小于等于所述第二预设值,则提高所述口腔内器官组织对应的置信度,若实际位置与预估位置之间的差距较小,则说明神经网络模型的识别过程与实际口腔内器官组织的分布情况相符,因此可相应提高各个口腔内器官组织对应的置信度,具体的置信度提高程度可依据实际情况进行调整,具体此处不做限定。
306、降低所述口腔内器官组织对应的置信度。
若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距大于所述第二预设值,则降低所述口腔内器官组织对应的置信度,若实际位置与预估位置之间的差距较大,则说明神经网络模型的识别过程可能出现错误,因此可相应降低各个口腔内器官组织对应的置信度,避免输出错误结果,具体的置信度降低程度可依据实际情况进行调整,具体此处不做限定。
307、基于所述多个类别对应的置信度输出所述识别结果。
基于所述多个类别对应的置信度输出所述识别结果。本步骤与上述图2对应实施例中步骤206类似,具体此处步骤赘述。
值得注意的是,在本实施例中对置信度的调整条件与上述图2对应实施例中对置信度存在一定区别,即基于不同的规则进行了对置信度的调整,在本方案实际实施过程中,也可将图2对应实施例及图3对应实施例结合实施,以便提高口腔图像识别结果的准确性,具体此处不做限定。
从以上技术方案可以看出,本申请实施例具有以下优点:本申请通过对使用神经网络模型识别获得的识别结果进行重识别,判断识别结果中所获得的各个类别对应的图像区域是否符合预设标准位置关系,并依据判断结果调整对各个识别结果的置信度,基于调整后的各个识别结果的置信度输出识别结果,通过上述方式对使用神经网络模型识别获得的识别结果进行了进一步的识别,通过其位置关系相应调整置信度,避免某些不符合相应位置关系的错误结果被输出,提高了口腔图像识别所获得的结果的准确度,提供了一种适用于对口腔图像进行识别的新方法。
401、使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果。
使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果。
本步骤与上述图2对应实施例中步骤201类似,具体此处不做赘述。
402、判断所述口腔对应的置信度是否大于第一预设值。
判断所述口腔对应的置信度是否大于第一预设值。若口腔对应的置信度大于第一预设值则执行其他相应规则,若腔对应的置信度不大于第一预设值则执行步骤403、获取多个所述口腔内器官组织对应的图像区域之间的距离。
403、获取多个所述口腔内器官组织对应的图像区域之间的距离。
若所述口腔对应的置信度小于等于所述第一预设值,则获取多个所述口腔内器官组织对应的图像区域之间的距离,具体的,口腔内器官组织包括扁桃体、咽后壁、悬雍垂、舌头和牙齿等类别,对各个类别对应的图像区域的位置关系进行获取,进而得出个所述口腔内器官组织对应的图像区域之间的距离信息。可以理解的是,本方案在实际实施过程中,口腔内器官组织所对应的类别可依据需求进行调整,具体此处不做限定、
404、判断多个所述口腔内器官组织之间的距离是否符合预设范围。
判断多个所述口腔内器官组织之间的距离是否符合预设范围,具体的,可预设对于口腔内器官组织之间的标准关系,并基于该标准关系设置标准的误差范围,各个口腔内器官组织之间的距离是否符合预设范围即为与标准关系相比误差范围是否符合标准的误差范围,若符合,则执行步骤405、提高所述口腔内器官组织对应的置信度,若不符合,则执行步骤406、降低所述口腔内器官组织对应的置信度。
405、提高所述口腔内器官组织对应的置信度。
若多个所述口腔内器官组织之间的距离符合预设范围,则提高所述口腔内组织对应的置信度。具体的置信度提高程度可依据实际情况进行调整,具体此处不做限定。
406、降低所述口腔内器官组织对应的置信度。
若多个所述口腔内器官组织之间的距离不符合预设范围,则降低所述口腔内组织对应的置信度。具体的置信度降低程度可依据实际情况进行调整,具体此处不做限定。
407、基于所述多个类别对应的置信度输出所述识别结果。
基于所述多个类别对应的置信度输出所述识别结果。本步骤与上述图2实施例中步骤207类似,具体此处不做赘述。
值得注意的是,在本实施例中对置信度的调整条件与上述图2和图3对应实施例中对置信度存在一定区别,即基于不同的规则进行了对置信度的调整,在本方案实际实施过程中,也可与图2对应实施例和图3对应实施例结合实施,及基于对口腔的置信度判断结果使用不同的规则进行置信度的调整,以便提高口腔图像识别结果的准确性,具体此处不做限定。
从以上技术方案可以看出,本申请实施例具有以下优点:本申请通过对使用神经网络模型识别获得的识别结果进行重识别,判断识别结果中所获得的各个类别对应的图像区域是否符合预设标准位置关系,并依据判断结果调整对各个识别结果的置信度,基于调整后的各个识别结果的置信度输出识别结果,通过上述方式对使用神经网络模型识别获得的识别结果进行了进一步的识别,通过其位置关系相应调整置信度,避免某些不符合相应位置关系的错误结果被输出,提高了口腔图像识别所获得的结果的准确度,提供了一种适用于对口腔图像进行识别的新方法。
上边对本方法的具体实施步骤进行了描述,下面对本方案所使用的神经网络进行描述,具体的请参照图5、本申请所使用的神经网络模型结构可为 Mask R-CNN模型,所述Mask R-CNN模型包括残差网络下采样模块、区域生成网络模块、感兴趣区域对齐模块、全卷积网络上采样模块和全连接层。
所述残差网络(ResNet)下采样模块用于对所述口腔图像进行下采样处理,进行特征提取,获得感兴趣区域,其中用于下采样的模块还可包括FPN (feature pyramidnetworks,特征金字塔网络)具体此处不做限定。
所述区域生成网络模块用于对所述感兴趣区域进行分类处理;
所述感兴趣区域对齐模块对所述区域生成网络模块的处理结果进行对齐处理;
所述全卷积网络上采样模块用于对所述感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述图像语义分割的识别结果;
所述全连接层用于对所述目标检测特殊层的处理结果进行回归处理,获得类别及方框的识别结果。
可选的,本方案中对口腔图像及进行识别处理所使用的神经网络模型还可为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型具体情况请参照图6。改进后的MaskR-CNN模型包括双侧分割网络(Bilateral Segmentation Network,BiseNet)下采样模块,所述双侧分割网络下采样模块用于替换原有 Mask R-CNN模型中的残差网络下采样模块,所述双侧分割网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域。具体的的BiseNet模块结构请参照图7,其中FFM(Feature Fusion Module)为特征融合模块,ARM (Attention Refinement Module,ARM)为注意力精炼模块。在本方案中只使用BiseNet网络中的实现下采样功能的部分,即虚线框中的部分,BiseNet模块与Mask R-CNN原有的下采样模块相比,在保证语义分割的精度的同时尽可能的提高了下采样过程的速度,提高了Mask R-CNN模型对口腔图像的处理效率。
可选的,所述改进后的Mask R-CNN模型还可为包括数据相关型上采样模块的轻量化的Mask R-CNN模型,请参照图8,改进后的Mask R-CNN模型包括数据相关型上采样模块(DUpsampling),所述数据相关型上采样模块用于替换原有Mask R-CNN模型中的全卷积网络上采样模块,所述数据相关型上采样模块用于对感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述口腔图像语义分割的识别结果,具体的DUpsampling网络的示意图可参照图,9,DUpsampling上采样模块在恢复特征图尺寸的同时,提升了分割精度,降低了计算复杂度,提高了Mask R-CNN模型的运算速度。
可选的,所述改进后的Mask R-CNN模型还可如图10所示,同时包括双侧分割网络下采样模块和数据相关型上采样模块,
所述双侧分割网络下采样模块用于替换原有Mask R-CNN模型中的残差网络下采样模块,所述双侧分割网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域;
所述数据相关型上采样模块用于替换原有Mask R-CNN模型中的全卷积网络上采样模块,所述数据相关型上采样模块用于对感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述口腔图像语义分割的识别结果。
所述同时包括双侧分割网络下采样模块和数据相关型上采样模块的Mask R-CNN模型在保证检测精度的同时尽可能的提高了对口腔图像的检测速度,适合进行实时的分析和检测,进一步提高了本方法的可实施性。
本申请实施例还提供了一种口腔图像识别设备,包括:识别模块1101、判断模块1102、调整模块1103和输出模块1104
识别模块1101,用于使用神经网络模型对口腔图像进行识别;获得对所述口腔图像的识别结果,所述识别结果包括多个类别、所述多个类别分别对应的图像区域及所述多个类别分别对应的置信度,所述多个类别包括口腔外围类别及口腔内器官组织;
判断模块1102,用于判断所述口腔内器官组织对应的图像区域与所述口腔外围类别对应的图像区域之间的关系是否符合预设规则;
调整模块1103,用于基于所述判断结果调整所述多个类别对应的置信度;
输出模块1104,用于基于所述多个类别对应的置信度输出所述识别结果。
本实施例中,口腔图像识别设备中各单元所执行的流程与前述图1所对应的实施例中描述的方法流程类似,此处不再赘述。
图12是本申请实施例提供的一种口腔图像识别设备的结构示意图,该服务器1200可以包括一个或一个以上中央处理器(central processing units,CPU) 1201和存储器1205,该存储器1205中存储有一个或一个以上的应用程序或数据。
本实施例中,中央处理器1201中的具体功能模块划分可以与前述图11中所描述的各单元的功能模块划分方式类似,此处不再赘述。
其中,存储器1205可以是易失性存储或持久存储。存储在存储器1205的程序可以包括一个或一个以上模块,每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器1201可以设置为与存储器1205通信,在服务器1200上执行存储器1205中的一系列指令操作。
服务器1200还可以包括一个或一个以上电源1202,一个或一个以上有线或无线网络接口1203,一个或一个以上输入输出接口1204,和/或,一个或一个以上操作系统,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM, FreeBSDTM等。
该中央处理器1201可以执行前述图1所示实施例中口腔图像识别方法所执行的操作,具体此处不再赘述。
本发明还提供了一种计算机可读存储介质,该计算机可读存储介质用于实现口腔图像识别设备的功能,其上存储有计算机程序,计算机程序被处理器执行时,处理器,可以用于执行如图1所述的方法。
可以理解的是,所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在相应的一个计算机可读取存储介质中或集成为计算机程序产品以便执行上述方法。基于这样的理解,本发明实现上述相应的实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
以上所述,以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (14)

1.一种口腔图像识别方法,其特征在于,包括:
使用神经网络模型对口腔图像进行识别,以获得所述口腔图像的识别结果,所述识别结果包括多个类别、各个所述类别分别对应的图像区域及各个所述类别分别对应的置信度,所述多个类别包括口腔及口腔内器官组织;
判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,得到判断结果;其中所述位置关系规则用于表示口腔与口腔内器官组织之间的预设标准位置关系;
基于所述判断结果调整所述多个类别对应的置信度;
基于所述多个类别对应的置信度输出所述识别结果。
2.据权利要求1所述的口腔图像识别方法,其特征在于,所述判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,包括:
判断所述口腔对应的置信度是否大于第一预设值;
若所述口腔对应的置信度大于所述第一预设值,则判断所述口腔对应的图像区域是否包括所述口腔内器官组织对应的图像区域;
所述基于所述判断结果调整所述多个类别对应的置信度,包括:
若所述口腔外围类别对应的图像区域包括所述口腔内器官组织对应的图像区域,则提高所述口腔内器官组织对应的置信度;
若所述口腔外围类别对应的图像区域不包括所述口腔内器官组织对应的图像区域,则降低所述口腔内器官组织对应的置信度。
3.据权利要求1所述的口腔图像识别方法,其特征在于,所述判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,包括:
基于所述口腔对应的图像区域预估所述口腔内器官组织对应的图像区域所在的预估位置;
判断所述口腔对应的置信度是否大于第一预设值;
若所述口腔对应的置信度大于所述第一预设值,则判断所述口腔内器官器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距是否大于第二预设值;
所述基于所述判断结果调整所述多个类别对应的置信度,包括:
若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距大于所述第二预设值,则降低所述口腔内器官组织对应的置信度;
若所述口腔内器官组织对应的图像区域的实际位置与所述预估位置之间的位置差距小于等于所述第二预设值,则提高所述口腔内器官组织对应的置信度。
4.据权利要求1所述的口腔图像识别方法,其特征在于,所述判断所述口腔内器官组织对应的图像区域与所述口腔对应的图像区域之间的关系是否符合预设位置关系规则,包括:
判断所述口腔对应的置信度是否大于第一预设值;
若所述口腔对应的置信度小于等于所述第一预设值,则获取多个所述口腔内器官组织对应的图像区域之间的距离;
判断多个所述口腔内器官组织之间的距离是否符合预设范围;
所述基于所述判断结果调整所述多个类别对应的置信度,包括:
若多个所述口腔内器官组织之间的距离符合预设范围,则提高所述口腔内组织对应的置信度;
若多个所述口腔内器官组织之间的距离不符合预设范围,则降低所述口腔内组织对应的置信度。
5.根据权利要求1至4中所述的任意一种口腔图像识别方法,其特征在于,所述口腔内器官组织包括:扁桃体、咽后壁、悬雍垂、舌头和牙齿。
6.根据权利要求1所述的口腔图像识别方法,其特征在于,
所述神经网络模型为Mask R-CNN模型,所述Mask R-CNN模型包括残差网络下采样模块、区域生成网络模块、感兴趣区域对齐模块、全卷积网络上采样模块和全连接层;
所述残差网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域;
所述区域生成网络模块用于对所述感兴趣区域进行分类处理;
所述感兴趣区域对齐模块对所述区域生成网络模块的处理结果进行对齐处理;
所述全卷积网络上采样模块用于对所述感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述图像语义分割的识别结果;
所述全连接层用于对所述目标检测特殊层的处理结果进行回归处理,获得类别及方框的识别结果。
7.根据权利要求1所述的口腔图像识别方法,其特征在于,所述神经网络模型为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型包括双侧分割网络下采样模块,所述双侧分割网络下采样模块用于替换原有Mask R-CNN模型中的残差网络下采样模块,所述双侧分割网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域。
8.根据权利要求1所述的口腔图像识别方法,其特征在于,所述神经网络模型为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型包括数据相关型上采样模块,所述数据相关型上采样模块用于替换原有Mask R-CNN模型中的全卷积网络上采样模块,所述数据相关型上采样模块用于对感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述口腔图像语义分割的识别结果。
9.根据权利要求1所述的口腔图像识别方法,其特征在于,所述神经网络模型为改进后的Mask R-CNN模型,所述改进后的Mask R-CNN模型包括:双侧分割网络下采样模块和数据相关型上采样模块;
所述双侧分割网络下采样模块用于替换原有Mask R-CNN模型中的残差网络下采样模块,所述双侧分割网络下采样模块用于对所述口腔图像进行下采样处理,获得感兴趣区域;
所述数据相关型上采样模块用于替换原有Mask R-CNN模型中的全卷积网络上采样模块,所述数据相关型上采样模块用于对感兴趣区域对齐模块的处理结果进行上采样处理,获得对所述口腔图像语义分割的识别结果。
10.根据权利要求1所述的口腔图像识别方法,其特征在于,
所述基于所述多个类别对应的置信度输出所述识别结果包括:
判断所述各个类别对应的置信度是否大于第二预设值;
若大于,则输出所述各个类别及所述各个类别分别对应的图像区域。
11.一种口腔图像识别设备,其特征在于,包括:
识别模型,用于使用神经网络模型对口腔图像进行识别;获得对所述口腔图像的识别结果,所述识别结果包括多个类别、所述多个类别分别对应的图像区域及所述多个类别分别对应的置信度,所述多个类别包括口腔外围类别及口腔内器官组织;
判断模型,用于判断所述口腔内器官组织对应的图像区域与所述口腔外围类别对应的图像区域之间的关系是否符合预设规则;
调整模型,用于基于所述判断结果调整所述多个类别对应的置信度;
输出模型,用于基于所述多个类别对应的置信度输出所述识别结果。
12.一种口腔图像识别设备,其特征在于,包括:
中央处理器,存储器,输入输出接口,有线或无线网络接口以及电源;
所述存储器为短暂存储存储器或持久存储存储器;
所述中央处理器配置为与所述存储器通信,在所述口腔图像识别设备上执行所述存储器中的指令操作以执行权利要求1-10中任意一项所述的方法。
13.一种计算机可读存储介质,包括指令,当所述指令在计算机上运行时,使得计算机执行如权利要求1-10中任意一项所述的方法。
14.一种包含指令的计算机程序产品,当其在计算机上运行时,使得计算机执行如权利要求1-10中任意一项所述的方法。
CN202011586672.7A 2020-12-28 2020-12-28 一种口腔图像识别方法及相关设备 Active CN112634246B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011586672.7A CN112634246B (zh) 2020-12-28 2020-12-28 一种口腔图像识别方法及相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011586672.7A CN112634246B (zh) 2020-12-28 2020-12-28 一种口腔图像识别方法及相关设备

Publications (2)

Publication Number Publication Date
CN112634246A true CN112634246A (zh) 2021-04-09
CN112634246B CN112634246B (zh) 2023-09-12

Family

ID=75286207

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011586672.7A Active CN112634246B (zh) 2020-12-28 2020-12-28 一种口腔图像识别方法及相关设备

Country Status (1)

Country Link
CN (1) CN112634246B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192016A (zh) * 2021-04-21 2021-07-30 深圳力维智联技术有限公司 传送带异常变形检测方法、装置、设备及存储介质
CN116596861A (zh) * 2023-04-28 2023-08-15 中山大学 一种牙面病灶的识别方法、系统、设备及存储介质
CN116664580A (zh) * 2023-08-02 2023-08-29 经智信息科技(山东)有限公司 一种ct图像的多图层级联成像方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070041614A1 (en) * 2005-08-18 2007-02-22 Fujitsu Limited Road marking recognition apparatus and method
CN108229519A (zh) * 2017-02-17 2018-06-29 北京市商汤科技开发有限公司 图像分类的方法、装置及系统
CN108389207A (zh) * 2018-04-28 2018-08-10 上海视可电子科技有限公司 一种牙病诊断方法、诊断设备及智能图像采集装置
WO2020175356A1 (ja) * 2019-02-27 2020-09-03 学校法人慶應義塾 記憶媒体、画像診断補助装置、学習装置、及び、学習済みモデルの生成方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070041614A1 (en) * 2005-08-18 2007-02-22 Fujitsu Limited Road marking recognition apparatus and method
CN108229519A (zh) * 2017-02-17 2018-06-29 北京市商汤科技开发有限公司 图像分类的方法、装置及系统
CN108389207A (zh) * 2018-04-28 2018-08-10 上海视可电子科技有限公司 一种牙病诊断方法、诊断设备及智能图像采集装置
WO2020175356A1 (ja) * 2019-02-27 2020-09-03 学校法人慶應義塾 記憶媒体、画像診断補助装置、学習装置、及び、学習済みモデルの生成方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113192016A (zh) * 2021-04-21 2021-07-30 深圳力维智联技术有限公司 传送带异常变形检测方法、装置、设备及存储介质
CN116596861A (zh) * 2023-04-28 2023-08-15 中山大学 一种牙面病灶的识别方法、系统、设备及存储介质
CN116596861B (zh) * 2023-04-28 2024-02-23 中山大学 一种牙面病灶的识别方法、系统、设备及存储介质
CN116664580A (zh) * 2023-08-02 2023-08-29 经智信息科技(山东)有限公司 一种ct图像的多图层级联成像方法及装置
CN116664580B (zh) * 2023-08-02 2023-11-28 经智信息科技(山东)有限公司 一种ct图像的多图层级联成像方法及装置

Also Published As

Publication number Publication date
CN112634246B (zh) 2023-09-12

Similar Documents

Publication Publication Date Title
CN108509915B (zh) 人脸识别模型的生成方法和装置
CN112634246A (zh) 一种口腔图像识别方法及相关设备
CN108280477B (zh) 用于聚类图像的方法和装置
Cintas et al. Automatic ear detection and feature extraction using geometric morphometrics and convolutional neural networks
CN110148121B (zh) 一种皮肤图像处理方法、装置、电子设备及介质
WO2021169637A1 (zh) 图像识别方法、装置、计算机设备及存储介质
CN113159147B (zh) 基于神经网络的图像识别方法、装置、电子设备
CN110188829B (zh) 神经网络的训练方法、目标识别的方法及相关产品
CN110163096B (zh) 人物识别方法、装置、电子设备和计算机可读介质
CN111104925B (zh) 图像处理方法、装置、存储介质和电子设备
EP4085369A1 (en) Forgery detection of face image
CN108491812B (zh) 人脸识别模型的生成方法和装置
CN115953665B (zh) 一种目标检测方法、装置、设备及存储介质
El Kaddouhi et al. Eye detection based on the Viola-Jones method and corners points
CN110232318A (zh) 穴位识别方法、装置、电子设备及存储介质
CN112241952B (zh) 大脑中线识别方法、装置、计算机设备及存储介质
US20240087368A1 (en) Companion animal life management system and method therefor
CN112330624A (zh) 医学图像处理方法和装置
CN115631112B (zh) 一种基于深度学习的建筑轮廓矫正方法及装置
CN110706121B (zh) 确定医保欺诈结果的方法、装置、电子设备及存储介质
CN117115117B (zh) 基于小样本下的病理图像识别方法、电子设备及存储介质
Hao et al. Iris segmentation using feature channel optimization for noisy environments
CN111488811A (zh) 人脸识别方法、装置、终端设备及计算机可读介质
JP7385046B2 (ja) 色斑予測方法、装置、設備及び記憶媒体
CN113421317B (zh) 一种生成图像的方法、系统及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant