CN110032980B - 一种基于深度学习的器官检测与识别定位方法 - Google Patents
一种基于深度学习的器官检测与识别定位方法 Download PDFInfo
- Publication number
- CN110032980B CN110032980B CN201910315818.5A CN201910315818A CN110032980B CN 110032980 B CN110032980 B CN 110032980B CN 201910315818 A CN201910315818 A CN 201910315818A CN 110032980 B CN110032980 B CN 110032980B
- Authority
- CN
- China
- Prior art keywords
- network
- score
- convolution
- training
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明属于医学领域,涉及一种基于深度学习的器官检测与识别定位方法。通过深度学习实现对器官的特征提取和特征区域预测,利用训练网络的基础网络部分对所输入图像进行特征提取,辅助网络部分使用卷积核对卷积特征层进行预测,生成一个固定的预测集,实现针对不同卷积特征层的多尺度预测。对于所生成预测集,通过筛选找到最佳边界框,去除冗余边界框,选取边界框邻域中分数最高的窗口,抑制分数低的窗口。输出筛选结果,通过文本信息和矩形框表示,完成在所采集图像中对于器官的检测和识别定位,实现复杂关键区域的识别与定位,获知关键器官部位的位置信息和类别信息。
Description
技术领域
本发明涉及一种基于深度学习的器官检测与识别定位方法,更具体的说,本发明涉及一种医学领域的基于深度学习的器官检测与识别定位方法。
背景技术
在医学手术过程中,虽然经过长期训练,经验丰富的医生已经熟知人体内各部位器官的结构,但是,在高度紧张的手术过程中,医生往往需要左右手进行不同的操作。在专注于某一项操作时,另一只手中器械极易因不小心滑落而触碰“红线”部位,“红线”部位为人体中绝不能触碰的器官部位,例如心脏手术中绝对不可触碰的Koch三角,轻则造成意外出血,重则威胁生命。并且,传统手术过程中,由于医生无法准确定位器官所在位置,无法准确划分相邻器官间的可操作空间大小,因此医生需要多次尝试才能确定尺寸适合的手术工具,不仅增加了手术时间同时也增加了手术的风险。对于传统的图像处理和识别方法,由于现今医学图像采集装置所采集到的器官等关键部位的图像颜色和纹理相似度很高,使用传统方法难以自动获得不同的器官部位的位置信息和类别信息。因此,为了避免传统手术中完全凭借经验的劣势,实现手术过程中关键器官部位的实时检测与识别定位,有效地避免医生在手术过程中产生的误触事件,设计了一种基于深度学习的器官检测与识别定位方法,通过深度学习实现对器官的特征提取和特征区域预测,实现复杂关键区域的识别与定位。
发明内容
本发明设计了一种基于深度学习的器官检测与识别定位方法,该方法能够应用于医学领域中,通过深度学习实现对器官的特征提取和特征区域预测,实现对于医学手术过程中关键器官部位的实时检测与识别定位。
所述的基于深度学习的器官检测与识别定位方法的硬件系统包括:
用于采集图像的1280*1024的工业相机两个;
用于图像采集、数据处理和精度控制的计算机;
NACHI机械臂一台;
光学硬杆内窥镜两根;
LED冷光源一个;
本发明设计了一种基于深度学习的器官检测与识别定位方法,其特征在于,包括以下步骤:
步骤1:在医学手术过程中,使用相机采集手术现场真实图像,对所采集图像进行筛选,选取涵盖相同目标器官的图像,对所选取的图像进行预处理,获得相同固定尺寸的图像,作为原始数据集;将所述的原始数据集中65%的图像作为训练数据集,15%的图像作为验证数据集,20%的图像作为测试数据集;
步骤2:对步骤1中所述的训练数据集中的图像进行标注,用标签框标注出每一幅图像中目标器官的位置信息和种类信息,生成训练标签,将图像及图像对应的真实标签框作为训练网络的输入;
步骤3:选用特征提取网络的前四层卷积网络作为训练网络的基础网络,对所输入的图像进行特征提取,得到特征图;前四层卷积网络运行完成后,截断所述的基础网络,将特征提取网络的全连接层改成卷积层,并添加四个尺寸逐渐减小的卷积特征层,构成训练网络的辅助网络;
步骤4:将步骤3中所述的辅助网络中的卷积特征层的尺寸表示为a×b×p,a为长度尺寸,b为宽度尺寸,p为通道数,使用尺寸为3×3×p的卷积核对卷积特征层进行预测;对于所述的尺寸表示为a×b×p的卷积特征层,在a×b个位置都会预测出目标器官所属某一类别的得分值和目标器官相对于默认边界框的位置偏移量;
步骤5:将训练网络在步骤3中所述的特征图的每个位置预测的边界框个数设为m,将所检测到的所属不同类别数设为n,按照公式(1)计算得到所预测出的目标器官所属不同类别的得分值c,按照公式(2)计算得到器官相对于默认边界框的位置偏移量d,按照公式(3)计算得到训练网络总体预测出的输出量个数t;对于步骤3中所述的辅助网络中的每一个卷积特征层,生成一个固定的预测集,从而在训练网络中实现针对不同卷积特征层的多尺度预测;
c=m×n 公式(1)
d=4×m 公式(2)
t=(c+d)×a×b 公式(3)
步骤6:在卷积特征层输出的预测集中,对于生成的出现包含或者重叠情况的边界框,将边界框个数设为K,将不同边界框所得的不同得分值设为si(i=1,2,...,K);选取得分值最大的边界框将其表示为G,将边界框中除去得分值最大的边界框后所剩其余边界框表示为Hj(j=1,2,...,K-1),将其余边界框的得分值重新表示为sj(j=1,2,...,K-1),并将边界框G添加到最终的输出列表中;按照公式(4)计算其余边界框Hj(j=1,2,...,K-1)与最大边界框G的IoU(Intersection over union交并比)值,记为iou(G,Hj)(j=1,2,...,K-1);设置阈值为Nt,按照公式(5)的分数重置函数计算其余边界框的重置分数sj′(j=1,2,...,K-1),再按照置信度大小进行排序,将得分值最大的边界框输出,删除得分值最小的,从而实现对边界框的筛选;
步骤7:重复步骤6所述的对边界框的筛选过程,找到最佳边界框,去除冗余的边界框,从而选取边界框邻域中包含目标器官分数最高的窗口,抑制分数低的窗口;
步骤8:输出筛选后的最优结果,得到最终对于输入图像中目标器官所属位置信息和类别信息的最佳预测值;预测值输出后,训练网络过程结束,生成训练网络;
步骤9:将步骤1中所述的验证数据集输入训练完成的网络进行验证,针对输出结果对训练网络进行优化调整,得到最终训练网络;
步骤10:将步骤1中所述的测试数据集输入步骤9中所述的最终训练网络中,得到测试图像中的目标器官所属类别信息和位置信息,通过文本信息和矩形框表示,完成在所采集图像中对于器官的检测和识别定位。
附图说明
图1:器官检测与识别定位方法流程图;
图2:器官检测与识别定位方法结构示意图;
具体实施方式
本发明通过深度学习实现对器官的特征提取和特征区域预测,实现复杂关键区域的识别与定位,获知关键器官部位的位置信息和类别信息。
通过对所采集图像进行预处理,生成数据集,标注图像中器官的位置信息和种类信息,生成训练标签,输入训练网络。利用训练网络的基础网络部分对所输入的图像进行特征提取,将特征提取网络的全连接层改成卷积层,添加四个尺寸逐渐减小的卷积特征层,构成训练网络的辅助网络。使用卷积核对卷积特征层进行预测,预测出目标器官所属某一类别的得分值和目标器官相对于默认边界框的位置偏移量,得到所属不同类别的得分值、位置偏移量和总体预测出的输出量个数,生成一个固定的预测集,实现针对不同卷积特征层的多尺度预测。计算其余边界框与分值最大边界框的交并比,通过分数重置函数计算其余边界框的重置分数,按照置信度排序,输出分数高的,删除分数低的,重复筛选过程,找到最佳边界框,去除冗余边界框,选取边界框邻域中分数最高的窗口,抑制分数低的窗口,输出筛选结果,得到目标器官位置信息和类别信息,生成训练网络并利用验证数据集验证网络,对训练网络进行优化调整,得到最终训练网络。最后输入测试数据集,得到目标器官所属类别信息和位置信息,通过文本信息和矩形框表示,完成在所采集图像中对于器官的检测和识别定位,实现手术过程中高相似度纹理下关键区域的实时检测与识别定位,有效避免医生在手术过程中产生的误触事件。
本发明设计了一种基于深度学习的器官检测与识别定位方法,其特征在于,包括以下步骤:
步骤1:在医学手术过程中,使用相机采集手术现场真实图像,对所采集图像进行筛选,选取涵盖相同目标器官的图像,对所选取的图像进行预处理,获得相同固定尺寸的图像,作为原始数据集;将所述的原始数据集中65%的图像作为训练数据集,15%的图像作为验证数据集,20%的图像作为测试数据集;
步骤2:对步骤1中所述的训练数据集中的图像进行标注,用标签框标注出每一幅图像中目标器官的位置信息和种类信息,生成训练标签,将图像及图像对应的真实标签框作为训练网络的输入;
步骤3:选用特征提取网络的前四层卷积网络作为训练网络的基础网络,对所输入的图像进行特征提取,得到特征图;前四层卷积网络运行完成后,截断所述的基础网络,将特征提取网络的全连接层改成卷积层,并添加四个尺寸逐渐减小的卷积特征层,构成训练网络的辅助网络;
步骤4:将步骤3中所述的辅助网络中的卷积特征层的尺寸表示为a×b×p,a为长度尺寸,b为宽度尺寸,p为通道数,使用尺寸为3×3×p的卷积核对卷积特征层进行预测;对于所述的尺寸表示为a×b×p的卷积特征层,在a×b个位置都会预测出目标器官所属某一类别的得分值和目标器官相对于默认边界框的位置偏移量;
步骤5:将训练网络在步骤3中所述的特征图的每个位置预测的边界框个数设为m,将所检测到的所属不同类别数设为n,按照公式(1)计算得到所预测出的目标器官所属不同类别的得分值c,按照公式(2)计算得到器官相对于默认边界框的位置偏移量d,按照公式(3)计算得到训练网络总体预测出的输出量个数t;对于步骤3中所述的辅助网络中的每一个卷积特征层,生成一个固定的预测集,从而在训练网络中实现针对不同卷积特征层的多尺度预测;
c=m×n 公式(1)
d=4×m 公式(2)
t=(c+d)×a×b 公式(3)
步骤6:在卷积特征层输出的预测集中,对于生成的出现包含或者重叠情况的边界框,将边界框个数设为K,将不同边界框所得的不同得分值设为si(i=1,2,...,K);选取得分值最大的边界框将其表示为G,将边界框中除去得分值最大的边界框后所剩其余边界框表示为Hj(j=1,2,...,K-1),将其余边界框的得分值重新表示为sj(j=1,2,...,K-1),并将边界框G添加到最终的输出列表中;按照公式(4)计算其余边界框Hj(j=1,2,...,K-1)与最大边界框G的IoU(Intersection over union交并比)值,记为iou(G,Hj)(j=1,2,...,K-1);设置阈值为Nt,按照公式(5)的分数重置函数计算其余边界框的重置分数sj′(j=1,2,...,K-1),再按照置信度大小进行排序,将得分值最大的边界框输出,删除得分值最小的,从而实现对边界框的筛选;
步骤7:重复步骤6所述的对边界框的筛选过程,找到最佳边界框,去除冗余的边界框,从而选取边界框邻域中包含目标器官分数最高的窗口,抑制分数低的窗口;
步骤8:输出筛选后的最优结果,得到最终对于输入图像中目标器官所属位置信息和类别信息的最佳预测值;预测值输出后,训练网络过程结束,生成训练网络;
步骤9:将步骤1中所述的验证数据集输入训练完成的网络进行验证,针对输出结果对训练网络进行优化调整,得到最终训练网络;
步骤10:将步骤1中所述的测试数据集输入步骤9中所述的最终训练网络中,得到测试图像中的目标器官所属类别信息和位置信息,通过文本信息和矩形框表示,完成在所采集图像中对于器官的检测和识别定位。
综上所述,本发明所述的器官检测与识别定位方法的优点是:
避免传统手术中完全凭借经验的劣势,通过深度学习实现对器官的特征提取和特征区域预测,自动获得不同的器官部位的位置信息和类别信息,识别速度快,精度高,鲁棒性好,有效地避免医生在手术过程中产生的误触事件,实现对于医学手术过程中关键器官部位的实时检测与识别定位。
以上示意性的对本发明及其实施方式进行了描述,该描述没有局限性,附图中所示的也只是本发明的实施方式之一。所以,如果本领域的普通技术人员受其启示,在不脱离本发明创造宗旨的情况下,采用其它形式的同类部件或其它形式的各部件布局方式,不经创造性的设计出与该技术方案相似的技术方案与实施例,均应属于本发明的保护范围。
Claims (1)
1.一种基于深度学习的器官检测与识别定位方法,其特征在于,包括以下步骤:
步骤1:使用相机采集手术图像,对所采集图像进行筛选,选取涵盖相同目标器官的图像,对所选取的图像进行预处理,获得相同固定尺寸的图像,作为原始数据集;将所述的原始数据集中65%的图像作为训练数据集,15%的图像作为验证数据集,20%的图像作为测试数据集;
步骤2:对步骤1中所述的训练数据集中的图像进行标注,用标签框标注出每一幅图像中目标器官的位置信息和种类信息,生成训练标签,将图像及图像对应的真实标签框作为训练网络的输入;
步骤3:选用特征提取网络的前四层卷积网络作为训练网络的基础网络,对所输入的图像进行特征提取,得到特征图;前四层卷积网络运行完成后,截断所述的基础网络,将特征提取网络的全连接层改成卷积层,并添加四个尺寸逐渐减小的卷积特征层,构成训练网络的辅助网络;
步骤4:将步骤3中所述的辅助网络中的卷积特征层的尺寸表示为a×b×p,a为长度尺寸,b为宽度尺寸,p为通道数,使用尺寸为3×3×p的卷积核对卷积特征层进行预测;对于所述的尺寸表示为a×b×p的卷积特征层,在a×b个位置都会预测出目标器官所属某一类别的得分值和目标器官相对于默认边界框的位置偏移量;
步骤5:将训练网络在步骤3中所述的特征图的每个位置预测的边界框个数设为m,将所检测到的所属不同类别数设为n,按照公式(1)计算得到所预测出的目标器官所属不同类别的得分值c,按照公式(2)计算得到器官相对于默认边界框的位置偏移量d,按照公式(3)计算得到训练网络总体预测出的输出量个数t;对于步骤3中所述的辅助网络中的每一个卷积特征层,生成一个固定的预测集,从而在训练网络中实现针对不同卷积特征层的多尺度预测;
c=m×n 公式(1)
d=4×m 公式(2)
t=(c+d)×a×b 公式(3)
步骤6:在卷积特征层输出的预测集中,对于生成的出现包含或者重叠情况的边界框,将边界框个数设为K,将不同边界框所得的不同得分值设为si,i=1,2,...,K;选取得分值最大的边界框将其表示为G,将边界框中除去得分值最大的边界框后所剩其余边界框表示为Hj,j=1,2,...,K-1,将其余边界框的得分值重新表示为sj,并将边界框G添加到最终的输出列表中;按照公式(4)计算其余边界框Hj与最大边界框G的IoU值,记为iou(G,Hj);设置阈值为Nt,按照公式(5)的分数重置函数计算其余边界框的重置分数sj′,再按照置信度大小进行排序,将得分值最大的边界框输出,删除得分值最小的,从而实现对边界框的筛选;
步骤7:重复步骤6所述的对边界框的筛选过程,找到最佳边界框,去除冗余的边界框,从而选取边界框邻域中包含目标器官分数最高的窗口,抑制分数低的窗口;
步骤8:输出筛选后的最优结果,得到最终对于输入图像中目标器官所属位置信息和类别信息的最佳预测值;预测值输出后,训练网络过程结束,生成训练网络;
步骤9:将步骤1中所述的验证数据集输入训练完成的网络进行验证,针对输出结果对训练网络进行优化调整,得到最终训练网络;
步骤10:将步骤1中所述的测试数据集输入步骤9中所述的最终训练网络中,得到测试图像中的目标器官所属类别信息和位置信息,通过文本信息和矩形框表示,完成在所采集图像中对于器官的检测和识别定位。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910315818.5A CN110032980B (zh) | 2019-04-18 | 2019-04-18 | 一种基于深度学习的器官检测与识别定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910315818.5A CN110032980B (zh) | 2019-04-18 | 2019-04-18 | 一种基于深度学习的器官检测与识别定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110032980A CN110032980A (zh) | 2019-07-19 |
CN110032980B true CN110032980B (zh) | 2023-04-25 |
Family
ID=67239086
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910315818.5A Active CN110032980B (zh) | 2019-04-18 | 2019-04-18 | 一种基于深度学习的器官检测与识别定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110032980B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110879934B (zh) * | 2019-10-31 | 2023-05-23 | 杭州电子科技大学 | 一种基于Wide&Deep深度学习模型的文本预测方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107657233A (zh) * | 2017-09-28 | 2018-02-02 | 东华大学 | 基于改进型单次多目标检测器的静态手语实时识别方法 |
CN108416378A (zh) * | 2018-02-28 | 2018-08-17 | 电子科技大学 | 一种基于深度神经网络的大场景sar目标识别方法 |
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
CN109409371A (zh) * | 2017-08-18 | 2019-03-01 | 三星电子株式会社 | 用于图像的语义分割的系统和方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108022238B (zh) * | 2017-08-09 | 2020-07-03 | 深圳科亚医疗科技有限公司 | 对3d图像中对象进行检测的方法、计算机存储介质和系统 |
-
2019
- 2019-04-18 CN CN201910315818.5A patent/CN110032980B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109409371A (zh) * | 2017-08-18 | 2019-03-01 | 三星电子株式会社 | 用于图像的语义分割的系统和方法 |
CN107657233A (zh) * | 2017-09-28 | 2018-02-02 | 东华大学 | 基于改进型单次多目标检测器的静态手语实时识别方法 |
CN108416378A (zh) * | 2018-02-28 | 2018-08-17 | 电子科技大学 | 一种基于深度神经网络的大场景sar目标识别方法 |
CN108875595A (zh) * | 2018-05-29 | 2018-11-23 | 重庆大学 | 一种基于深度学习和多层特征融合的驾驶场景目标检测方法 |
Non-Patent Citations (2)
Title |
---|
安宏伟 ; 宋丽梅 ; 张春波.基于彩色编码光栅识别的织物疵点检测方法研究.天津工业大学学报.2011,30(005),全文. * |
宋丽梅 ; 罗菁 ; 温遇华 ; .基于医用图像的模拟手术规划方法.中国医学影像技术.2009,(第08期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110032980A (zh) | 2019-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102014377B1 (ko) | 학습 기반 수술동작 인식 방법 및 장치 | |
JP4682091B2 (ja) | 心臓境界、胸郭境界及び横隔膜境界を検出する方法、装置及び記憶媒体 | |
JP5016603B2 (ja) | 自動及び動的血管検出のための方法並びに装置 | |
Joudaki et al. | Vision-based sign language classification: a directional review | |
CN111932554B (zh) | 一种肺部血管分割方法、设备及存储介质 | |
US10366488B2 (en) | Image processing used to estimate abnormalities | |
CN113076987B (zh) | 骨赘识别方法、装置、电子设备及存储介质 | |
CN114565763B (zh) | 图像分割方法、装置、设备、介质及程序产品 | |
US20220398737A1 (en) | Medical image segmentation method based on u-network | |
CN110413816A (zh) | 彩色草图图像搜索 | |
JP6853419B2 (ja) | 情報処理装置、情報処理方法、コンピュータプログラム | |
CN111652175A (zh) | 应用于机器人辅助手术视频分析的实时手术工具检测方法 | |
CN110032980B (zh) | 一种基于深度学习的器官检测与识别定位方法 | |
CN104504162A (zh) | 一种基于机器人视觉平台的视频检索方法 | |
KR101771325B1 (ko) | 적응 임계값 도출과 설태, 설질, 및 혼합 영역을 구분하는 장치 및 방법 | |
US20220319002A1 (en) | Tumor cell isolines | |
CN115546149A (zh) | 肝脏分割方法及装置、电子设备及存储介质 | |
JP5383486B2 (ja) | 脳出血部位セグメンテーションする装置の作動方法および装置 | |
JP2021170247A (ja) | 情報処理装置、情報処理システム、情報処理方法およびプログラム | |
Lv et al. | Automatic segmentation of mandibular canal using transformer based neural networks | |
JP2006175036A (ja) | 肋骨形状推定装置、肋骨形状推定方法およびそのプログラム | |
CN112668582B (zh) | 图像识别方法、装置、设备和存储介质 | |
LU505631B1 (en) | Apparatus and method capable of detecting stairs | |
CN115578564B (zh) | 实例分割模型的训练方法、装置、电子设备及存储介质 | |
Zorrilla et al. | Pathological vocal folds diagnosis using modified active contour models |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |