CN113284111A - 一种基于双目立体视觉的毛囊区域定位方法及系统 - Google Patents
一种基于双目立体视觉的毛囊区域定位方法及系统 Download PDFInfo
- Publication number
- CN113284111A CN113284111A CN202110575493.1A CN202110575493A CN113284111A CN 113284111 A CN113284111 A CN 113284111A CN 202110575493 A CN202110575493 A CN 202110575493A CN 113284111 A CN113284111 A CN 113284111A
- Authority
- CN
- China
- Prior art keywords
- hair follicle
- image pair
- binocular
- area
- hair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明涉及医疗信息处理技术领域,具体涉及一种基于双目立体视觉的毛囊区域定位方法及系统,所述方法包括:控制双目立体视觉相机采集标定板图像对,基于采集到的标定板图像对进行双目立体标定;当确定人体头部位于检测区域时,控制双目立体视觉相机采集得到检测区域的RGB图像对;分别确定所述RGB图像对中的毛囊区域,得到毛囊图像对;对所述毛囊图像对进行三维建模,得到毛囊区域的三维坐标,本发明能够在移植头发手术中对供区毛囊进行快速、精确的提取和定位,并且实时反馈数据。
Description
技术领域
本发明涉及医疗信息处理技术领域,具体涉及一种基于双目立体视觉的毛囊区域定位方法及系统。
背景技术
自从上个世纪60年代毛发移植手术被发明出来后,毛囊提取技术就一直是植发领域的一个重点研究方向,其中毛囊的移植是毛发移植手术的本质内容,即从供区提取毛囊并经过处理后移植到受区的一种转移毛发生长部位的方法。随着中国脱发人群增多,毛发移植手术的需求量将会变大。快速、精确的提取供区的毛囊对于获得临床手术的成功,保证植发手术的成功率是至关重要的。传统人工植发手术容易受提取毛囊位置不准确的因素影响而导致治疗效果不佳。
在进行人工植发手术过程中,准确选取供区的毛囊位置是手术成功的关键,完成这一点将提高患者手术后恢复的效果,避免出现毛发移植后手术效果差等情况。现有的毛发移植技术方案中,一种常见的毛囊提取方法是通过根据不同个体毛囊直径的大小,选择合适直径的钻头,由具备相关行医资质,并且经验丰富的医师,在供区毛囊打孔,并由助手医师用不伤毛干的镊子取出毛囊并收集、暂存在生理盐水中,但是,单纯的借助医生肉眼来观测毛囊的位置和形态,受光线或观测角度等因素影响,结果是不够准确的,并且使用人工进行定位、统计数量的工作方法会耗费大量的时间和人力。
发明内容
本发明目的在于提供一种基于双目立体视觉的毛囊区域定位方法及系统,以解决现有技术中所存在的一个或多个技术问题,至少提供一种有益的选择或创造条件。
为了实现上述目的,本发明提供以下技术方案:
步骤S100、控制双目立体视觉相机采集标定板图像对,基于采集到的标定板图像对进行双目立体标定;
步骤S200、当确定人体头部位于检测区域时,控制双目立体视觉相机采集得到检测区域的RGB图像对;
步骤S300、分别确定所述RGB图像对中的毛囊区域,得到毛囊图像对;
步骤S400、对所述毛囊图像对进行三维建模,得到毛囊区域的三维坐标。
进一步,所述步骤S200包括:
步骤S210、当人体俯卧在载人装置上后,控制装置控制传送装置将载人装置进行传送;
步骤S220、当行程传感器检测到载人装置被传送到双目立体视觉相机的检测区域时,控制装置控制传送装置停止运行;
步骤S230、控制装置控制双目立体视觉相机朝向检测区域进行拍摄,采集得到一对检测区域的RGB图像;
其中,控制装置分别与传送装置、双目立体视觉相机连接,载人装置设置于传送装置上,传送装置用于对载人装置进行传送。
进一步,所述步骤S300包括:
步骤S310、将双目立体视觉相机采集的RGB图像对转化为灰度图像对;
步骤S320、分别对所述灰度图像对进行去噪;
步骤S330、将去噪后的灰度图像对转换为二值化图像对,从二值化图像中提取得到毛囊图像对。
进一步,所述步骤S400包括:
步骤S410、确定所述毛囊图像对中两张毛囊图像的中心坐标在横纵的偏差小于偏差阈值;
步骤S420、将毛囊子区域划分为多个毛囊子区域,对每个毛囊子区域标记序号,确定毛囊区域的中心点和每个毛囊子区域的中心点;
步骤S430、按照标记的序号依次对每个毛囊子区域的毛囊图像对确定的两个中心点进行匹配;
步骤S440、根据三角测量原理得到所述毛囊图像对的深度信息和三维信息,结合Halco n算子进行三维重构,确定毛囊区域的中心点和每个毛囊子区域的三维坐标信息,作为所述毛囊区域的三维坐标。
一种计算机可读存储介质,所述计算机可读存储介质上存储有基于双目立体视觉的毛囊区域定位程序,所述基于双目立体视觉的毛囊区域定位程序被处理器执行时实现如上述任意一项所述的基于双目立体视觉的毛囊区域定位方法的步骤。
一种基于双目立体视觉的毛囊区域定位系统,所述系统包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述任一项所述的基于双目立体视觉的毛囊区域定位方法。
本发明的有益效果是:本发明公开一种基于双目立体视觉的毛囊区域定位方法及系统,本发明为测量供区毛囊位置学参数而提供一种简单高效的提取和定位方案,能够在移植头发手术中对供区毛囊进行快速、精确的提取和定位,并且得到实时反馈数据。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例中基于双目立体视觉的毛囊区域定位方法的流程示意图;
图2是本发明实施例中毛囊区域的中心点的示意图;
图3是本发明实施例中双目立体视觉的效果示意图。
具体实施方式
以下将结合实施例和附图对本申请的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本申请的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
参考图1,如图1所示为本申请实施例提供的一种基于双目立体视觉的毛囊区域定位方法,所述方法包括以下步骤:
步骤S100、控制双目立体视觉相机采集标定板图像对,基于采集到的标定板图像对进行双目立体标定;
在一些实施例中,首先搭建基于双目立体视觉的图像采集系统,设置相机的参数;选择标定板文件,并设置镜头焦距、相机Sensor像元大小等参数。设置完成后,双目立体视觉相机中的左右两个相机分别实时采集视野中包含标定板的图像,并识别图像中的标定板,由于双目立体视觉相机是向前平行放置,且基准距离固定不变;因此,在控制双目立体视觉相机采集标定板图像对时,只需要将标定板放置在不同的位置,采集不低于15对的标定板图像对。在完成标定板图像对的采集后,进行双目立体标定。
步骤S200、当确定人体头部位于检测区域时,控制双目立体视觉相机采集得到检测区域的RGB图像对;
在一些实施例中,标定完成后,保持相机位置和焦距不变的前提下,利用双目立体视觉相机的左右相机分别对目标区域的图像,图像为RGB格式。
步骤S300、分别确定所述RGB图像对中的毛囊区域,得到毛囊图像对;
步骤S400、对所述毛囊图像对进行三维建模,得到毛囊区域的三维坐标。
在一个优选的实施例中,所述步骤S200包括:
步骤S210、当人体俯卧在载人装置上后,控制装置控制传送装置将载人装置进行传送;
步骤S220、当行程传感器检测到载人装置被传送到双目立体视觉相机的检测区域时,控制装置控制传送装置停止运行;
步骤S230、控制装置控制双目立体视觉相机朝向检测区域进行拍摄,采集得到一对检测区域的RGB图像,即为RGB图像对;
其中,控制装置分别与传送装置、双目立体视觉相机连接,载人装置设置于传送装置上,传送装置用于对载人装置进行传送。
在一些实施例中,当人体俯卧在载人装置上后,控制装置控制传送装置将载人装置送到双目立体视觉相机能识别的检测区域时,传送装置停止运动,若双目立体视觉相机未能识别检测区域,传送装置继续运动,当传送装置末端所设置的行程传感器检测到载人装置前端时,控制装置发出指令使传送装置停止运动。当双目立体视觉相机首次确定好检测区域时,系统会记录载人装置所在位置,并自动将载人装置返回初始位置后停止;当执行下一次检测时,人只需躺在载人装置上面,可循环精准执行操作,实现智能控制化。
在一个优选的实施例中,所述步骤S300包括:
步骤S310、将双目立体视觉相机采集的RGB图像对转化为灰度图像对;
在一些实施例中,通过左右相机采集的是RGB图像,颜色是由三种基本色红(Red),绿(Green),蓝(Blue)按照不同的比例混合组成,公式如下:
C=xR+yG+zB,x+y+z=1;
其中,R,G,B为三原色,而x,y,z为3种基本颜色的系数,C为RGB图像的颜色,根据三色原理,将RGB的三种基本颜色分别量化成0到255共256个级别,常见的颜色RGB 组合值有红(255,0,0),蓝(0,255,0),绿(0,0,255)。灰度是指黑白图像中的颜色深度,范围一般为0-255,白色为255,黑色为0,彩色图像的灰度其实是在转化为黑白图像后的像素值,通过以下公式将RGB图像中像素的RGB值转换为灰度图像中像素的灰度值:
Gray=R*0.3+G*0.59+B*0.11,R=G=B=Gray;
其中,Gray为灰度图像中像素的灰度值,R为RGB图像中像素的红色分量,G为RGB图像中像素的绿色分量,B为RGB图像中像素的蓝色分量;通过将RGB图像中各个通道的像素值进行加权计算,得到对应的灰度图像。
步骤S320、分别对所述灰度图像对进行去噪;
在一些实施例中,为了消除噪声,采用高斯均值滤波的方法。高斯均值滤波采用高斯模板进行空域滤波,去除噪声和平滑图像。
其中,*为中心元素,该元素为处理后的元素,该模板是一种加权平均的模板,把中心点的权重加强为最高而随着与中心点的距离增加而减小权重值,减少平滑处理中的模糊现象。
步骤S330、将去噪后的灰度图像对转换为二值化图像对,从二值化图像中提取得到毛囊图像对。
分别对左右相机采集的灰度图像设定一个阈值,将灰度值大于该阈值的非毛囊区域点变成白点,剩下的毛囊区域点变成黑点,经过处理后只有黑白的二值图像,从而能凸显出目标 (毛囊区域)的轮廓。
假设灰度图像f(x,y)经二值化后的结果图像为g(x,y),设定阈值为T,则:
其中,得到的二值图像g(x,y)中标注为255的像素对应的是毛囊,标注为0的像素对应的是非毛囊。
立体匹配是指将左右相机的二值化图像对之间建立一种对应关系,也就是将同一物理空间点在两幅不同图像中的成像点进行一一对应起来。
由于在实际双目立体视觉相机不是理想的平行放置,且没有在同一水平线上,因此左右图像的毛囊区域中心在垂直方向上存在像素点级别的坐标误差。为了消除这种误差影响匹配的结果,采用顺序一致性约束与极线约束,如图2所示,毛囊中心匹配约束条件:
在一个优选的实施例中,所述步骤S400包括:
步骤S410、确定所述毛囊图像对中两张毛囊图像的中心坐标在横纵的偏差小于偏差阈值;
步骤S420、将毛囊子区域划分为多个毛囊子区域,对每个毛囊子区域标记序号,确定毛囊区域的中心点和每个毛囊子区域的中心点;
步骤S430、按照标记的序号依次对每个毛囊子区域的毛囊图像对确定的两个中心点进行匹配;
步骤S440、根据三角测量原理得到所述毛囊图像对的深度信息和三维信息,结合Halco n算子进行三维重构,确定毛囊区域的中心点和每个毛囊子区域的三维坐标信息,作为所述毛囊区域的三维坐标。
本发明采用双目立体视觉相机采集对象的头部目标区域左右两幅图像,并分别对左右图像进行去噪和二值化处理,利用阀值分割获取毛囊的轮廓区域,处理后二值化图像结合Hal con算子进行三维重构,因此可得到重构后立体图的相应毛囊区域,实现对头部目标区域的毛囊提取和定位。本发明能够对移植头发手术中供区毛囊进行快速、精确的提取和定位,辅助医生进行手术决策。
参考图2和图3,在一些实施例中,设左图毛囊中心坐标为(μ1,ν1),右图毛囊中心坐标为(μ2,ν2),两个坐标分别在横纵方向上作差,求出的差值绝对值小于Δν,记下此时毛囊的中心点;接着,筛选出确定的毛囊中心,对左右图像中计算出的中心,根据标记的序号依次进行匹配;然后,根据三角测量原理得到原始图像的深度信息和三维信息,结合Halcon算子进行三维重构,获取到每个毛囊区域和中心点的三维坐标信息。
两相机的投影中心的距离为B,三维空间P点在左相机的成像点为Pl,在右相机的成像点为Pr,d为左右相机的视差,f为相机焦距;
根据获取目标毛囊的三维坐标,可以实现控制机械臂精准定位到目标位置处,
与图1的方法相对应,本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有基于双目立体视觉的毛囊区域定位程序,所述基于双目立体视觉的毛囊区域定位程序被处理器执行时实现如上述任意一实施例所述的基于双目立体视觉的毛囊区域定位方法的步骤。
与图1的方法相对应,本发明实施例还提供一种基于双目立体视觉的毛囊区域定位系统,所述系统包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现上述任一实施例所述的基于双目立体视觉的毛囊区域定位方法。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
所述处理器可以是中央处理单元(Central-Processing-Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital-Signal-Processor,DSP)、专用集成电路(Application- Specific-Integrated-Circuit,ASIC)、现场可编程门阵列(Field-Programmable-Gate-Arr ay,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述基于双目立体视觉的毛囊区域定位系统的控制中心,利用各种接口和线路连接整个基于双目立体视觉的毛囊区域定位系统可运行装置的各个部分。
所述存储器可用于存储所述计算机程序和/或模块,所述处理器通过运行或执行存储在所述存储器内的计算机程序和/或模块,以及调用存储在存储器内的数据,实现所述基于双目立体视觉的毛囊区域定位系统的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart-Media-Card,SMC),安全数字(Secure- Digital,SD)卡,闪存卡(Flash-Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
尽管本申请的描述已经相当详尽且特别对几个所述实施例进行了描述,但其并非旨在局限于任何这些细节或实施例或任何特殊实施例,而是应当将其视作是通过参考所附权利要求,考虑到现有技术为这些权利要求提供广义的可能性解释,从而有效地涵盖本申请的预定范围。此外,上文以发明人可预见的实施例对本申请进行描述,其目的是为了提供有用的描述,而那些目前尚未预见的对本申请的非实质性改动仍可代表本申请的等效改动。
Claims (6)
1.一种基于双目立体视觉的毛囊区域定位方法,其特征在于,所述方法包括以下步骤:
步骤S100、控制双目立体视觉相机采集标定板图像对,基于采集到的标定板图像对进行双目立体标定;
步骤S200、当确定人体头部位于检测区域时,控制双目立体视觉相机采集得到检测区域的RGB图像对;
步骤S300、分别确定所述RGB图像对中的毛囊区域,得到毛囊图像对;
步骤S400、对所述毛囊图像对进行三维建模,得到毛囊区域的三维坐标。
2.根据权利要求1所述的一种基于双目立体视觉的毛囊区域定位方法,其特征在于,所述步骤S200包括:
步骤S210、当人体俯卧在载人装置上后,控制装置控制传送装置将载人装置进行传送;
步骤S220、当行程传感器检测到载人装置被传送到双目立体视觉相机的检测区域时,控制装置控制传送装置停止运行;
步骤S230、控制装置控制双目立体视觉相机朝向检测区域进行拍摄,采集得到一对检测区域的RGB图像;
其中,控制装置分别与传送装置、双目立体视觉相机连接,载人装置设置于传送装置上,传送装置用于对载人装置进行传送。
3.根据权利要求2所述的一种基于双目立体视觉的毛囊区域定位方法,其特征在于,所述步骤S300包括:
步骤S310、将双目立体视觉相机采集的RGB图像对转化为灰度图像对;
步骤S320、分别对所述灰度图像对进行去噪;
步骤S330、将去噪后的灰度图像对转换为二值化图像对,从二值化图像中提取得到毛囊图像对。
4.根据权利要求3所述的一种基于双目立体视觉的毛囊区域定位方法,其特征在于,所述步骤S400包括:
步骤S410、确定所述毛囊图像对中两张毛囊图像的中心坐标在横纵的偏差小于偏差阈值;
步骤S420、将毛囊子区域划分为多个毛囊子区域,对每个毛囊子区域标记序号,确定毛囊区域的中心点和每个毛囊子区域的中心点;
步骤S430、按照标记的序号依次对每个毛囊子区域的毛囊图像对确定的两个中心点进行匹配;
步骤S440、根据三角测量原理得到所述毛囊图像对的深度信息和三维信息,结合Halcon算子进行三维重构,确定毛囊区域的中心点和每个毛囊子区域的三维坐标信息,作为所述毛囊区域的三维坐标。
5.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至4任一项所述的基于双目立体视觉的毛囊区域定位方法的步骤。
6.一种基于双目立体视觉的毛囊区域定位系统,其特征在于,所述系统包括:
至少一个处理器;
至少一个存储器,用于存储至少一个程序;
当所述至少一个程序被所述至少一个处理器执行,使得所述至少一个处理器实现如权利要求1至4任一项所述的基于双目立体视觉的毛囊区域定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110575493.1A CN113284111A (zh) | 2021-05-26 | 2021-05-26 | 一种基于双目立体视觉的毛囊区域定位方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110575493.1A CN113284111A (zh) | 2021-05-26 | 2021-05-26 | 一种基于双目立体视觉的毛囊区域定位方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113284111A true CN113284111A (zh) | 2021-08-20 |
Family
ID=77281550
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110575493.1A Pending CN113284111A (zh) | 2021-05-26 | 2021-05-26 | 一种基于双目立体视觉的毛囊区域定位方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113284111A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116196106A (zh) * | 2023-02-22 | 2023-06-02 | 极限人工智能有限公司 | 一种毛囊移植视觉辅助系统及毛囊移植机器人 |
WO2024027647A1 (zh) * | 2022-08-02 | 2024-02-08 | 深圳微美机器人有限公司 | 机器人控制方法、系统和计算机程序产品 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247053A (zh) * | 2013-05-16 | 2013-08-14 | 大连理工大学 | 基于双目显微立体视觉的零件精确定位方法 |
CN112037281A (zh) * | 2020-08-18 | 2020-12-04 | 重庆大学 | 一种用于引导自动化毛囊采集机器的视觉系统 |
CN112396687A (zh) * | 2019-08-12 | 2021-02-23 | 西北工业大学深圳研究院 | 基于红外微偏振片阵列的双目立体视觉三维重建系统及方法 |
-
2021
- 2021-05-26 CN CN202110575493.1A patent/CN113284111A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247053A (zh) * | 2013-05-16 | 2013-08-14 | 大连理工大学 | 基于双目显微立体视觉的零件精确定位方法 |
CN112396687A (zh) * | 2019-08-12 | 2021-02-23 | 西北工业大学深圳研究院 | 基于红外微偏振片阵列的双目立体视觉三维重建系统及方法 |
CN112037281A (zh) * | 2020-08-18 | 2020-12-04 | 重庆大学 | 一种用于引导自动化毛囊采集机器的视觉系统 |
Non-Patent Citations (3)
Title |
---|
于春和 等: "基于HALCON 的双目摄像机标定", 《电子设计工程》 * |
屈耀红: "《 HALCON编程及工程应用》", 西安:西安电子科技大学出版社 * |
滕世明 等: "基于结构光和序列图像的三维重建方法", 《吉林大学学报(信息科学版)》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024027647A1 (zh) * | 2022-08-02 | 2024-02-08 | 深圳微美机器人有限公司 | 机器人控制方法、系统和计算机程序产品 |
CN116196106A (zh) * | 2023-02-22 | 2023-06-02 | 极限人工智能有限公司 | 一种毛囊移植视觉辅助系统及毛囊移植机器人 |
CN116196106B (zh) * | 2023-02-22 | 2024-03-26 | 极限人工智能有限公司 | 一种毛囊移植视觉辅助系统及毛囊移植机器人 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110176012B (zh) | 图像中的目标分割方法、池化方法、装置及存储介质 | |
WO2015188684A1 (zh) | 三维模型重建方法与系统 | |
Nielsen et al. | Vision-based 3D peach tree reconstruction for automated blossom thinning | |
US20080314324A1 (en) | Arrangement and Method for Determining Positions of the Teats of a Milking Animal | |
EP3939006A1 (en) | Feature point detection | |
CN113284111A (zh) | 一种基于双目立体视觉的毛囊区域定位方法及系统 | |
CN104883948B (zh) | 图像处理装置以及图像处理方法 | |
CN111107337B (zh) | 深度信息补全方法及其装置、监控系统和存储介质 | |
CN108010123A (zh) | 一种保留拓扑信息的三维点云获取方法 | |
CN107595388A (zh) | 一种基于反光球标记点的近红外双目视觉立体匹配方法 | |
CN112261399B (zh) | 胶囊内窥镜图像三维重建方法、电子设备及可读存储介质 | |
CN111080778A (zh) | 一种双目内窥镜软组织图像的在线三维重建方法 | |
CN108171753A (zh) | 基于形心特征点与邻域灰度互相关性的立体视觉定位方法 | |
CN113627425A (zh) | 一种基于神经网络模型的毛囊识别和提取方法及系统 | |
CN115082777A (zh) | 基于双目视觉的水下动态鱼类形态测量方法及装置 | |
CN108010075A (zh) | 一种基于多特征联合的局部立体匹配方法 | |
CN115590584A (zh) | 一种基于机械臂的毛囊取发控制方法及系统 | |
CN115311405A (zh) | 一种双目内窥镜的三维重建方法 | |
CN112465778A (zh) | 一种水下鱼群观测装置及方法 | |
CN106529441A (zh) | 基于模糊边界分片的深度动作图人体行为识别方法 | |
CN117197771B (zh) | 基于双目立体匹配的智能驾驶辅助图像处理方法 | |
CN107239761B (zh) | 基于骨架角点检测的果树拉枝效果评价方法 | |
CN111369497B (zh) | 一种行走式树上果实连续计数方法及装置 | |
JP2000185060A (ja) | 歯牙のマ―ジンライン抽出法 | |
CN107403448A (zh) | 代价函数生成方法和代价函数生成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |