CN115496786A - 一种基于机器视觉的背部穴道的定位方法 - Google Patents

一种基于机器视觉的背部穴道的定位方法 Download PDF

Info

Publication number
CN115496786A
CN115496786A CN202210793374.8A CN202210793374A CN115496786A CN 115496786 A CN115496786 A CN 115496786A CN 202210793374 A CN202210793374 A CN 202210793374A CN 115496786 A CN115496786 A CN 115496786A
Authority
CN
China
Prior art keywords
coordinates
dimensional
points
acupoint
shoulder
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210793374.8A
Other languages
English (en)
Inventor
颜建军
陈厚儒
蔡金星
赵伟阳
王立群
陈博畅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China University of Science and Technology
Original Assignee
East China University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China University of Science and Technology filed Critical East China University of Science and Technology
Priority to CN202210793374.8A priority Critical patent/CN115496786A/zh
Publication of CN115496786A publication Critical patent/CN115496786A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Finger-Pressure Massage (AREA)

Abstract

本发明公开了一种基于机器视觉的背部穴道的定位方法,首先获取包含人体的轮廓、姿态等信息的二维RGB图像数据,以及包含人体背部的深度信息的三维点云数据;通过二维RGB图像数据提取得到肩部特征点;通过三维点云数据提取得到臀部特征点;将提取得到的二维肩部特征点和臀部特征点进行融合;进行模型训练,将融合后所有特征点的坐标输入GBDT算法进行回归训练,得到基准穴道坐标的回归模型;通过回归模型得到标准基准穴道坐标,基于标准基准穴道坐标建立了其他背部穴道坐标的计算公式,计算得到其他背部穴道坐标;模型训练完成之后不再需要人工手动标定,为后续的各式推拿操作提供了参考。

Description

一种基于机器视觉的背部穴道的定位方法
技术领域
本发明涉及背部穴道定位技术领域,具体为一种基于机器视觉的背部穴道的定位方法。
背景技术
背部穴道的定位是中医推拿机器人研究的难点之一。传统的中医推拿中背部穴道定位通常依赖于医生的经验以及中医“同身寸”理论,即根据人体骨节的一些表面特征来判别穴道的具体位置。但这些传统的定位方法需要现场摸骨确定坐标,依赖于医师经验和临场决策的影响。而当前具备完备中医理论知识的中医推拿师数量较少,单纯依靠人力无法满足中医推拿市场的需求。
在过去的十年内,有许多学者进行了穴道定位的相关研究。这些研究大体上可以分为两种:标记识别法和坐标回归法。标识识别法是通过识别人体背部的标记物来确定穴道的坐标,根据标记物的类型,又可以分为物理标记法和光学标记法。自2012年起,山东建筑大学的鲁守银等人研究了一种基于龙门结构的中医推拿机器人,该机器人实现了精准的推拿模式转换,但每次使用前都需要人工标记才能确定穴道的坐标。福州大学的林雪华等人在2014 年应用光学定位方法定位穴道坐标,其光学标记只能起辅助判断的作用,最终的穴道位置确定仍然依赖于人工判断。这些方法普遍容易受到干扰,受环境和操作者自身经验判断的影响很大。而坐标回归法在推拿操作的过程中是不需要进行人工标记的。刘召彤等人应用人的身高、体重和已知的穴道坐标作为训练参数,得到预测目标穴道坐标的定位模型,可以得到较为准确的穴道定位结果,但预测结果时仍需要已知穴位坐标作为输入。现有研究人员开发了一种基于PSO-BP神经网络的人体穴道定位系统,通过人工标注方法预先得到基准穴道坐标,再进行训练得到目标穴道的坐标。在此基础上,又有研究人员采用深度学习算法预测穴道坐标,提高了穴道坐标的预测精度和准确性。然而,深度学习模型的训练需要大量的数据,穴道数据的采集依赖于人工标定,难度较大,大数据集的准备非常困难,难以满足智能推拿机器人的自动化需求。因此我们对此做出改进,提出一种基于机器视觉的背部穴道的定位方法。
发明内容
为了解决上述技术问题,本发明提供了如下的技术方案:
本发明一种基于机器视觉的背部穴道的定位方法,包括以下步骤,
步骤1、获取包含人体的轮廓、姿态等信息的二维RGB图像数据,以及包含人体背部的深度信息的三维点云数据;
步骤2、通过二维RGB图像数据提取得到肩部特征点;通过三维点云数据提取得到臀部特征点;
步骤3、将提取得到的二维肩部特征点和臀部特征点进行融合;
步骤4、进行模型训练,将融合后所有特征点的坐标输入GBDT算法进行回归训练,得到基准穴道坐标的回归模型;
步骤5、通过回归模型得到标准基准穴道坐标,基于标准基准穴道坐标建立了其他背部穴道坐标的计算公式,计算得到其他背部穴道坐标。
作为本发明的一种优选技术方案,所述的步骤2中通过二维RGB图像数据提取得到肩部特征点所采用的方法是,通过OpenPose人体姿态检测算法来进行特征提取,人体骨架中的左肩节点、颈背节点以及右肩节点三个关键点作为二维特征点。
作为本发明的一种优选技术方案,所述的步骤2通过三维点云数据提取得到臀部特征点的方法是,通过3D相机对人体背部进行拍摄三维点云数据,采用人体两侧臀部最高点的连线与后正中线的交点作为三维特征点,将3D相机拍摄时的y轴和推拿床长边方向保持平行,故可根据点云y轴两侧的点数来判断人体后正中线的位置,并对两侧点的z轴坐标进行遍历对比,分别得到两侧臀部的最高点的坐标,最终计算出三维点云特征点。
作为本发明的一种优选技术方案,所述的将提取得到的二维肩部特征点和臀部特征点进行融合的方法是,将刚体旋转和平移将3D相机坐标系转换为RGB相机坐标系,然后根据透视投影关系将三维坐标转化为二维坐标,将三维臀部特征点和二维肩部特征点融合到二维坐标系上。
作为本发明的一种优选技术方案,所述的模型训练的方法是,将融合后的臀部特征点和肩部特征点的坐标整合成向量作为输入,输入到梯度提升决策树机器学习算法中,建立基准穴道坐标的回归模型。
作为本发明的一种优选技术方案,所述的步骤5的具体操作是,将新采集到的特征点数据输入模型中得到基准穴道坐标,基准穴道坐标为P大椎穴, P腰阳关穴,则根据脊柱区骨椎分布规律及基准穴道坐标得到其他穴道的坐标计算公式为,
Figure RE-GDA0003921467330000031
本发明的有益效果是:
该种基于机器视觉的背部穴道的定位方法通过以下过程来对穴位进行定位,首先获取包含人体的轮廓、姿态等信息的二维RGB图像数据,以及包含人体背部的深度信息的三维点云数据;通过二维RGB图像数据提取得到肩部特征点;通过三维点云数据提取得到臀部特征点;将提取得到的二维肩部特征点和臀部特征点进行融合;进行模型训练,将融合后所有特征点的坐标输入GBDT算法进行回归训练,得到基准穴道坐标的回归模型;通过回归模型得到标准基准穴道坐标,基于标准基准穴道坐标建立了其他背部穴道坐标的计算公式,计算得到其他背部穴道坐标;模型训练完成之后不再需要人工手动标定,为后续的各式推拿操作提供了参考。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例一起用于解释本发明,并不构成对本发明的限制。在附图中:
图1是本发明一种基于机器视觉的背部穴道的定位方法的流程示意图;
图2是本发明一种基于机器视觉的背部穴道的定位方法的OpenPose 的网络框架结构图;
图3是本发明一种基于机器视觉的背部穴道的定位方法的GBDT算法流程示意图;
图4是本发明一种基于机器视觉的背部穴道的定位方法的大椎穴、腰阳关穴位置示意图;
图5是本发明一种基于机器视觉的背部穴道的定位方法的足太阳膀胱经和督脉穴道之间的相对位置关系示意图;
图6是本发明一种基于机器视觉的背部穴道的定位方法的背部穴道定位结果示意图。
具体实施方式
以下结合附图对本发明的优选实施例进行说明,应当理解,此处所描述的优选实施例仅用于说明和解释本发明,并不用于限定本发明。
实施例:如图1、图2、图3所示,本发明一种基于机器视觉的背部穴道的定位方法,在中医经络系统理论中,位于背部的且易于自动化推拿的经脉主要有位于人体后正中线脊柱位置的督脉和脊柱旁开1.5骨度寸以及3骨度寸的膀胱经。由中华人民共和国国家质量监督检验检疫总局、中国国家标准化管理委员会出台的腧穴名称与定位标准可知,膀胱经上的穴道定位基准与督脉上的穴道在垂直与脊柱方向上相同。因此,可以通过督脉上的穴道具体坐标作为基准来定位膀胱经上的坐标,而且督脉位处脊柱线,体表特征丰富,能用于判断的二维以及三维体貌地标较多,也易于判断,能够提升自动穴道定位的准确性及稳定性。而在位于背部的12个督脉穴道中,大椎穴和腰阳关穴是两个体表标志最为明显、最容易定位的两个穴道,如图4所示。因为大椎穴和腰阳关穴分别位于背部督脉的首部和末端,穴道之间距离较远,能够作为督脉其他穴道的定位基准,因此,本发明的穴道定位方案主要分为两个步骤,第一步通过人体表面的轮廓和体表信息计算回归得到大椎穴和腰阳关穴的具体坐标,第二步再根据已知的两个基准穴道和背部腧穴之间的位置关系推理得到督脉以及膀胱经上的其他穴道坐标。
步骤1、获取包含人体的轮廓、姿态等信息的二维RGB图像数据,以及包含人体背部的深度信息的三维点云数据;步骤2、通过二维RGB图像数据提取得到肩部特征点;通过三维点云数据提取得到臀部特征点;所述的步骤2中通过二维RGB图像数据提取得到肩部特征点所采用的方法是,通过OpenPose人体姿态检测算法来进行特征提取,人体骨架中的左肩节点、颈背节点以及右肩节点三个关键点作为二维特征点;二维特征点主要基于人体的外轮廓进行判断,所以本研究参考了姿态识别中的特征点提取,采用人体姿态估计网络OpenPose中提取的人体肩部关键点作为穴道回归的二维特征点,,OpenPose的网络框架结构图如图2所示,其中penPose是一种自顶而下的人体姿态检测算法,即先检测到图中的关键点再将关键点连接形成骨架,相较于自底而上,即先检测人体位置包络框再检测框内人体关键点的方法,自顶而下的检测方法不容易受背景影响,需要考虑的感受野范围较小,计算复杂度更低、检测效率更高,且在单人的姿态检测中稳定性更强。OpenPose在前代卷积姿态机(Convolutional Pose Machine,CPM 的基础上增加了新的特征部分亲和域(PartAffinity Fields,PAFs)。这种特征通过计算每个像素点和关键点连线之间的线积分来判断候选区域之间的关系,不仅保存了肢体支持域的位置信息,并且保存了方向信息,结合关键点本身的检测能够更加有效地输出姿态估计的结果。
所述的步骤2通过三维点云数据提取得到臀部特征点的方法是,其中三维数据包含人体背部的深度信息,可以体现背部的起伏状态,能够在二维图像的基础上提供额外的信息来支撑穴道坐标的判断;三维特征点主要基于点云数据所体现的背部深度信息进行判断。但由于深度采集设备的系统误差,点云中在采集的过程会受到环境的影响,从而产生离群点以及点震荡的情况。故需要对点云进行滤波、平滑等预处理以保证后续计算得到的三维特征点的准确性。通过3D相机对人体背部进行拍摄三维点云数据,采用人体两侧臀部最高点的连线与后正中线的交点作为三维特征点,将3D 相机拍摄时的y轴和推拿床长边方向保持平行,故可根据点云y轴两侧的点数来判断人体后正中线的位置,并对两侧点的z轴坐标进行遍历对比,分别得到两侧臀部的最高点的坐标,最终计算出三维点云特征点
步骤3、将提取得到的二维肩部特征点和臀部特征点进行融合;所述的将提取得到的二维肩部特征点和臀部特征点进行融合的方法是,将刚体旋转和平移将3D相机坐标系转换为RGB相机坐标系,然后根据透视投影关系将三维坐标转化为二维坐标,将三维臀部特征点和二维肩部特征点融合到二维坐标系上。
步骤4、进行模型训练,将融合后所有特征点的坐标输入GBDT算法进行回归训练,得到基准穴道坐标的回归模型;
所述的模型训练的方法是,将融合后的臀部特征点和肩部特征点的坐标整合成向量作为输入,输入到梯度提升决策树机器学习算法中,建立基准穴道坐标的回归模型。
其中本发明为了能在充分运用二维和三维特征点的基础上得到目标穴道的坐标,本发明将所有特征点的坐标整合成向量作为输入,将目标穴道的坐标作为输出进行回归。受到所采集的数据集大小的限制,本发明中采用对小样本计算较为友好的梯度提升树(Gradient Boosting Decision Tree, GBDT)算法。作为集成学习Boosting类中的一员,GBDT的本质为梯度下降法和CART回归树的结合,是一种迭代的决策树算法。如图3所示,其每轮迭代产生一个弱学习器,每个学习器在上一轮学习器的残差基础上进行训练,通过不断拟合前一个问题的残差来不断的接近目标值。用得到的训练集训练建立回归模型后,便可以将新采集到的特征点数据输入模型中预测出穴道坐标结果。
步骤5、通过回归模型得到标准基准穴道坐标,基于标准基准穴道坐标建立了其他背部穴道坐标的计算公式,计算得到其他背部穴道坐标。
所述的步骤5的具体操作是,将新采集到的特征点数据输入模型中得到基准穴道坐标,基准穴道坐标为P大椎穴,P腰阳关穴
督脉在背部共计分布着12个穴位,分别:
(1)大椎穴:在脊柱区,第7颈椎棘突下凹陷中,后正中线上;
(2)陶道穴:在脊柱区,第1胸椎棘突下凹陷中,后正中线上;
(3)身柱穴:在脊柱区,第3胸椎棘突下凹陷中,后正中线上;
(4)神道穴:在脊柱区,第5胸椎棘突下凹陷中,后正中线上;
(5)灵台穴:在脊柱区,第6胸椎棘突下凹陷中,后正中线上;
(6)至阳穴:在脊柱区,第7胸椎棘突下凹陷中,后正中线上;
(7)筋缩穴:在脊柱区,第9胸椎棘突下凹陷中,后正中线上;
(8)中枢穴:在脊柱区,第10胸椎棘突下凹陷中,后正中线上;
(9)脊中穴:在脊柱区,第11胸椎棘突下凹陷中,后正中线上;
(10)悬枢穴:在脊柱区,第1腰椎棘突下凹陷中,后正中线上;
(11)命门穴:在脊柱区,第2腰椎棘突下凹陷中,后正中线上;
(12)腰阳关:在脊柱区,第4腰椎棘突下凹陷中,后正中线上。
可以看出,以上穴道全部分布于脊柱区棘突下凹陷中,存在一定线性关系,可根据脊柱区骨椎分布规律及基准穴道坐标得到其他穴道的坐标计算公式,
Figure RE-GDA0003921467330000081
式中,P表示具体穴道的坐标。而根据腧穴定位标准可知,膀胱经上的穴道位于人体两侧,沿后正中线对称且可以与督脉上的穴道在沿脊柱方向上存在对应关系。具体如图5对用的关系所示。
对于个别没有对应的膀胱经穴道,同样可以采用线性插值的方法根据前后已知的膀胱经坐标进行估计。而其在垂直与脊柱的方向上有两条分支,分别在相对于督脉旁开1.5寸和3寸的位置。现行中医腧穴定位中使用的骨度折量尺寸即骨度分寸法,是以《灵枢·骨度》篇规定的人体各部尺寸为基础,在长期医疗实践中经过历代医家修改和补充而来,已成为腧穴定位的基本准则。其中使用较多的主要是指寸以及骨度寸,指寸主要用于取靠近骨骼两端的腧穴,如用此方法取骨骼中部的腧穴,则误差会积累变大;而骨度寸相对于指寸实用性要更加广泛,且其测量方法在身体的不同区域也有所不同,且相对于指寸,骨度寸的可靠性和精度都更高。根据中医相关资料,背腰部的骨度寸有多种测量方法。
第七颈椎棘突下到腰椎的距离可折算为17骨度寸。根据腧穴标准可知,第七颈椎棘突下为大椎穴的临床定位体表标志,而督脉中的悬枢穴其临床定位体表标志为第1腰椎棘突下凹陷中,可代表腰椎与胸椎的分界线,故可用大椎穴到悬枢穴的距离来近似估算第七颈椎棘突下到腰椎的距离,进而得出骨度寸的近似长度。因此,可根据基准穴道坐标计算督脉上的其他穴道坐标,计算出膀胱经上的穴道坐标。所有背部目标穴道位置示意图如图6所示,图中穴道名称采用标号代替,标号与穴道的对应关系图5所示。
为了评估训练得到的模型的定位结果,将测试集输入模型并根据模型输出结果和标定结果计算误差。我们的模型的单穴道坐标定位误差 (MPAPPE)。MPAPPE是指每个关节的估计坐标与地面真实坐标之间的平均欧氏距离。
Figure RE-GDA0003921467330000091
其中,N代表测试集的大小,
Figure RE-GDA0003921467330000092
是第i个的模型输出穴道坐标, px(i)是第i个穴道标定坐标。
大椎穴的定位误差为4.71mm,而腰阳关穴的定位误差为16.43mm。其中,随机森林的决策树数量也被设置为1000,其余为默认参数。结果显示,与其他几种回归算法相比,GBDT的误差更小,可以得到背部关键点到穴道的更准确映射关系。MAE是指在每个关节上估计的坐标和标定坐标之间的欧式空间距离的平均值。
Figure RE-GDA0003921467330000093
其中,N代表测试集的大小,
Figure RE-GDA0003921467330000094
是估计每个穴道平均位置误差的函数。
督脉上的基准穴道坐标可以通过上节中的定位模型得到。由穴道定位方案可知,根据基准穴道坐标以及人体脊柱骨节之间的经验公式,可以计算出督脉上除大椎穴和腰阳关穴以外的穴道坐标。在得到督脉上的穴道坐标后,便可根据膀胱经与督脉穴道之间的相对位置关系计算出膀胱经上穴道的具体坐标。第一侧线上的穴道在垂直脊椎的方向上相对督脉旁开1.5 骨度寸,而第二侧线则相对督脉旁开3骨度寸。对于膀胱经上一些在督脉上没有直接对照的穴道,可以采用前后平均插值的计算方法,使用在经脉顺序上相邻的穴道坐标均值来近似估算其具体坐标,计算方法如下。
Pmid=(Pfront+Pback)/2。
式中,Pmid为当前待求解穴道坐标,Pfront和Pback分别表示与待求解穴位相邻的前、后穴道的坐标。
该种基于机器视觉的背部穴道的定位方法通过以下过程来对穴位进行定位,首先获取包含人体的轮廓、姿态等信息的二维RGB图像数据,以及包含人体背部的深度信息的三维点云数据;通过二维RGB图像数据提取得到肩部特征点;通过三维点云数据提取得到臀部特征点;将提取得到的二维肩部特征点和臀部特征点进行融合;进行模型训练,将融合后所有特征点的坐标输入GBDT算法进行回归训练,得到基准穴道坐标的回归模型;通过回归模型得到标准基准穴道坐标,基于标准基准穴道坐标建立了其他背部穴道坐标的计算公式,计算得到其他背部穴道坐标;模型训练完成之后不再需要人工手动标定,为后续的各式推拿操作提供了参考。
最后应说明的是:以上仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种基于机器视觉的背部穴道的定位方法,其特征在于:包括以下步骤,
步骤1、获取包含人体的轮廓、姿态等信息的二维RGB图像数据,以及包含人体背部的深度信息的三维点云数据;
步骤2、通过二维RGB图像数据提取得到肩部特征点;通过三维点云数据提取得到臀部特征点;
步骤3、将提取得到的二维肩部特征点和臀部特征点进行融合;
步骤4、进行模型训练,将融合后所有特征点的坐标输入GBDT算法进行回归训练,得到基准穴道坐标的回归模型;
步骤5、通过回归模型得到标准基准穴道坐标,基于标准基准穴道坐标建立了其他背部穴道坐标的计算公式,计算得到其他背部穴道坐标。
2.根据权利要求1所述的一种基于机器视觉的背部穴道的定位方法,其特征在于,所述的步骤2中通过二维RGB图像数据提取得到肩部特征点所采用的方法是,通过OpenPose人体姿态检测算法来进行特征提取,人体骨架中的左肩节点、颈背节点以及右肩节点三个关键点作为二维特征点。
3.根据权利要求1所述的一种基于机器视觉的背部穴道的定位方法,其特征在于,所述的步骤2通过三维点云数据提取得到臀部特征点的方法是,通过3D相机对人体背部进行拍摄三维点云数据,采用人体两侧臀部最高点的连线与后正中线的交点作为三维特征点,将3D相机拍摄时的y轴和推拿床长边方向保持平行,故可根据点云y轴两侧的点数来判断人体后正中线的位置,并对两侧点的z轴坐标进行遍历对比,分别得到两侧臀部的最高点的坐标,最终计算出三维点云特征点。
4.根据权利要求3所述的一种基于机器视觉的背部穴道的定位方法,其特征在于,所述的将提取得到的二维肩部特征点和臀部特征点进行融合的方法是,将刚体旋转和平移将3D相机坐标系转换为RGB相机坐标系,然后根据透视投影关系将三维坐标转化为二维坐标,将三维臀部特征点和二维肩部特征点融合到二维坐标系上。
5.根据权利要求1所述的一种基于机器视觉的背部穴道的定位方法,其特征在于,所述的模型训练的方法是,将融合后的臀部特征点和肩部特征点的坐标整合成向量作为输入,输入到梯度提升决策树机器学习算法中,建立基准穴道坐标的回归模型。
6.根据权利要求1所述的一种基于机器视觉的背部穴道的定位方法,其特征在于,所述的步骤5的具体操作是,将新采集到的特征点数据输入模型中得到基准穴道坐标,基准穴道坐标为
Figure DEST_PATH_IMAGE002
Figure DEST_PATH_IMAGE004
,则根据脊柱区骨椎分布规律及基准穴道坐标得到其他穴道的坐标计算公式为,
Figure DEST_PATH_IMAGE006
CN202210793374.8A 2022-07-05 2022-07-05 一种基于机器视觉的背部穴道的定位方法 Pending CN115496786A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210793374.8A CN115496786A (zh) 2022-07-05 2022-07-05 一种基于机器视觉的背部穴道的定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210793374.8A CN115496786A (zh) 2022-07-05 2022-07-05 一种基于机器视觉的背部穴道的定位方法

Publications (1)

Publication Number Publication Date
CN115496786A true CN115496786A (zh) 2022-12-20

Family

ID=84467390

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210793374.8A Pending CN115496786A (zh) 2022-07-05 2022-07-05 一种基于机器视觉的背部穴道的定位方法

Country Status (1)

Country Link
CN (1) CN115496786A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116469519A (zh) * 2023-03-23 2023-07-21 北京鹰之眼智能健康科技有限公司 基于红外图像的人体穴位获取方法
CN116531248A (zh) * 2023-05-10 2023-08-04 上海芯兀极智能科技有限公司 基于多传感融合人体腧穴定位方法
CN117398252A (zh) * 2023-11-29 2024-01-16 佛山需要智能机器人有限公司 一种自动定位人体背部图像采集方法及按摩系统

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116469519A (zh) * 2023-03-23 2023-07-21 北京鹰之眼智能健康科技有限公司 基于红外图像的人体穴位获取方法
CN116469519B (zh) * 2023-03-23 2024-01-26 北京鹰之眼智能健康科技有限公司 基于红外图像的人体穴位获取方法
CN116531248A (zh) * 2023-05-10 2023-08-04 上海芯兀极智能科技有限公司 基于多传感融合人体腧穴定位方法
CN117398252A (zh) * 2023-11-29 2024-01-16 佛山需要智能机器人有限公司 一种自动定位人体背部图像采集方法及按摩系统
CN117398252B (zh) * 2023-11-29 2024-05-03 佛山需要智能机器人有限公司 一种自动定位人体背部图像采集方法及按摩系统

Similar Documents

Publication Publication Date Title
CN115496786A (zh) 一种基于机器视觉的背部穴道的定位方法
CN112641511B (zh) 关节置换手术导航系统及方法
CN109785374B (zh) 一种牙科增强现实手术导航的自动实时无标记图像配准方法
CN102525795B (zh) 一种足部按摩机器人快速自动定位方法
CN108765417A (zh) 一种基于深度学习和数字重建放射影像的股骨x线片生成系统及方法
CN108852302B (zh) 一种中医数字可视化系统和方法
CN104207931B (zh) 人脸面部穴位精准定位和针灸处方学习方法
CN110533763B (zh) 一种基于云平台的智能矫形外固定系统
KR100979506B1 (ko) 사상체질 자동진단기
CN110930374A (zh) 一种基于双深度相机的腧穴定位方法
CN107016666A (zh) 基于坐标体系的骨盆ct三维重建的图像后处理方法
CN105389444B (zh) 一种个性化种植牙的龈缘曲线设计方法
CN104739548A (zh) 一种基于参数化驱动的个体化人工膝关节假体的设计系统
CN109961436A (zh) 一种基于人工神经网络模型的正中矢状平面构建方法
CN108309334A (zh) 一种脊柱x线影像的数据处理方法
CN106960439B (zh) 一种脊椎骨识别装置及方法
CN107240128A (zh) 一种基于轮廓特征的x线片和彩色照片配准方法
CN105498100A (zh) 一种监测生理运动曲线和体表轮廓的方法及系统
CN114557769A (zh) 一种肺小结节的定位方法
CN108876770A (zh) 一种眼底多光谱图像联合配准方法及系统
CN110400618B (zh) 一种基于人体运动结构特征的三维步态生成方法
CN106934810A (zh) 一种脊椎矫正装置
CN109003283A (zh) 一种基于主动形状模型的主动脉轮廓分割算法
CN107714078A (zh) 一种利用结构特征定位骨与关节内植物三维位置的方法及系统
WO2023024397A1 (zh) 一种医疗用机器人装置、系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination