CN111402338A - 一种穴位定位方法 - Google Patents

一种穴位定位方法 Download PDF

Info

Publication number
CN111402338A
CN111402338A CN202010296507.1A CN202010296507A CN111402338A CN 111402338 A CN111402338 A CN 111402338A CN 202010296507 A CN202010296507 A CN 202010296507A CN 111402338 A CN111402338 A CN 111402338A
Authority
CN
China
Prior art keywords
human body
threshold
image
edge
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010296507.1A
Other languages
English (en)
Other versions
CN111402338B (zh
Inventor
田会峰
凌政
徐杰
刘禄辰
刘乾
朱银东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu University of Science and Technology
Original Assignee
Jiangsu University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu University of Science and Technology filed Critical Jiangsu University of Science and Technology
Priority to CN202010296507.1A priority Critical patent/CN111402338B/zh
Publication of CN111402338A publication Critical patent/CN111402338A/zh
Application granted granted Critical
Publication of CN111402338B publication Critical patent/CN111402338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61HPHYSICAL THERAPY APPARATUS, e.g. DEVICES FOR LOCATING OR STIMULATING REFLEX POINTS IN THE BODY; ARTIFICIAL RESPIRATION; MASSAGE; BATHING DEVICES FOR SPECIAL THERAPEUTIC OR HYGIENIC PURPOSES OR SPECIFIC PARTS OF THE BODY
    • A61H39/00Devices for locating or stimulating specific reflex points of the body for physical therapy, e.g. acupuncture
    • A61H39/02Devices for locating such points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Rehabilitation Therapy (AREA)
  • Pain & Pain Management (AREA)
  • Epidemiology (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种穴位定位方法,利用骨骼定穴位结合机器视觉,通过追踪脊柱、肚脐及膝盖的穴位坐标,实现可以通过骨骼定穴位的第一类穴位的精准定位;针对部分通过骨骼定穴位无法精准得到的第二类穴位,采用人体比例样本数据得到第二类穴位的精准位置,同时人体比例样本数据可以为骨骼定穴位得到的第一类穴位提供一个参考,减小误差;相比于传统的人定穴位,机器视觉定穴位效率更高、准确率更高、成本更少,比背部标定标记点更加便捷,具有更强的普适性;利用双目摄像头有利于减少人体因光线问题导致的建模不准确。

Description

一种穴位定位方法
技术领域
本发明涉及穴位定位技术领域,尤其涉及一种穴位定位方法。
背景技术
艾灸作为中国传统中医理疗的一个重要组成部分,广受老百姓们的喜爱。可是艾灸却一直未能走进千家万户,原来艾灸穴位的定位常常需要经验丰富的老师傅,这很大程度上限制了艾灸行业的发展。
穴位准不准往往决定了艾灸的疗效,所以我们依据古老的艾灸穴位定位方法结合物联网思维与机器视觉的方法研发了一种智能艾灸床的定穴方法。基于机器视觉的智慧艾灸穴位追踪可以实时准确地定位人体的穴位,解决了这一难题,能够让艾灸更加普及,为更多的人带来健康幸福。
发明内容
本发明的目的在于提供一种穴位定位方法,以解决现有的艾灸穴位定位方法无法准确定穴的问题。
为了达到上述目的,本发明提供了一种穴位定位方法,包括:
利用双目摄像头采集人体图像,并对所述人体图像进行灰度处理得到第一灰度图像;
利用多级边缘检测方法对所述第一灰度图像进行边缘检测,以得到用于指示人体轮廓的第二灰度图像;
在所述第二灰度图像中建立二维坐标系,利用所述第二灰度图像中的人体轮廓坐标拟合出脊柱的虚拟位置坐标线,并根据脊柱的虚拟位置坐标线得到肚脐的中心坐标及膝盖的轮廓坐标从而确定第一类穴位的位置;
将脊柱的虚拟位置坐标线、肚脐的中心坐标及膝盖的轮廓坐标带入人体比例样本数据中进行秩和检验;
当检测结果大于或等于设定值时,利用人体比例样本数据确定从而确定第二类穴位的位置。
可选的,当检测结果大于或等于所述设定值时,重新利用所述双目摄像头重新采集人体图像进行穴位定位,直至检测结果小于所述设定值。
可选的,利用多级边缘检测方法对所述第一灰度图像进行边缘检测的步骤包括:
对所述第一灰度图像进行滤波处理,以去除所述第一灰度图像中的噪点;
利用sobel算子对所述第一灰度图像进行边缘检测以得到用于指示候选边缘的候选边缘图像;
设置第一阈值和第二阈值,判定所述候选边缘中梯度幅值大于或等于所述第一阈值的像素点为边缘点,梯度幅值小于所述第二阈值的像素点为非边缘点,梯度幅值小于所述第一阈值且大于或等所述第二阈值的像素点为疑似边缘点;
判定邻接像素中有边缘点的疑似边缘点为边缘点,邻接像素中没有边缘点的疑似边缘点为非边缘点,从而得到用于指示人体轮廓的第二灰度图像。
可选的,当检测结果小于所述设定值时,利用所述双目摄像头重新采集人体图像进行穴位定位和/或改变所述第一阈值及所述第二阈值,直至检测结果大于或等于所述设定值。
可选的,利用最大类间方差算法求得所述第一阈值和所述第二阈值。
可选的,所述第一阈值为216,第二阈值为78。
可选的,脊柱的虚拟位置坐标线为(ux,uy),其中,ux=(xn-xm)/2,uy=(yn-ym)/2,xn、xm为一虚拟水平线与人体轮廓的两个交点的横坐标,yn、ym为所述虚拟水平线与人体轮廓的两个交点的纵坐标。
可选的,所述秩和检验的检测结果是将所述脊柱的虚拟位置坐标线、肚脐的中心坐标及膝盖的轮廓坐标与其身高和体重相近的人群的对应的平均坐标进行比较得到的显著性指标。
可选的,所述设定值小于或等于0.05。
本发明提供的穴位定位方法有如下有益效果:
(1)由于穴位与骨骼的位置息息相关,利用骨骼定穴位结合机器视觉,通过追踪脊柱、肚脐及膝盖的穴位坐标,实现可以通过骨骼定穴位的第一类穴位的精准定位;
(2)针对部分通过骨骼定穴位无法精准得到的第二类穴位,采用人体比例样本数据得到第二类穴位的精准位置,同时人体比例样本数据可以为骨骼定穴位得到的第一类穴位提供一个参考,减小误差;
(3)相比于传统的人定穴位,机器视觉定穴位效率更高、准确率更高、成本更少,比背部标定标记点更加便捷,具有更强的普适性;
(4)利用双目摄像头有利于减少人体因光线问题导致的建模不准确。
附图说明
图1为本发明实施例提供的穴位定位方法的流程图;
图2为本发明实施例提供的设置三个不同的第一阈值和第二阈值得到的第二灰度图像;
图3为本发明实施例提供的标定物位置分布图。
具体实施方式
下面将结合示意图对本发明的具体实施方式进行更详细的描述。根据下列描述和权利要求书,本发明的优点和特征将更清楚。需说明的是,附图均采用非常简化的形式且均使用非精准的比例,仅用以方便、明晰地辅助说明本发明实施例的目的。
如图1所示,本实施例提供的穴位定位方法包括:
步骤S1:利用双目摄像头采集人体图像,并对所述人体图像进行灰度处理得到第一灰度图像;
步骤S2:利用多级边缘检测方法对所述第一灰度图像进行边缘检测,以得到用于指示人体轮廓的第二灰度图像;
步骤S3:在所述第二灰度图像中建立二维坐标系,利用所述第二灰度图像中的人体轮廓坐标拟合出脊柱的虚拟位置坐标线,并根据脊柱的虚拟位置坐标线得到肚脐的中心坐标及膝盖的轮廓坐标;
步骤S4:将脊柱的虚拟位置坐标线、肚脐的中心坐标及膝盖的轮廓坐标带入人体比例样本数据中进行秩和检验;
步骤S5:当检测结果大于或等于设定值时,利用脊柱、肚脐及膝盖的坐标结合人体比例样本数据确定人体穴位的位置。
具体的,首先执行步骤S1,在艾灸床上方设置双目摄像头,当人体躺在艾灸床上时,双目摄像头采集艾灸床上的人体图像。采用双目摄像头有利于减少人体因光线问题导致的建模不准确的问题,在其他实施例中,双目摄像头也可以替换为其他摄像头。由于双目摄像头采集的是彩色的人体图像,接下来,对所述人体图像进行灰度处理得到第一灰度图像。
接着,执行步骤S2,利用多级边缘检测方法(Canny边缘检测方法)对所述第一灰度图像进行边缘检测。具体的,包括如下步骤:
S21:对所述第一灰度图像进行滤波处理,以去除所述第一灰度图像中的噪点,平滑图像曲线;
S22:利用sobel算子对所述第一灰度图像进行边缘检测以得到用于指示候选边缘的候选边缘图像;
S23:为了确定哪些边界才是真正的边界,需要设置阈值上下限,具体的,设置第一阈值和第二阈值,判定所述候选边缘中梯度幅值大于或等于所述第一阈值的像素点为边缘点,梯度幅值小于所述第二阈值的像素点为非边缘点,梯度幅值小于所述第一阈值且大于或等所述第二阈值的像素点为疑似边缘点;
S24:对于疑似边缘点,可以依据边缘的连通性对其进行判断,具体的,判定邻接像素中有边缘点的疑似边缘点为边缘点,邻接像素中没有边缘点的疑似边缘点为非边缘点,从而得到用于指示人体轮廓的第二灰度图像。
本实施例中,利用sobel算子对所述第一灰度图像进行边缘检测,相较于roberts、prewitt、log等算子,sobel算子进行边缘检测得到的图像的噪点更少,边缘的连贯性更好。并且,利用sobel算子得到的人体轮廓的连续性与清晰度还达不到后续通过轮廓提取坐标的要求,通过设置第一阈值和第二阈值的方式可以提升人体轮廓的整体连续性与平滑度,所以要选择合适的阈值,阈值过高图像的细节过少,阈值过低图像的噪点太多清晰度降低。
本实施例中,利用最大类间方差算法(OTSU算法)求得所述第一阈值和所述第二阈值。具体的,将灰度图像中的目标和背景的分割阈值记作val,目标的像素点占图像的比例记为ω0,平均灰度为μ0,背景像素点数占整幅图像的比例为ω1,平均灰度为μ1,图像的总平均灰度记为μ,类间方差记为g,则类间方差g满足如下公式:
g=ω0ω101)2
通过遍历整个灰度值区间,使得类间方差g最大的阈值val即为第一阈值和第二阈值。
本实施例中,通过实验得到第一阈值Maxval=216,第二阈值Minval=78,图2为本实施例提供的设置三个不同的第一阈值(Maxval)和第二阈值(Minval)得到的第二灰度图像,从图2中可见,当第一阈值Maxval=216,第二阈值Minval=78时,所述第二灰度图像中的人体轮廓的平滑度与噪点是比较合适的。
进一步地,执行步骤S3,在所述第二灰度图像中建立二维坐标系,并提取所述第二灰度图像中人体轮廓的像素坐标点(x,y)从而得到人体轮廓坐标。具体的,如图3所示,根据人体轮廓坐标通过多点拟合曲线拟合出脊柱的虚拟位置坐标线(ux,uy),其中,ux=(xn-xm)/2,uy=(yn-ym)/2,xn、xm为一虚拟水平线与人体轮廓的两个交点的横坐标,yn、ym为所述虚拟水平线与人体轮廓的两个交点的纵坐标。应理解,这里的脊柱的虚拟位置坐标线(ux,uy)是通过拟合得到的接近于人体脊柱中心线的坐标,从而得到脊柱的位置,确定所述脊柱的位置后,可以得到肚脐中心坐标以及膝盖的轮廓位置等,这里将所述脊柱的位置坐标线、肚脐中心坐标以及膝盖的轮廓将作为标定物。
虽然人的身材不尽相同,但是大部分的穴位都是与我们的骨骼位置息息相关的,找准了骨骼与标定物的位置,就可以实现大部分的穴位的精准定位,可见,可以利用骨骼定穴的穴位(第一类穴位)此时都可以精准定位。
针对部分通过骨骼定位无法精准得到的穴位(第二类穴位),需要接着进行操作,具体的,接着执行步骤S4,将脊柱的虚拟位置坐标线、肚脐的中心坐标及膝盖的轮廓坐标带入人体比例样本数据中进行诸如Wilcoxon秩和检验等秩和检验。本实施例中,人体比例样本数据是大数据样本,秩和检验可以将标定物的坐标与身高和体重近似的人群的平均坐标进行比较,得出显著性指标P作为检测结果,其中,所述显著性指标P表示两个比较对象的差异是否显著。可以理解的是,这里描述的“身高和体重近似”的标准可以根据检测的精度要求选择。
最后执行步骤S5,当显著性指标P大于或者等于设定值时,可以通过人体比例样本数据得到第二类穴位的精准位置,也可以为骨骼定位得到的第一类穴位的位置提供一个参考,减小误差;当显著性指标P小于所述设定值时,则需要利用所述双目摄像头重新采集人体图像进行穴位定位或者重新调整第一阈值及所述第二阈值的值(可以缩小第一阈值和第二阈值之间的区间范围),直至检测结果(显著性指标P)大于或等于所述设定值,从而减小误差。
本实施例中,所述设定值小于或等于0.05。
综上,本发明提供的穴位定位方法中,由于穴位与骨骼的位置息息相关,利用骨骼定穴位结合机器视觉,通过追踪脊柱、肚脐及膝盖的穴位坐标,实现可以通过骨骼定穴位的第一类穴位的精准定位;针对部分通过骨骼定穴位无法精准得到的第二类穴位,采用人体比例样本数据得到第二类穴位的精准位置,同时人体比例样本数据可以为骨骼定穴位得到的第一类穴位提供一个参考,减小误差;相比于传统的人定穴位,机器视觉定穴位效率更高、准确率更高、成本更少,比背部标定标记点更加便捷,具有更强的普适性;利用双目摄像头有利于减少人体因光线问题导致的建模不准确。
上述仅为本发明的优选实施例而已,并不对本发明起到任何限制作用。任何所属技术领域的技术人员,在不脱离本发明的技术方案的范围内,对本发明揭露的技术方案和技术内容做任何形式的等同替换或修改等变动,均属未脱离本发明的技术方案的内容,仍属于本发明的保护范围之内。

Claims (8)

1.一种穴位定位方法,其特征在于,包括:
利用双目摄像头采集人体图像,并对所述人体图像进行灰度处理得到第一灰度图像;
利用多级边缘检测方法对所述第一灰度图像进行边缘检测,以得到用于指示人体轮廓的第二灰度图像;
在所述第二灰度图像中建立二维坐标系,利用所述第二灰度图像中的人体轮廓坐标拟合出脊柱的虚拟位置坐标线,并根据脊柱的虚拟位置坐标线得到肚脐的中心坐标及膝盖的轮廓坐标从而确定第一类穴位的位置;
将脊柱的虚拟位置坐标线、肚脐的中心坐标及膝盖的轮廓坐标带入人体比例样本数据中进行秩和检验;
当检测结果大于或等于设定值时,利用人体比例样本数据确定从而确定第二类穴位的位置。
2.如权利要求1所述的穴位定位方法,其特征在于,利用多级边缘检测方法对所述第一灰度图像进行边缘检测的步骤包括:
对所述第一灰度图像进行滤波处理,以去除所述第一灰度图像中的噪点;
利用sobel算子对所述第一灰度图像进行边缘检测以得到用于指示候选边缘的候选边缘图像;
设置第一阈值和第二阈值,判定所述候选边缘中梯度幅值大于或等于所述第一阈值的像素点为边缘点,梯度幅值小于所述第二阈值的像素点为非边缘点,梯度幅值小于所述第一阈值且大于或等所述第二阈值的像素点为疑似边缘点;
判定邻接像素中有边缘点的疑似边缘点为边缘点,邻接像素中没有边缘点的疑似边缘点为非边缘点,从而得到用于指示人体轮廓的第二灰度图像。
3.如权利要求2所述的穴位定位方法,其特征在于,当检测结果小于所述设定值时,利用所述双目摄像头重新采集人体图像进行穴位定位和/或改变所述第一阈值及所述第二阈值,直至检测结果大于或等于所述设定值。
4.如权利要求2所述的穴位定位方法,其特征在于,利用最大类间方差算法求得所述第一阈值和所述第二阈值。
5.如权利要求2或4所述的穴位定位方法,其特征在于,所述第一阈值为216,第二阈值为78。
6.如权利要求1所述的穴位定位方法,其特征在于,脊柱的虚拟位置坐标线为(ux,uy),其中,ux=(xn-xm)/2,uy=(yn-ym)/2,xn、xm为一虚拟水平线与人体轮廓的两个交点的横坐标,yn、ym为所述虚拟水平线与人体轮廓的两个交点的纵坐标。
7.如权利要求1所述的穴位定位方法,其特征在于,所述秩和检验的检测结果是将所述脊柱的虚拟位置坐标线、肚脐的中心坐标及膝盖的轮廓坐标与其身高和体重相近的人群的对应的平均坐标进行比较得到的显著性指标。
8.如权利要求1或7所述的穴位定位方法,其特征在于,所述设定值小于或等于0.05。
CN202010296507.1A 2020-04-15 2020-04-15 一种穴位定位方法 Active CN111402338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010296507.1A CN111402338B (zh) 2020-04-15 2020-04-15 一种穴位定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010296507.1A CN111402338B (zh) 2020-04-15 2020-04-15 一种穴位定位方法

Publications (2)

Publication Number Publication Date
CN111402338A true CN111402338A (zh) 2020-07-10
CN111402338B CN111402338B (zh) 2023-05-09

Family

ID=71431623

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010296507.1A Active CN111402338B (zh) 2020-04-15 2020-04-15 一种穴位定位方法

Country Status (1)

Country Link
CN (1) CN111402338B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381878A (zh) * 2020-11-13 2021-02-19 上海优加利健康管理有限公司 一种心电电极辅助定位方法和设备
CN112991437A (zh) * 2021-04-08 2021-06-18 上海盛益精密机械有限公司 基于图像展缩技术的全自动穴位定位方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102743282A (zh) * 2012-07-03 2012-10-24 成都中医药大学 一种基于图像识别的智能针灸穴位定位装置及方法
KR20140132525A (ko) * 2013-05-08 2014-11-18 (주)약침학회 3차원 영상 촬영 장치를 이용한 경혈 위치 및 자침 깊이 결정 방법
CN108021919A (zh) * 2016-10-28 2018-05-11 夏普株式会社 穴位定位的图像处理装置和图像处理方法
CN108461120A (zh) * 2018-02-09 2018-08-28 北京天材科技有限公司 一种利用机械手实施针灸操作的方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102743282A (zh) * 2012-07-03 2012-10-24 成都中医药大学 一种基于图像识别的智能针灸穴位定位装置及方法
KR20140132525A (ko) * 2013-05-08 2014-11-18 (주)약침학회 3차원 영상 촬영 장치를 이용한 경혈 위치 및 자침 깊이 결정 방법
CN108021919A (zh) * 2016-10-28 2018-05-11 夏普株式会社 穴位定位的图像处理装置和图像处理方法
CN108461120A (zh) * 2018-02-09 2018-08-28 北京天材科技有限公司 一种利用机械手实施针灸操作的方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112381878A (zh) * 2020-11-13 2021-02-19 上海优加利健康管理有限公司 一种心电电极辅助定位方法和设备
CN112991437A (zh) * 2021-04-08 2021-06-18 上海盛益精密机械有限公司 基于图像展缩技术的全自动穴位定位方法

Also Published As

Publication number Publication date
CN111402338B (zh) 2023-05-09

Similar Documents

Publication Publication Date Title
CN109829942B (zh) 一种眼底图像视网膜血管管径自动量化方法
US20140046169A1 (en) Methods, systems, and devices for spine centrum extraction and intervertebral disk dividing
CN111402338A (zh) 一种穴位定位方法
CN108257126A (zh) 三维视网膜oct图像的血管检测和配准方法、设备及应用
CN106780530A (zh) 一种体型预测方法及设备
CN110310323A (zh) 基于Hessian矩阵和二维高斯拟合的视网膜血管管径测量方法
CN106408566A (zh) 一种胎儿超声图像质量控制方法及系统
CN106296613B (zh) 一种基于dr机器的双能量减影方法
CN106157279A (zh) 基于形态学分割的眼底图像病变检测方法
CN108537787A (zh) 一种人脸图像的质量判定方法
CN114627080B (zh) 基于计算机视觉的车辆冲压配件缺陷检测方法
Low et al. Automating vitiligo skin lesion segmentation using convolutional neural networks
Smistad et al. Automatic segmentation and probe guidance for real-time assistance of ultrasound-guided femoral nerve blocks
Valsecchi et al. A robust and efficient method for skull-face overlay in computerized craniofacial superimposition
CN106447664A (zh) 确定匹配点对的方法及图像获取方法
Niu et al. Automated detection of foveal center in SD‐OCT images using the saliency of retinal thickness maps
CN105225234A (zh) 基于支持向量机mri图像分割的肺部肿瘤识别方法
CN106204564A (zh) 一种激光光心提取方法
KR20090060900A (ko) 요골원위부 골간단 경계추출 방법 및 장치
CN110751064B (zh) 基于图像处理的眨眼次数分析方法和系统
Kumar et al. Active contours techniques for automatic detection of glaucoma
CN111210424A (zh) 一种骨龄x光片rus骨块近轮廓点定位方法
Nakagawa et al. Three-dimensional reconstruction of optic nerve head from stereo fundus images and its quantitative estimation
CN106485650A (zh) 确定匹配点对的方法及图像获取方法
Tang et al. Scoliosis Detection Based on Feature Extraction from Region-of-Interest.

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant