CN101506825B - 用于将毛囊单位分类的系统和方法 - Google Patents

用于将毛囊单位分类的系统和方法 Download PDF

Info

Publication number
CN101506825B
CN101506825B CN2007800309598A CN200780030959A CN101506825B CN 101506825 B CN101506825 B CN 101506825B CN 2007800309598 A CN2007800309598 A CN 2007800309598A CN 200780030959 A CN200780030959 A CN 200780030959A CN 101506825 B CN101506825 B CN 101506825B
Authority
CN
China
Prior art keywords
image
hair
profile
follicular unit
classification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN2007800309598A
Other languages
English (en)
Other versions
CN101506825A (zh
Inventor
谢赫尔扎德·A·库雷希
莫汉·博杜卢里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Weiss Concept Co
Original Assignee
Restoration Robotics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Restoration Robotics Inc filed Critical Restoration Robotics Inc
Publication of CN101506825A publication Critical patent/CN101506825A/zh
Application granted granted Critical
Publication of CN101506825B publication Critical patent/CN101506825B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Surgical Instruments (AREA)

Abstract

一种用于基于所关注毛囊单位中的毛发的数目将毛囊单位分类的系统和方法包括:获取具有所关注毛囊单位的身体表面的图像,处理所述图像以计算所述毛囊单位的轮廓和忽视所述轮廓中的凹面的侧视轮廓图,以及确定所述侧视轮廓图中的缺陷的数目以确定所述毛囊单位中的毛发的数目。所述系统和方法还可调整集中在皮肤下方的毛发和看似为单一宽毛发但实际上是多个毛发的图像。在另一方面中,一种用于确定毛囊单位的端点的系统和方法包括:产生经分段图像的框架,以及从所述经框架化图像识别所述端点。

Description

用于将毛囊单位分类的系统和方法
技术领域
本发明大体上涉及毛发移植程序,且更特定来说,涉及一种用于使用用于毛发移植程序中的数字成像和处理技术将毛囊单位分类的系统和方法。 
背景技术
毛发移植程序是众所周知的,且通常涉及(在具有男性模式脱发症的患者身上)从患者头皮的侧部和后部边缘区域(供体区域)采集供体毛发移植物,且将其植入在脱发区域(接收区域)中。历史上,所采集的移植物相对较大(3-5mm),但最近,供体移植物可为单一毛囊单位。具体来说,“毛囊单位”(本文中也称为FU)是自然发生的总计为1-3个(和不大常见的4-5个)随机分布在头皮表面上的紧密间隔的毛囊。 
可基于所述单位中的毛发的数目来分类或“定型”毛囊单位,且对于具有3-5根毛发的毛囊单位,单一毛发毛囊单位简写为“F1”,两个毛囊单位简写为“F2”,依此类推,而进行识别。在多个毛发毛囊单位的一些情况下,所述毛发可能看似从皮肤中的单一小囊或点发散。在其它情况下,毛发可在略微间隔开的位置处离开皮肤表面,但集中于皮肤下方的单一毛囊单位中。参看图1,展示具有多种类型毛囊单位的人类头皮11的示范性区段的数字图像的印刷品。举例来说,毛囊单位13具有两根毛发,且因此为F2,而毛囊单位15为F1,因为其仅具有单一毛发。类似地,毛囊单位17看似为具有三根毛发的F3。 
基于毛囊单位中的毛发的数目来识别并分类毛囊单位是重要且合乎需要的有若干原因。其一,优选将某些种类的毛囊单位移植到头皮的特定区中。举例来说,通常沿着构成脸面框架的发线来植入单一毛发毛囊单位(F1)。通常将具有一根以上毛发的毛囊单位(F2、F3等)植入在中间头皮和顶部中。毛囊单位分布的此布置被认为产生更自然的外观美学结果。仍可能需要利用多种种类(也称为“类型”)的毛囊单位来提供经移植毛发的外观的所需属性。此类属性可(尤其)包含毛发密度、毛发的方向或定向、若干类型的毛囊单位的特定混合,和/或随机性的外观等可能的属性。 
在规划并执行毛发移植程序的过程中,除了基于毛囊单位所含有的毛发的数目将毛囊单位分类,可能还需要定位并识别毛囊单位中每一此类毛发的端点。一个端点(通常位于皮肤表面上且称为“尾部”)是毛囊单位的一根或一根以上毛发从其处从皮肤显现 出来的点。另一端点被称为“头部”,且对应于毛囊单位的每一毛发处于皮肤表面上方的顶端。因此,单一毛发毛囊单位具有一个头部,而两根毛发毛囊单位具有两个头部。毛囊单位的位于皮肤表面下方的另一端点被称为“球部”,且对应于毛囊单位的一根或一根以上毛发在皮下发起的位置/端点。需要知道各种相关端点的位置的一个原因是能够采集毛囊单位并接着将其植入,而不会对其或其部分造成损坏。举例来说,如果F2毛囊单位具有长于另一毛发的一根毛发,使得头部1比头部2更远离皮肤而定位,那么其常指示在皮肤下方,毛囊单位的主要方向在具有头部1的毛发的轴的方向上延伸。因此,知道毛囊单位的每一头部的位置可有助于确定毛囊单位在皮肤表面下方的角度和定向,其又可用于更好地定位采集工具,进而降低在采集时毛发横切的可能性,且还改进毛发移植程序的功效。 
先前已揭示毛发移植的各种程序,包含手动和机械化达到某些自动化程度。在一种众所周知的手动工艺中,通过使用解剖刀向下解剖进入脂肪皮下组织而从供体区域移除头皮的线性部分。条带经解剖(在显微镜下)进入组件毛囊单位,其然后被植入到由针制成的相应刺孔中的接收区域中。通常使用镊子抓取毛囊单位移植物,并将其放置到针刺位置中,但已知用于完成此操作的其它仪器和方法。 
在“雄激素性脱发症”(斯普灵格(Springer),1996)中,M.稻叶(M.Inaba)和Y.稻叶揭示并描述一种用于通过定位具有切割边缘和具有1mm直径的内腔的中空打孔针来采集单数个毛囊单位的手动方法,所述内腔的直径约等于毛囊单位的关键解剖部分的直径。针孔与将要提取的毛囊单位的轴轴向对准,且然后前进到头皮中以围绕选定毛囊单位的圆周切割头皮。其后,例如使用镊子,容易地移除毛囊单位,以用于随后使用专门设计的插针植入到接收部位中。 
第6,585,746号美国专利揭示一种利用机器人的自动化毛发移植系统,所述机器人包含机械手和与所述机械手相关联的毛囊导引器。视频系统用于产生患者头皮的三维虚拟图像,其用于规划将要接收在机械手的控制下由小囊导引器植入的毛发移植物的头皮位置。第6,585,746号美国专利的全部揭示内容以引用的方式并入本文中。 
在2005年9月30日申请的第60/722,521号美国临时专利申请案、2005年12月22日申请的第60/753,602号美国临时专利申请案、2006年1月31日申请的第60/764,173号美国临时专利申请案,和2006年4月28日申请的第11/380,903号美国专利申请案(现公开为美国2007/0078466),以及2006年4月28日申请的第11/380,907号美国专利申请案(现公开为美国2007/0106306)中还揭示用于移植的自动化系统和方法。上述所有申请案的全部内容在此以引用的方式并入本申请案中。 
举例来说,上文参考的第11/380,907号美国专利申请案,所揭示的系统包括机械手,所述机械手具有安装在所述手上的采集和/或植入工具。一个或一个以上的相机也安装在所述手上,并用于将工作空间(例如,身体表面)成像。处理器经配置以接收并处理由相机获取的图像。控制器操作地耦合到所述处理器和所述机械手。所述控制器至少部分基于由所述相机和所述处理器获取的经处理图像来控制所述机械手的移动。所述手可以可控制地移动以相对于所述身体表面将工具定位在所需的定向和位置处以执行毛发的移植。 
在利用用于毛发移植的这些系统和方法中的任一者的过程中,需要首先规划移植以选择将要采集和移植的毛囊单位,并确定将要植入毛发的精确位置。因此,在规划毛发移植程序的过程中,可选择来自身体表面上的特定位置的特定毛囊单位以用于采集和移植到身体表面的不同部分中。可基于某一标准(例如,毛囊单位的类型(即,F1、F2等)、毛发在毛囊单位中的定向、毛发的密度等)来选择将要移植的毛囊单位。然而,计数并表征每一毛囊单位的过程可为繁琐和耗时的。因此,需要一种用于将毛囊单位分类的系统和方法,其包含使用自动化系统来识别毛囊单位的每一毛发的端点。 
发明内容
根据本文所揭示的本发明的一般方面,提供一种用于使用自动化系统将毛囊单位分类的系统和方法。本发明的系统和方法可与用于在身体表面上移植毛发毛囊单位的系统和方法一起利用。当在用于毛发移植的自动化系统上实施或与其整合时,本发明的系统和方法尤其有用。 
在本发明的一个方面中,所述将毛囊单位分类的方法包括:获取存在毛囊单位(FU)的身体表面的图像,以及处理此图像以产生所述FU的经分段图像。在一个示范性实施例中,所述经分段图像是二进制图像。可从所述FU的经分段图像计算围绕所述FU的毛发的外周边的轮廓。举例来说,对于F1,所述轮廓将通常为遵循单一毛发的外表面的线或表面。对于相对直的毛发,所述轮廓将看似为矩形。对于F2,毛发通常形成“V”形,使得所述轮廓看似为印刷体字母“V”。 
所述经分段图像还允许计算所述FU的侧视轮廓图。所述侧视轮廓图忽视所述图像的轮廓中的凹面。举例来说,对于F2,存在通过从“V”的顶部的一侧到“V”的顶点,且倒退到“V”的顶部的另一侧的轮廓中的下降而形成的所述轮廓中的凹面或“内弯”部分。所计算的轮廓忽视此凹面,使得所得的侧视轮廓图看似为一三角形,其中所述三角形的顶点中的一者大体上跟踪所述FU的轮廓的“V”的顶点。 
接着将所述侧视轮廓图与所述轮廓进行比较以确定所述侧视轮廓图中的“缺陷”的数目。可将所述侧视轮廓图中的缺陷界定为(例如)所述侧视轮廓图中的偏离所述轮廓的凹面中的每一者。在F2实例中,在侧视轮廓图中存在一个由形成为“V”形的凹面表示的缺陷。在F3中,所述轮廓将大体上成形为如同共用共同顶点的两个V,且其中一个线形成两个V的一边。F3的侧视轮廓图也将具有大体三角形形状(但其可能为比F2宽的三角形)。因此,F3将具有两个缺陷。因此,可见,缺陷的数目与毛囊单位的类型具有直接关系。在此情况下,FU的毛发的数目等于缺陷的数目加上1。 
在将毛囊单位分类的方法的一个实施例中,可通过依照众所周知的图像处理技术来计算凸包轮廓,而确定侧视轮廓图。用于确定侧视轮廓图的其它适当技术也在本发明的范围内。 
在本发明的方法的另一方面中,提供一种程序以用于追踪所关注FU,以调整图像获取装置与FU之间的相对移动。在一个示范性实施例中,2个相机可用于在第一和第二相机的图像内追踪所关注FU,以调整身体表面的移动和/或相机的移动。另外,第一和第二相机与FU的毛发的大体定向对准。以此方式,获得一图像,其提供更好质量的数据以用于执行将FU分类的方法的剩余步骤。然而,可使用多个图像获取装置(例如,相机)来执行追踪程序,以及通过从各个角度拍摄多个图像(包含全景图像)而使用单一相机来执行追踪程序。可手动地实现相机的移动,或如果所使用的系统为机器人系统,则在机器人的辅助下实现相机的移动。 
在本发明的又一方面中,将毛囊单位分类的方法还可调整具有集中于皮肤表面下方的毛发的毛囊单位。在此情况下,所述图像将含有并非为所关注FU的轮廓的邻接部分的毛发的图像。为了考虑到此情形,确定单独的毛发是否处于距界定所关注FU的邻接轮廓的毛发的最大距离内。所述最大距离将被设置为一距离,在所述距离内,看似为来自单独FU的毛发最可能为与所关注FU相同的FU的一部分。对所关注FU的分类然后考虑处于距所关注FU的毛发最大距离内的任何额外毛发。 
在本发明的又一方面中,将毛囊单位分类的方法还可调整看似为单一毛发但实际上为多个毛发的毛发图像。如果以与FU的毛发成某一角度来拍摄数字图像,则所述毛发的图像可合并并看似为一根毛发。因此,确定缺陷的数目将不提供准确的分类,因为经合并的毛发将导致侧视轮廓图中的比所关注FU中实际上存在的缺陷少的缺陷(且因此较少的毛发)。为了考虑到此情形,所述方法确定表示所关注FU中的一根毛发的每一对象的宽度(或口径),并将其与单一毛发的宽度进行比较。将FU分类的步骤还可基于以下确定的结果:表示一根毛发的对象的宽度是否超过最大预期宽度。举例来说,如果所 述宽度在所预期宽度的1-1/2与2倍之间,则分类步骤将把此对象近似为两根毛发。可针对3、4或5根毛发进行类似近似。 
在本发明的进一步方面中,提供一种用于确定毛囊单位(FU)的端点的方法。此方法允许确定FU的在皮肤表面上或上方的端点以及皮下端点。此方法包括:获取含有FU的身体表面的图像,处理所述图像以产生FU的经分段图像、产生所述FU的经分段图像的框架,和从所述框架确定所述FU的至少一个端点。产生框架或“框架化”是用于将经分段图像中的前景区减少到框架剩余物的过程。本发明的方法不限于用于产生所关注图像的框架的特定技术或方法,而是涵盖所有适当方法,包含(以实例且非限制的方式)细化方法、基于边缘检测的技术、希尔第池(Hilditch)算法、使用距离变换中的奇点的对框架的近似等等。在一些实施例中,通过使用多个图像(包含立体图像),或通过将图像的轮廓确定为用于产生框架的额外数据验证,而进一步细化确定端点的方法。 
用于使用自动化系统将FU分类的系统包括图像获取装置和图像处理器。图像获取装置的一个实例是一个或一个以上的相机,例如任何市售相机。替代于相机,其可为视频记录装置(例如,摄像机)或任何其它图像获取装置。虽然立体成像装置在本发明中非常有用,但并没有必要采用立体成像。类似地,虽然图像获取装置优选为数字装置,但这并没有必要。举例来说,其可为获取初始图像的模拟TV相机,所述初始图像接着经数字化为数字图像以进一步用于本发明的方法中。图像处理器可包括经编程并经配置以执行根据本发明的将FU分类的方法的任何装置。合适图像处理器的一个非限制性实例是任何类型的个人计算机(“PC”)。或者,图像处理器可包括专用集成电路(ASIC)或现场可编程门阵列(FPGA)。可使用经配置以执行本发明的方法的软件对图像处理器进行编程。 
类似于用于将FU分类的系统,还提供一种用于确定FU的端点的系统。所述用于确定端点的系统可包括与上文参考用于将FU分类的系统所描述的图像获取装置相同或不同的图像获取装置,且其还可包括经编程并经配置以执行确定毛囊单位的端点的方法的端点图像处理器。可单独地或与用于将FU分类的图像处理器组合而提供端点图像处理器,其取决于所使用的系统。 
在本发明的又一方面中,提供一种用于将FU分类的图像处理器。所述图像处理器包括任何合适的计算装置,例如PC或其它处理器,且经配置以接收FU的图像、处理所述图像以产生FU的经分段图像、计算FU的经分段图像的轮廓、计算所述经分段图像的忽视所述FU的所述经分段图像的所述轮廓中的凹面的侧视轮廓图、确定所述FU的所述侧视轮廓图中的缺陷的数目,以及至少部分基于所确定的缺陷的所述数目而将 FU分类。 
在本发明的又一方面中,提供一种用于确定FU的至少一个端点的图像处理器。所述用于确定FU的至少一个端点的图像处理器包括任何合适的计算装置,例如PC或其它处理器,且经配置以用于接收FU的图像、处理所述图像以产生FU的经分段图像、产生所述FU的所述经分段图像的框架,以及从所述框架确定所述FU的至少一个端点。 
在本发明的另一方面中,提供一种图像处理器,其执行将FU分类的过程以及确定FU的至少一个端点的过程。所述图像处理器可为上文所描述的图像处理器中的任一者,其经配置以执行FU分类和端点确定的步骤。所述用于将毛囊单位分类的图像处理器,或端点图像处理器,或执行两种功能的经组合图像处理器可结合各种毛发移植和处理系统及装置而使用,所述毛发移植和处理系统及装置包含(但不限于)用于毛发采集的系统,或用于毛发植入的系统,或用于毛发分类的系统,或毛发处理规划系统。 
所述用于使用自动化系统将毛囊单位分类的系统(以及用于确定毛囊单位的端点的系统)可包括上文背景技术中所描述的移植系统中的任一者。举例来说,第11/380,907号美国专利申请案中所描述的系统可经编程并经配置以执行根据本发明的将毛囊单位分类的方法。所述系统上的相机可提供立体数字图像,且机械手可对相机进行正确的定位和定向。可由操作者在系统(例如,具有监视器和输入装置的计算机)的用户界面处执行关注区的选择,或其可通过计算机和/或控制器的编程而经自动化。 
因此,提供一种用于将毛囊单位分类和/或确定毛囊单位的端点的系统和方法。当鉴于附图进行阅读时从以下详细描述中将明白本发明的其它和进一步的实施例、目的及优点。 
附图说明
在附图的图式中以实例而非限制的方式说明本发明,附图中相同的参考指示相似的元件,且附图中: 
图1是展示多种类型毛囊单位和所关注选定区的人类头皮的示范性区段的数字图像的印刷品。 
图2是单一毛囊单位的数字图像的印刷品。 
图3是在图像已被分段后的图2的数字图像的印刷品。 
图4是图3的数字图像的印刷品,其中使用虚线描绘毛囊单位的毛发的示范性轮廓。 
图5是图3的数字图像的印刷品,其中使用点线描绘毛囊单位的毛发的示范性侧视轮廓图。 
图6是图3的数字图像的印刷品,其展示与毛囊单位的毛发的轮廓相比侧视轮廓图中的缺陷。 
图7是已被分段的数字图像的印刷品,其描绘看似为单独的但实际上是同一毛囊单位的一部分的毛发。 
图8是已被分段的数字图像的印刷品,其描绘看似为单一较宽毛发但实际上是同一毛囊单位的两根毛发的毛发。 
图9是根据本发明的用于将毛囊单位分类的方法的示范性实施例的流程图。 
图10是根据本发明的用于定位毛囊单位的端点的方法的示范性实施例的流程图。 
具体实施方式
首先参看图1,根据本发明的用于将毛囊单位分类的系统和方法的一个示范性实施例一般开始于使用图像获取装置(例如,一个或一个以上的相机或任何其它合适的成像装置)来获取身体表面11的图像10,所述图像获取装置可产生数字图像,例如由数码相机产生的数字图像,或其可产生模拟图像(其在过程中的任何点处可或不可被转换为数字图像)。图1的照片是人类头皮11的一区段的图像,但应理解,身体表面可为具有毛发的任何身体的任何区域。虽然在示范性实施例的此描述中图像10为由数码相机拍摄的数字图像,但本发明并不限于由数码相机拍摄的数字图像,而是包含由任何类型的图像获取装置获取的任何图像的使用。数字图像10展示头皮11上的多种类型的毛囊单位(FU),包含单一毛发(F1)毛囊单位15、两根毛发(F2)毛囊单位13,以及三根毛发(F3)毛囊单位17。 
可使用自动化毛发移植系统的一个或一个以上的数码相机来获取数字图像10,例如第11/380,907号美国专利申请案的毛发移植系统中所描述的相机,所述申请案的全文以引用的方式并入本文中。来自所述相机中的仅一者的图像可用于产生数字图像10。或者,可通过对准所述相机以改进用于将所关注毛囊单位分类的图像的更复杂过程来获取用于获得数字图像10的过程。在此过程中,举例来说,可使用第一相机和第二相机。所述相机可经布置并经配置以获得相机所瞄准的身体表面的立体图像。所述相机首先经定位以瞄准已知具有毛发的区域中的身体表面。从第一相机获取第一数字图像,且从所述第一数字图像内选择所关注毛囊单位(FU)。从第二相机获取与第一相机大致相同的身体表面区的第二数字图像(由立体相机提供的略微不同角度除外),且从第二数字图像内选择相同的所关注FU。可由系统的操作者在数字图像中选择所关注FU,或由系统使用选择算法自动选择。移植系统现在能够追踪来自第一和第二相机的第一和第二数字图 像内的所关注FU。所述追踪程序可用于在身体表面和相机经对准以获取用于将FU分类的数字图像时调整身体表面的移动和相机的移动。接下来,第一和第二相机经移动且定向以与FU的毛发的大体定向对准。随着相机移动,可由系统获取并处理额外图像以便追踪所关注FU。通过使相机与FU的毛发对准,可获取用于将FU分类的更好图像。在相机处于所需对准的情况下,相机获取将在将毛囊单位分类的方法的接下来的步骤中使用的图像。然而,没有必要如上述示范性实施例中所描述而使用两个相机或立体成像。可使用多个图像获取装置(例如,相机)来执行追踪程序,以及通过从各个角度拍摄多个图像(包含全景图像)而使用单一相机执行追踪程序。可手动地移动相机,或在所使用的系统为机器人系统的情况下,则在机器人的辅助下移动相机。 
在获取数字图像10之后,可选择已知含有所关注FU 13(将要分类的FU)的关注区19。应理解,选择关注区的此步骤是可选的,且根据本发明的将FU分类的方法并不需要此步骤。而是,图像10可如此处理,且在示范性实施例的此描述中对关注区19的参考被理解为可与图像10互换。可由操作者选择关注区19,或系统可使选择自动化。 
转向图2,关注区19展示为FU 13的毛发31和33的灰度子图像。接着使用众所周知的数字图像处理技术来处理关注区19和FU 13的此灰度数字图像以产生FU 13的经分段图像。图3展示在图2的数字图像已被分段后的所述数字图像的示范性二进制图像。因为将图像分段的目的中的一者是将前景(例如,毛发)与背景(例如,其它物)分离,所以获得二进制图像(如图3中所示)是一项容易且方便的选择。然而,替代于二进制图像,所述经分段图像可为多模态图像,例如在需要将背景拆散为分离皮肤、克分子、血液等的若干部分时。 
二进制图像的毛发31和33的外周边界定FU 13的轮廓35。轮廓35的演示性表示展示为图4中的虚线35。在本发明的方法中,可围绕毛发31和33的二进制图像的周边来计算轮廓35,或可使用构成二进制图像的外周边的像素。如图4中清楚地展示,具有两根毛发的FU的轮廓35看似为印刷体字母“V”。 
计算FU 15的二进制图像的侧视轮廓图37。侧视轮廓图37是移除凹面的图像的几何形状的外形。在使用如图3-5中所描绘的FU 15的二进制图像的本实例中,将移除的凹面是V形的两个腿部之间的空间。因此,FU 15的二进制图像的所计算侧视轮廓图37将是围绕具有大体三角形形状的形状的线,如由图5中的点线37演示性地表示。可使用所属领域的一般技术人员已知的任何合适算法来计算侧视轮廓图。举例来说,可通过使用众所周知的图像处理技术计算凸包来确定侧视轮廓图37。 
应理解,可以任何次序(首先为轮廓,且接着为侧视轮廓图,或反之亦然)或同时 执行确定轮廓35的步骤和确定侧视轮廓图37的步骤。 
接着将侧视轮廓图37与轮廓35进行比较,以确定所移除的凹面的数目。在产生侧视轮廓图的过程中所移除的凹面一般被称为侧视轮廓图中的“缺陷”。图6中展示将侧视轮廓图37与轮廓35进行比较的步骤的示意性表示。如图6中可见,在FU 15的图像中存在展示为阴影线区域的单一缺陷39。 
接着可使用缺陷的数目来计算毛囊单位中的毛发的数目,并进而将毛囊单位分类。通过从单一点发散的一根或一根以上毛发的几何形状可见,毛发的数目将等于比缺陷的数目多1。因此,对于单一毛发FU,将不存在缺陷,因此FU将为F1。对于具有两根毛发的FU,在两根毛发之间将存在一个缺陷,因此FU将为F2。对于具有三根毛发的FU,将存在两个缺陷,一个缺陷在第一毛发与第二毛发之间,且另一缺陷在第二毛发与第三毛发之间,因此FU将为F3。且对于具有4根或4根以上毛发的毛囊单位依此类推。 
在图9的流程图中概括了将毛囊单位分类的上述示范性方法的基本步骤。图9是上述方法的流程图表示。在步骤100中,获取图像10。在步骤110中,图像10经分段以产生经分段图像11。在步骤120中,确定轮廓35,且在步骤130中,确定侧视轮廓图。如上文所阐释,可以任何次序或同时执行步骤120和130。在步骤140中,确定缺陷的数目,且在步骤150中,至少部分基于缺陷的数目来确定毛囊单位的分类。 
在一些情况下,单一毛囊单位的毛发可能集中于皮肤表面下方,使得二进制图像看似具有两根单独毛发,如图7的实例中所展示。还可能单一毛囊单位可看似为F2,其中两根毛发从单一点发散,且第三毛发略微间隔开,或类似情形。然而,已知如果看似为单独毛发的毛发非常靠近另一毛发,则可能所述毛发属于同一毛囊单位。此认识可用于调整毛囊单位的分类以调整此情形。因此,为了执行此调整,例如使用数字图像来确定毛发之间的距离。假设图7中的毛发33是所关注FU 15的毛发,且毛发31是零落毛发,则所述方法确定这些毛发是否为同一毛囊单位的一部分。在此实例中,使用数字图像来计算毛发33与31之间的距离。如果零落毛发31处于距所关注FU 15的毛发33的所设置最大距离内,则假设零落毛发31是FU 15的一部分。看似为分离但实际上处于同一毛囊单位中的毛发之间的最大距离可为约0.5mm,或0.7mm或0.3mm,或基于患者的物理特征或患者的取样而确定的距离。因此,所述FU 15可被分类为具有单一毛发33加上毛发31,从而导致作为F2的分类。 
调整非常紧密接近的单独毛发的方法(“接近方法”)可结合上述“缺陷”方法而使用。举例来说,可首先执行缺陷方法,且接着可执行所述接近方法,或反之亦然。 
依据用于获取关注区19的数字图像的相机的定向,可能看似为单一毛发的图像可 为其图像从相机的角度重叠的两根或两根以上毛发。图8中描绘此情形的实例。图8是数字图像的印刷品,其描绘看似为单一较宽毛囊但实际上为同一毛囊单位15的两个毛囊的对象。为了在FU 15的分类过程中考虑到此情形,例如通过使用数字图像来确定表示FU 15中的毛囊的每一对象33的宽度。因为表示毛发的每一示范性对象33具有大体上平行于所述对象的长度的长轴和横切所述长轴的短轴,所以沿着所述示范性对象33的短轴计算其宽度。 
在一个示范性实施例中,通过简单地测量跨越图像中所识别的每一毛发的图像的距离来确定所述宽度。可沿着每一毛发的长度在若干位置处对所述宽度进行取样以确定宽度。平均宽度或每一测量的宽度可接着用于确定所述宽度是否超过单一毛发的最大预期宽度。接着确定表示毛囊的每一对象33的宽度(其通常称为毛发的“口径”)是否超过单一毛囊的最大预期宽度。已知单一毛囊具有约50微米(“um”)与100um之间的宽度,且平均值为约75um。将对象33的宽度与单一毛发的最大宽度进行比较允许确定对象33所表示的FU的实际类型。 
接着,将毛囊单位分类的步骤也可基于表示FU中的毛发的每一对象的宽度与单一毛发的最大预期宽度的比较结果。举例来说,如果所述宽度在预期宽度的1-1/2与2倍之间,则分类的步骤将把此对象近似为两根毛发。可针对3、4或5根毛发进行类似近似。可结合上述的缺陷方法和接近方法中的任一者或两者且以任何次序来进行此“宽度调整方法”。 
在本发明的另一方面中,提供一种用于确定毛囊单位(FU)的端点的方法。确定端点可用于帮助确定位于皮肤表面下方(即,皮下的)的毛囊单位的角度和定向,其接着可用于更好地定位采集工具,且改进毛发移植程序的稳健性和准确度。基于毛囊单位的角度和定向对采集工具的改进的定位降低了采集程序期间毛发横切的可能性,且改进了毛发移植程序的功效。 
所述确定FU的端点的方法允许确定FU的在皮肤表面上或上方的端点以及皮下端点。本发明的方法的一示范性实施例包括:产生FU的经分段图像的框架。如上所述,可通过获得所关注图像并对其进行处理以获得经分段图像来创建经分段图像。产生框架或“框架化”是将经分段图像中的前景区减少到框架剩余物的过程,其较大程度地保留图像的原始区的范围和连接性,同时丢弃原始前景像素中的大部分像素。前景区的此减少是通过在不影响所成像对象的大体形状的情况下从图案剥离尽可能多的像素而发生。存在计算经分段图像的框架的不同方式。一种示范性方法是细化方法,借此从边界连续地销蚀像素,同时保留线段的端点,直到不再可能细化为止(此时,留下的是框架)。 基于所述框架,识别端点(例如,头部1、头部2和尾部(参考图10的示范性图像))。转向图10,其以流程图形式概括确定毛囊单位的端点的上述示范性方法的基本步骤。图10的示范性毛囊单位是两根毛发毛囊单位。在步骤200中,获取图像10。在步骤210中,将图像10分段以产生经分段图像11。在步骤230中,产生图像的框架231。在步骤240中,确定端点。在此非限制性实例中,确定并标记头部1(241)、头部2(242)和尾部(243)。 
虽然仅基于经分段图像即可根据本发明的方法创建框架,例如框架231,但为了改进稳健性和准确度,并调整图像中的噪音,在某些情况下,可能需要将FU的轮廓确定为在创建框架过程中使用的额外验证数据。图10的流程图展示此额外可选步骤220,其中确定FU的轮廓35以使得框架的创建是基于来自经分段图像以及来自FU的轮廓的信息。 
虽然“细化”过程是创建框架的一个实例,但存在处于本发明的范围内的各种用以创建框架的替代性方法和技术。以实例而非限制的方式,此类替代性技术包含:使用距离变换中的奇点来近似框架、基于边缘检测的技术,或希尔第池算法。 
在产生图像的框架的过程中,噪音可变为重要问题。因此,创建并利用多个图像(包含立体图像)可能是有帮助的,以改进图像的质量和创建准确框架的功效。在所述方面,在本发明的一些实施例中,通过使用多个图像(包含立体图像),或通过将图像的轮廓确定为用于产生框架的额外数据验证,而进一步细化确定端点的方法。 
在本发明的又一方面中,提供一种用于将毛囊单位分类的系统。作为示范性实施例,所述系统可包括图像获取装置和图像处理器。图像获取装置的一些非限制性实例包含一个或一个以上的相机,例如任何市售相机。所述图像获取装置可拍摄静态图像,或其可为视频记录装置(例如,摄像机),或任何其它图像获取装置。立体成像装置是当前优选的,但没有必要具有立体成像,且本发明不受如此限制。同样,虽然图像获取装置优选为数字装置,但这并非必要。举例来说,图像获取装置可为获取初始图像的模拟TV相机,所述初始图像接着经处理为数字图像以进一步用于本发明的方法中。图像处理器可包括经编程并经配置以执行根据本发明的将FU分类的方法的任何合适的装置。在一个示范性实施例中,用于将FU分类的图像处理器经配置以用于接收FU的图像、处理所述图像以产生经分段图像、计算FU的经分段图像的轮廓和侧视轮廓图、确定所述侧视轮廓图中的缺陷的数目并基于缺陷的数目将FU分类,且视情况,在必要时所述分类还可基于某些额外调整。以实例而非限制的方式,合适的图像处理器可为任何类型的个人计算机(“PC”)。或者,图像处理器可包括专用集成电路(ASIC)或现场可编程门阵 列(FPGA)。 
根据本发明的再一方面,提供一种用于确定FU的端点的系统。此系统可与用于将毛囊单位分类的先前所描述系统进行组合,或为其一部分,或其可为单独和独立的系统。用于确定端点的此系统可包括图像获取装置和端点图像处理器。此系统的图像获取装置可与参考用于将FU分类的系统而描述的装置相同或不同。如果两个系统经组合,那么单一图像获取装置可用于所有图像获取目的。所述端点图像处理器可经编程并经配置以执行根据本发明的确定FU的端点的方法。在一个实施例中,端点图像处理器经编程并经配置以用于接收图像、对其进行处理以产生FU的经分段图像、产生FU的框架,以及确定FU的至少一个端点。在用于将FU分类的系统中有用的各种适当图像处理器的实例和描述可等同地适用于用于确定端点的系统的图像处理器。如果两个系统经组合,则其可使用经编程并经配置以执行两种方法的所有经组合和必要步骤的相同图像处理器,或其可使用不同的图像处理器。 
FU分类系统的图像获取装置,或端点确定系统,或组合系统可安装在固定位置中,或其可安装到机械手或其它可控制运动装置。机械手或运动装置可操作地耦合到经配置以控制机械手或运动装置的运动的控制器。所述控制器可接收并处理来自图像处理器的图像或数据,其中所述控制器经配置以基于由所述图像获取装置获取的图像或数据来控制机械手或运动装置的运动。另外,所述系统可包括可用于FU的采集和/或植入,或毛发处理规划过程中的其它工具、装置和组件。 
本文中所描述的用于将毛囊单位分类和/或确定毛囊单位的端点的任何或所有系统和方法可与第11/380,903号美国专利申请案和第11/380,907号美国专利申请案中所描述的采集并移植毛发的系统和方法结合而使用。 
本发明的以上说明和描述的实施例容许各种修改和替代形式,且应理解,本发明(大体来说)以及本文所描述的特定实施例不限于所揭示的特定形式或方法,而是相反,涵盖处于所附权利要求书的范围内的所有修改、等效物和替代方案。以非限制性实例的方式,所属领域的技术人员将了解,本发明不限于包含机械手的机器人系统的使用,且可利用其它自动化和半自动化系统。另外,本发明的将毛囊单位分类和/或确定毛囊单位的端点的系统和方法可以是与单独的自动化移植系统或甚至与手动移植程序一起使用的单独系统。 

Claims (18)

1.一种基于在毛囊单位FU中的毛发的数目将所述FU分类的方法,其包括:
获取含有FU的身体表面的图像;
处理含有FU的身体表面的图像以产生所述FU的经分段图像;
计算所述FU的所述经分段图像的轮廓;
计算所述经分段图像的忽视所述FU的所述经分段图像的所述轮廓中的凹面的侧视轮廓图;
确定所述侧视轮廓图中的缺陷的数目;以及
至少部分基于所确定的缺陷的所述数目而将所述FU分类。
2.根据权利要求1所述的方法,其中计算侧视轮廓图包括:计算凸包轮廓。
3.根据权利要求1所述的方法,其中将所述FU分类包括:将所述FU分类为单一毛发FU或多个毛发FU。
4.根据权利要求1所述的方法,其中在将所述FU分类的过程中,在所述FU中的毛发的数目等于所述侧视轮廓图中的缺陷的所述确定的数目加1。
5.根据权利要求1所述的方法,其中含有FU的身体表面的所述图像为数字图像。
6.根据权利要求1所述的方法,其进一步包括:
将第一相机和第二相机定位成瞄准所述身体表面,所述相机经配置以提供立体图像;
从所述第一相机获得第一图像,且在所述第一图像内选择所述FU;
从所述第二相机获得第二图像,且在所述第二图像内选择相同的所述FU;
在所述第一和第二图像内追踪所述FU;
使所述第一和第二相机与所述FU的毛发的定向对准;以及
在所述第一和第二相机与所述毛发的所述定向对准的情况下,获取所述FU的图像。
7.根据权利要求1所述的方法,其进一步包括:
在紧密接近所述FU处选择关注区;
确定所述关注区是否含有并非为所述FU的所述轮廓的邻接部分的单独毛发的图像;以及
确定所述单独毛发是否处于距界定所述FU的所述轮廓的一根以上毛发的最大距离内,
其中对所述FU进行分类还基于判断所述单独毛发是否处于距界定所述FU的所述轮廓的所述毛发的最大距离内。
8.根据权利要求7所述的方法,其中所述FU被分类为包含位于距界定所述FU的所述轮廓的所述毛发的所述最大距离内的每一单独毛发。
9.根据权利要求1所述的方法,其进一步包括:确定表示所述FU中的一根毛发的每一对象的宽度,其中对所述FU进行分类还基于表示所述FU中的一根毛发的每一对象的所述宽度与单一毛发的最大预期宽度的比较。
10.根据权利要求9所述的方法,其中确定所述宽度包含:确定表示所述FU中的一根毛发的每一对象的长轴和短轴,其中所述长轴是沿着表示一根毛发的所述对象的长度方向,且所述短轴横切所述长轴。
11.根据权利要求1所述的方法,其中获取所述图像包括:获取相同的所述FU的一个以上的图像。
12.根据权利要求1所述的方法,其进一步包括:追踪所述FU以调整用于获得所述FU的所述图像的图像获取装置与所述FU之间的相对移动。
13.根据权利要求1所述的方法,其进一步包括:通过以下操作来追踪所述FU:
从图像获取装置获取所述FU的第一图像;
从所述第一图像确定所述FU的位置;
从所述图像获取装置获取所述FU的第二图像;以及
从所述第二图像确定所述FU的位置。
14.根据权利要求1所述的方法,其进一步包括:通过产生所述经分段图像的框架而确定所述FU的至少一个端点。
15.根据权利要求14所述的方法,其中所述至少一个端点选自包括以下各物的群组:
所述FU的毛发的头部,
所述FU的毛发的尾部,以及
所述FU的球部。
16.根据权利要求14所述的方法,其中使用细化技术、基于边缘检测的技术或希尔迪奇算法来实现产生所述框架。
17.一种用于基于在毛囊单位FU中的毛发的数目将所述FU分类的系统,其包括:
用于获取含有FU的身体表面的图像的装置;
用于处理含有FU的身体表面的图像以产生所述FU的经分段图像的装置:
用于计算所述FU的所述经分段图像的轮廓的装置;
用于计算所述经分段图像的忽视所述FU的所述经分段图像的所述计算的轮廓中的凹面的侧视轮廓图的装置;
用于确定所述侧视轮廓图中的缺陷的数目的装置;以及
用于至少部分基于所确定的缺陷的所述数目而将所述FU分类的装置。
18.根据权利要求17所述的系统,进一步包括:
用于产生所述FU的所述经分段图像的框架的装置和用于从所述框架确定所述FU的至少一个端点的装置。
CN2007800309598A 2006-08-25 2007-08-24 用于将毛囊单位分类的系统和方法 Active CN101506825B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/467,268 US7477782B2 (en) 2006-08-25 2006-08-25 System and method for classifying follicular units
US11/467,268 2006-08-25
PCT/US2007/076726 WO2008024954A2 (en) 2006-08-25 2007-08-24 System and method for classifying follicular units

Publications (2)

Publication Number Publication Date
CN101506825A CN101506825A (zh) 2009-08-12
CN101506825B true CN101506825B (zh) 2012-10-24

Family

ID=39107712

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2007800309598A Active CN101506825B (zh) 2006-08-25 2007-08-24 用于将毛囊单位分类的系统和方法

Country Status (11)

Country Link
US (2) US7477782B2 (zh)
EP (1) EP2054839B1 (zh)
JP (1) JP4847586B2 (zh)
KR (1) KR101050593B1 (zh)
CN (1) CN101506825B (zh)
AU (2) AU2007286605B2 (zh)
BR (1) BRPI0715623A2 (zh)
CA (1) CA2661742C (zh)
ES (1) ES2763355T3 (zh)
HK (1) HK1134576A1 (zh)
WO (1) WO2008024954A2 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080049993A1 (en) 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for counting follicular units
US8211134B2 (en) 2007-09-29 2012-07-03 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US8152827B2 (en) 2008-01-11 2012-04-10 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US9107697B2 (en) * 2008-06-04 2015-08-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8652186B2 (en) * 2008-06-04 2014-02-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8545517B2 (en) * 2008-06-06 2013-10-01 Restoration Robotics, Inc. Systems and methods for improving follicular unit harvesting
JP4636146B2 (ja) * 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
US8848974B2 (en) * 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
JP2010082245A (ja) * 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd 毛情報測定方法
US8048090B2 (en) * 2009-03-11 2011-11-01 Restoration Robotics, Inc. System and method for harvesting and implanting hair using image-generated topological skin models
US9693799B2 (en) 2009-09-17 2017-07-04 Pilofocus, Inc. System and method for aligning hair follicle
NZ599122A (en) 2009-09-17 2014-08-29 Carlos K Wesley Hair restoration surgery
US9314082B2 (en) 2009-09-17 2016-04-19 Pilofocus, Inc. System and method for extraction of hair follicle
US8911453B2 (en) * 2010-12-21 2014-12-16 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US9498289B2 (en) * 2010-12-21 2016-11-22 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US8951266B2 (en) * 2011-01-07 2015-02-10 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
KR101194773B1 (ko) * 2011-03-29 2012-10-26 강진수 탈모진행정도의 측정 방법
US8945150B2 (en) * 2011-05-18 2015-02-03 Restoration Robotics, Inc. Systems and methods for selecting a desired quantity of follicular units
CN104114110A (zh) 2011-10-17 2014-10-22 皮洛福克斯有限公司 头发修复
US8983157B2 (en) * 2013-03-13 2015-03-17 Restoration Robotics, Inc. System and method for determining the position of a hair tail on a body surface
US9202276B2 (en) * 2013-03-13 2015-12-01 Restoration Robotics, Inc. Methods and systems for hair transplantation using time constrained image processing
US9576359B2 (en) 2013-11-01 2017-02-21 The Florida International University Board Of Trustees Context based algorithmic framework for identifying and classifying embedded images of follicle units
US10387021B2 (en) 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool
US10013642B2 (en) 2015-07-30 2018-07-03 Restoration Robotics, Inc. Systems and methods for hair loss management
US10568564B2 (en) 2015-07-30 2020-02-25 Restoration Robotics, Inc. Systems and methods for hair loss management
CN109688964B (zh) * 2016-07-21 2023-03-28 维斯概念公司 用于毛发去除的自动化系统和方法
DE102016222194A1 (de) * 2016-11-11 2018-05-17 Henkel Ag & Co. Kgaa Verfahren und Vorrichtung zum Ermitteln eines Glättewerts einer Frisur
US20180189976A1 (en) 2016-12-29 2018-07-05 Michal Kasprzak Analysis unit and system for assessment of hair condition
KR101800365B1 (ko) * 2017-08-09 2017-11-22 김태희 자동 모낭분리장치
WO2019078742A1 (es) * 2017-10-17 2019-04-25 Quispe Pena Edgar Carlos Procedimiento no invasivo para determinar densidad de conductos y/o fibras de camélidos sudamericanos y otros animales, y microscopio para llevar a cabo el procedimiento
JP6582276B2 (ja) * 2017-11-07 2019-10-02 株式会社Aventino 頭部画像評価装置
TR201805930A2 (tr) * 2018-04-26 2018-08-27 Asmed Oezel Sac Ekimi Saglik Hizmetleri Ticaret Ltd Sirketi Görüntü i̇şleme ve roboti̇k teknoloji̇ler kullanilarak yapilan saç eki̇m süreci̇ değerlendi̇rme yöntemi̇ ve yönteme ai̇t si̇stem
KR102324240B1 (ko) * 2019-01-28 2021-11-11 주식회사 아프스 모발 식별 장치 및 이를 구비하는 자동 모낭 분리 장치
KR102324237B1 (ko) * 2019-01-28 2021-11-09 주식회사 아프스 불량 모낭 선별 장치 및 이를 구비하는 자동 모낭 분리 장치
CN111882516B (zh) * 2020-02-19 2023-07-07 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
KR102329641B1 (ko) * 2020-04-21 2021-11-22 (주)에임즈 모발 상태를 분석하는 방법 및 이를 이용한 모발 정보 제공 장치 및 시스템
WO2021215749A1 (ko) * 2020-04-21 2021-10-28 (주)에임즈 모발 정보 제공 방법 및 장치와 이를 위한 모근 분석 모델 생성 방법
CN114694141A (zh) * 2020-12-25 2022-07-01 上海微创卜算子医疗科技有限公司 毛囊点识别方法、系统、装置和存储介质
US20230041440A1 (en) * 2021-08-04 2023-02-09 Afs Inc. Hair identifying device and apparatus for automatically seperating hair follicles including the same

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782851A (en) * 1996-04-10 1998-07-21 Rassman; William R. Hair transplantation system
US6949115B2 (en) * 2003-10-14 2005-09-27 Southland Instruments, Inc. Polarized light analyzer
US7094569B2 (en) * 2001-05-24 2006-08-22 Soogyun Kim Hair follicle growth factor proteins

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807163A (en) 1985-07-30 1989-02-21 Gibbons Robert D Method and apparatus for digital analysis of multiple component visible fields
US5331472A (en) 1992-09-14 1994-07-19 Rassman William R Method and apparatus for measuring hair density
US6517004B2 (en) 1995-12-18 2003-02-11 Metrologic Instruments, Inc. Automated system for identifying and dimensioning packages transported through a laser scanning tunnel using laser scanning beam indexing techniques
US5895403A (en) 1997-10-17 1999-04-20 Collinsworth; Lonnie Rae Surgical cutting tool
WO1999022694A2 (en) 1997-10-30 1999-05-14 King Christopher R Automated hair isolation and processing system
JP2000082148A (ja) * 1998-07-09 2000-03-21 Ricoh Co Ltd 物体画像の形状特徴抽出方式,画像物体認識方式及び装置
WO2000030475A1 (fr) * 1998-11-26 2000-06-02 Wakamoto Pharmaceutical Co., Ltd. Aliments contenant des substances nourrissantes pour les cheveux
US6720988B1 (en) 1998-12-08 2004-04-13 Intuitive Surgical, Inc. Stereo imaging system and method for use in telerobotic systems
FR2802678B1 (fr) * 1999-12-21 2002-02-08 Oreal Systeme et procede d'analyse et de simulation previsionnelle de l'evolution temporelle d'une zone pileuse, et plus particulierement du cuir chevelu humain
US6585746B2 (en) 2000-04-20 2003-07-01 Philip L. Gildenberg Hair transplantation method and apparatus
US7217266B2 (en) * 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
JP3863809B2 (ja) * 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
ES2424646T3 (es) * 2004-04-08 2013-10-07 Hsc Development Llc Dispositivo de extracción folicular
EP1653219A1 (en) 2004-10-26 2006-05-03 The Procter & Gamble Company Method and apparatus for examining human hairs
US20070106307A1 (en) * 2005-09-30 2007-05-10 Restoration Robotics, Inc. Methods for implanting follicular units using an automated system
US7962192B2 (en) * 2005-09-30 2011-06-14 Restoration Robotics, Inc. Systems and methods for aligning a tool with a desired location or object
US20070078466A1 (en) * 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
JP2009537231A (ja) 2006-05-19 2009-10-29 マコ サージカル コーポレーション 触覚デバイスを制御するための方法および装置
US7620144B2 (en) 2006-06-28 2009-11-17 Accuray Incorporated Parallel stereovision geometry in image-guided radiosurgery
US20080033455A1 (en) * 2006-08-03 2008-02-07 Rassman William R Hair extraction device and method for its use
US20080049993A1 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for counting follicular units
US8115807B2 (en) * 2007-03-06 2012-02-14 William Rassman Apparatus and method for mapping hair metric

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5782851A (en) * 1996-04-10 1998-07-21 Rassman; William R. Hair transplantation system
US7094569B2 (en) * 2001-05-24 2006-08-22 Soogyun Kim Hair follicle growth factor proteins
US6949115B2 (en) * 2003-10-14 2005-09-27 Southland Instruments, Inc. Polarized light analyzer

Also Published As

Publication number Publication date
AU2007286605B2 (en) 2010-03-11
JP2010504568A (ja) 2010-02-12
AU2010202258B2 (en) 2011-04-28
CA2661742C (en) 2012-05-15
US7627157B2 (en) 2009-12-01
AU2007286605A1 (en) 2008-02-28
US20090080733A1 (en) 2009-03-26
CA2661742A1 (en) 2008-02-28
US20080049992A1 (en) 2008-02-28
EP2054839A4 (en) 2012-09-26
WO2008024954A9 (en) 2008-04-10
EP2054839B1 (en) 2019-09-25
CN101506825A (zh) 2009-08-12
HK1134576A1 (en) 2010-04-30
EP2054839A2 (en) 2009-05-06
KR20090030341A (ko) 2009-03-24
WO2008024954A2 (en) 2008-02-28
JP4847586B2 (ja) 2011-12-28
WO2008024954A3 (en) 2008-06-26
KR101050593B1 (ko) 2011-07-19
BRPI0715623A2 (pt) 2013-07-02
ES2763355T3 (es) 2020-05-28
AU2010202258A1 (en) 2010-06-24
US7477782B2 (en) 2009-01-13

Similar Documents

Publication Publication Date Title
CN101506825B (zh) 用于将毛囊单位分类的系统和方法
CN101505659B (zh) 用于对毛囊单位进行计数的系统和方法
US9107697B2 (en) System and method for selecting follicular units for harvesting
JP6956252B2 (ja) 顔表情合成方法、装置、電子機器及びコンピュータプログラム
JPWO2009113231A1 (ja) 画像処理装置および画像処理方法
WO2015066618A1 (en) Context based algorithmic framework for identifying and classifying embedded images of follicle units
KR102137445B1 (ko) 이미지 프로세싱을 이용한 자세분석 방법과 자세분석 시스템
CN110853096A (zh) 基于单目视觉的固定靶标空间定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1134576

Country of ref document: HK

C14 Grant of patent or utility model
GR01 Patent grant
CI01 Publication of corrected invention patent application

Correction item: International Day of publication

Correct: 20080228

False: 20080410

Number: 43

Volume: 28

CI03 Correction of invention patent

Correction item: International Day of publication

Correct: 20080228

False: 20080410

Number: 43

Page: The title page

Volume: 28

ERR Gazette correction

Free format text: CORRECT: INTERNATIONAL PROCLAMATION DATE; FROM: 2008.04.10 TO: 2008.02.28

RECT Rectification
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1134576

Country of ref document: HK

CP01 Change in the name or title of a patent holder

Address after: California, USA

Patentee after: Weiss concept Co.

Address before: California, USA

Patentee before: RESTORATION ROBOTICS, Inc.

CP01 Change in the name or title of a patent holder