KR20090040336A - 모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법 - Google Patents

모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법 Download PDF

Info

Publication number
KR20090040336A
KR20090040336A KR1020097003097A KR20097003097A KR20090040336A KR 20090040336 A KR20090040336 A KR 20090040336A KR 1020097003097 A KR1020097003097 A KR 1020097003097A KR 20097003097 A KR20097003097 A KR 20097003097A KR 20090040336 A KR20090040336 A KR 20090040336A
Authority
KR
South Korea
Prior art keywords
image
hair
count
filtering
follicular unit
Prior art date
Application number
KR1020097003097A
Other languages
English (en)
Other versions
KR101030853B1 (ko
Inventor
셀제이드 에이. 큐레시
모한 보두루리
Original Assignee
레스토레이션 로보틱스, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 레스토레이션 로보틱스, 인코포레이티드 filed Critical 레스토레이션 로보틱스, 인코포레이티드
Publication of KR20090040336A publication Critical patent/KR20090040336A/ko
Application granted granted Critical
Publication of KR101030853B1 publication Critical patent/KR101030853B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06MCOUNTING MECHANISMS; COUNTING OF OBJECTS NOT OTHERWISE PROVIDED FOR
    • G06M1/00Design features of general application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00747Dermatology
    • A61B2017/00752Hair removal or transplantation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/10Hair or skin implants
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Surgical Instruments (AREA)

Abstract

본 발명에 따른 자동화된 시스템을 사용하여 모낭 단위를 카운트하는 시스템 및 방법은 피부 및 모낭 단위를 포함하는 신체 표면의 화상을 획득하는 단계와, 상기 화상을 필터링하여 배경 성분을 제거하는 단계와, 상기 화상을 처리하여 분할된 화상을 생성하는 단계와, 상기 분할된 화상의 노이즈 필터링을 수행하여 관심 부위 내의 관심 모낭 단위에 해당하지 않는 대상들(objects)을 제거하는 단계를 포함한다. 이 시스템은 화상 획득 장치 및 이 방법을 수행하는 화상 처리기를 포함한다. 다른 측면에서, 이 시스템 및 방법은 또한 모낭 단위 내의 모발의 수에 따라 모낭 단위를 분류한다.

Description

모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법{SYSTEM AND METHOD FOR COUNTING FOLLICULAR UNITS}
본 발명은 일반적으로 모발 이식 방법에 관한 것으로서, 보다 구체적으로는 모발 이식 방법에 사용하기 위한 디지털 촬영 및 처리 기법을 이용하여 모낭 단위(follicular unit)를 분류하는 시스템 및 방법에 관한 것이다.
모발 이식 방법은 잘 알려져 있으며, 통상 (남성형 탈모) 환자의 두피의 측면 및 후부 주변 부위(공여자 부위)로부터 공여자 모발 이식편(graft)을 채취하고, 이들을 두피 부위(수용자 부위)에 이식하는 것과 관련이 있다. 통상, 채취된 이식편은, 보다 최근에는 공여자 이식편이 단일 모낭 단위일 수도 있지만, 비교적 크다(3-5 mm). 특히, "모낭 단위"(이하에서는 FU 또는 FUs라고도 함)는 두피의 표면 위에 무작위로 분포되어 있는, 총 1 내지 3(드물게는 4 내지 5) 개의 밀접하게 이격된 모낭일 수 있다.
모낭 단위는 모낭 내의 모발의 수에 따라 분류되는데, 모낭 단위당 1개의 모발에 대해 간략히 "F1"이라 하고, 모낭 단위당 2개의 모발에 대해 "F2"라 하며, 3 내지 5개의 모발을 갖는 모낭 단위에 대해서도 이와 같이 식별된다. 복수의 모발의 모낭 단위의 일부의 경우에, 두피 내의 단일 모낭 또는 지점으로부터 모발이 나타나서 퍼질 수 있다. 다른 경우에는, 모발들이 약간 이격된 지점에서 나오지만 피부 아래의 단일 모낭 내부로 모일 수도 있다. 도 1을 참고하면, 다양한 유형의 모낭 단위를 갖는 두피(11)의 예시적인 부분의 디지털 화상의 인쇄물이 도시되어 있다. 예를 들어, 모낭 단위(13)는 2개의 모발을 갖고 있으며 따라서 F2인 반면에, 모낭 단위(15)는 단지 하나의 모발을 갖고 있으므로 F1이다.
신체 표면 상의 관심 부위 내의 모낭 단위를 카운트하고 분류하는 것이 중요하고 바람직한 몇몇 이유가 있다. 첫째로, 모낭 단위의 수는 이식 절차를 위한 계획 과정에 사용될 수 있다. 예를 들어, 이 수는 이식을 위해 채취될 수 있는 부위 내의 모낭 단위의 수에 대한 제한을 설정한다. 그러나, 많은 경우에 의사는 소정 비율의 이용가능한 모낭 단위만 이식함으로써 채취되는 부위 내에 일부 커버리지를 남겨두고자 할 수 있다. 또한, 많은 모발 재건 이식 절차에서, 소정 부류의 모낭 단위가 바람직하다.
분류에 있어서, 모낭 단위 내의 모발의 수에 따라서 모낭 단위를 식별하고 분류하는 것이 중요하고 바람직한 몇몇 이유가 있다. 이식된 모발의 외양에 대해 원하는 특성을 제공하기 위해 다양한 부류("유형(type)"이라고도 함)의 모낭 단위를 활용하는 것이 바람직할 수 있다. 그러한 특성은 모발의 밀도, 모발의 방향 또는 배향, 모낭 단위의 유형들의 특별한 혼합, 및/또는 무엇보다도 자연스런 외양(appearance of randomness)을 포함할 수 있다. 다양한 유형의 모낭 단위를 사 용하는 예는 다음과 같다. 소정 부류의 모낭 단위를 두피의 특정 부위에 이식하는 것이 바람직하다. 예를 들면, 단일 모발의 모낭 단위(F1)는 일반적으로 얼굴형을 만드는 헤어라인을 따라 이식된다. 하나보다 많은 모발을 갖는 모낭 단위들(F2s, F3s 등)은 일반적으로 두피 중앙부(mid-scalp) 및 정수리(crown)에 이식된다. 모낭 단위 분포의 이 배열은 보다 자연스럽게 보이는 미적인 결과를 가져오는 것으로 생각된다.
수동 및 어느 정도의 자동화가 이루어진 기계화된 다양한 모발 이식 방법이 이미 공지되어 있다. 한가지 잘 알려져 있는 수동 방법에서는, 두피의 선형 부분이 메스에 의해 지방성 피하 조직 아래로 절개되어 공여자 부위로부터 제거된다. 스트립(strip)이 구성요소 모낭 단위들 내로 절개되고, 이들 모낭 단위들이 바늘에 의해 형성된 각각의 구멍 내의 수용자 부위로 이식된다. 다른 도구 및 방법도 알려져 있지만, 통상적으로는 포셉(forcep)이 모낭 단위 이식편을 잡아 바늘 구멍 위치에 위치시키는데 사용된다.
"Androgenetic Alopecia"(Springer 1996)에서, M.Inaba & Y.Inaba는 모낭 단위의 임계 해부학적 부분의 직경과 대략 동일한 1mm의 직경을 갖는 내측 내강 및 커팅 에지를 갖는 속이 빈 펀치 니들(hollow punch needle)을 배치함으로써 하나의 모낭 유닛을 채취하는 수동 방법을 개시 및 설명하고 있다. 바늘 구멍은 발췌되는 모낭 단위의 축과 축 정렬되고, 그 다음에 선택된 모낭 단위의 원주에 대해 두피를 절개하도록 두피 속으로 진행한다. 그 후에, 모낭 단위는, 특별히 고안된 주사 바늘로 수용 위치로 이식하기 위해, 예를 들어 포셉을 이용하여 쉽게 제거된다.
미국 특허 제6,585,746호는 로봇 팔 및 로봇 팔과 관련된 모낭 안내자를 포함하는 로봇을 이용하는 자동 모발 이식 시스템을 개시하고 있다. 환자의 두피의 3차원 가상 화상을 생성하는데 비디오 시스템이 사용되며, 이것은 로봇 팔의 제어 하에 여포 유도자에 의해 주입된 모발 이식편을 수용하는 두피 위치를 계획하는데 사용된다. 미국 특허 제6,585,746호의 전체 내용은 본 명세서에 참조로서 포함된다.
이식을 위한 자동화된 시스템 및 방법은 2005년 9월 30일 출원된 미국 임시 특허 출원 제60/722,521호와, 2006년 4월 28일 출원된 미국 특허 출원 제11/380,903호(현재 US2007/0078466으로 공개되었음) 및 2006년 4월 28일 출원된 제11/380,907호(현재 US2007/0106306으로 공개되었음)에도 개시되어 있다. 이들 출원들은 모두 본 출원에 참조로서 포함된다. 예를 들어, 미국 특허 출원번호 제11/380,907호에 개시된 시스템은 팔 위에 탑재된 채취 및/또는 이식 도구를 갖는 로봇 팔을 포함한다. 또한 하나 이상의 카메라가 팔 위에 탑재되어 신체 표면과 같은 작업 공간을 촬영하는데 사용된다. 처리기(processor)는 카메라에 의해 촬영된 화상들을 수신하여 처리하도록 구성되어 있다. 제어기는 처리기와 로봇 팔에 동작 가능하게 결합된다. 제어기(controller)는 적어도 부분적으로 카메라 및 처리기에 의해 촬영되어 처리된 화상에 기초하여 로봇 팔의 움직임을 제어한다. 팔은 모발의 이식을 수행하기 위해 신체 표면에 대해 원하는 방향 및 위치에 기구를 위치시키도록 제어가능하게 움직일 수 있다.
모발 이식을 위한 이들 시스템 및 방법을 활용하는데 있어서, 먼저 채취 및 이식될 모낭 단위를 선택하고 모발이 이식될 정확한 위치를 결정하도록 이식을 계획하는 것이 바람직하다. 따라서, 모발 이식 방법을 계획하는데 있어서, 채취 및 신체 표면의 다른 부분으로의 이식을 위해 신체 표면 상의 특정 위치로부터의 특정 모낭 단위가 선택될 수 있다. 이식될 모낭 단위는 예를 들어 모낭 단위의 유형(즉, F1, F2 등), 모낭 단위 내의 모발의 방향, 모발의 밀도 등과 같은 특정 표준에 기초하여 선택될 수도 있다. 그러나, 각각의 모낭 단위를 카운트 특징짓는 과정이 지루하고 시간 소모적일 수 있다. 따라서, 자동화된 시스템을 사용하여, 모낭 단위를 카운트하고/또는 분류하는 시스템 및 방법이 요구된다. 모낭 단위를 분류하는 시스템 및 방법은 2006년 8월 25일에 출원되었으며, 발명의 명칭이 "SYSTEM AND METHOD FOR CLASSIFYING FOLLICULAR UNITS"인 미국 특허 출원번호 11/467,268호에 개시되어 있으며, 그 내용은 모두 참조로서 본 명세서에 포함된다.
본 발명의 일반적인 측면에 따르면, 자동화된 시스템을 사용하여 모낭 단위를 카운트하는 시스템 및 방법이 제공된다. 본 발명의 시스템 및 방법은 신체 표면 상에 모낭 단위의 이식을 위한 시스템 및 방법에 활용될 수 있다. 본 발명의 시스템 및 방법은 모발 이식을 위한 자동화된 시스템에 구현되거나 통합될 때 특히 유용하다.
본 발명의 일측면에서, 모낭 단위를 카운트하는 방법은 피부 및 모낭 단위를 포함하는 신체 표면의 화상을 획득하는 단계와, 이 화상을 필터링하여 배경 성분(예를 들면, 피부와, 선택적으로는 다른 작은 배경 성분들)을 제거하는 단계와, 결과의 화상을 처리하여 분할된 화상을 생성하는 단계와, 노이즈를 필터링하여 관심 모낭 단위에 해당하지 않는 대상들(objects)을 제거하는 단계를 포함한다. 그 결과, 남아있는 관심 모낭 단위가 카운트될 수 있다. 바람직한 일실시예에서, 획득된 화상은 디지털 화상인데, 이는 반드시 그러한 것은 아니고, 아날로그 화상을 사용해도 된다. 아날로그 화상은 당업자에게 달려진 기법들을 이용하여 디지털 화상으로 변환될 수도 있다. 본 발명에 따르면, 획득된 화상 내의 피부 성분(및/또는 다른 배경 성분들)을 제거하는 단계는 적절한 기법 및 방법들에 의해 제한없이 달성될 수 있다.
일실시예에서, 배경 성분을 제거하기 위한 필터링은 피부 표면이 배경인 배경 공제 기법을 사용하여 달성된다. 배경 공제 기법들 중 하나는 입력 화상으로부터 평탄해진 화상(또는 입력 화상의 블러링된 버전)을 제하는 것을 포함한다. 다른 기법들은 분산 필터, 에지 검출 기반 기법 또는 컬러 데이터를 사용한 피부 톤의 변조를 포함한다. 다른 실시예에서, 배경(피부) 성분을 제거하는 단계는 대역 통과 필터를 사용하여 달성된다. 화상을 처리하여 분할된 화상을 생성하는 것은 잘 알려진 기법들에 의해 달성될 수 있다. 본 발명의 방법의 일실시예에서, 분할된 화상은 이진 화상이지만, 다중적 화상(예를 들면, 피부, 분자, 혈액 및/또는 다른 특징들은 둘보다 많은 상이한 화상 코드로 표현된다)이 또한 본 발명의 범주 내에 포함된다. 분할된 화상은 필요한 경우, 관심 모낭을 제외한 모든 것을 제거하기 위해 노이즈 필터링된다. 필터링될 필요가 있는 노이즈의 유형의 예로는 화상 노이즈, 비듬, 혈액 반점, 분자, 긴 잘라지지 않은 모발 등을 들 수 있다. 모든 노이즈 필터링은 동시에 달성될 수도 있고, 또는 여러 개별 단계들로 나누어질 수 있는데, 예를 들면 우선 작은 대상에 해당하는 "작은 노이즈"(예를 들면, 작은 비듬)가 필터링 될 수 있고, 그 다음에 보다 큰 대상에 대응하는 "보다 큰 노이즈"(예를 들면, 긴 모발, 보다 큰 모발, 큰 혈액 반점)가 필터링될 수 있다.
분할된 화상으로부터 그러한 대상들을 제거함으로써 이 "작은 노이즈"를 필터링하는 것을 형태학적 오픈 오퍼레이션(morphological open operation)이라 하는데, 이것은 당업자에게 알려진 표준 화상 처리 기법이다. 그 다음에 형태학적 오픈 오퍼레이션으로 인한 화상에 대해 나머지 노이즈 필터링이 수행된다. 노이즈 필터링은 모낭 단위에 대응하는 기준을 만족시키지 않는 대상들을 제거한다. 예를 들면, 화상 내의 대상의 면적, 위치 또는 방향은 실제 모낭 단위에 해당하지 않는 면적, 위치 또는 방향일 수 있다(이것은 예를 들어 두피에 남아 있게 되는 잘려진 모발일 수 있다). 대상의 화상의 특징들이 모발에 대응하는지의 여부는 모발로 알려진 선택된 화상 내의 대상의 화상에 대한 동일한 특징의 전체적인 특성과의 통계적 비교에 의해 결정될 수 있거나, 또는 이들 특징들이 환자의 샘플링 또는 다른 데이터에 기초하여(예를 들어, 환자들이 모발들이 대부분 소정의 방향을 가리켜야 한다는 우리가 알고 있는 방법으로 모발을 나누면) 사전 결정된 기준과 비교될 수 있다.
노이즈 필터링 후의 화상에 남아있는 각각의 대상들은 모낭 단위로서 카운트된다. 따라서, 이 방법은 모낭 단위를 카운트하는데 사용될 수도 있다.
모낭 단위를 카운트하는 방법의 다른 측면에서, 대역 통과 필터를 사용하여 화상의 피부 성분을 제거하기 위한 필터링 단계는 제 1 커널을 갖는 저역 통과 필터를 사용하는 제 1 필터링 단계와 제 2 커널을 갖는 저역 통과 필터를 사용하는 제 2 필터링 단계를 포함할 수 있다. 본 발명의 다른 특징에서, 저역 통과 필터의 커널은 가우시안 커널일 수도 있다. 당업자는 그러한 저역 통과 필터 및 가우시안 필터를 잘 알고 있을 것이며, 그 실시 방법을 이해하고 있을 것이다.
본 발명의 방법의 또 다른 실시예에서, 모낭 단위의 카운팅은 예를 들어 복수의 촬영을 이용함으로써 정제될 수 있다. 본 발명은 또한 관심 FU를 추적하는 방법 및 화상을 획득하기 위해 시스템을 정렬하는 방법을 포함할 수도 있다. 일실시예에서, 스테레오 화상을 제공하기 위해 제 1 및 제 2 카메라가 사용된다. 스테레오 화상은 제 1 및 제 2 카메라의 화상들 내의 관심 FU를 추적하여 신체 표면의 움직임 및/또는 카메라의 움직임을 조정하는데 사용될 수 있다. 또한, 제 1 및 제 2 카메라는 FU의 모발의 일반적인 방향과 정렬되며, 따라서 획득된 화상들은 본 발명의 방법의 나머지 단계들을 수행하기 위한 양질의 데이터를 제공한다. 스테레오 화상 또는 복수의 화상은 또한 모발들의 좌표 위치를 계산하는데 사용될 수도 있다. 그러면, 신체 표면 상의 모발과 일치하지 않는 계산된 좌표 위치가 또한 필터링될 수 있다. 이와 달리, 본 발명의 시스템 및 방법은 복수의 카메라(또는 다른 화상 획득 장치)를 사용하거나 또는 파노라마 화상을 포함하는 다양한 각도로부터 복수의 화상을 촬영하기 위한 하나의 카메라만 사용할 수 있다. 카메라는 수동으로 또는 사용된 시스템이 로봇 시스템인 경우에는 로봇의 도움으로 이동될 수 있다. 이 선택적인 카운트 정제 단계는 필요한 경우에 사용될 수 있다.
본 발명의 다른 실시예에서는, 모낭 단위의 카운트 방법이 미국 특허출원번호 제11/467,268호에 개시된 방법과 같은 모낭 단위를 분류하는 방법과 함께 사용될 수 있다. 이런 방식으로 관심 모낭 단위가 카운트되고 분류될 수 있다. 미국 특허출원번호 11/467,268에 개시된 바와 같이 모낭 단위(FU)를 분류하는 방법은 모낭 단위(FU)를 갖고 있는 신체 표면의 화상을 획득하는 단계와, 그러한 화상을 처리하여 FU의 분할된 화상을 생성하는 단계를 포함한다. 바람직한 일실시예에서, 분할된 화상은 이진 화상이지만, 전술한 바와 같이 다중 화상일 수도 있다. FU의 분할된 화상으로부터, FU의 모발의 외주 주위의 컨투어를 계산할 수도 있다. 예를 들면, F1에 대해, 컨투어는 일반적으로 단일 모발의 외부 표면을 따르는 라인 또는 표면이다. 분할된 화상은 또한 FU의 아웃라인 프로파일의 계산을 허용한다. 아웃라인 프로파일은 화상의 컨투어 내의 오목부를 무시한다.
그 다음에 아웃라인 프로파일을 컨투어와 비교하여 아웃라인 프로파일 내의 "디펙트"의 수를 결정한다. 아웃라인 프로파일 내의 디펙트는 예를 들어 컨투어로부터 전환되는 아웃라인 프로파일 내의 각각의 오목부로서 정의될 수 있다. F2의 예에서는 "V" 형상에 의해 형성된 오목부로 표현된 아웃라인 프로파일에 하나의 디펙트가 존재한다. F3에서는, 이 컨투어가 일반적으로 공통 정점을 공유하는 두 개의 V처럼 형성되고, 하나의 라인이 두 개의 V 중 한 쪽을 형성한다. F3의 아웃라인 프로파일은 또한 일반적으로 삼각형을 갖는다(F2보다 넓은 삼각형이 될 수도 있다). 따라서, F3은 두 개의 디펙트를 갖는다. 따라서, 디펙트의 수는 모낭 단위의 유형과 직접적인 관련을 갖는다는 것을 알 수 있다. 이 경우, FU에 대한 모발의 수는 디펙트의 수에 1을 더한 값과 같다.
모낭 단위를 분류하는 방법의 일실시예에서, 아웃라인 프로파일은 잘 알려진 화상 처리 기법에 따라 컨벡스 헐 컨투어(convex hull contour)를 계산함으로써 결정될 수도 있다. 아웃라인 프로파일을 결정하기 위한 다른 적절한 기법들도 본 발명의 범주 내에 속한다.
모낭 단위를 분류하는 방법의 다른 실시예에서, 화상 획득 장치와 FU 사이의 상대적인 이동에 맞추어 관심 FU를 추적하는 방법이 제공된다. 카메라들과 같은 복수의 화상 획득 장치가 하나의 화상을 얻기 위해 정렬될 수 있다. 일실시예에서, 제 1 및 제 2 카메라가 스테레오 화상을 제공한다. 신체 표면의 움직임 및/또는 카메라의 움직임에 맞추어 제 1 및 제 2 카메라의 화상 내의 관심 FU를 추적하기 위해 스테레오 화상이 사용될 수도 있다. 또한, 제 1 및 제 2 카메라는 FU의 모발의 일반적인 방향과 정렬된다. 이런 방법으로, FU를 분류하는 방법의 나머지 단계를 수행하기 위한 양질의 데이터를 제공하는 화상이 얻어진다.
또한, 모낭 단위를 분류하는 방법은 피부의 표면 아래에 모이는 모발들을 갖는 모낭 단위에 맞게 조정될 수도 있다. 그러한 경우, 화상은 관심 FU의 컨투어의 인접 부분이 아닌 모발의 화상을 포함할 것이다. 이 상황을 설명하기 위해, 개별 모발이 관심 FU의 인접하는 컨투어를 정의하는 모발로부터 최대 거리 내에 있는 지의 여부가 결정된다. 최대 거리는 개별 FU로부터의 모발인 것처럼 보이는 것이 관심 FU와 동일한 FU의 일부분일 가능성이 가장 높은 거리로 설정된다. 그 다음에 관심 FU의 분류는 관심 FU의 모발로부터 최대 거리 내에 있는 임의의 부가적인 모발을 고려한다.
또한, 모낭 단위를 분류하는 방법은 단일 모발인 것처럼 보이지만 실제로는 복수의 모발인 모발 화상에 맞게 조정될 수도 있다. 따라서, 모발들이 병합되면 관심 FU에 실제 존재하는 것보다 아웃라인 프로파일 내의 디펙트의 수가 적어지기 때문에(따라서 모발의 수가 적어지기 때문에), 디펙트의 수를 판정하는 것이 정확한 분류를 제공하지는 않는다. 이런 상황을 설명하기 위해, 이 방법은 관심 FU 내의 모발을 나타내는 각각의 대상의 폭(직경)을 판정한다. 그 다음에, 모발을 나타내는 각각의 대상의 폭이 단일 모발에 대한 최대 예상 폭을 초과하는 지의 여부가 결정되고, 이들을 비교한다. FU를 분류하는 단계는 위 비교 결과와 모발을 나타내는 대상의 폭이 최대 예상 폭을 초과하는 지 그리고 얼마나 초과하는 지의 판단에 기초할 수도 있다. 예를 들어, 이 폭이 예상 폭의 1-1/2 및 2배 사이이면, 분류 단계는 그러한 대상을 2개의 모발로서 근사시킬 것이다. 유사한 근사가 3, 4 또는 5개의 모발에 대해 행해질 수 있다.
FU를 카운트하는 방법이 FU를 분류하는 방법과 함께 사용되는 경우, 카운트하는 방법은 분류 방법 이전, 이후 또는 동시에 행해질 수도 있다.
본 발명의 또 다른 측면에서는, 모낭 단위를 카운트하는(일부 실시예에서는 FU를 분류하는) 시스템이 제공된다. 본 발명의 일실시예에서, 자동화된 시스템을 사용하는 FU를 카운트하는 시스템은 화상 획득 장치 및 화상 처리기를 포함한다. 일부 화상 획득 장치의 예는 임의의 상용 카메라와 같은 하나 이상의 카메라를 포함한다. 카메라 대신에, 화상 획득 장치는 비디오 레코딩 장치(예를 들면, 캠코더) 또는 임의의 다른 화상 획득 장치일 수도 있다. 스테레오 촬영 장치가 본 발명에 제격이지만, 반드시 스테레오 촬영을 이용할 필요는 없다. 마찬가지로, 화상 획득 장치가 디지털 장치인 것이 바람직하지만, 반드시 그럴 필요는 없다. 예를 들어, 화상 획득 장치는 본 발명의 방법에서 추가적으로 사용하기 위해 디지털화될 수 있는 최초 화상을 획득하는 아날로그 TV 카메라일 수도 있다. 화상 처리기는 본 발명에 따라 FU를 카운트(선택적으로는 분류)하는 방법을 수행하도록 프로그램되고 구성되는 임의의 장치를 포함할 수 있다. 예를 들면, 적절한 화상 처리기의 일례로 임의의 유형의 개인용 컴퓨터(PC)일 수 있다. 이와 달리, 화상 처리기는 ASIC(Application Specific Integrated Circuit) 또는 FPGA(Field Programmable Gate Array)를 포함할 수도 있다.
본 발명의 다른 측면에 따르면, 본 발명에 따른 FU를 카운트(및 선택적으로는 분류)하는 방법을 수행하도록 프로그램되고 구성된 화상 처리기가 제공된다. 어떠한 화상 처리기도 본 발명의 범주 내에 있다. 일실시예에서, 모낭 단위를 카운트하는 화상 처리기는 피부 및 FU를 포함하는 신체 표면의 화상을 수신하고, 화상을 필터링하여 배경 성분을 제거하며, 화상을 처리하여 분할된 화상을 생성하고, 관심 FU에 해당하지 않는 대상들을 제거하기 위해 노이즈 필터링을 수행하도록 구성된다. 본 발명에 따른 이러한 화상 처리기는 헤어 트리트먼트(hair treatment) 또는 모낭 단위를 채취 및/또는 이식하는 (수동, 반자동, 자동 또는 로봇식의) 다양한 시스템뿐만 아니라, 모낭 단위를 카운트하거나 또는 분류하는 다양한 시스템의 계획과 함께 사용될 수 있으며, 또는 화상 처리기가 상기 시스템 및 장치 중 어느 하나에 포함될 수 있다.
자동화된 시스템을 사용하여 모낭 단위를 카운트하는 시스템은 발명의 배경에서 설명한 이식 시스템들 중 어느 하나와 함께 사용되거나 이들을 포함할 수 있다. 예를 들면, 미국 특허출원번호 제11/380,907호에 개시된 시스템은 본 발명에 따른 모낭 단위를 카운트하는 방법을 수행하도록 프로그램되고 구성될 수도 있다. 시스템 상의 카메라는 스테레오 디지털 화상을 제공하고, 로봇 팔은 카메라를 적절하게 위치시키고 배향한다. 관심 부위의 선택은 시스템(예를 들면, 모니터 및 입력 장치를 갖는 컴퓨터)의 사용자 인터페이스에서 조작자에 의해 수행될 수 있거나 컴퓨터 및/또는 제어기의 프로그래밍을 통해 자동화될 수 있다.
이와 같이, 모낭 단위를 카운트하는 (그리고 일부 실시예에서는 분류하는) 시스템 및 방법이 제공된다. 본 발명의 다른 추가적인 실시예, 목적 및 이점들은 첨부한 도면을 참조로 한 이하의 상세한 설명으로부터 명확해질 것이다.
도 1은 복수의 모낭 단위를 갖는 두피의 예시적인 부분의 디지털 화상의 인쇄물.
도 2는 피부 성분을 제거하기 위해 화상이 필터링된 후의 도 1의 디지털 화상의 인쇄물.
도 3은 화상이 분할된 후의 도 2의 디지털 화상의 인쇄물
도 4는 분할된 화상에 대해 형태학적 오픈 오퍼레이션을 수행한 후의 도 3의 디지털 화상의 인쇄물.
도 5는 화상에 대해 모든 노이즈 필터링을 수행한 후의 도 4의 디지털 화상의 인쇄물.
도 6은 본 발명의 일실시예에 따른 모낭 단위의 카운트 방법의 예시적인 순서도.
이하, 첨부 도면을 참고하여 예를 통해 본 발명을 설명한다. 도면에서 유사한 참조번호는 유사한 요소를 나타낸다.
먼저 도 1을 참조하면, 본 발명에 따른 모낭 단위를 카운트하는 시스템 및 방법은 일반적으로 임의의 적절한 화상 획득 장치를 사용하여 신체 표면(11)의 화상(10)을 획득하는 것으로 시작한다. 일실시예에서, 그러한 화상 획득 장치는 하나 이상의 디지털 카메라이다. 이와 달리 임의의 다른 적절한 촬영 장치를 사용해도 된다. 화상 획득 장치는 디지털 카메라에 의해 생성된 바와 같은 디지털 화상을 생성할 수도 있고, 또는 (처리 중의 어느 시점에 디지털 화상으로 변환될 수도 있고 변환되지 않을 수도 있는)아날로그 화상을 생성할 수도 있다. 본 설명에서는 화상(10)이 디지털 카메라로 촬영한 디지털 화상이지만, 본 발명은 디지털 카메라로 촬영한 디지털 화상에 제한되지 않는다. 카메라 대신에, 비디오 레코딩 장치(예를 들면, 캠코더) 또는 다른 화상 획득 장치를 사용해도 된다. 스테레오 촬영 장치가 현재 선호되지만, 반드시 스테레오 촬영을 이용할 필요는 없다. 마찬가지로, 화상 획득 장치는 디지털 장치인 것이 바람직하지만, 반드시 그렇지는 않다. 예를 들어, 화상 획득 장치는 본 발명의 방법에서 추가적으로 사용하기 위해 디지털 화상으로 처리되는 최초 화상을 획득하는 아날로그 TV 카메라일 수 있다. 신체 표면(11)은 피부(12)와 하나 이상의 모발(13)을 각각 갖는 복수의 모낭 단위(14)를 포함한다(일부의 모낭 단위(14, 13)만이 도면에 라벨링되어 있다). 도 1의 사진은 두피(11)의 일부의 화상이지만, 신체 표면(11)은 모발을 갖는 신체의 어떠한 부분도 될 수 있다. 디지털 화상(10)은 두피(11) 상의 여러 유형의 모낭 단위(14)(FU)를 보여준다.
화상(10)은, 본 명세서에 참조로서 포함된 미국 특허출원번호 제11/380,907호의 모발 이식 시스템에서 설명된 카메라와 같은, 자동화된 모발 이식 시스템의 하나 이상의 카메라를 사용하여 획득될 수 있다. 카메라들 중 단 하나의 카메라로부터의 화상이 디지털 화상(10)을 생성하는데 사용될 수 있다. 이와 달리, 디지털 화상(10)을 획득하기 위한 방법은 관심 모낭 단위를 분류하는데 사용된 화상을 향상시키기 위해 카메라를 정렬하는 보다 복잡한 방법에 의해 획득될 수도 있다. 이 방법에서, 예를 들어 제 1 카메라와 제 2 카메라가 사용될 수도 있다. 이들 카메라는 카메라가 향하는 신체 표면의 스테레오 화상을 획득하도록 정렬 및 구성될 수도 있다. 이들 카메라는 먼저 모발을 갖고 있는 것으로 알려진 부위 내의 신체 표면을 향하도록 배치된다. 제 1 화상은 제 1 카메라로부터 획득되고, 관심 모낭 단위(FU)는 제 1 화상 내에서 선택된다. 제 1 카메라(스테레오 카메라에 의해 제공 된 약간 다른 각도)와 동일한 신체 표면의 부위에 대한 제 2 화상은 제 2 카메라로부터 획득되고, 동일한 관심 FU가 제 2 화상 내에서 선택된다. 관심 FU는 시스템의 조작자에 의해 또는 선택 알고리즘을 이용하여 시스템에 의해 자동으로 화상 내에서 선택될 수 있다. 이식 시스템은 이제 제 1 및 제 2 카메라로부터의 제 1 및 제 2 화상 내의 관심 FU를 추적할 수 있다. FU를 카운트하는데 사용된 화상을 획득하기 위해 카메라들이 정렬될 때 신체 표면의 움직임 및 카메라의 움직임에 맞게 조정하기 위해 추적 절차가 이용될 수 있다.
그 다음에, 제 1 및 제 2 카메라가 이동하여 FU의 모발의 일반적인 방향과 정렬되도록 배향된다. 카메라가 이동할 때, 관심 FU를 추적하기 위한 시스템에 의해 추가적인 화상들이 획득되어 처리될 수 있다. 카메라를 FU의 모발과 정렬시킴으로써, FU를 분류하기 위한 보다 나은 화상이 획득될 수 있다. 카메라들을 원하는 정렬로 하면, 카메라들은 모낭 단위를 카운트하는 방법의 다음 단계들에서 사용될 화상들을 획득한다. 이상의 설명은 예를 위해 제공되었으며 한정사항은 아니다. 복수의 카메라와 같은 다양한 화상 획득 장치 또는 파노라마 화상을 포함하여 여러 각도에서 복수의 화상을 촬영하는 단일 카메라를 사용하는 것이 가능하다. 전술한 바와 같이, 화상 획득 장치는 디지털 화상 획득 장치일 필요는 없으며, 처음에 획득된 화상이 디지털 화상일 필요는 없다. 카메라의 이동은 사용된 시스템의 유형에 따라 로봇 시스템에 의해 또는 수동으로 제어될 수 있다.
화상이 획득될 때, 관심 부위(19)는 전체 화상(10) 또는 전체 화상(10)의 선택된 일부 영역일 수 있다. 본 명세서에서 설명하는 예에서, 선택된 관심 부 위(19)는 화상(10)과 동연적(co-extensive)이다. 그러나, 선택된 관심 부위(19)는 화상(10)의 임의의 부분집합 부위일 수 있다. 관심 부위(19)는 조작자에 의해 선택되거나 또는 이 선택이 시스템에 의해 자동화될 수도 있다. 화상 내의 이 관심 부위는 선택된 화상(19)이라고도 한다. 따라서, 관심 부위(19) 또는 선택된 부위(19)에 대한 추가적인 참조는 전체 화상(10) 또는 선택될 수 있는 임의의 일부 영역을 참조하거나 또는 단순히 획득된 화상(10)의 본래의 결과를 참조할 수 있다.
관심 모낭 단위를 카운트하는 전체 과정에서 정확도 및 효율을 개선하기 위해 획득된 화상으로부터 먼저 배경 성분을 제거하는 것이 유익한 것으로 판정되었다. 일반적으로 그러한 배경 성분은 피부에 해당한다. 피부 외에, 이들 배경 성분은 예를 들어 비듬 또는 작은 혈액 반점(blood speckle)과 같은 일부 부가적인 작은 대상을 포함할 수 있다. 따라서, 피부(또는 피부 성분)의 필터링 또는 제거에 대한 추가적인 참조는 피부에만 제한되지 않고, 오히려 일부 부가적인 작은 배경 성분 또는 대상을 포함할 수 있으며, 그러한 참조는 배경 성분의 필터링 또는 제거를 의미한다. 화상으로부터 피부와 같은 배경 성분을 필터링하는 임의의 적절한 방법은 본 발명의 범주 내에 있다.
일실시예에서, 피부(12)의 필터링은 피부 표면이 배경인 배경 공제 기법을 이용하여 달성된다. 예시적인 배경 공제 기법들 중 하나는 입력 화상으로부터 평탄해진 화상(leveled image)(또는 화상의 블러링된 버전(blurred version))을 제하는 것을 포함한다. 입력 화상으로부터 입력 화상의 블러링된 버전을 동시에 공제함으로써 균일하지 않은 조명 및 피부 톤에 대한 정정이 이루어질 수 있다. 블러 링된 화상은 선택된 화상(19)(입력 화상)의 로컬 평균을 계산함으로써 형성될 수 있다. 로컬 평균은 입력 화상에 가우시안 커널을 사용하여 컨볼빙함으로써 효율적으로 계산된다. 이 필터링 절차는, 블러링 프로세스 동안 이용된 가우시안 커널의 특징을 조정함으로써, 특정 환자, 주변 조명 또는 기타 임상 상태에 맞게 조정될 수 있다. 요약하면, 전술한 예의 배경 공제 기법은 다음과 같다.
(1) 블러링된 화상 = 가우시안을 사용하여 컨볼빙된 입력 화상(주의: 가우시안은 임의의 다른 적절한 커널로 대체될 수 있다)
(2) 배경없는 화상 = (입력 화상)-(블러링된 화상)
본 발명에 활용될 수 있는 다른 예시적인 배경 공제 기법은 분산 필터(variance filter), 에지 검출 기반 기법 또는 컬러 데이터를 사용한 피부 톤의 변조(keying off)를 포함한다.
선택된 화상(19)으로부터 피부(12)를 필터링하는데 사용될 수 있는 필터링 단계의 다른 예시적인 실시예는 대역 통과 필터링이다. 예시적인 한 방법이 도 2에 도시되어 있는데, 도 2는 원래 선택된 화상(19)이 대역 통과 필터를 사용하여 필터링된 후의 디지털 화상의 인쇄물을 도시한 것이다. 대역 통과 필터는 당업자에게 알려진 임의의 적절한 필터를 포함할 수 있다. 대역 통과 필터링은 선택된 화상을 2회 저역 통과 필터링한 다음 그 결과의 2개의 필터링된 화상을 공제함으로써 달성될 수 있다. 대역 통과 필터는 제 1 커널을 갖는 저역 통과 필터를 사용하는 제 1 필터링 단계와 제 2 커널을 갖는 저역 통과 필터를 사용하는 제 2 필터링 단계를 포함할 수 있다. 제 1 커널은 바람직하게는 제 2 커널과 상이하다. 본 발 명의 제 1 실시예에서, 저역 통과 필터의 커널은 가우시안 커널일 수도 있다. 제 1 가우시안 커널은 실질적으로 다음 특징들, 즉 서포트 21 픽셀(support 21 pixel), 1.0의 시그마(sigma of 1.0)를 가질 수 있다. 제 2 가우시안 커널은 실질적으로 다음 특징들, 즉 서포트 21 픽셀, 0.075의 시그마를 가질 수 있다.
그 다음에, (전술한 다른 작은 배경 성분의 제거를 포함할 수 있는)피부(12)의 제거 후에, 결과의 화상이 잘 알려진 화상 처리 기법을 이용하여 처리되어 분할된 화상을 생성한다. 분할된 화상의 일례로는 이진 화상이 있다. 도 3은 화상이 분할된 후의 이진 화상의 인쇄물이다. 전술한 바와 같이, 분할된 화상은 이진 화상을 생성하는 것에 한정되지 않고, 다중적(multi-modal), 즉 분자, 혈액, 모발 및/또는 기타 특징들과 같은 특징들에 대응하는 2개의 상이한 화상 코드보다 많게 분화될 수 있다. 분할된 화상은 FU의 개선되고 보다 선명한 화상을 제공하지만, 여전히 추가적인 필터링을 요구하는 "노이즈"(예를 들면, 모발 또는 지정된 모발에 대응하지 않는 대상 및 아티팩트)를 포함하기 쉽다. 전술한 바와 같이 FU를 포함하는 분할된 화상을 포함하기 전에, 전술한 바와 같이 배경 성분을 제거하는 것은 분할된 화상 내의 잔여 노이즈의 양을 감소시킬 뿐만 아니라, 관심 모발에 대응하지 않는 모든 다른 대상들을 필터링하는 잔여 단계들을 보다 간소화하고 보다 효과적으로 만드는 것으로 관측되었다.
여전히 분할된 화상에 남아있는 모든 노이즈는 동시에 필터링될 수 있거나 또는 여러 개별 단계들로 나누어질 수 있는데, 예를 들면 우선 작은 대상에 해당하는 "작은 노이즈"(예를 들면, 일부 잔존하는 보다 작은 혈액 반점 또는 잔존하는 큰 조각의 비듬)가 필터링 될 수 있고, 그 다음에 보다 큰 대상에 대응하는 "보다 큰 노이즈"(예를 들면, 잘라지지 않은 모발, 또는 두피에 남아있는 이미 잘라진 모발)가 필터링될 수 있으며, 또는 그 반대도 가능하다. 두피에 남아 화상에 나타나는 잘라진 모낭의 예는 "관심 FU"로 고려되지 않으며, 따라서 노이즈로서 필터링될 필요가 있다. 분할된 화상으로부터 "작은 노이즈"를 필터링하는 것을 형태학적 오픈 오퍼레이션(morphological open operation)이라 한다. 형태학적 오픈 오퍼레이션은 당업자에게 알려진 표준 화상 처리 기법에 의해 달성될 수 있다. 도 4는 형태학적 오픈 오퍼레이션 후의 예시적인 화상을 도시한 것이다. 도 4에서 알 수 있듯이, 화상은 모낭(14)의 모발(13)에 해당하지 않는 일부 대상을 여전히 포함하고 있다. 너무 길거나, 너무 크거나, 방향이 불규칠하거나 아마도 모발을 포함하지 않는 위치에 나타나는 대상들이 여전히 존재한다.
따라서, 형태학적 오픈 오퍼레이션으로 인한 화상에 대해 부가적인 노이즈 필터링이 수행될 수 있다. 부가적인 노이즈 필터링은 모낭 단위(14)에 대응하는 기준을 만족시키지 않는 보다 큰 대상들을 제거한다. 다시 도 4를 참조하면, 대상(22)은 보다 큰 것으로 나타나고 화상(19) 내의 다른 대상들보다 훨씬 더 큰 면적을 갖는다. 따라서, 이 객체는 모발(13)이 아니라고 추정할 수 있으며, 따라서 화상으로부터 필터링될 수 있다. 이제, 도 5의 노이즈 필터링 단계 후의 화상의 인쇄물을 살펴보면, 대상(22)이 화상으로부터 필터링되었음을 알 수 있다. 노이즈 필터링 단계는 제한없이 길이, 면적, 방향 및/또는 위치를 포함하는 넓은 범위의 화상 내의 대상들의 특징들에 기초하여 필터링될 수 있다. 대상 화상의 특징들이 모발에 해당하는 지의 여부는 모발로 알려진 선택된 화상 내의 대상들의 화상들에 대한 동일한 특징들의 전체적인 특성과의 통계적 비교에 의해 결정될 수 있거나, 또는 이들 특징들이 환자의 샘플링 또는 다른 데이터에 기초하여 사전 결정된 기준과 비교될 수 있다. 예를 들면, 노이즈 필터링 필터는 특정 환자의 신체 표면 상의 다른 모발들의 샘플링의 특징들 또는 환자들의 샘플 상의 모발의 샘플링의 특징들 또는 스터디 또는 리서치에 기초한 알려진 사전 결정된 데이터를 기초로 할 수 있다.
요약하면, 분할된 화상으로부터의 모든 노이즈 필터링은 동시에 또는 다양한 기준에 기초하여 필요한 단계에서 이루어질 수 있다. 노이즈 필터링 후의 화상에 남아있는 각각의 객체는 관심 모낭 단위로서 카운트된다. 따라서, 이 방법은 모낭 단위를 카운트하는데 사용될 수 있다.
모낭 단위를 카운트하는 전술한 예시적인 방법의 기본 단계들은 도 6의 순서도에 요약되어 있다. 도 6은 단순히 전술한 방법을 나타내는 순서도이다. 단계 100에서, 모낭 단위를 포함하는 화상을 획득한다. 단계 110에서, 획득된 화상을 필터링하여 전술한 배경 성분을 제거한다. 단계 120에서, 배경 성분이 없는 화상을 처리하여 분할된 화상을 생성한다. 단계 130에서, 노이즈 필터링 절차를 수행하여 관심 모발에 대응하지 않는 대상들 및 아티팩트를 제거한다. 이들 단계의 결과로서, 잔여 대상들의 수를 카운트하여 화상(또는 화상의 선택된 일부 영역) 내의 모낭 단위의 수를 판정할 수 있다. FU는 또한 원한다면 라벨링될 수도 있다. 도 6은 부가적인 카운팅 및 라벨링 단계 140를 도시하고 있다.
본 발명의 다른 실시예에서, 모낭 단위를 카운트하는 방법은 미국 특허출원번호 제11/467,268호에 개시된 방법과 같은 모낭 단위를 분류하는 방법과 함께 사용될 수도 있다. 이런 방법으로 관심 모낭 단위를 카운트하고 분류할 수 있다. 모낭 단위(FU)를 분류하는 방법은 모낭 단위(FU)를 갖고 있는 신체 표면의 화상을 획득하고 그러한 화상을 처리하여 FU의 분할된 화상을 생성하는 것을 포함한다. 바람직한 일실시예에서, 분할된 화상은 이진 화상이지만, 전술한 바와 같이 다중 화상일 수도 있다. FU의 분할된 화상으로부터, FU의 모발의 외주 주위의 컨투어를 계산할 수도 있다. 예를 들면, F1에 대해, 컨투어는 일반적으로 단일 모발의 외부 표면을 따르는 라인 또는 표면이다. 비교적 직선형 모발의 경우에, 컨투어는 직사각형처럼 보인다. F2의 경우, 모발들은 일반적으로 컨투어가 V 문자처럼 보이도록 "V" 형상을 형성한다.
분할된 화상은 또한 FU의 아웃라인 프로파일의 계산을 허용한다. 아웃라인 프로파일은 화상의 컨투어 내의 오목부를 무시한다. 예를 들어, F2의 경우, "V"의 한쪽 상부로부터 "V"의 정점까지의 컨투어 내에서의 하강 및 다시 "V"의 다른 쪽 상부까지에 의해 형성된 컨투어 내의 오목부 또는 "내적으로 구부러진" 부분이 존재한다. 계산된 프로파일은 결과의 아웃라인 프로파일이 일반적으로 FU의 컨투어의 "V"의 정점을 따라가는 삼각형의 꼭지점들 중 하나를 갖는 삼각형처럼 보이도록 이 오목부를 무시한다.
그 다음에 아웃라인 프로파일을 컨투어와 비교하여 아웃라인 프로파일 내의 "디펙트"의 수를 결정한다. 아웃라인 프로파일 내의 디펙트는 예를 들어 컨투어로 부터 전환되는 아웃라인 프로파일 내의 각각의 오목부로서 정의될 수 있다. F2의 예에서는 "V" 형상에 의해 형성된 오목부로 표현된 아웃라인 프로파일에 하나의 디펙트가 존재한다. F3에서는, 이 컨투어가 일반적으로 공통 정점을 공유하는 두 개의 V처럼 형성되고, 하나의 라인이 두 개의 V 중 한 쪽을 형성한다. F3의 아웃라인 프로파일은 또한 일반적으로 삼각형을 갖는다(F2보다 넓은 삼각형이 될 것이다). 따라서, F3은 두 개의 디펙트를 갖는다. 따라서, 디펙트의 수는 모낭 단위의 유형과 직접적인 관련을 갖는다는 것을 알 수 있다. 이 경우, FU에 대한 모발의 수는 디펙트의 수에 1을 더한 값과 같다.
모낭 단위를 분류하는 방법의 일실시예에서, 아웃라인 프로파일은 잘 알려진 화상 처리 기법에 따라 컨벡스 헐 컨투어(convex hull contour)를 계산함으로써 결정될 수도 있다. 아웃라인 프로파일을 결정하기 위한 다른 적절한 기법들도 본 발명의 범주 내에 속한다.
본 발명의 방법의 다른 측면에서는, 화상 획득 장치와 FU 사이의 상대적인 이동에 맞추어 관심 FU를 추적하는 방법이 제공된다. 둘 이상의 카메라, 또는 다른 화상 획득 장치가 하나의 화상 또는 복수의 화상을 획득하도록 정렬될 수 있다. 일실시예에서, 신체 표면의 움직임 및/또는 카메라의 움직임에 맞추어 제 1 및 제 2 카메라의 화상 내의 관심 FU를 추적하기 위해 스테레오 화상이 사용될 수도 있다. 또한, 제 1 및 제 2 카메라는 FU의 모발의 일반적인 방향과 정렬된다. 이런 방법으로, FU를 분류하는 방법의 나머지 단계를 수행하기 위한 양질의 데이터를 제공하는 화상이 얻어진다. 이상의 설명은 일례일 뿐 한정사항은 아니다. 따라서, 2개의 카메라 또는 스테레오 촬영을 사용할 필요는 없고, 추적 절차는 복수의 카메라들과 같은 화상 획득 장치 및 파노라마 화상을 포함하는 다양한 각도로부터 복수의 화상을 촬영하는 하나의 카메라로 수행될 수 있다. 카메라는 수동으로 또는 사용된 시스템이 로봇 시스템인 경우에는 로봇의 도움으로 이동될 수 있다.
모낭 단위를 분류하는 방법은 또한 피부의 표면 아래에 모이는 모발들을 갖는 모낭 단위에 맞게 조정될 수도 있다. 그러한 경우, 화상은 관심 FU의 컨투어의 인접 부분이 아닌 모발의 화상을 포함할 것이다. 이 상황을 설명하기 위해, 개별 모발이 관심 FU의 인접하는 컨투어를 정의하는 모발로부터 최대 거리 내에 있는 지의 여부가 결정된다. 최대 거리는 개별 FU로부터의 모발인 것처럼 보이는 것이 관심 FU와 동일한 FU의 일부분일 가능성이 높은 거리로 설정된다. 그 다음에 관심 FU의 분류는 관심 FU의 모발로부터 최대 거리 내에 있는 임의의 부가적인 모발을 고려한다.
모낭 단위를 분류하는 방법은 또한 단일 모발인 것처럼 보이지만 실제로는 복수의 모발인 모발 화상에 맞게 조정될 수도 있다. 화상이 FU의 모발들에 대해 소정의 각도로 촬영되면, 모발들의 화상이 병합되어 하나의 모발인 것처럼 보일 수도 있다. 따라서, 모발들이 병합되면 관심 FU에 실제 존재하는 것보다 아웃라인 프로파일 내의 디펙트의 수가 적어지기 때문에(따라서 모발의 수가 적어지기 때문에), 디펙트의 수를 판정하는 것이 정확한 분류를 제공하지는 않는다. 이런 상황을 설명하기 위해, 이 방법은 관심 FU 내의 모발을 나타내는 각각의 대상의 폭(직경(caliber))을 판정한다. 그 다음에 모발을 나타내는 각각의 대상의 폭이 단일 모발에 대한 최대 예상 폭을 초과하는 지의 여부를 판정하고 비교한다. FU를 분류하는 단계는 모발을 나타내는 대상의 폭이 최대 예상 폭을 초과하는 지 그리고 얼마나 초과하는 지의 판단에 기초할 수도 있다. 예를 들어, 이 폭이 예상 폭의 1-1/2 및 2배 사이이면, 분류 단계는 그러한 대상을 2개의 모발로서 근사시킬 것이다. 유사한 근사가 3, 4 또는 5개의 모발에 대해 행해질 수 있다.
FU를 카운트하는 방법은 분류 방법 이전, 이후 또는 동시에 행해질 수도 있다.
본 발명의 또 다른 측면에서는, 모낭 단위를 카운트하는(경우에 따라서는 FU를 분류하는) 시스템이 제공된다. 일실시예로서, 이 시스템은 화상 획득 장치 및 화상 처리기를 포함할 수 있다. 일부 화상 획득 장치의 예는 임의의 상용 카메라와 같은 하나 이상의 카메라를 포함한다. 화상 획득 장치는 스틸 화상을 촬영할 수도 있고, 비디오 레코딩 장치(예를 들면, 캠코더) 또는 임의의 다른 화상 획득 장치일 수도 있다. 스테레오 촬영 장치가 현재 선호되지만, 반드시 스테레오 촬영을 이용할 필요는 없으며 본 발명은 이에 제한되지 않는다. 마찬가지로, 화상 획득 장치가 디지털 장치인 것이 바람직하지만, 반드시 그럴 필요는 없다. 예를 들어, 화상 획득 장치는 본 발명의 방법에서 추가적으로 사용하기 위해 디지털 화상으로 처리되는 최초 화상을 획득하는 아날로그 TV 카메라일 수 있다. 화상 처리기는 본 발명에 따라 FU를 카운트(선택적으로는 분류)하는 방법을 수행하도록 프로그램되고 구성되는 임의의 장치를 포함할 수 있다. 예를 들면, 적절한 화상 처리기는 임의의 유형의 개인용 컴퓨터(PC)일 수 있다. 이와 달리, 화상 처리기는 ASIC(Application Specific Integrated Circuit) 또는 FPGA(Field Programmable Gate Array)를 포함할 수도 있다. 일실시예에서, 모낭 단위(FU)를 카운트하는 시스템은 화상 획득 장치와 화상 처리기를 포함하며, 화상 처리기는 화상 획득 장치로부터 획득된 피부 및 FU를 포함하는 화상을 필터링하여 배경 성분을 제거하고, 이 화상을 처리하여 분할된 화상을 생성하며, 분할된 화상의 노이즈 필터링을 수행하여 관심 FU에 대응하지 않는 대상들을 제거하도록 구성된다.
본 발명의 다른 측면에 따르면, 모낭 단위를 카운트하는 화상 처리기가 제공된다. 이 화상 처리기는 전술한 바와 같은 임의의 적절한 장치를 포함할 수 있다. 이 화상 처리기는 모낭 단위를 계산(선택적으로는, 분류)하는 방법을 수행하도록 구성된 소프트웨어로 프로그램될 수도 있다. 일실시예에서, 모낭 단위를 계산하기 위한 화상 처리기는 피부 및 모낭 단위를 포함하는 신체 표면의 화상을 수신하고, 이 화상을 필터링하여 배경 성분을 제거하고, 이 화상을 처리하여 분할된 화상을 생성하며, 노이즈 필터링을 수행하여 관심 모낭 단위에 대응하지 않는 대상들을 제거하도록 구성되어 있다. 본 발명에 따른 이러한 화상 처리기는 개별적으로 제공될 수 있고 헤어 트리트먼트(hair treatment) 또는 모낭 단위를 채취 및/또는 이식하는 다양한 시스템뿐만 아니라, 모낭 단위를 카운트하거나 또는 분류하는 다양한 시스템의 계획과 함께 사용될 수 있으며, 또는 화상 처리기가 상기 시스템 및 장치 중 어느 하나에 포함될 수 있다.
화상 획득 장치는 독립적으로 제공될 수도 있고, 고정된 위치에 탑재되거나 또는 로봇 팔 또는 다른 제어가능한 이동 장치에 탑재될 수 있다. 로봇 팔 또는 이동 장치는 로봇 팔 또는 이동 장치의 움직임을 제어하도록 구성된 제어기에 동작 가능하게 결합될 수 있다. 제어기는 화상 획득 장치에 의해 획득된 화상 또는 데이터에 기초하여 로봇 팔 또는 이동 장치의 움직임을 제어하도록 구성된 제어기에 의해 화상 처리기로부터 화상 또는 데이터를 수신하여 처리할 수 있다. 또한, 시스템은 모발 채취 및/또는 이식 기구를 포함할 수도 있다.
본 명세서에서 개시된 모낭 단위를 카운트(및 분류)하는 임의의 시스템 및 방법은 미국 특허 출원번호 제11/380,903호 및 미국 특허출원번호 제11/380,907호에 개시된 바와 같은 모발 채취 및 이식 시스템 및 방법과 함께 사용될 수 있다.
본 발명의 전술한 실시예는 다양한 변형예 및 대안적인 형태가 가능하며, 본 발명 및 본 명세서에서 설명한 특정 실시예는 일반적으로 개시된 특별한 형태 및 방법에 한정되지 않고, 첨부한 청구범위 내의 모든 변형, 균등물 및 대안들을 커버한다. 예를 들어, 당업자라면, 본 발명이 로봇 팔을 포함하는 로봇 시스템의 사용에 한정되지 않고, 다른 자동화 및 반자동화 시스템을 사용해도 된다. 또한, 본 발명의 모낭 단위를 카운트하는 시스템 및 방법은 별도의 자동화된 이식 시스템 또는 심지어 수동 이식 절차와 함께 사용된 별도의 시스템일 수 있다.

Claims (31)

  1. 모낭 단위(FU)를 카운트하는 방법으로서,
    피부 및 FU를 포함하는 신체 표면의 화상을 획득하는 단계와,
    상기 화상을 필터링하여 배경 성분을 제거하는 단계와,
    상기 화상을 처리하여 분할된 화상을 생성하는 단계와,
    상기 분할된 화상의 노이즈 필터링을 수행하여 관심 FU에 해당하지 않는 대상들(objects)을 제거하는 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  2. 제 1 항에 있어서,
    상기 화상은 디지털 화상인
    모낭 단위(FU) 카운트 방법.
  3. 제 1 항에 있어서,
    상기 배경 성분을 제거하는 단계는 배경 공제 기법(background subtraction technique)을 사용하여 수행되는
    모낭 단위(FU) 카운트 방법.
  4. 제 3 항에 있어서,
    상기 배경 공제 기법은 블러링된 화상(blurred image)을 계산하는 단계와, 상기 획득된 화상으로부터 상기 블러링된 화상을 제하는(subtracting) 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  5. 제 4 항에 있어서,
    상기 블러링된 화상은 상기 획득된 화상을 가우시안 커널(Gaussian kernel)로 컨볼빙(convolving)함으로써 계산되는
    모낭 단위(FU) 카운트 방법.
  6. 제 5 항에 있어서,
    상기 가우시안 커널은 특정 환자, 주변 조명 상태(ambient lighting condition) 및 다른 임상 상태 중 하나 이상에 대해 조정되는
    모낭 단위(FU) 카운트 방법.
  7. 제 3 항에 있어서,
    상기 배경 공제 기법은 분산 필터링(variance filtering)을 포함하는
    모낭 단위(FU) 카운트 방법.
  8. 제 3 항에 있어서,
    상기 배경 공제 기법은 에지 검출 기반 프로세스를 포함하는
    모낭 단위(FU) 카운트 방법.
  9. 제 1 항에 있어서,
    상기 배경 성분을 제거하는 단계는 대역 통과 필터(band-pass filter)를 사용하여 달성되는
    모낭 단위(FU) 카운트 방법.
  10. 제 1 항에 있어서,
    상기 배경 성분을 제거하는 단계는 상기 획득된 화상으로부터 상기 피부 및 다른 작은 대상들(objects)에 해당하는 성분을 제거하는 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  11. 제 1 항에 있어서,
    상기 화상을 필터링하여 배경 성분을 제거하는 단계는 선택된 화상을 2회 저역 통과 필터링한 후에 상기 획득된 화상으로부터 결과의 두 필터링된 화상들을 제하는 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  12. 제 1 항에 있어서,
    상기 화상을 필터링하여 배경 성분을 제거하는 단계는 제 1 커널을 갖는 저역 통과 필터를 사용하여 상기 화상을 필터링하는 제 1 필터 단계와, 제 2 커널을 갖는 저역 통과 필터를 사용하여 상기 화상을 필터링하는 제 2 필터 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  13. 제 12 항에 있어서,
    상기 제 1 커널은 서포트 21 픽셀(support 21 pixels) 및 1.0의 시그 마(sigma of 1.0)의 특징을 실질적으로 갖는 가우시안 커널(Gaussian kernel)인
    모낭 단위(FU) 카운트 방법.
  14. 제 12 항에 있어서,
    상기 제 2 커널은 서포트 21 픽셀(support 21 pixels) 및 0.75의 시그마(sigma of 0.75)의 특징을 실질적으로 갖는 가우시안 커널인
    모낭 단위(FU) 카운트 방법.
  15. 제 1 항에 있어서,
    상기 제 1 획득된 화상과 기하학적으로 일치하는 적어도 하나의 부가적인 화상을 획득하는 단계와,
    상기 제 1 획득된 화상 및 적어도 하나의 부가적인 화상을 사용하여 모발의 좌표 위치를 계산하는 단계와,
    상기 신체 표면 상의 모발과 일치하지 않는 계산된 좌표 위치를 갖는 모낭 단위를 필터링하는 단계를 더 포함하는
    모낭 단위(FU) 카운트 방법.
  16. 제 1 항에 있어서,
    상기 관심 FU를 계산하는 단계를 더 포함하는
    모낭 단위(FU) 카운트 방법.
  17. 제 1 항에 있어서,
    상기 노이즈 필터링 단계는 상기 획득된 화상 내의 평균 대상의 크기와 상이한 면적(area)을 갖는 임의의 대상을 필터링하는 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  18. 제 1 항에 있어서,
    상기 특징들은 하나 이상의 면적, 위치 및 방향을 포함하는
    모낭 단위(FU) 카운트 방법.
  19. 제 1 항에 있어서,
    상기 노이즈 필터링 단계는 상기 신체 표면 상의 모발의 샘플링에 기초하여 모발의 특징들에 해당하지 않는 특징을 갖는 대상들을 필터링하는 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  20. 제 1 항에 있어서,
    상기 노이즈 필터링 단계는 사전 결정된 데이터에 기초하여 모발에 대해 예상된 특징에 해당하지 않는 특징을 갖는 대상을 필터링하는 단계를 포함하는
    모낭 단위(FU) 카운트 방법.
  21. 제 1 항에 있어서,
    FU를 추적하는 단계를 더 포함하되,
    상기 FU는
    상기 FU의 제 1 화상을 획득하고,
    상기 제 1 화상으로부터 상기 FU의 위치를 결정하며,
    상기 FU의 제 2 화상을 획득하고,
    상기 제 2 화상으로부터 상기 FU의 위치를 결정함으로써
    카운트되는
    모낭 단위(FU) 카운트 방법.
  22. 제 1 항에 있어서,
    상기 FU로부터 나오는 모발의 수에 기초하여 FU를 분류하는 단계를 더 포함하는
    모낭 단위(FU) 카운트 방법.
  23. 신체 표면 상의 모낭 단위(FU)를 카운트하는 시스템으로서,
    화상 획득 장치와,
    화상 처리기를 포함하되,
    상기 화상 처리기는
    상기 화상 획득 장치로부터 획득된 피부 및 FU를 포함하는 화상을 필터링하여 배경 성분을 제거하고,
    상기 화상을 처리하여 분할된 화상을 생성하며,
    상기 분할된 화상의 노이즈 필터링을 수행하여 관심 FU에 해당하지 않는 대상들을 제거하도록 구성되는
    FU 카운트 시스템.
  24. 제 23 항에 있어서,
    상기 시스템은 로봇 시스템인
    FU 카운트 시스템.
  25. 제 24 항에 있어서,
    상기 화상 획득 장치가 탑재되는 로봇 팔을 더 포함하는
    FU 카운트 시스템.
  26. 제 25 항에 있어서,
    상기 로봇 팔 및 상기 화상 처리기에 동작 가능하게 결합된 제어기를 더 포함하는
    FU 카운트 시스템.
  27. 제 23 항에 있어서,
    상기 화상 처리기는 개인용 컴퓨터인
    FU 카운트 시스템.
  28. 제 23 항에 있어서,
    상기 화상 획득 장치는 하나 이상의 카메라를 포함하는
    FU 카운트 시스템.
  29. 모낭 단위(FU)를 카운트하는 화상 처리기로서,
    상기 화상 처리기는
    피부 및 FU를 포함하는 신체 표면의 화상을 수신하고,
    상기 화상을 필터링하여 배경 성분을 제거하며,
    상기 화상을 처리하여 분할된 화상을 생성하고,
    노이즈 필터링을 수행하여 관심 FU에 해당하지 않는 대상들을 제거하도록 구성된
    화상 처리기.
  30. 제 29 항에 있어서,
    FU로부터 나오는 모발의 수에 기초하여 상기 FU를 분류하도록 구성되는
    화상 처리기.
  31. 모낭 단위(FU)를 카운트하고 분류하는 방법으로서,
    신체 표면의 화상을 획득하는 단계와,
    상기 화상을 필터링하여 피부에 해당하는 성분을 제거하는 단계와,
    상기 화상을 처리하여 분할된 화상을 생성하는 단계와,
    노이즈 필터링을 수행하여 관심 FU에 해당하지 않는 대상들을 제거하는 단계와,
    분류될 각각의 FU의 상기 분할된 화상의 컨투어를 계산하는 단계와,
    분류될 상기 FU의 상기 분할된 화상의 컨투어 내의 오목부를 무시하는 상기 분할된 화상의 아웃라인 프로파일을 계산하는 단계와,
    분류될 상기 FU의 상기 아웃라인 프로파일 내의 디펙트 수를 결정하는 단계와,
    상기 결정된 디펙트의 수에 적어도 부분적으로 기초하여 상기 FU를 분류하는 단계를 포함하는
    방법.
KR1020097003097A 2006-08-25 2007-08-24 모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법 KR101030853B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/467,283 US20080049993A1 (en) 2006-08-25 2006-08-25 System and method for counting follicular units
US11/467,283 2006-08-25
PCT/US2007/076728 WO2008024955A2 (en) 2006-08-25 2007-08-24 System and method for counting follicular units

Publications (2)

Publication Number Publication Date
KR20090040336A true KR20090040336A (ko) 2009-04-23
KR101030853B1 KR101030853B1 (ko) 2011-04-22

Family

ID=39107713

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097003097A KR101030853B1 (ko) 2006-08-25 2007-08-24 모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법

Country Status (9)

Country Link
US (3) US20080049993A1 (ko)
EP (1) EP2053973A4 (ko)
JP (1) JP4988847B2 (ko)
KR (1) KR101030853B1 (ko)
CN (1) CN101505659B (ko)
AU (1) AU2007286606B2 (ko)
BR (1) BRPI0715630A2 (ko)
CA (1) CA2661660C (ko)
WO (1) WO2008024955A2 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190063527A (ko) * 2017-11-30 2019-06-10 (주)인트인 정자 검출 방법 및 이를 구현하기 위한 프로그램을 기록한 기록매체

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8121361B2 (en) 2006-05-19 2012-02-21 The Queen's Medical Center Motion tracking system for real time adaptive imaging and spectroscopy
US7477782B2 (en) * 2006-08-25 2009-01-13 Restoration Robotics, Inc. System and method for classifying follicular units
US8211134B2 (en) 2007-09-29 2012-07-03 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US8152827B2 (en) 2008-01-11 2012-04-10 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US9107697B2 (en) 2008-06-04 2015-08-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8652186B2 (en) 2008-06-04 2014-02-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8545517B2 (en) * 2008-06-06 2013-10-01 Restoration Robotics, Inc. Systems and methods for improving follicular unit harvesting
US8848974B2 (en) 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
US9693799B2 (en) 2009-09-17 2017-07-04 Pilofocus, Inc. System and method for aligning hair follicle
IN2012DN02415A (ko) 2009-09-17 2015-08-21 Carlos K Weskley
US9314082B2 (en) 2009-09-17 2016-04-19 Pilofocus, Inc. System and method for extraction of hair follicle
US8911453B2 (en) 2010-12-21 2014-12-16 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US9498289B2 (en) 2010-12-21 2016-11-22 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US8951266B2 (en) 2011-01-07 2015-02-10 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
KR101194773B1 (ko) * 2011-03-29 2012-10-26 강진수 탈모진행정도의 측정 방법
US8945150B2 (en) 2011-05-18 2015-02-03 Restoration Robotics, Inc. Systems and methods for selecting a desired quantity of follicular units
EP2747641A4 (en) 2011-08-26 2015-04-01 Kineticor Inc METHOD, SYSTEMS AND DEVICES FOR SCAN INTERNAL MOTION CORRECTION
BR112014009498A2 (pt) 2011-10-17 2017-04-18 Pilofocus Inc sistema
US8897522B2 (en) * 2012-05-30 2014-11-25 Xerox Corporation Processing a video for vascular pattern detection and cardiac function analysis
US20140028822A1 (en) * 2012-07-30 2014-01-30 Alex A. Khadavi Hair loss monitor
US9305365B2 (en) 2013-01-24 2016-04-05 Kineticor, Inc. Systems, devices, and methods for tracking moving targets
US9717461B2 (en) 2013-01-24 2017-08-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10327708B2 (en) 2013-01-24 2019-06-25 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
CN109008972A (zh) 2013-02-01 2018-12-18 凯内蒂科尔股份有限公司 生物医学成像中的实时适应性运动补偿的运动追踪系统
US8983157B2 (en) * 2013-03-13 2015-03-17 Restoration Robotics, Inc. System and method for determining the position of a hair tail on a body surface
US9576359B2 (en) * 2013-11-01 2017-02-21 The Florida International University Board Of Trustees Context based algorithmic framework for identifying and classifying embedded images of follicle units
CN106572810A (zh) 2014-03-24 2017-04-19 凯内蒂科尔股份有限公司 去除医学成像扫描的预期运动校正的系统、方法和装置
EP3188660A4 (en) 2014-07-23 2018-05-16 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
US10387021B2 (en) 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool
US9943247B2 (en) 2015-07-28 2018-04-17 The University Of Hawai'i Systems, devices, and methods for detecting false movements for motion correction during a medical imaging scan
US10568564B2 (en) 2015-07-30 2020-02-25 Restoration Robotics, Inc. Systems and methods for hair loss management
US10013642B2 (en) 2015-07-30 2018-07-03 Restoration Robotics, Inc. Systems and methods for hair loss management
WO2017091479A1 (en) 2015-11-23 2017-06-01 Kineticor, Inc. Systems, devices, and methods for tracking and compensating for patient motion during a medical imaging scan
WO2017165191A2 (en) * 2016-03-23 2017-09-28 The Procter & Gamble Company Imaging method for determining stray fibers
US20180189976A1 (en) * 2016-12-29 2018-07-05 Michal Kasprzak Analysis unit and system for assessment of hair condition
US9980649B1 (en) 2017-02-15 2018-05-29 International Business Machines Corporation Skin scanning device with hair orientation and view angle changes
KR101800365B1 (ko) * 2017-08-09 2017-11-22 김태희 자동 모낭분리장치
KR102234006B1 (ko) * 2018-11-27 2021-03-31 김태희 모낭 정보 측정 및 수집 방법
KR102324240B1 (ko) * 2019-01-28 2021-11-11 주식회사 아프스 모발 식별 장치 및 이를 구비하는 자동 모낭 분리 장치
EP4073754A1 (en) * 2019-12-09 2022-10-19 Telefonaktiebolaget Lm Ericsson (Publ) Joint visual object detection and object mapping to a 3d model
WO2021215749A1 (ko) * 2020-04-21 2021-10-28 (주)에임즈 모발 정보 제공 방법 및 장치와 이를 위한 모근 분석 모델 생성 방법
KR102329641B1 (ko) * 2020-04-21 2021-11-22 (주)에임즈 모발 상태를 분석하는 방법 및 이를 이용한 모발 정보 제공 장치 및 시스템
CN112419355A (zh) * 2020-11-25 2021-02-26 复旦大学 基于角点检测的毛发图像中毛发计数方法
US11741600B2 (en) 2021-04-21 2023-08-29 Santosh Sharad Katekari Identifying follicular units
CA3237420A1 (en) * 2021-11-08 2023-05-11 Zaher Andraus System and methods for performing a remote hair analysis

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807163A (en) * 1985-07-30 1989-02-21 Gibbons Robert D Method and apparatus for digital analysis of multiple component visible fields
JPH03218735A (ja) * 1989-10-27 1991-09-26 Kanebo Ltd 毛成長測定方法
JP2783033B2 (ja) * 1992-01-13 1998-08-06 日本電気株式会社 カラー画像の領域抽出方法および装置
US5331472A (en) 1992-09-14 1994-07-19 Rassman William R Method and apparatus for measuring hair density
US5782851A (en) 1996-04-10 1998-07-21 Rassman; William R. Hair transplantation system
US6517004B2 (en) * 1995-12-18 2003-02-11 Metrologic Instruments, Inc. Automated system for identifying and dimensioning packages transported through a laser scanning tunnel using laser scanning beam indexing techniques
IT1292287B1 (it) 1997-04-24 1999-01-29 Roberto Luigi Costanzo Strumento chirurgico per il trapianto di capelli autologhi.
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US5895403A (en) 1997-10-17 1999-04-20 Collinsworth; Lonnie Rae Surgical cutting tool
CA2388886C (en) 1997-10-30 2009-10-20 Christopher R. King Automated hair isolation and processing system
US6720988B1 (en) 1998-12-08 2004-04-13 Intuitive Surgical, Inc. Stereo imaging system and method for use in telerobotic systems
AU4473300A (en) * 1999-04-23 2000-11-10 Philip L. Gildenberg Hair transplantation method and apparatus
FR2802678B1 (fr) 1999-12-21 2002-02-08 Oreal Systeme et procede d'analyse et de simulation previsionnelle de l'evolution temporelle d'une zone pileuse, et plus particulierement du cuir chevelu humain
US6585746B2 (en) 2000-04-20 2003-07-01 Philip L. Gildenberg Hair transplantation method and apparatus
US7127081B1 (en) 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
JP3966819B2 (ja) 2001-05-24 2007-08-29 キム,スーギョン 毛嚢に存在する新規の第2ケラチノサイト成長因子類似体
US7217266B2 (en) 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
US20030095707A1 (en) 2001-11-19 2003-05-22 Koninklijke Philips Electronics N.V. Computer vision method and system for blob-based analysis using a probabilistic pramework
US6949115B2 (en) 2003-10-14 2005-09-27 Southland Instruments, Inc. Polarized light analyzer
JP2006051210A (ja) * 2004-08-12 2006-02-23 Japan Research Institute Ltd 毛髪密度予測装置、毛髪密度予測方法、及びプロラム
WO2006047502A2 (en) 2004-10-25 2006-05-04 Brigham And Women's Hospital Automated segmentation, classification and tracking of cell nuclei in time-lapse microscopy
EP1653219A1 (en) * 2004-10-26 2006-05-03 The Procter & Gamble Company Method and apparatus for examining human hairs
KR20050050061A (ko) * 2005-04-30 2005-05-27 조동욱 망진을 위한 얼굴내 특징 요소 추출
US7962192B2 (en) 2005-09-30 2011-06-14 Restoration Robotics, Inc. Systems and methods for aligning a tool with a desired location or object
US20070078466A1 (en) 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
JP2007260038A (ja) * 2006-03-28 2007-10-11 Taisho Pharmaceut Co Ltd 毛髪数の計測方法および発毛剤の効果の評価方法
CA2651784C (en) 2006-05-19 2015-01-27 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US7620144B2 (en) 2006-06-28 2009-11-17 Accuray Incorporated Parallel stereovision geometry in image-guided radiosurgery
US20080033455A1 (en) 2006-08-03 2008-02-07 Rassman William R Hair extraction device and method for its use
US7477782B2 (en) 2006-08-25 2009-01-13 Restoration Robotics, Inc. System and method for classifying follicular units
US8115807B2 (en) 2007-03-06 2012-02-14 William Rassman Apparatus and method for mapping hair metric

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190063527A (ko) * 2017-11-30 2019-06-10 (주)인트인 정자 검출 방법 및 이를 구현하기 위한 프로그램을 기록한 기록매체

Also Published As

Publication number Publication date
US20120230561A1 (en) 2012-09-13
CN101505659B (zh) 2011-09-28
CA2661660C (en) 2013-07-16
CA2661660A1 (en) 2008-02-28
US8290229B2 (en) 2012-10-16
KR101030853B1 (ko) 2011-04-22
WO2008024955A2 (en) 2008-02-28
JP4988847B2 (ja) 2012-08-01
AU2007286606A1 (en) 2008-02-28
US20080049993A1 (en) 2008-02-28
EP2053973A4 (en) 2012-08-01
US20090052738A1 (en) 2009-02-26
BRPI0715630A2 (pt) 2013-07-02
WO2008024955A9 (en) 2008-04-10
JP2010501288A (ja) 2010-01-21
CN101505659A (zh) 2009-08-12
AU2007286606B2 (en) 2010-07-29
EP2053973A2 (en) 2009-05-06
WO2008024955A3 (en) 2008-06-12
US8199983B2 (en) 2012-06-12

Similar Documents

Publication Publication Date Title
KR101030853B1 (ko) 모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법
KR101050593B1 (ko) 모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상처리기
JP5318946B2 (ja) 採取用の毛嚢ユニットを選択するシステム及び方法
KR20170086829A (ko) 모발 이식 모니터링시스템
KR20200062985A (ko) 모낭 정보 측정 및 수집 방법
KR20170022392A (ko) 모근부의 각도를 판단하여 탈모 환자의 모근부를 손실없이 채취할 수 있도록 지원하는 방법 및 펀칭 장치

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140325

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160330

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170404

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180330

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190409

Year of fee payment: 9