KR20090030341A - 모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상처리기 - Google Patents

모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상처리기 Download PDF

Info

Publication number
KR20090030341A
KR20090030341A KR1020097003088A KR20097003088A KR20090030341A KR 20090030341 A KR20090030341 A KR 20090030341A KR 1020097003088 A KR1020097003088 A KR 1020097003088A KR 20097003088 A KR20097003088 A KR 20097003088A KR 20090030341 A KR20090030341 A KR 20090030341A
Authority
KR
South Korea
Prior art keywords
image
hair
skeleton
contour
endpoint
Prior art date
Application number
KR1020097003088A
Other languages
English (en)
Other versions
KR101050593B1 (ko
Inventor
셀제이드 에이. 큐레시
모한 보두루리
Original Assignee
레스토레이션 로보틱스, 인코포레이티드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 레스토레이션 로보틱스, 인코포레이티드 filed Critical 레스토레이션 로보틱스, 인코포레이티드
Publication of KR20090030341A publication Critical patent/KR20090030341A/ko
Application granted granted Critical
Publication of KR101050593B1 publication Critical patent/KR101050593B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Quality & Reliability (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Surgical Instruments (AREA)

Abstract

관심 모낭 단위 내의 모발의 수에 기초하여 모낭 단위를 분류하는 시스템 및 방법은 관심 모낭 단위를 갖는 신체 표면의 화상을 획득하고, 화상을 처리하여 모낭 단위의 컨투어 및 컨투어 내의 오목부를 무시하는 아웃라인 프로파일을 계산하며, 아웃라인 프로파일 내의 디펙트의 수를 결정하여 모낭 단위 내의 모발의 수를 결정하는 것을 포함한다. 이 시스템 및 방법은 또한 피부 아래에 모이는 모발 및 하나의 넓은 모발처럼 보이는 화상에 대해 조정할 수도 있다. 다른 측면에서, 모낭 단위의 종단점을 결정하는 시스템 및 방법은 분할된 화상의 골격을 생성하고 골격화 화상으로부터 종단점을 식별하는 것을 포함한다.

Description

모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상 처리기{SYSTEM AND METHOD FOR CLASSIFYING FOLLICULAR UNITS}
본 발명은 일반적으로 모발 이식 방법에 관한 것으로서, 보다 구체적으로는 모발 이식 방법에 사용하기 위한 디지털 촬영 및 처리 기법을 이용하여 모낭 단위(follicular unit)를 분류하는 시스템 및 방법에 관한 것이다.
모발 이식 방법은 잘 알려져 있으며, 통상 (남성형 탈모) 환자의 두피의 측면 및 후부 주변 부위(공여자 부위)로부터 공여자 모발 이식편(graft)을 채취하고, 이들을 두피 부위(수용자 부위)에 이식하는 것과 관련이 있다. 통상, 채취된 이식편은, 보다 최근에는 공여자 이식편이 단일 모낭 단위일 수도 있지만, 비교적 크다(3-5 mm). 특히, "모낭 단위"(이하에서는 FU 또는 FUs라고도 함)는 두피의 표면 위에 무작위로 분포되어 있는, 총 1 내지 3(드물게는 4 내지 5) 개의 밀접하게 이격된 모낭일 수 있다.
모낭 단위는 모낭 내의 모발의 수에 따라 분류되는데, 모낭 단위당 1개의 모발에 대해 간략히 "F1"이라 하고, 모낭 단위당 2개의 모발에 대해 "F2"라 하며, 3 내지 5개의 모발을 갖는 모낭 단위에 대해서도 이와 같이 식별된다. 복수의 모발의 모낭 단위의 일부의 경우에, 두피 내의 단일 모낭 또는 지점으로부터 모발이 나타나서 퍼질 수 있다. 다른 경우에는, 모발들이 약간 이격된 지점에서 나오지만 피부 아래의 단일 모낭 내부로 모일 수도 있다. 도 1을 참고하면, 다양한 유형의 모낭 단위를 갖는 두피(11)의 예시적인 부분의 디지털 화상의 프린트가 도시되어 있다. 예를 들어, 모낭 단위(13)는 2개의 모발을 갖고 있으며, 따라서 F2인 반면에, 모낭 단위(15)는 단지 하나의 모발을 갖고 있으므로 F1이다. 이와 유사하게, 모낭 단위(17)는 3개의 모발을 갖는 F3으로 나타나 있다.
모낭 단위 내의 모발의 수에 따라서 모낭 단위를 식별하고 분류하는 것이 중요하고 바람직한 몇몇 이유가 있다. 첫째로, 소정 부류의 모낭 단위들을 두피의 특정 부위에 이식하는 것이 바람직하다. 예를 들면, 단일 모발의 모낭 단위(F1)는 일반적으로 얼굴형을 만드는 헤어라인을 따라 이식된다. 하나보다 많은 모발을 갖는 모낭 단위들(F2s, F3s 등)은 일반적으로 두피 중앙부(mid-scalp) 및 정수리(crown)에 이식된다. 모낭 단위 분포의 이 배열은 보다 자연스럽게 보이는 미적인 결과를 가져오는 것으로 생각된다. 그러나, 이식된 모발의 외양에 대해 원하는 특성을 제공하기 위해 다양한 부류("유형"이라고도 함)의 모낭 단위를 활용하는 것이 바람직할 수도 있다. 그러한 특성은 모발의 밀도, 모발의 방향 또는 배향, 모낭 단위의 유형들의 특별한 혼합, 및/또는 무엇보다도 자연스런 외양(appearance of randomness)을 포함할 수 있다.
모낭 유닛이 포함하는 모발의 수에 따라 모낭 유닛을 분류하는 것 외에, 모 발 이식을 계획하고 수행하는데 있어서 모낭 유닛 내의 각각의 그러한 모발의 종단점(end point)을 찾아내어 식별하는 것도 바람직할 수 있다. 통상 하나의 종단점은, 피부의 표면에 위치하며 "테일(tail)"이라고도 하는데, 모낭 단위의 하나 이상의 모발이 피부로부터 나오는 지점이다. 다른 종단점은 "헤드(head)"라고 하며, 피부 표면 위에 있는 모낭 단위의 각 모발의 끝에 해당한다. 따라서, 단일 모발의 모낭 단위는 하나의 헤드를 갖는 반면에, 2개 모발의 모낭 단위는 2개의 헤드를 갖는다. 피부의 표면 아래에 위치하는 모낭 단위의 다른 종단점은 "벌브(bulb)"라고 하며 모낭 단위의 하나 이상의 모발이 피하에 생기는 위치/종단점에 해당한다. 여러 관련 종단점의 위치를 아는 것이 바람직한 한가지 이유는 모낭 단위를 채취한 다음에 이 모낭 단위 또는 그 일부를 손상시키지 않고 이식할 수 있다는 것이다. 예를 들어, F2 모낭 단위가 헤드 1이 헤드 2보다 피부로부터 더 멀리 위치하도록 다른 모발보다 긴 하나의 모발을 가지면, 이것은 흔히 피부 아래에서 모낭 단위의 주 방향이 헤드 1을 갖는 모발의 축의 방향으로 연장된다는 것을 나타낸다. 따라서, 모낭 단위의 각 헤드의 위치를 알면, 피부 표면 아래의 모낭 단위의 각도 및 방향을 판단하는데 도움이 될 수 있으며, 이는 채취 툴을 보다 잘 위치시키는데 사용될 수 있어, 모발 절단 가능성을 줄이고 모발 이식 방법의 효과도 향상시킬 수 있다.
수동 및 어느 정도의 자동화가 이루어진 기계화된 다양한 모발 이식 방법이 이미 공지되어 있다. 한가지 잘 알려져 있는 수동 방법에서는, 두피의 선형 부분이 메스에 의해 지방성 피하 조직 아래로 절개되어 공여자 부위로부터 제거된다. 스트립(strip)이 구성요소 모낭 단위들 내로 절개되고, 이들 모낭 단위들이 바늘에 의해 형성된 각각의 구멍 내의 수용자 부위로 이식된다. 다른 도구 및 방법도 알려져 있지만, 통상적으로는 포셉(forcep)이 모낭 단위 이식편을 잡아 바늘 구멍 위치에 위치시키는데 사용된다.
"Androgenetic Alopecia"(Springer 1996)에서, M.Inaba & Y.Inaba는 모낭 단위의 임계 해부학적 부분의 직경과 대략 동일한 1mm의 직경을 갖는 내측 내강 및 커팅 에지를 갖는 속이 빈 펀치 니들(hollow punch needle)을 배치함으로써 하나의 모낭 유닛을 채취하는 수동 방법을 개시 및 설명하고 있다. 바늘 구멍은 발췌되는 모낭 단위의 축과 축 정렬되고, 그 다음에 선택된 모낭 단위의 원주에 대해 두피를 절개하도록 두피 속으로 진행한다. 그 후에, 모낭 단위는, 특별히 고안된 주사 바늘로 수용 위치로 이식하기 위해, 예를 들어 포셉을 이용하여 쉽게 제거된다.
미국 특허 제6,585,746호는 로봇 팔 및 로봇 팔과 관련된 모낭 안내자를 포함하는 로봇을 이용하는 자동 모발 이식 시스템을 개시하고 있다. 환자의 두피의 3차원 가상 화상을 생성하는데 비디오 시스템이 사용되며, 이것은 로봇 팔의 제어 하에 여포 유도자에 의해 주입된 모발 이식편을 수용하는 두피 위치를 계획하는데 사용된다. 미국 특허 제6,585,746호의 전체 내용은 본 명세서에 참조로서 포함된다.
이식을 위한 자동화된 시스템 및 방법은 2005년 9월 30일 출원된 미국 임시 특허 출원 제60/722,521호와, 2006년 4월 28일 출원된 미국 특허 출원 제11/380,903호(현재 US2007/0078466으로 공개되었음) 및 2006년 4월 28일 출원된 제 11/380,907호(현재 US2007/0106306으로 공개되었음)에도 개시되어 있다. 이들 출원들은 모두 본 출원에 참조로서 포함된다.
예를 들어, 미국 특허 출원번호 제11/380,907호에 개시된 시스템은 팔 위에 탑재된 채취 및/또는 이식 도구를 갖는 로봇 팔을 포함한다. 또한 하나 이상의 카메라가 팔 위에 탑재되어 신체 표면과 같은 작업 공간을 촬영하는데 사용된다. 처리기(processor)는 카메라에 의해 촬영된 화상들을 수신하여 처리하도록 구성되어 있다. 제어기는 처리기와 로봇 팔에 동작 가능하게 결합된다. 제어기(controller)는 적어도 부분적으로 카메라 및 처리기에 의해 촬영되어 처리된 화상에 기초하여 로봇 팔의 움직임을 제어한다. 팔은 모발의 이식을 수행하기 위해 신체 표면에 대해 원하는 방향 및 위치에 기구를 위치시키도록 제어가능하게 움직일 수 있다.
모발 이식을 위한 이들 시스템 및 방법을 활용하는데 있어서, 먼저 채취 및 이식될 모낭 단위를 선택하고 모발이 이식될 정확한 위치를 결정하도록 이식을 계획하는 것이 바람직하다. 따라서, 모발 이식 방법을 계획하는데 있어서, 채취 및 신체 표면의 다른 부분으로의 이식을 위해 신체 표면 상의 특정 위치로부터의 특정 모낭 단위가 선택될 수 있다. 이식될 모낭 단위는 예를 들어 모낭 단위의 유형(즉, F1, F2 등), 모낭 단위 내의 모발의 방향, 모발의 밀도 등과 같은 특정 표준에 기초하여 선택될 수도 있다. 그러나, 각각의 모낭 단위를 세고 특징짓는 과정이 지루하고 시간 소모적일 수 있다. 따라서, 자동화된 시스템을 사용하여, 모낭 단위의 각각의 모발의 종단점을 식별하는 것을 포함하여 모낭 단위를 분류하는 시 스템 및 방법이 요구된다.
본 발명의 일반적인 측면에 따르면, 자동화된 시스템을 사용하여 모낭 단위를 분류하는 시스템 및 방법이 제공된다. 본 발명의 시스템 및 방법은 신체 표면 상에 모낭 단위의 이식을 위한 시스템 및 방법에 활용될 수 있다. 본 발명의 시스템 및 방법은 모발 이식을 위한 자동화된 시스템에서 구현되거나 통합될 때 특히 유용하다.
본 발명의 일측면에서, 모낭 단위를 분류하는 방법은 모낭 단위(FU)를 포함하는 신체 표면의 화상을 획득하는 단계와, 이 화상을 처리하여 FU의 분할된 화상을 생성하는 단계를 포함한다. 일실시예에서, 분할된 화상은 이진 화상이다. FU의 분할된 화상으로부터, FU의 모발의 외주 주위의 컨투어가 계산될 수 있다. 예를 들어, F1의 경우, 컨투어는 일반적으로 단일 모발의 외부면을 따르는 라인 또는 표면이다. 비교적 직선인 모발에 있어서, 컨투어는 직사각형처럼 보인다. F2의 경우, 모발들은 일반적으로 컨투어가 V 문자처럼 보이도록 "V"를 형성한다.
분할된 화상은 또한 FU의 아웃라인 프로파일의 계산을 허용한다. 아웃라인 프로파일은 화상의 컨투어 내의 오목부를 무시한다. 예를 들어, F2의 경우, "V"의 한쪽 상부로부터 "V"의 정점까지의 컨투어 내에서의 하강 및 다시 "V"의 다른 쪽 상부까지에 의해 형성된 컨투어 내의 오목부 또는 "내적으로 구부러진" 부분이 존재한다. 계산된 프로파일은 결과의 아웃라인 프로파일이 일반적으로 FU의 컨투어의 "V"의 정점을 따라가는 삼각형의 꼭지점들 중 하나를 갖는 삼각형처럼 보이도록 이 오목부를 무시한다.
그 다음에 아웃라인 프로파일을 컨투어와 비교하여 아웃라인 프로파일 내의 "디펙트"의 수를 결정한다. 아웃라인 프로파일 내의 디펙트는 예를 들어 컨투어로부터 전환되는 아웃라인 프로파일 내의 각각의 오목부로서 정의될 수 있다. F2의 예에서는 "V" 형상에 의해 형성된 오목부로 표현된 아웃라인 프로파일에 하나의 디펙트가 존재한다. F3에서는, 이 컨투어가 일반적으로 공통 정점을 공유하는 두 개의 V처럼 형성되고, 하나의 라인이 두 개의 V 중 한 쪽을 형성한다. F3의 아웃라인 프로파일은 또한 일반적으로 삼각형을 갖는다(F2보다 넓은 삼각형이 될 것이다). 따라서, F3은 두 개의 디펙트를 갖는다. 따라서, 디펙트의 수는 모낭 단위의 유형과 직접적인 관련을 갖는다는 것을 알 수 있다. 이 경우, FU에 대한 모발의 수는 디펙트의 수에 1을 더한 값과 같다.
모낭 단위를 분류하는 방법의 일실시예에서, 아웃라인 프로파일은 잘 알려진 화상 처리 기법에 따라 컨벡스 헐 컨투어를 계산함으로써 결정될 수도 있다. 아웃라인 프로파일을 결정하기 위한 다른 적절한 기법들도 본 발명의 범주 내에 속한다.
본 발명의 방법의 다른 측면에서는, 화상 획득 장치와 FU 사이의 상대적인 이동에 맞추어 관심 FU를 추적하는 방법이 제공된다. 일실시예에서는, 2개의 카메라를 사용하여 신체 표면의 이동 및/또는 카메라의 이동에 맞추어 제 1 및 제 2 카메라의 화상 내의 관심 FU를 추적할 수도 있다. 또한, 제 1 및 제 2 카메라는 FU의 모발의 일반적인 방향과 정렬된다. 이런 방법으로, FU를 분류하는 절차의 나머지 단계들을 수행하기 위한 양호한 품질의 데이터를 제공하는 화상이 획득된다. 그러나, 추적 절차는 파노라마 화상을 포함하는 다양한 각도로부터 복수의 화상을 취함으로써 카메라들 및 하나의 카메라와 같은 복수의 화상 획득 장치로 수행될 수 있다. 카메라의 이동은 수동으로 또는 사용된 시스템이 로봇 시스템인 경우에는 로봇의 도움으로 이루어질 수 있다.
본 발명의 또 다른 측면에서, 모낭 단위를 분류하는 방법은 또한 피부의 표면 아래에 모이는 모발들을 갖는 모낭 단위에 맞게 조정될 수도 있다. 그러한 경우, 화상은 관심 FU의 컨투어의 인접 부분이 아닌 모발의 화상을 포함할 것이다. 이 상황을 설명하기 위해, 개별 모발이 관심 FU의 인접하는 컨투어를 정의하는 모발로부터 최대 거리 내에 있는 지의 여부가 결정된다. 최대 거리는 개별 FU로부터의 모발인 것처럼 보이는 것이 관심 FU와 동일한 FU의 일부분일 가능성이 높은 거리로 설정된다. 관심 FU의 분류는 관심 FU의 모발로부터 최대 거리 내에 있는 임의의 부가적인 모발을 고려한다.
본 발명의 또 다른 측면에서, 모낭 단위를 분류하는 방법은 또한 단일 모발인 것처럼 보이지만 실제로는 복수의 모발인 모발 화상에 맞게 조정할 수도 있다. 디지털 화상이 FU의 모발들에 대해 소정의 각도로 촬영되면, 모발들의 화상이 병합되어 하나의 모발인 것처럼 보일 수도 있다. 따라서, 모발들이 병합되면 관심 FU에 실제 존재하는 것보다 아웃라인 프로파일 내의 디펙트의 수가 적어지기 때문에(따라서 모발의 수가 적어지기 때문에), 디펙트의 수를 판정하는 것이 정확한 분류를 제공하지는 않는다. 이런 상황을 설명하기 위해, 이 방법은 관심 FU 내의 모발을 나타내는 각각의 대상의 폭을 판정하고 이것을 단일 모발의 폭과 비교한다. FU를 분류하는 단계는 모발을 나타내는 대상의 폭이 최대 예상 폭을 초과하는 지의 여부를 판단한 결과에 기초할 수도 있다. 예를 들어, 이 폭이 예상 폭의 1-1/2 및 2배 사이이면, 분류 단계는 그러한 대상을 2개의 모발로서 근사시킬 것이다. 유사한 근사가 3, 4 또는 5개의 모발에 대해 행해질 수 있다.
본 발명의 다른 측면에서, 모낭 단위(FU)의 종단점을 결정하는 방법이 제공된다. 이 방법은 피부의 표면 및 그 위의 FU의 종단점들 및 피하 종단점들을 결정할 수도 있다. 이 방법은 FU를 포함하는 신체 표면의 화상을 획득하는 단계와, 이 화상을 처리하여 FU의 분할된 화상을 생성하는 단계와, FU의 분할된 화상의 골격(skeleton)을 생성하는 단계와, 이 골격으로부터 FU의 적어도 하나의 종단점을 결정하는 단계를 포함한다. 골격의 생성 또는 "골격화(skeletonization)"는 분할된 화상 내의 전경 영역을 골격의 잔여부로 감소시키는 공정이다. 본 발명의 방법은 관심 화상의 골격을 생성하는 특정 기법 또는 방법에 제한되지 않고, 오히려, 예를 들어 세선화 방법, 에지 검출 기반 기법, 하일디치 알고리즘, 거리 변환에 특이점을 이용하는 골격의 근사 등을 포함하는 모든 적절한 방법을 커버한다. 일부 실시예에서, 종단점을 결정하는 방법은 (스테레오 화상을 포함하는)복수의 화상을 사용하거나 또는 골격을 생성하는 부가적인 데이터 확인으로서 화상의 컨투어를 결정함으로써 더욱 정제된다.
자동화된 시스템을 사용하여 FU를 분류하는 시스템은 화상 획득 장치 및 화상 처리기를 포함한다. 화상 획득 장치의 일례로는 상용 카메라와 같은 하나 이상의 카메라를 들 수 있다. 카메라 대신에, 비디오 레코딩 장치(예를 들면, 캠코더) 또는 임의의 다른 화상 획득 장치를 사용해도 된다. 스테레오 촬영 장치는 본 발명에 매우 유용하지만, 반드시 스테레오 촬영을 이용할 필요는 없다. 마찬가지로, 화상 획득 장치가 디지털 장치인 것이 바람직하지만, 반드시 그럴 필요는 없다. 예를 들어, 화상 획득 장치는 본 발명의 방법에서 추가적으로 사용하기 위해 디지털 화상으로 디지털화되는 최초 화상을 획득하는 아날로그 TV 카메라일 수 있다. 화상 처리기는 본 발명에 따라 FU를 분류하는 방법을 수행하도록 프로그램되고 구성되는 임의의 장치를 포함할 수 있다. 예를 들면, 적절한 화상 처리기는 임의의 유형의 개인용 컴퓨터(PC)일 수 있다. 이와 달리, 화상 처리기는 ASIC(Application Specific Integrated Circuit) 또는 FPGA(Field Programmable Gate Array)를 포함할 수도 있다. 화상 처리기는 본 발명의 방법을 수행하도록 구성된 소프트웨어로 프로그램될 수도 있다.
FU를 분류하는 시스템과 유사하게, FU의 종단점을 결정하는 시스템이 제공된다. 종단점을 결정하는 시스템은 FU를 분류하는 시스템과 관련하여 전술한 바와 동일하거나 또는 상이한 화상 획득 장치를 포함할 수도 있고, 모낭 단위의 종단점을 결정하는 방법을 수행하도록 프로그램되고 구성되는 종단점 화상 처리기르 포함할 수도 있다. 종단점 화상 처리기는 사용된 시스템에 따라서 별도로 또는 FU를 분류하는 화상 처리기와 함께 제공될 수 있다.
본 발명의 또 다른 측면에서, FU를 분류하는 화상 처리기가 제공된다. 화상 처리기는 PC 또는 다른 프로세서와 같은 임의의 적절한 컴퓨팅 장치를 포함하며, FU의 화상을 수신하고, 이 화상을 처리하여 FU의 분할된 화상을 생성하며, FU의 분할된 화상의 컨투어를 계산하고, FU의 분할된 화상의 컨투어 내의 오목부를 무시하는 상기 분할된 화상의 아웃라인 프로파일을 계산하며, 아웃라인 프로파일 내의 디펙트의 수를 결정하고, 결정된 디펙트의 수에 적어도 부분적으로 기초하여 FU를 분류하도록 구성된다.
본 발명의 또 다른 측면에서, FU의 적어도 하나의 종단점을 결정하는 화상 처리기가 제공된다. FU의 적어도 하나의 종단점을 결정하는 화상 처리기는 PC 또는 기타 프로세서와 같은 임의의 적절한 컴퓨팅 장치를 포함하고, FU의 화상을 수신하고, 이 화상을 처리하여 FU의 분할된 화상을 생성하며, FU의 분할된 화상의 골격을 생성하고, 이 골격으로부터 FU의 적어도 하나의 종단점을 결정하도록 구성된다.
본 발명의 다른 측명에서, FU를 분류하고 FU의 적어도 하나의 종단점을 결정하는 두 공정을 수행하는 화상 처리기가 제공된다. 이 화상 처리기는 FU 분류 및 종단점 결정의 단계들을 수행하도록 구성된 전술한 임의의 화상 처리기일 수 있다. 모낭 단위를 분류하는 화상 처리기 또는 종단점 화상 처리기 또는 이들 두 기능을 수행하는 조합형 화상 처리기는 모발 채취 또는 모발 이식 또는 모발 분류를 위한 시스템 또는 모발 처리 계획 시스템을 포함하는 다양한 모발 이식 및 처리 시스템 및 장치와 함께 사용될 수 있다.
자동화된 시스템을 사용하여 모낭 단위를 분류하는 시스템(및 모낭 단위의 종단점을 결정하는 시스템)은 배경기술에서 설명한 임의의 이식 시스템을 포함할 수도 있다. 예를 들어, 미국 특허출원번호 제11/380,907호에 기재된 시스템은 본 발명에 따른 모낭 단위를 분류하는 방법을 수행하도록 프로그램되고 구성될 수 있다. 시스템 상의 카메라는 스테레오 디지털 화상을 제공할 수 있고, 로봇 팔이 적절히 배치되어 카메라를 배향할 수 있다. 관심 영역의 선택은 시스템(예를 들면, 모니터 및 입력 장치를 갖는 컴퓨터)의 사용자 인터페이스에서의 조작자에 의해 수행될 수 있거나 또는 컴퓨터 및/또는 제어기의 프로그래밍을 통해 자동화될 수 있다.
따라서, 모낭 단위를 분류하고/또는 모낭 단위의 종단점을 결정하는 시스템 및 방법이 제공된다. 본 발명의 다른 실시예, 목적 및 이점들은 첨부 도면을 참고할 때 이하의 상세한 설명으로부터 명확해질 것이다.
도 1은 다양한 유형의 모낭 단위 및 선택된 관심 영역을 보여주는 두피의 예시적인 부분의 디지털 화상의 인쇄물.
도 2는 단일 모낭 단위의 디지털 화상의 인쇄물.
도 3은 화상이 분할된 후의 도 2의 디지털 화상의 인쇄물.
도 4는 대시 라인으로 도시된 모낭 단위의 모발의 예시적인 컨투어(contour)를 갖는 도 3의 디지털 화상의 인쇄물.
도 5는 점선으로 도시된 모낭 단위의 모발의 예시적인 아웃라인 프로파일을 갖는 도 3의 디지털 화상의 인쇄물.
도 6은 모낭 단위의 모발의 컨투어에 비해 아웃라인 프로파일의 디펙트(defect)를 보여주는 도 3의 디지털 화상의 인쇄물.
도 7은 분리된 것으로 보이지만 실제로는 동일한 모낭 단위의 부분인 모발을 도시하는 분할된 디지털 화상의 인쇄물.
도 8은 단일의 넓은 모발로 보이지만 실제로는 동일한 모낭의 두 개의 모발인 것을 도시하는 분할된 디지털 화상의 인쇄물.
도 9는 본 발명에 따른 모낭 단위를 분류하는 방법의 예시적인 실시예의 순서도.
도 10은 본 발명에 따른 모낭 단위의 종단점을 찾아내는 방법의 예시적인 실시예의 순서도.
이하, 첨부 도면을 참고하여 예를 통해 본 발명을 설명한다. 도면에서 유사한 참조번호는 유사한 요소를 나타낸다.
도 1을 참조하면, 본 발명에 따른 모낭 단위를 분류하는 시스템 및 방법의 예시적인 실시예는 일반적으로, 예를 들어 하나 이상의 카메라 또는 임의의 다른 적절한 촬영 장치와 같은 화상 획득 장치를 사용하여 신체 표면(11)의 화상을 획득하는 것으로 시작한다. 화상 획득 장치는 디지털 카메라에 의해 생성된 디지털 화상을 생성하거나 또는 (처리 중의 어느 시점에 디지털 화상으로 변환될 수도 있고 변환되지 않을 수도 있는)아날로그 화상을 생성할 수도 있다. 도 1의 사진은 두피(11)의 일부분의 화상이지만, 신체 표면은 모발을 갖는 신체의 어떠한 부분도 될 수 있다. 본 설명에서는 화상(10)이 디지털 카메라로 촬영한 디지털 화상이지만, 본 발명은 디지털 카메라로 촬영한 디지털 화상에 제한되지 않고, 임의의 유형의 화상 획득 장치에 의해 획득된 어떠한 화상의 사용도 포함한다. 디지털 화상(10)은 단일 모발(F1) 모낭 단위(15), 2개 모발(F2) 모낭 단위(13) 및 3개 모발(F3) 모낭 단위(17)를 포함하는 두피(11) 상의 다양한 유형의 모낭 단위(FU)를 보여준다.
디지털 화상(10)은, 본 명세서에 참조로서 포함된 미국 특허출원번호 제11/380,907호의 모발 이식 시스템에서 설명된 카메라와 같은, 자동화된 모발 이식 시스템의 하나 이상의 디지털 카메라를 사용하여 획득될 수 있다. 카메라들 중 단 하나의 카메라로부터의 화상이 디지털 화상(10)을 생성하는데 사용될 수 있다. 이와 달리, 디지털 화상(10)을 획득하기 위한 방법은 관심 모낭 단위를 분류하는데 사용된 화상을 향상시키기 위해 카메라를 정렬하는 보다 복잡한 방법에 의해 획득될 수도 있다. 이 방법에서, 예를 들어 제 1 카메라와 제 2 카메라가 사용될 수도 있다. 이들 카메라는 카메라가 향하는 신체 표면의 스테레오 화상을 획득하도록 정렬 및 구성될 수도 있다. 이들 카메라는 먼저 모발을 갖고 있는 것으로 알려진 부위 내의 신체 표면을 향하도록 배치된다. 제 1 디지털 화상은 제 1 카메라로부터 획득되고, 관심 모낭 단위(FU)는 제 1 디지털 화상 내에서 선택된다. 제 1 카메라(스테레오 카메라에 의해 제공된 약간 다른 각도)와 동일한 신체 표면의 부위에 대한 제 2 디지털 화상은 제 2 카메라로부터 획득되고, 동일한 관심 FU가 제 2 디지털 화상 내에서 선택된다. 관심 FU는 시스템의 조작자에 의해 또는 선택 알고리즘을 이용하여 시스템에 의해 자동으로 디지털 화상 내에서 선택될 수 있다. 이식 시스템은 이제 제 1 및 제 2 카메라로부터의 제 1 및 제 2 디지털 화상 내의 관심 FU를 추적할 수 있다. FU를 분류하는데 사용된 디지털 화상을 획득하기 위해 카메라들이 정렬될 때 신체 표면의 움직임 및 카메라의 움직임에 맞게 조정하기 위해 추적 절차가 이용될 수 있다. 그 다음에, 제 1 및 제 2 카메라가 이동하여 FU의 모발의 일반적인 방향과 정렬되도록 배향된다. 카메라가 이동할 때, 관심 FU를 추적하기 위한 시스템에 의해 추가적인 화상들이 획득되어 처리될 수 있다. 카메라를 FU의 모발과 정렬시킴으로써, FU를 분류하기 위한 보다 나은 화상이 획득될 수 있다. 카메라들을 원하는 정렬로 하면, 카메라들은 모낭 단위를 분류하는 방법의 다음 단계들에 사용될 화상들을 획득한다. 그러나, 전술한 예시적인 실시예에서 설명한 바와 같이 두 개의 카메라 또는 스테레오 촬영을 이용할 필요는 없다. 추적 절차는 카메라들과 같은 복수의 화상 획득 장치뿐만 아니라 파노라마 화상을 포함하여 여러 각도로부터 복수의 화상을 촬영함으로써 단일 카메라로 수행될 수 있다. 카메라는 수동으로 또는 사용된 시스템이 로봇 시스템인 경우에는 로봇의 도움으로 움직일 수도 있다.
디지털 화상(10)이 획득된 후에, 관심 FU(13)(분류될 FU)를 포함하는 것으로 알려진 관심 부위(19)가 선택될 수 있다. 관심 부위를 선택하는 이 단계는 선택적이며, 본 발명의 FU를 분류하는 방법에 따라 요구되지 않을 수도 있다. 대신에, 화상(10)이 그대로 처리될 수도 있으며, 일실시예에 대한 본 설명에서 관심 부 위(19)에 대한 참고는 화상(10)과 상호 교환될 수 있는 것으로 이해하면 된다. 관심 부위(19)는 조작자에 의해 선택될 수도 있고 선택이 시스템에 의해 자동화될 수도 있다.
도 2에는 관심 부위(19)가 FU(13)의 모발(31, 33)의 그레이스케일 서브 화상으로 도시되어 있다. 그 다음에 이 관심 부위(19)의 그레이스케일 디지털 화상 및 FU(13)는 잘 알려져 있는 디지털 화상 처리 기법을 이용하여 처리되어 FU(13)의 분할된 화상을 생성한다. 도 3은 분할된 후의 도 2의 디지털 화상의 예시적인 이진 화상을 도시한 것이다. 화상을 분할하는 목적들 중 하나는 배경(예를 들어, 전경 외의 모든 것)으로부터 전경(예를 들면, 모발)을 분리하기 위한 것이므로, 도 3에 도시된 바와 같이 이진 화상을 획득하는 것이 하나의 쉽고 편리한 선택이다. 그러나, 이진 화상 대신에, 분할된 화상은, 예를 들어, 배경을 피부, 점, 혈액 등을 분리시키는 여러 부분들로 나누도록 요구될 때, 다중적이 될 수 있다.
이진 화상의 모발(31, 33)의 외주(outer perimeter)는 FU(13)의 컨투어를 정의한다. 컨투어(35)의 예시적인 표현이 도 4에 대시 라인으로 도시되어 있다. 본 발명의 방법에서, 컨투어(35)는 모발(31, 33)의 이진 화상의 경계 주위에서 계산될 수도 있고, 이진 화상의 외주를 구성하는 픽셀이 사용될 수도 있다. 도 4에 분명하게 도시된 바와 같이, 2개의 모발을 갖는 FU에 대한 컨투어(35)는 "V"자 형이다.
FU(15)의 이진 화상의 아웃라인 프로파일(37)이 계산된다. 아웃라인 프로파일(37)은 오목부가 제거된 화상의 형상의 아웃라인이다. 도 3 내지 5에 도시된 FU(15)의 이진 화상을 사용하는 본 예에서, 제거될 오목부는 V 형상의 두 다리 사 이의 공간이다. 따라서, FU(15)의 이진 화상의 계산된 아웃라인 프로파일(37)은 도 5에서 점선(37)으로 표시된 바와 같이 일반적으로 삼각형 주위의 라인이 될 것이다. 아웃라인 프로파일은 당업자에게 알려진 임의의 적절한 알고리즘을 이용하여 계산될 수도 있다. 예를 들면, 아웃라인 프로파일(37)은 잘 알려져 있는 화상 처리 기법을 이용하여 컨벡스 헐(convex hull)을 계산함으로써 결정될 수도 있다.
컨투어(35)를 결정하는 단계 및 아웃라인 프로파일(37)을 결정하는 단계는 어떠한 순서로도 수행될 수 있으며(먼저 컨투어를 결정한 후에 아웃라인 프로파일을 결정하거나 그 반대로 결정), 동시에 결정할 수도 있다.
그 다음에 아웃라인 프로파일(37)을 컨투어(35)와 비교하여 제거된 오목부의 수를 결정한다. 아웃라인 프로파일을 생성하는데 있어서 제거되는 오목부는 일반적으로 아웃라인 프로파일에서 "디펙트(defect)"라고 한다. 아웃라인 프로파일(37)을 컨투어(35)와 비교하는 단계가 도 6에 개략적으로 도시되어 있다. 도 6에서 알 수 있듯이, FU(15)의 화상에 빗금 영역으로 표시된 단일 디펙트(39)가 존재한다.
디펙트의 수는 모낭 단위에서 모발의 수를 계산하는데 사용될 수 있으며, 따라서 모낭 단위를 분류하는데 사용될 수 있다. 단일 지점으로부터 나오는 하나 이상의 모발의 형상에 의해 모발의 수가 디펙트의 수보다 하나 더 많다는 것을 알 수 있다. 따라서, 단일 모발의 FU에서는 디펙트가 존재하지 않고, 따라서 FU는 F1이 된다. 2개의 모발을 갖는 FU에서는, 두 모발 사이에 하나의 디펙트가 존재하며 따라서 FU는 F2가 된다. 3개의 모발을 갖는 FU에서는 2개의 디펙트가 존재하는데, 제 1 및 제 2 모발 사이에 하나의 디펙트와, 제 2 및 제 3 모발 사이에 다른 하나의 디펙트가 존재하며, 따라서 FU는 F3이 된다. 4개 이상의 모발을 갖는 모낭 단위에 대해서도 이와 같이 디펙트가 존재한다.
모낭 단위를 분류하는 전술한 예시적인 방법의 기본 단계들은 도 9의 순서도에 요약되어 있다. 도 9는 단순히 전술한 방법의 순서도 표현이다. 단계 100에서, 화상(10)이 획득된다. 화상(10)은 단계 110에서 분할되어 분할된 화상(11)을 생성한다. 컨투어(35)는 단계 120에서 결정되고, 아웃라인 프로파일은 단계 130에서 결정된다. 전술한 바와 같이, 단계 120 및 130은 어떠한 순서로도 수행될 수 있으며, 동시에 수행될 수도 있다. 단계 140에서, 디펙트의 수가 결정되고, 단계 150에서, 적어도 부분적으로 디펙트의 수에 기초하여 모낭 단위의 분류가 결정된다.
일부 경우에, 단일 모낭 단위의 모발들이 피부의 표면 아래에 모일 수도 있어, 도 7의 예에 도시된 바와 같이 이진 화상이 두 개의 분리된 모발을 갖는 것처럼 보일 수도 있다. 또한, 약간 이격된 제 3 모발을 갖는 단일 모낭 단위의 모발들이 한 지점으로부터 2개의 모발을 갖는 F2인 것처럼 보일 수도 있고, 이와 유사한 상황이 있을 수도 있다. 그러나, 별도의 모발이 다른 모발에 매우 가까이에 있는 것처럼 보이면, 그 모발들은 동일한 모나 단위에 속한다고 볼 수도 있다. 이는 모낭 단위의 분류를 이 상황에 맞게 조정하는데 사용될 수도 있다. 따라서, 모발들 사이의 거리는 예를 들어 디지털 화상을 이용하여 결정된다. 도 7에서 모발(33)은 관심 FU(15)의 모발이고, 모발 (31)은 헝클어진 모발이라고 가정하면, 이 방법은 이들 모발이 동일한 모낭 단위의 일부분인 지를 판정한다. 이 예에서, 모발들(33, 31) 사이의 거리는 디지털 화상을 이용하여 계산된다. 헝클어진 모발(31)이 관심 FU(15)의 모발(33)로부터 설정된 최대 거리 내에 있으면, 헝클어진 모발(31)은 FU(15)의 일부분이다. 분리된 것처럼 보이지만 실제로는 동일한 모낭 단위 내에 있는 모발들 사이의 최대 거리는 약 0.5mm 또는 0.7mm 또는 0.3mm일 수도 있고, 환자의 물리적 특성 또는 환자의 샘플링에 기초하여 결정된 거리일 수 있다. 따라서, FU(15)는 단일 모발(33)과 모발(31)을 가지며, 그 결과 F2로서 분류된다.
아주 근접하여 있는 분리된 모발에 대한 조정 방법("근접(proximity) 방법")은 전술한 "디펙트" 방법과 함께 사용될 수 있다. 예를 들면, 디펙트 방법을 먼저 수행한 다음에 근접 방법을 수행할 수도 있고, 그 반대로 할 수도 있다.
관심 영역(19)의 디지털 화상을 획득하는데 사용된 카메라의 방향에 따라서, 단일 모발인 것처럼 보이는 화상이 화상들이 카메라의 앵글로부터 겹쳐지는 둘 이상의 모발이 될 수 있다. 이 상황의 예가 도 8에 도시되어 있다. 도 8은 단일 폭의 모낭인 것처럼 보이지만 실제로는 동일한 모낭 단위(15)의 2개의 모낭인 대상을 도시한 디지털 화상의 인쇄물이다. FU(15)의 분류에서 이 상황을 설명하기 위해, 예를 들어 디지털 화상을 사용하여 FU(15) 내의 모낭을 나타내는 각각의 대상의 폭이 결정된다. 모발을 나타내는 각각의 예시적인 객체(33)가 일반적으로 그 대상의 길이에 평행한 주축과 주축에 직교하는 단축을 가지므로, 예시적인 대상(33)의 폭은 그 단축을 따라 계산된다.
일실시예에서, 폭은 단순히 화상에서 식별된 각각의 모발의 화상을 가로지르는 거리를 측정함으로써 결정될 수 있다. 폭은 폭을 결정하기 위해 각 모발의 길이를 따라 여러 위치에서 샘플링될 수도 있다. 평균 폭 또는 각각의 측정된 폭은 그 폭이 단일 모발에 대한 최대 예상 폭을 초과하는 지의 여부를 결정하는데 사용될 수 있다. 그 다음에, 통상 모발의 "직경(caliber)"이라고도 하는, 모낭을 나타내는 각 대상(33)의 폭이 단일 모낭에 대한 최대 예상 폭을 초과하는 지의 여부가 판정된다. 단일 모낭은 약 50㎛와 100㎛ 사이의 폭을 가지며, 평균 약 75㎛의 폭을 갖는 것으로 알려져 있다. 대상(33)의 폭을 단일 모발의 최대 폭과 비교하면, 대상(33)이 나타내는 FU의 실제 유형을 판정할 수 있다.
그 다음에, 모낭 단위를 분류하는 단계는 FU 내의 모발을 나타내는 각 대상의 폭과 단일 모발에 대한 최대 예상 폭을 비교한 결과에 기초할 수 있다. 예를 들어, 폭이 예상 폭의 1-1/2 내지 2배이면, 분류 단계는 그러한 대상을 24개의 모발로 근사시킬 것이다. 유사한 근사가 3, 4 또는 5개의 모발에 대해 행해질 수 있다. 이 "폭 조정 방법"은 전술한 디펙트 방법 또는 근접 방법 또는 이들 모두와 함께 임의의 순서로 행해질 수 있다.
본 발명의 다른 측면에서는, 모낭 단위(FU)의 종단점을 결정하는 방법이 제공된다. 종단점을 결정하는 것은 피부 표면 아래의(즉, 피하의) 모낭 단위의 각도 및 방향을 결정하는 것을 돕는데 사용될 수 있는데, 이는 채취 도구를 보다 잘 배치하고, 모발 이식 절차의 견고성 및 정확도를 향상시키는데 사용될 수 있다. 모낭 단위의 각도 및 방향에 기초한 채취 도구의 개선된 배치는 채취 절차 동안 모발 절단 기회를 감소시키고, 모발 이식 절차의 효과를 향상시킨다.
FU의 종단점을 결정하는 방법은 피부의 표면 상에 또는 그 위에서의 FU의 종단점 및 피하 종단점의 결정을 허용한다. 본 발명의 방법의 예시적인 실시예는 FU의 분할된 화상의 골격을 생성하는 단계를 포함한다. 분할된 화상은 관심 화상을 획득하고 이를 처리하여 분할된 화상을 획득함으로써 전술한 바와 같이 생성될 수도 있다. 골격을 생성하는 것, "골격화(skeletonization)"는 분할된 화상 내의 전경 영역을, 대체로 대부분의 원래의 전경 픽셀을 폐기하면서 화상의 원래 영역의 범위 및 연결부를 보존하는 골격의 잔여부로 감소시키는 방법이다. 전경 영역의 이 감소는 촬영되는 대상의 일반적인 형상에 영향을 주지 않으면서 가능한 한 많은 픽셀의 패턴을 벗겨냄으로써 발생한다. 분할된 화상의 골격을 계산하는 다른 방법들이 있다. 예시적인 한 방법은 더 이상의 세선화가 가능하지 않을 때까지(이 때 골격이 남는다) 라인 세그먼트의 종단점을 유지하면서 경계부로부터 픽셀들을 연속적으로 제거하는 세선화(thinning) 방법이다. 골격에 기초하여, 종단점들(도 10의 예시적인 화상을 참조하면 헤드 1, 헤드 2 및 테일과 같은)이 식별된다. 도 10에는, 모낭 단위의 종단점을 결정하는 전술한 예시적인 방법의 기본 단계들이 순서도 형식으로 요약되어 있다. 도 10의 예시적인 모낭 단위는 2개의 모발의 모낭 단위이다. 단계 200에서, 화상(10)이 획득된다. 화상(10)은 단계 210에서 분할되어 분할된 화상(11)을 생성한다. 단계 230에서, 화상의 골격(231)이 생성된다. 단계 240에서, 종단점이 결정된다. 이 예에서, 헤드 1(241), 헤드 2(242) 및 테일(243)이 결정되고 분류된다.
골격(231)과 같은 골격은 분할된 화상만 기초로 하여 본 발명의 방법에 따라 생성될 수 있지만, 견고성 및 정확도를 향상시키고 화상 내의 노이즈를 조정하기 위해, 어떤 경우에는 골격을 생성하는데 사용된 부가적인 확인 데이터로서 FU의 컨투어를 결정하는 것이 바람직할 수 있다. 도 10의 순서도는 골격의 생성이 분할된 화상 및 FU의 컨투어로부터의 정보에 기초하도록 FU의 컨투어(35)가 결정되는 부가적인 선택적 단계 220을 도시하고 있다.
"세선화" 방법은 골격을 생성하는 일례이며, 본 발명의 범주 내에서 골격을 생성하는 다양한 다른 방법 및 기법이 있다.
예를 들면, 그러한 다른 기법으로는 골격을 근사하기 위한 거리 변환에 특이점을 사용하는 것, 에지 검출 기반 기법 또는 하일디치 알고리즘(hilditch's algorithm)이 있다.
화상의 골격을 생성하는데 있어서, 노이즈가 중요한 문제가 될 수 있다. 따라서, 화상의 품질 및 정확한 골격 생성 효과를 향상시키기 위해 (스테레오 화상을 포함하는)복수의 화상을 생성하고 활용하는 것이 도움이 될 수 있다. 이와 관련하여, 본 발명의 일부 실시예에서는, 종단점을 결정하는 방법이 (스테레오 화상을 포함하는)복수의 화상을 사용하거나 또는 골격을 생성하는 부가적인 데이터 확인으로서 화상의 컨투어를 결정함으로써 더욱 정제된다.
본 발명의 또 다른 측면에서, 모낭 단위를 분류하는 시스템이 제공된다. 일실시예로서, 이 시스템은 화상 획득 장치 및 화상 처리기를 포함할 수 있다. 화상 획득 장치의 일부 예는 임의의 상용 카메라와 같은 하나 이상의 카메라를 포함한 다. 화상 획득 장치는 정자 화상을 촬영할 수도 있고, 비디오 레코딩 장치(예를 들면, 캠코더) 또는 다른 화상 획득 장치일 수 있다. 스테레오 촬영 장치가 현재 선호되지만, 스테레오 촬영을 반드시 가질 필요는 없고, 본 발명은 이에 한정되지 않는다. 마찬가지로, 화상 획득 장치는 디지털 장치인 것이 바람직하지만, 반드시 그렇지는 않다. 예를 들어, 화상 획득 장치는 본 발명의 방법에서 추가적으로 사용하기 위해 디지털 화상으로 처리되는 최초 화상을 획득하는 아날로그 TV 카메라일 수 있다. 화상 처리기는 본 발명에 따라 FU를 분류하는 방법을 수행하도록 프로그램되고 구성되는 임의의 적절한 장치를 포함할 수 있다. 일실시예에서, FU를 분류하기 위한 화상 처리기는 FU의 화상을 수신하고, 이 화상을 처리하여 분할된 화상을 생성하며, DU의 분할된 화상의 컨투어 및 아웃라인 프로파일을 계산하고, 아웃라인 프로파일 내의 디펙트의 수를 결정하여 디펙트의 수에 기초하여 FU를 분류하도록 구성되며, 선택적으로는 상기 분류가, 필요한 경우 부가적인 소정의 조정에 기초할 수도 있다. 예를 들면, 적절한 화상 처리기는 임의의 유형의 개인용 컴퓨터(PC)일 수 있다. 이와 달리, 화상 처리기는 ASIC(Application Specific Integrated Circuit) 또는 FPGA(Field Programmable Gate Array)를 포함할 수도 있다.
본 발명의 다른 측면에 따르면, FU의 종단점을 결정하기 위한 시스템이 제공된다. 이 시스템은 모낭 단위를 분류하기 위한 전술한 시스템과 결합될 수 있으며 또한 그 일부가 될 수도 있고, 별개의 독립적인 시스템일 수도 있다. 종단점을 결정하기 위한 이 시스템은 화상 획득 장치 및 종단점 화상 처리기를 포함할 수도 있 다. 이 시스템의 화상 획득 장치는 FU를 분류하기 위한 시스템과 관련하여 설명한 장치와 동일하거나 또는 상이할 수도 있다. 만약 두 개의 시스템이 결합되면, 단일 화상 획득 장치가 모든 화상 획득 목적을 위해 사용될 수도 있다. 종단점 화상 처리기는 본 발명에 따른 FU의 종단점을 결정하는 방법을 수행하도록 프로그램되고 구성될 수 있다. 일실시예에서, 종단점 화상 처리기는 화상을 수신하고 이것을 처리하여 FU의 분할된 화상을 생성하며, FU의 골격을 생성하고, FU의 적어도 하나의 종단점을 결정하도록 프로그램되고 구성된다. FU를 분류하는 시스템에 유용한 다양한 적절한 화상 처리기의 예들 및 설명은 종단점을 결정하는 시스템의 화상 처리기에 동등하게 적용가능하다. 두 개의 시스템이 결합되면, 이들은 두 방법의 모든 결합된 필요한 단계들을 수행하도록 프로그램되고 구성된 동일한 화상 처리기를 사용할 수 있거나 또는 이들은 다른 화상 처리기를 사용할 수 있다.
FU 분류 시스템의 화상 획득 장치 또는 종단점 결정 시스템, 또는 결합 시스템은 고정된 위치에 탑재되거나 또는 로봇 팔 또는 다른 제어가능한 이동 장치에 탑재될 수 있다. 로봇 팔 또는 이동 장치는 로봇 팔 또는 이동 장치의 움직임을 제어하도록 구성된 제어기에 동작 가능하게 결합될 수 있다. 제어기는 화상 획득 장치에 의해 획득된 화상 또는 데이터에 기초하여 로봇 팔 또는 이동 장치의 움직임을 제어하도록 구성된 제어기에 의해 화상 처리기로부터 화상 또는 데이터를 수신하여 처리할 수 있다. 또한, 시스템은 FU의 채취 및/또는 이식 또는 모발 처리 계획에 유용한 다른 기구, 장치 및 부품을 포함할 수 있다.
모낭 단위를 분류하고/또는 전술한 모낭 단위의 종단점을 결정하는 임의의 또는 모든 시스템 및 방법은 미국 특허 출원번호 제11/380,903호 및 미국 특허 출원번호 제11/380,907호에 개시된 모발 채취 및 이식 시스템 및 방법과 함께 사용될 수도 있다.
본 발명의 전술한 실시예는 다양한 변형예 및 대안적인 형태가 가능하며, 본 발명 및 본 명세서에서 설명한 특정 실시예는 일반적으로 개시된 특별한 형태 및 방법에 한정되지 않고, 첨부한 청구범위 내의 모든 변형, 균등물 및 대안들을 커버한다. 예를 들면, 당업자라면, 본 발명이 로봇 팔을 포함하는 로봇 시스템의 사용에 한정되지 않고, 다른 자동화 및 반자동화 시스템을 사용해도 된다. 또한, 본 발명의 모낭 단위의 종단점을 분류 및/또는 결정하는 시스템 및 방법은 별도의 자동화된 이식 시스템 또는 심지어 수동 이식 절차와 함께 사용된 별도의 시스템일 수 있다.

Claims (37)

  1. 모낭 단위(FU; follicular unit)로부터 나오는 모발의 수에 기초하여 상기 FU를 분류하는 방법에 있어서,
    FU를 포함하는 신체 표면의 화상을 획득하는 단계와,
    상기 화상을 처리하여 상기 FU의 분할된 화상(segmented image)을 생성하는 단계와,
    상기 FU의 상기 분할된 화상의 컨투어(contour)를 계산하는 단계와,
    상기 FU의 상기 분할된 화상의 상기 컨투어 내의 오목부들(concavities)을 무시하는 상기 분할된 화상의 아웃라인 프로파일(outline profile)을 계산하는 단계와,
    상기 아웃라인 프로파일 내의 디펙트(defect)의 수를 결정하는 단계와,
    상기 결정된 디펙트의 수에 적어도 부분적으로 기초하여 상기 FU를 분류하는 단계를 포함하는
    FU 분류 방법.
  2. 제 1 항에 있어서,
    상기 아웃라인 프로파일을 계산하는 단계는 컨벡스 헐(convex hull) 컨투어를 계산하는 단계를 포함하는
    FU 분류 방법.
  3. 제 1 항에 있어서,
    상기 FU를 분류하는 단계는 상기 FU를 단일 모발 FU 또는 복수 모발 FU로서 분류하는 단계를 포함하는
    FU 분류 방법.
  4. 제 1 항에 있어서,
    상기 FU를 분류하는 단계에서, 상기 FU로부터 나오는 모발의 수는 상기 아웃라인 프로파일 내의 상기 결정된 디펙트의 수에 1을 더한 값인
    FU 분류 방법.
  5. 제 1 항에 있어서,
    상기 획득된 화상은 디지털 화상인
    FU 분류 방법.
  6. 제 1 항에 있어서,
    상기 화상을 획득하는 단계는
    스테레오 화상을 제공하도록 구성된 제 1 카메라 및 제 2 카메라를 상기 신체 표면을 향하도록 배치하는 단계와,
    상기 제 1 카메라로부터 제 1 화상을 획득하고 상기 제 1 화상 내의 FU를 선택하는 단계와,
    상기 제 2 카메라로부터 제 2 화상을 획득하고 상기 제 2 화상 내의 동일한 FU를 선택하는 단계와,
    상기 제 1 및 제 2 화상 내의 상기 FU를 추적하는 단계와,
    상기 제 1 및 제 2 카메라를 상기 FU의 모발의 방향과 정렬시키는 단계와,
    상기 모발의 방향과 정렬된 상기 제 1 및 제 2 카메라로 상기 FU의 화상을 획득하는 단계를 포함하는
    FU 분류 방법.
  7. 제 1 항에 있어서,
    상기 FU에 근접하여 있는 관심 영역을 선택하는 단계와,
    상기 관심 영역이 상기 FU의 컨투어의 연속적인 부분이 아닌 별개의 모발의 화상을 포함하는 지의 여부를 판정하는 단계와,
    상기 별개의 모발이 상기 FU의 컨투어를 정의하는 하나 이상의 모발로부터 최대 거리 내에 있는 지의 여부를 판정하는 단계를 더 포함하되,
    상기 FU를 분류하는 단계는 또한 상기 별개의 모발이 상기 FU의 컨투어를 정의하는 상기 모발로부터 최대 거리 내에 있는 것으로 판정되는 지의 여부에 기초하는
    FU 분류 방법.
  8. 제 7 항에 있어서,
    상기 FU는 상기 FU의 컨투어를 정의하는 상기 모발로부터 최대 거리 내에 위치하는 각각의 별개의 모발을 포함하는 것으로 분류되는
    FU 분류 방법.
  9. 제 1 항에 있어서,
    상기 FU 내의 모발을 나타내는 각각의 대상(object)의 폭을 결정하는 단계를 더 포함하되,
    상기 FU를 분류하는 단계는 또한 상기 FU 내의 모발을 나타내는 상기 각각의 대상의 폭과 단일 모발에 대한 최대 예상 폭의 비교에 기초하는
    FU 분류 방법.
  10. 제 9 항에 있어서,
    상기 폭을 결정하는 단계는 상기 FU 내의 모발을 나타내는 각각의 대상의 주축(major axis) 및 단축(minor axis)을 결정하는 단계를 포함하되,
    상기 주축은 모발을 나타내는 상기 대상의 길이를 따르고 상기 단축은 상기 주축에 직교하는
    FU 분류 방법.
  11. 제 1 항에 있어서,
    상기 화상을 획득하는 단계는 상기 동일한 FU의 하나보다 더 많은 화상을 획득하는 단계를 포함하는
    FU 분류 방법.
  12. 제 1 항에 있어서,
    화상 획득 장치와 상기 FU 사이의 상대적인 움직임을 조정하기 위해 상기 FU를 추적하는 단계를 더 포함하는
    FU 분류 방법.
  13. 제 1 항에 있어서,
    화상 획득 장치로부터 상기 FU의 제 1 화상을 획득하고, 상기 제 1 화상으로부터 상기 FU의 위치를 결정하며, 상기 화상 획득 장치로부터 상기 FU의 제 2 화상을 획득하고, 상기 제 2 화상으로부터 상기 FU의 위치를 결정함으로써, 상기 FU를 추적하는 단계를 더 포함하는
    FU 분류 방법.
  14. 제 13 항에 있어서,
    상기 화상 획득 장치는 적어도 하나의 카메라를 포함하는
    FU 분류 방법.
  15. 제 1 항에 있어서,
    상기 분할된 화상의 골격(skeleton)을 생성함으로써 상기 FU의 적어도 하나의 종단점을 결정하는 단계를 더 포함하는
    FU 분류 방법.
  16. 제 15 항에 있어서,
    상기 적어도 하나의 종단점은 상기 FU의 모발의 헤드(head), 상기 FU의 모발의 테일(tail), 상기 FU의 벌브(bulb)를 포함하는 그룹으로부터 선택되는
    FU 분류 방법.
  17. 모낭 단위(FU)의 적어도 하나의 종단점을 결정하는 방법으로서,
    FU를 포함하는 신체 표면의 화상을 획득하는 단계와,
    상기 화상을 처리하여 상기 FU의 분할된 화상을 생성하는 단계와,
    상기 FU의 상기 분할된 화상의 골격(skeleton)을 생성하는 단계와,
    상기 골격으로부터 상기 FU의 적어도 하나의 종단점을 결정하는 단계를 포함하는
    종단점 결정 방법.
  18. 제 17 항에 있어서,
    상기 적어도 하나의 종단점은 상기 FU의 모발의 헤드(head), 상기 FU의 모발의 테일(tail), 상기 FU의 벌브(bulb)를 포함하는 그룹으로부터 선택되는
    종단점 결정 방법.
  19. 제 17 항에 있어서,
    상기 분할된 화상의 컨투어를 계산하는 단계를 더 포함하는
    종단점 결정 방법.
  20. 제 17 항에 있어서,
    상기 골격을 생성하는 단계는 세선화 기법(thinning technique)을 이용하여 이루어지는
    종단점 결정 방법.
  21. 제 17 항에 있어서,
    상기 골격을 생성하는 단계는 에지 검출 기반 기법을 이용하여 이루어지는
    종단점 결정 방법.
  22. 제 17 항에 있어서,
    상기 골격은 하일디치 알고리즘(hilditch's algorithm)을 이용하여 이루어지는
    종단점 결정 방법.
  23. 모낭 단위(FU)의 적어도 하나의 종단점을 분류하여 결정하는 방법에 있어서,
    FU를 포함하는 신체 표면의 화상을 획득하는 단계와,
    상기 화상을 처리하여 상기 FU의 분할된 화상을 생성하는 단계와,
    상기 FU의 상기 분할된 화상의 컨투어를 계산하는 단계와,
    상기 FU의 상기 분할된 화상의 컨투어 내의 오목부를 무시하는 상기 분할된 화상의 아웃라인 프로파일을 계산하는 단계와,
    상기 아웃라인 프로파일 내의 디펙트의 수를 결정하는 단계와,
    상기 결정된 디펙트의 수에 적어도 부분적으로 기초하여 상기 FU를 분류하는 단계와,
    상기 FU의 화상의 골격을 생성하는 단계와,
    상기 골격으로부터 상기 FU의 적어도 하나의 종단점을 결정하는 단계를 포함하는
    방법.
  24. 모낭 단위(FU)로부터 나오는 모발의 수에 기초하여 상기 FU를 분류하는 시스템에 있어서,
    화상 획득 장치와,
    화상 처리기를 포함하되,
    상기 화상 처리기는
    상기 화상 획득 장치에 의해 획득된 화상을 처리하여 상기 FU의 분할된 화상을 생성하고,
    상기 FU의 분할된 화상의 컨투어를 계산하며,
    상기 FU의 분할된 화상의 상기 계산된 컨투어 내의 오목부를 무시하는 상기 분할된 화상의 아웃라인 프로파일을 계산하고,
    상기 아웃라인 프로파일 내의 디펙트의 수를 결정하며,
    상기 결정된 디펙트의 수에 적어도 부분적으로 기초하여 상기 FU를 분류하도록 구성되는
    FU 분류 시스템.
  25. 제 24 항에 있어서,
    상기 화상 획득 장치는 적어도 하나의 카메라를 포함하는
    FU 분류 시스템.
  26. 제 24 항에 있어서,
    상기 화상 획득 장치는 스테레오 촬영 장치인
    FU 분류 시스템.
  27. 제 24 항에 있어서,
    상기 화상 처리기는 개인용 컴퓨터인
    FU 분류 시스템.
  28. 제 24 항에 있어서,
    상기 시스템은 로봇 시스템인
    FU 분류 시스템.
  29. 제 28 항에 있어서,
    상기 화상 획득 장치가 탑재되는 로봇 팔을 더 포함하는
    FU 분류 시스템.
  30. 제 29 항에 있어서,
    상기 로봇 팔 및 상기 화상 처리기에 동작가능하게 결합된 제어기를 더 포함하는
    FU 분류 시스템.
  31. 제 24 항에 있어서,
    상기 화상 획득 장치는 디지털 화상을 획득하는
    FU 분류 시스템.
  32. 제 24 항에 있어서,
    상기 FU의 분할된 화상의 골격을 생성한 후에, 상기 골격으로부터 상기 FU의 적어도 하나의 종단점을 결정하도록 구성된 종단점 화상 처리기를 더 포함하는
    FU 분류 시스템.
  33. 제 24 항에 있어서,
    상기 화상 처리기는 상기 FU의 분할된 화상의 골격을 생성한 후에, 상기 골격으로부터 상기 FU의 적어도 하나의 종단점을 결정하도록 구성되는
    FU 분류 시스템.
  34. 모낭 단위(FU)의 적어도 하나의 종단점을 결정하는 시스템에 있어서,
    화상 획득 장치와,
    화상 처리기를 포함하되,
    상기 화상 처리기는
    상기 화상 획득 장치에 의해 획득된 화상을 처리하여 상기 FU의 분할된 화상을 생성하고,
    상기 FU의 분할된 화상의 골격을 생성하며,
    상기 골격으로부터 상기 FU의 적어도 하나의 종단점을 결정하도록 구성되는
    시스템.
  35. 제 34 항에 있어서,
    상기 시스템은 로봇 시스템인
    시스템.
  36. 모낭 단위(FU)를 분류하는 화상 처리기로서,
    상기 화상 처리기는
    상기 FU의 화상을 수신하고,
    상기 화상을 처리하여 상기 FU의 분할된 화상을 생성하며,
    상기 FU의 분할된 화상의 컨투어를 계산하고,
    상기 FU의 분할된 화상의 컨투어 내의 오목부를 무시하는 상기 분할된 화상의 아웃라인 프로파일을 계산하며,
    상기 아웃라인 프로파일 내의 디펙트의 수를 결정하고,
    상기 결정된 디펙트의 수에 적어도 부분적으로 기초하여 상기 FU를 분류하도록 구성되는
    화상 처리기.
  37. 모낭 단위(FU)의 적어도 하나의 종단점을 결정하는 화상 처리기로서,
    상기 화상 처리기는
    상기 FU의 화상을 수신하고,
    상기 화상을 처리하여 상기 FU의 분할된 화상을 생성하며,
    상기 FU의 분할된 화상의 골격을 생성하고,
    상기 골격으로부터 상기 FU의 적어도 하나의 종단점을 결정하도록 구성된
    화상 처리기.
KR1020097003088A 2006-08-25 2007-08-24 모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상처리기 KR101050593B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/467,268 2006-08-25
US11/467,268 US7477782B2 (en) 2006-08-25 2006-08-25 System and method for classifying follicular units
PCT/US2007/076726 WO2008024954A2 (en) 2006-08-25 2007-08-24 System and method for classifying follicular units

Publications (2)

Publication Number Publication Date
KR20090030341A true KR20090030341A (ko) 2009-03-24
KR101050593B1 KR101050593B1 (ko) 2011-07-19

Family

ID=39107712

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020097003088A KR101050593B1 (ko) 2006-08-25 2007-08-24 모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상처리기

Country Status (11)

Country Link
US (2) US7477782B2 (ko)
EP (1) EP2054839B1 (ko)
JP (1) JP4847586B2 (ko)
KR (1) KR101050593B1 (ko)
CN (1) CN101506825B (ko)
AU (2) AU2007286605B2 (ko)
BR (1) BRPI0715623A2 (ko)
CA (1) CA2661742C (ko)
ES (1) ES2763355T3 (ko)
HK (1) HK1134576A1 (ko)
WO (1) WO2008024954A2 (ko)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200093238A (ko) * 2019-01-28 2020-08-05 주식회사 아프스 모발 식별 장치 및 이를 구비하는 자동 모낭 분리 장치
KR20200093243A (ko) * 2019-01-28 2020-08-05 주식회사 아프스 불량 모낭 선별 장치 및 이를 구비하는 자동 모낭 분리 장치
US20210082117A1 (en) * 2018-04-26 2021-03-18 Kebot Bilisim Teknolojileri Sanayi Ve Ticaret Anonim Sirketi Evaluation method for hair transplant process using image processing and robotic technologies and system thereof
WO2021215749A1 (ko) * 2020-04-21 2021-10-28 (주)에임즈 모발 정보 제공 방법 및 장치와 이를 위한 모근 분석 모델 생성 방법
KR20210129955A (ko) * 2020-04-21 2021-10-29 (주)에임즈 모발 상태를 분석하는 방법 및 이를 이용한 모발 정보 제공 장치 및 시스템

Families Citing this family (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080049993A1 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for counting follicular units
US8211134B2 (en) 2007-09-29 2012-07-03 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US8152827B2 (en) 2008-01-11 2012-04-10 Restoration Robotics, Inc. Systems and methods for harvesting, storing, and implanting hair grafts
US9107697B2 (en) 2008-06-04 2015-08-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8652186B2 (en) * 2008-06-04 2014-02-18 Restoration Robotics, Inc. System and method for selecting follicular units for harvesting
US8545517B2 (en) * 2008-06-06 2013-10-01 Restoration Robotics, Inc. Systems and methods for improving follicular unit harvesting
JP4636146B2 (ja) * 2008-09-05 2011-02-23 ソニー株式会社 画像処理方法、画像処理装置、プログラム及び画像処理システム
US8848974B2 (en) * 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
JP2010082245A (ja) * 2008-09-30 2010-04-15 Panasonic Electric Works Co Ltd 毛情報測定方法
US8048090B2 (en) * 2009-03-11 2011-11-01 Restoration Robotics, Inc. System and method for harvesting and implanting hair using image-generated topological skin models
WO2011035125A1 (en) 2009-09-17 2011-03-24 Wesley Carlos K Hair restoration surgery
US9693799B2 (en) 2009-09-17 2017-07-04 Pilofocus, Inc. System and method for aligning hair follicle
US9314082B2 (en) 2009-09-17 2016-04-19 Pilofocus, Inc. System and method for extraction of hair follicle
US9498289B2 (en) * 2010-12-21 2016-11-22 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US8911453B2 (en) * 2010-12-21 2014-12-16 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US8951266B2 (en) 2011-01-07 2015-02-10 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
KR101194773B1 (ko) * 2011-03-29 2012-10-26 강진수 탈모진행정도의 측정 방법
US8945150B2 (en) * 2011-05-18 2015-02-03 Restoration Robotics, Inc. Systems and methods for selecting a desired quantity of follicular units
SG11201402357TA (en) 2011-10-17 2014-08-28 Carlos K Wesley Hair restoration
US8983157B2 (en) * 2013-03-13 2015-03-17 Restoration Robotics, Inc. System and method for determining the position of a hair tail on a body surface
US9202276B2 (en) * 2013-03-13 2015-12-01 Restoration Robotics, Inc. Methods and systems for hair transplantation using time constrained image processing
US9576359B2 (en) 2013-11-01 2017-02-21 The Florida International University Board Of Trustees Context based algorithmic framework for identifying and classifying embedded images of follicle units
US10387021B2 (en) 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool
US10013642B2 (en) 2015-07-30 2018-07-03 Restoration Robotics, Inc. Systems and methods for hair loss management
US10568564B2 (en) 2015-07-30 2020-02-25 Restoration Robotics, Inc. Systems and methods for hair loss management
EP3487435B1 (en) * 2016-07-21 2020-09-02 Restoration Robotics, Inc. Automated system and method for hair removal
DE102016222194A1 (de) * 2016-11-11 2018-05-17 Henkel Ag & Co. Kgaa Verfahren und Vorrichtung zum Ermitteln eines Glättewerts einer Frisur
US20180189976A1 (en) 2016-12-29 2018-07-05 Michal Kasprzak Analysis unit and system for assessment of hair condition
KR101800365B1 (ko) * 2017-08-09 2017-11-22 김태희 자동 모낭분리장치
WO2019078742A1 (es) * 2017-10-17 2019-04-25 Quispe Pena Edgar Carlos Procedimiento no invasivo para determinar densidad de conductos y/o fibras de camélidos sudamericanos y otros animales, y microscopio para llevar a cabo el procedimiento
JP6582276B2 (ja) * 2017-11-07 2019-10-02 株式会社Aventino 頭部画像評価装置
CN111882516B (zh) * 2020-02-19 2023-07-07 南京信息工程大学 一种基于视觉显著性和深度神经网络的图像质量评价方法
JP7291908B2 (ja) * 2020-02-27 2023-06-16 パナソニックIpマネジメント株式会社 画像処理装置及び画像処理方法
CN114694141A (zh) * 2020-12-25 2022-07-01 上海微创卜算子医疗科技有限公司 毛囊点识别方法、系统、装置和存储介质
US20230041440A1 (en) * 2021-08-04 2023-02-09 Afs Inc. Hair identifying device and apparatus for automatically seperating hair follicles including the same
US20230044177A1 (en) * 2021-08-05 2023-02-09 Afs Inc. Apparatus for Determining Defective Hair Follicles and Apparatus for Automatically Separating Hair Follicles Including the Same

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807163A (en) * 1985-07-30 1989-02-21 Gibbons Robert D Method and apparatus for digital analysis of multiple component visible fields
US5331472A (en) * 1992-09-14 1994-07-19 Rassman William R Method and apparatus for measuring hair density
US5782851A (en) 1996-04-10 1998-07-21 Rassman; William R. Hair transplantation system
US6517004B2 (en) * 1995-12-18 2003-02-11 Metrologic Instruments, Inc. Automated system for identifying and dimensioning packages transported through a laser scanning tunnel using laser scanning beam indexing techniques
US5895403A (en) * 1997-10-17 1999-04-20 Collinsworth; Lonnie Rae Surgical cutting tool
WO1999022694A2 (en) * 1997-10-30 1999-05-14 King Christopher R Automated hair isolation and processing system
JP2000082148A (ja) * 1998-07-09 2000-03-21 Ricoh Co Ltd 物体画像の形状特徴抽出方式,画像物体認識方式及び装置
AU1408700A (en) * 1998-11-26 2000-06-13 Wakamoto Pharmaceutical Co., Ltd. Hair-nourishing foods
US6720988B1 (en) * 1998-12-08 2004-04-13 Intuitive Surgical, Inc. Stereo imaging system and method for use in telerobotic systems
FR2802678B1 (fr) * 1999-12-21 2002-02-08 Oreal Systeme et procede d'analyse et de simulation previsionnelle de l'evolution temporelle d'une zone pileuse, et plus particulierement du cuir chevelu humain
US6585746B2 (en) * 2000-04-20 2003-07-01 Philip L. Gildenberg Hair transplantation method and apparatus
JP3966819B2 (ja) * 2001-05-24 2007-08-29 キム,スーギョン 毛嚢に存在する新規の第2ケラチノサイト成長因子類似体
US7217266B2 (en) 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
JP3863809B2 (ja) * 2002-05-28 2006-12-27 独立行政法人科学技術振興機構 手の画像認識による入力システム
US6949115B2 (en) * 2003-10-14 2005-09-27 Southland Instruments, Inc. Polarized light analyzer
KR100939134B1 (ko) 2004-04-08 2010-01-28 에이치에스씨 디벨럽먼트 엘엘씨 모낭 추출 방법 및 장치
EP1653219A1 (en) * 2004-10-26 2006-05-03 The Procter & Gamble Company Method and apparatus for examining human hairs
US20070078466A1 (en) * 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
US20070106307A1 (en) * 2005-09-30 2007-05-10 Restoration Robotics, Inc. Methods for implanting follicular units using an automated system
US7962192B2 (en) * 2005-09-30 2011-06-14 Restoration Robotics, Inc. Systems and methods for aligning a tool with a desired location or object
US10028789B2 (en) * 2006-05-19 2018-07-24 Mako Surgical Corp. Method and apparatus for controlling a haptic device
US7620144B2 (en) * 2006-06-28 2009-11-17 Accuray Incorporated Parallel stereovision geometry in image-guided radiosurgery
US20080033455A1 (en) * 2006-08-03 2008-02-07 Rassman William R Hair extraction device and method for its use
US20080049993A1 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for counting follicular units
US8115807B2 (en) 2007-03-06 2012-02-14 William Rassman Apparatus and method for mapping hair metric

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210082117A1 (en) * 2018-04-26 2021-03-18 Kebot Bilisim Teknolojileri Sanayi Ve Ticaret Anonim Sirketi Evaluation method for hair transplant process using image processing and robotic technologies and system thereof
US11928821B2 (en) * 2018-04-26 2024-03-12 Kebot Bilisim Teknolojileri Sanayi Ve Ticaret Anonim Sirketi Evaluation method for hair transplant process using image processing and robotic technologies and system thereof
KR20200093238A (ko) * 2019-01-28 2020-08-05 주식회사 아프스 모발 식별 장치 및 이를 구비하는 자동 모낭 분리 장치
KR20200093243A (ko) * 2019-01-28 2020-08-05 주식회사 아프스 불량 모낭 선별 장치 및 이를 구비하는 자동 모낭 분리 장치
WO2021215749A1 (ko) * 2020-04-21 2021-10-28 (주)에임즈 모발 정보 제공 방법 및 장치와 이를 위한 모근 분석 모델 생성 방법
KR20210129955A (ko) * 2020-04-21 2021-10-29 (주)에임즈 모발 상태를 분석하는 방법 및 이를 이용한 모발 정보 제공 장치 및 시스템

Also Published As

Publication number Publication date
US7627157B2 (en) 2009-12-01
JP2010504568A (ja) 2010-02-12
HK1134576A1 (en) 2010-04-30
US20090080733A1 (en) 2009-03-26
KR101050593B1 (ko) 2011-07-19
CN101506825B (zh) 2012-10-24
WO2008024954A9 (en) 2008-04-10
CN101506825A (zh) 2009-08-12
CA2661742A1 (en) 2008-02-28
BRPI0715623A2 (pt) 2013-07-02
US20080049992A1 (en) 2008-02-28
WO2008024954A3 (en) 2008-06-26
EP2054839A2 (en) 2009-05-06
EP2054839A4 (en) 2012-09-26
WO2008024954A2 (en) 2008-02-28
JP4847586B2 (ja) 2011-12-28
AU2007286605B2 (en) 2010-03-11
US7477782B2 (en) 2009-01-13
ES2763355T3 (es) 2020-05-28
EP2054839B1 (en) 2019-09-25
AU2010202258B2 (en) 2011-04-28
CA2661742C (en) 2012-05-15
AU2007286605A1 (en) 2008-02-28
AU2010202258A1 (en) 2010-06-24

Similar Documents

Publication Publication Date Title
KR101050593B1 (ko) 모낭 단위 분류 방법 및 시스템, 종단점 결정 방법과, 화상처리기
KR101030853B1 (ko) 모낭 단위 카운트 방법, 시스템, 화상 처리기 및 모낭 단위를 카운트하고 분류하는 방법
US8361085B2 (en) Systems and methods for harvesting and implanting hair using image-generated topological skin models
US8454627B2 (en) Systems and methods for harvesting and implanting hair using image-generated topological skin models
JP5318946B2 (ja) 採取用の毛嚢ユニットを選択するシステム及び方法
US8983157B2 (en) System and method for determining the position of a hair tail on a body surface

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140701

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150625

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee