JP2012504277A - 毛包単位の追跡 - Google Patents

毛包単位の追跡 Download PDF

Info

Publication number
JP2012504277A
JP2012504277A JP2011529082A JP2011529082A JP2012504277A JP 2012504277 A JP2012504277 A JP 2012504277A JP 2011529082 A JP2011529082 A JP 2011529082A JP 2011529082 A JP2011529082 A JP 2011529082A JP 2012504277 A JP2012504277 A JP 2012504277A
Authority
JP
Japan
Prior art keywords
image
marker
movement vector
still image
hair follicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011529082A
Other languages
English (en)
Other versions
JP5307246B2 (ja
Inventor
クレーシー,シャハザド,エイ
ブルトン,カイル,アール.
テニー,ジョン,エイ.
Original Assignee
レストレーション ロボティクス,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レストレーション ロボティクス,インク. filed Critical レストレーション ロボティクス,インク.
Publication of JP2012504277A publication Critical patent/JP2012504277A/ja
Application granted granted Critical
Publication of JP5307246B2 publication Critical patent/JP5307246B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/32Surgical robots operating autonomously
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/10Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges for stereotaxic surgery, e.g. frame-based stereotaxis
    • A61B90/14Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins
    • A61B90/17Fixators for body parts, e.g. skull clamps; Constructional details of fixators, e.g. pins for soft tissue, e.g. breast-holding devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00743Type of operation; Specification of treatment sites
    • A61B2017/00747Dermatology
    • A61B2017/00752Hair removal or transplantation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00969Surgical instruments, devices or methods, e.g. tourniquets used for transplantation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/101Computer-aided simulation of surgical operations
    • A61B2034/105Modelling of the patient, e.g. for ligaments or bones
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • A61B2034/2057Details of tracking cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/363Use of fiducial points
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/39Markers, e.g. radio-opaque or breast lesions markers
    • A61B2090/3937Visible markers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20021Dividing image into blocks, subimages or windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Robotics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Radiology & Medical Imaging (AREA)
  • Neurosurgery (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Surgical Instruments (AREA)

Abstract

物体や対象物の主要点を追跡し、同定し、分類するためのシステムおよび方法が提供される。いくつかの実施形態において、追跡は対象物の主要点および画像安定化技術の一意の特徴を用いて達成される。いくつかの態様によると、所定のマーカを用いる座標系は、マーカの位置変化および/または同定の特徴情報に基づいて規定および更新される。個々の物体またはフレーム内の特徴はまた、追跡および同定される。物体は2つの静止画像を比べること、静止画像間の物体の位置変化を特定すること、物体の移動ベクトルを算出すること、および撮像装置の位置を更新するために移動ベクトルを用いることにより追跡されてもよい。
【選択図】図10

Description

本書に開示された実施形態は一般に、物体追跡システムに関し、特に毛包または他の部位および体表の主要点(feature)を正確に追跡するシステムおよび方法に関する。
毛髪移植処置は一般に、ドナー領域、例えば、患者の頭皮の側部及び後方周辺領域からドナーの毛髪移植片を採取するステップと、それらを脱毛領域、またはレシピエント領域に移植するステップとを含む。従来、採取される移植片は比較的大きく、3mm乃至5mmであった。しかしながら、近年ドナーの移植片は単一の毛包単位と同じくらい小さくなっている。毛包単位(FUs)は、頭皮の表面にわたってランダムに分布する1乃至5の間隔が密な毛包単位の天然の凝集体である。
毛包単位は、当該単位における毛髪の本数に基づいて分類あるいは「種類分け」され、(1本の毛包単位)は「F1」、(2本の毛包単位)は「F2」などのように略して同定される。複数の毛包単位のいくつかのケースにおいて、毛髪は皮膚の単一の毛包や点から発現してもよい。別のケースにおいて、これらの毛髪は互いにわずかに間隔を空けて肌を露出してもよい。
毛髪移植処置の間、毛髪の採取または移植を避けるべき部位がある。例えば、すでに毛髪の採取や移植のためにある部位を用いたら、医者はその後の処置に同じ部位を用いることを避けたがるかもしれない。追跡装置はこれらの部位のいくつかを追跡するのに困難な場合がある。
システムは採取や移植した部位のデータベースを含むことが必要とされる。医者はさらなる採取や移植を計画するためにデータベースを用いてもよい。システムは毛包単位、頭皮の主要点、または外部のマーカを含む部位の周りの主要点を追跡することができるので、実際の部位を見ることができない場合でも部位の情報を追跡および記録することができる。
システムまた、動く主要点を追跡できることが必要となる。主要点を追跡する1つの方法は静止画ベースによる静止画でそれらの位置を検出することである。システムは追跡を向上させることが必要であり、静止画ベースによる静止画で主要点の位置を検出することは必要ではない。このようなシステムは追跡を向上させるために主要点やマーカの移動ベクトルを利用してもよい。
つまり、おおまかに言うと、物体追跡システムが開示されている。より具体的には、容易に追跡されない体表の物体を追跡する物体追跡システムおよび方法が開示されている。
一態様において、毛包単位のような対象物の主要点を追跡する方法は、第1の画像において、少なくとも1つのマーカを同定するステップであって、前記第1の画像が、毛包単位のような対象物の主要点を含むステップと、前記第1の画像において、前記対象物の主要点の特徴を求めるステップと、第2の画像において、少なくとも1つのマーカを同定するステップと、前記第1の画像から前記第2の画像への、前記少なくとも1つのマーカの位置変化に対応する移動ベクトルを求めるステップと、前記第2の画像において、前記対象物の主要点を分類するために前記移動ベクトルと前記第1の画像における対象物の主要点の特徴とを用いるステップとを含む。
別の態様において、第1の画像には少なくとも3つのマーカがある。3以上のマーカを用いることにより並進および回転移動の双方の追跡が可能となる。少なくとも1つのマーカは体表の別の毛包単位、ほくろ、傷跡、そばかす、しわ、隆起、またはくぼみの1以上を具体化できる。さらに、第1の画像は複数のマーカを含むことができ、第1の画像において、少なくとも1つのマーカを同定するステップは、点群を同定するステップを含みうる。
1つのアプローチにおいて、点群の中心が算出される。第1の画像において、毛包単位の特徴を求めるステップは、毛包単位の長さ、種類、内径、出現角度、領域、形状、および色の1以上を同定するステップを含みうる。さらに1つの特定のアプローチにおいて、第1の画像における少なくとも1つのマーカが分類され、移動ベクトルにより示される方向に、第2の画像における少なくとも1つのマーカを探索することにより、第1の画像と同じ標識を用いて第2の画像において、少なくとも1つのマーカが分類される。
一実施形態において、さらなる移動ベクトルを用いることができる。例えば、第2の移動ベクトルが第1の画像と第2の画像とから求められ、この第2の移動ベクトルは第2の画像において、毛包単位を分類するのに用いられる。第2のベクトルはグレイコードビットプレーン、オプティカルフロー、およびブロックサーチ画像安定化技術の1以上を用いて求めることができる。
様々な別の態様において、画像取得装置は、その視野に毛包単位のような対象物の主要点を維持させるため移動ベクトルに従って動く。さらに、少なくとも1つのマーカを同定するステップは、電子識別子を少なくとも1つのマーカと関連付けるステップを含む。また第2の画像の任意のマーカが、移動ベクトルに従う第1の画像における位置と不整合であるものは除外される。
さらに、移動ベクトルは毛包単位または他の対象物の主要点を配置するための探索領域を規定することができる。探索領域を規定するステップは、移動ベクトルに沿い、かつ移動ベクトルから所定の距離内の領域を分析するステップを含む。移動ベクトルから所定の距離は、第1の画像において、マーカの位置に先端を有する円錐を具体化でき、先端は所定の先端角度を有し、円錐は移動ベクトルの方向に延在し、かつ所定の先端角度内の領域を含む。
様々な具体的なアプローチにおいて、第1および第2の画像は複数の第1および第2のサブ画像に分割され、第1および第2のサブ画像から複数の移動ベクトルが求められる。さらに、追跡された毛包単位はドナー領域から採取されてもよいし、レシピエント領域に移植されてもよい。
別の態様において、毛包単位のような対象物の主要点を追跡する方法は、毛包単位を含む体表の第1の画像において、毛包単位を同定するステップと、第1の画像において、毛包単位の特徴を求めるステップと、第1の画像および同じ体表の第2の画像から移動ベクトルを求めるステップと、第1の画像における移動ベクトルと毛包単位の特徴とを用いて、第2の画像において、毛包単位を分類するステップとを含む。移動ベクトルは何れのマーカを用いることなく、総じて画像から求められるであろう。別の実施形態において、1以上のマーカが第1および第2の画像において同定され、移動ベクトルを求めるステップは、第1の画像から第2の画像への、このような1以上のマーカの位置変化に対応する移動ベクトルを求めるステップを含んでもよい。第1の画像において、毛包単位の特徴を求めることは、毛包単位の長さ、種類、内径、出現角度、領域、形状、および色の1以上を同定することを含みうる。もちろん、複数の毛包単位を含む複数の対象物の主要点が、本願に述べられている原理により同時または順次追跡されてもよい。
さらに、別の態様において、体表の毛包単位のような対象物の主要点を追跡するシステムは、毛包単位を含む体表の第1の画像において、毛包単位についての特徴情報を同定する特徴同定要素と、第1の画像と同じ体表の第2の画像との間の移動ベクトルを算出するベクトリング要素と、移動ベクトルと対応するデータを受け取り、移動ベクトルと毛包単位特徴情報とに基づいて、第2の画像において、毛包単位を分類する追跡システムとを含む。追跡システムはさらに、体表の画像を取得する撮像装置を含んでもよく、このシステムはさらに、移動ベクトルに基づいて撮像装置を動かすようプログラムされうる。特徴同定要素、ベクトリング要素、および追跡システムは単一のコンピュータプログラム製品の一部でありうる。さらに、体表の毛包単位または他の対象物の主要点を追跡するシステムはさらに、マーカ同定要素を具体化することができる。マーカ同定要素は特徴同定要素の一部であってもよいし、別個の要素またはプログラムであってもよい。また、特徴同定要素、ベクトリング要素、および追跡要素の1以上は、記憶装置および撮像装置の少なくとも1つと接続されているプロセッサを含みうる。
撮像装置はカメラであってもよく、システムはさらに、ロボットアームを含むロボットシステムであってもよい。また、撮像装置はロボットアームに動作可能に接続されうる。毛包単位のような対象物の主要点を追跡/分類するシステムは、毛包単位を含む画像データを受け取るよう適合したインターフェイスと、画像データに関する動作を実行するための1以上のモジュールを含む画像プロセッサとを含んでもよく、1以上のモジュールは同じ体表の毛包単位と第2の画像とを含む体表の第1の画像を受け取るためのインストラクションと、第1の画像において、毛包単位を同定するインストラクションと、第1の画像において、毛包単位の特徴を求めるインストラクションと、第1の画像および第2の画像から移動ベクトルを求めるインストラクションと、第1の画像における移動ベクトルと毛包単位の特徴とを用いて、第2の画像において、毛包単位を分類するインストラクションとを含む。
別の態様において、コンピュータ読み取り可能な記憶媒体において明確に具体化され、コンピュータ装置のプロセッサに毛包単位のような対象物の主要点を追跡するためのコンピュータプロセスを実行させるインストラクションを含むコンピュータプログラムは、毛包単位を含む第1の画像において、少なくとも1つのマーカを同定するステップと、第1の画像において、毛包単位の特徴を求めるステップと、第2の画像において、少なくとも1つのマーカを同定するステップと、第1の画像から第2の画像への、少なくとも1つのマーカの位置変化に対応する移動ベクトルを求めるステップと、第1の画像における移動ベクトルと毛包単位の特徴とを用いて、第2の画像において、毛包単位を分類するステップとを含む。さらに、プロセッサが記憶装置に動作可能に関連付けられていることが考慮されている。コンピュータプロセスはまた、第1の画像からの第1のマーカデータを第2の画像からの第1のマーカデータと比較するステップと、その結果を記憶装置に保存するステップとを含みうる。コンピュータプログラムは画像取得装置と動作可能に関連付けられうる。
さらに別の態様において、体表の対象物の主要点(例えば、毛包単位)を追跡する方法は、対象物の主要点を含む第1の静止画像において、少なくとも1つのマーカを同定するステップと、第1の画像において、対象物の主要点の特徴を求めるステップと、少なくとも1つのマーカに対応する座標系を規定するステップと、第2の静止画像において、少なくとも1つのマーカを配置するステップと、求められた特徴を用いて、第2の静止画像における対象物の主要点の位置を検出し、第2の静止画像において、少なくとも1つのマーカの位置に基づく座標系の並進要素を更新するステップとを含む。
アプローチはまた、第1の静止画像において、少なくとも3つのマーカを同定するステップを含み、第2の静止画像において、対象物の主要点の位置を検出するステップは、座標系の並進要素と回転要素との双方を更新するステップを含む。さらに、第1の静止画像において、少なくとも1つのマーカが、例えば、このようなマーカの長さ、領域、形状、種類、または色の少なくとも1つを分析することにより同定されうる。
さらに、少なくとも1つのマーカは毛包単位であってもよく、少なくとも1つのマーカを同定するステップがさらに、体表からの毛包単位の出現角度および毛髪の内径の少なくとも1つを分析するステップを含む。静止画像は体表のビデオ画像であってもよく、少なくとも1つのマーカは体表の毛包単位であり、対象物の主要点は体表の別の毛包単位である。
座標系は点群アプローチを用いることにより更新されてもよく、撮像装置は点群の平均的な変動により動かされる。対象物の主要点は無毛の点であってもよく、方法はさらに1以上の毛髪移植部位を規定するステップを含む。
別のアプローチにおいて、体表の(毛包単位のような)対象物の主要点を追跡する方法は、第1の静止画像において、少なくとも3つのマーカを同定するステップであって、第1の静止画像が対象物の主要点を表示するステップと、第1の静止画像において、対象物の主要点の特徴を求めるステップと、第1の静止画像において、少なくとも3つの第1の物体を追跡するステップと、3つのマーカに対応する座標系を規定するステップと、3つのマーカが第2の静止画像にあるかどうか特定するステップと、第2の静止画像にない3つのマーカの少なくとも1つに反応して、対象物の主要点の算出された特徴を用いて第2の静止画像において、対象物の主要点の位置を検出し、第2の静止画像および第2の静止画像における第1の物体の何れかにおいて、少なくとも3つのマーカの何れかの位置に基づいて座標系を更新するステップとを含む。対象物の主要点の位置を検出するのに用いられるマーカと第1の物体との組み合わせの合計は少なくとも3つである。
少なくとも3つの第1の物体の少なくとも1つは、体表の毛包単位、ほくろ、傷跡、そばかす、しわ、隆起、またはくぼみを含みうる。対象物の主要点の位置を検出するステップはさらに、第1の静止画像と第2の静止画像とから移動ベクトルを求め、移動ベクトルを用いて座標系を更新し、少なくとも3つのマーカの少なくとも1つを配置するステップとを含む。第1の静止画像において、少なくとも1つの第1の物体が同定され、同定された第1の物体は第2の静止画像において配置され、移動ベクトルを求めるステップは、第1の画像から第2の画像への、同定された第1の物体の位置変化を同定するステップを含む。
体表の対象物の主要点を追跡するシステムは、画像取得装置から複数の画像を受け取るよう適合したインターフェイスであって、少なくとも第1の画像が対象物の主要点を含むインターフェイスと、対象物の主要点に関する特徴情報を同定し、第1の画像において、少なくとも1つのマーカを検出する特徴同定要素と、マーカ参照システムとを含みうる。参照システムは少なくとも1つのマーカに対応する座標系を規定し、少なくとも1つのマーカが第2の画像にあるかどうかを特定し、第1の画像から第2の画像へと、少なくとも1つのマーカの位置変化に対応する座標系を調整し、対象物の主要点を配置する。特徴同定要素およびマーカ参照システムは単一のコンピュータプログラム製品の部分でありうる。また、特徴同定要素は記憶装置に接続されているプロセッサを含むことができ、プロセッサは電子識別子を少なくとも1つのマーカと関連付け、電子識別子を記憶装置に保存する。さらに、マーカ参照システムは記憶装置に接続されているプロセッサを含むことができ、プロセッサは第1の画像における少なくとも1つのマーカの各々の位置と、第2の画像における少なくとも1つのマーカの各々の位置とを比較し、座標系において対応する変化を算出し、算出結果を記憶装置に保存する。システムはさらにベクタ要素を含んでもよい。システムはさらにロボットアームをさらに含むロボットシステムでありうる。
別の主要点や利点が、例の目的で示される添付の図面、様々な実施形態の特徴とともに以下の詳細な説明から明らかになるであろう。
発明は例の目的で示されており添付の図面の図に限定しない。図において、同一の参照番号は同様の部材や行為を同定する。図面における部材の寸法や関連する位置は必ずしも縮尺通りには描かれていない。例えば、様々な部材の形状や角度は縮尺通りには描かれておらず、これらの部材のいくつかは任意に拡大され、図の読みやすさを向上させよう配置されている。さらに、描かれているような部材の具体的な形状は、具体的な部材の実際の形状に関する任意の情報を伝達することを意図せず、図面における理解の容易性のためだけに選択されている。
図1は運動学的な「フレーム」を示す。 図2はフレームの更新を示す。 図3は登録マーカを用いる採取計画を示す。 図4は登録マーカを用いる移植計画を示す。 図5は登録パターン損失後のフレームの更新を示す。 図6は元の登録マーカ以外の点を有するフレームの更新を示す。 図7は患者の頭皮の毛包単位を用いるフレームの更新を示す。 図8は毛包単位クラウドアルゴリズムを示す。 図9Aおよび図9Bは点群追跡を示す。 図10は移動ベクトルの算出を示す。 図11は毛包単位の分類を示す。 図12はまた毛包単位の分類と関連する問題を示す。 図13Aおよび図13Bは毛包単位分類/追跡プロセス、および移動ベクトルを用いる毛包単位分類/追跡プロセスをそれぞれ示す。 図14は探索領域の規定を示す。 図15は1例示的な画像安定化プロセスを示す。 図16は画像の比較を示す。 図17は算出された複数のベクトルを有する画像安定化を示す。 図18は物体を追跡する例示的なシステムを示す。
以下に記載される様々な形態が例示目的のみで提供され、特許請求に係る発明を限定するよう解釈されるべきではない。当業者は、特許請求に係る発明の範囲から逸脱することなく、記載された実施形態になされてもよい様々な改良や変更を容易に理解するであろう。非限定的な例の目的で、1つの特徴または実施形態を参照して、記載された具体的な特徴または特性が、別の図や実施形態に記載される特徴または特性に適当なものとして組み込まれてもよいことが当業者により理解されるであろう。さらに、当業者は本書に記載される装置、システム、および方法が、毛髪修復といった1つの分野に限定されず、追跡される物体を要求する任意の数の分野に適用されてもよいことを理解するであろう。
記載されたシステムおよび方法は、画像誘導を介して個々の物体の追跡を要求する任意のアプリケーションにおいて有用である。それらはまた、参照フレームを作成するために1セットの視覚マーカを登録し、物体を直接追跡するよりも、参照フレームを更新するために周囲の物体を用いることにより物体を追跡することが望まれる任意のアプリケーションにおいて有用である。例えば、物体追跡装置をガイドしたり、操縦したりするために画像安定化アルゴリズムの出力を用いるコンセプトは、基準が分析に挿入されている蛍光透視法またはX線画像化、または動的に変化する場面を通して動く物体を追跡するために分析性とともにパン・チルト・ズームカメラを含むビデオ監視アプリケーションを含む画像誘導されたロボット処置のような幅広い医療および非医療アプリケーションに道への道を見つけることができる。
本開示のシステムおよび方法は、特に、自動化またはコンピュータ制御された毛髪採取および移植を含む毛髪移植処置において有用である。したがって、本書に記載される様々な例および実施形態は、より広くすべての他の適切なアプリケーションを表す理解とともにいくつかの実施形態を記載する目的のために本開示のアプリケーションの一例として単に毛包単位または毛髪を用いるであろう。
本書に記載される例示的な方法は、治療計画、毛髪採取および/または移植のためのロボットシステムを用いた使用に特に好適である。しかしながら、それらはロボットアプリケーションへの任意の手段に限定されず、記載された方法は、代わりに手持ち式装置を用いて人手により行われる手動の処置に適用されてもよく、この手持ち式装置は、例えば、コンピュータプロセッサおよび画像システムに動作可能に接続できる。手動、部分的、および全自動型のシステムはまた本発明の範囲内である。
医療手術が患者の皮膚または頭皮に施されるとき、ある領域は追跡される必要があり、医者、例えば、自動化された処置の場合におけるロボット機械は、後にその領域に戻ってもよいし、その領域を避けてもよい。これらの領域はその領域の画像を見ること、およびその領域上またはその領域周りを同定することにより追跡することができる。1または複数の対象物の主要点は連続または同時に追跡でき、毛髪移植処置において、追跡された主要点(例えば、毛包単位)を採取することができる。同定する主要点はその主要点に関する記録データにより、データベース、記憶装置、または他のデータ記憶媒体に登録される。同定する主要点は後にアクセスされ、静止画像、または「スチール」と比較され、静止画に示されている領域が識別子を含む領域と同じかどうかを特定する。「スチール」はビデオフィード、写真、または患者の皮膚の他の固定表示の単一画像であってもよい。
領域または主要点を登録する1つの方法は、将来認識されうる静止画において、具定的なパターンにおける1組のマーカを同定するステップを含む。マーカは非共線であり、よってそれらは3次元フレームを規定する。3つのマーカは3次元フレームを規定することが望まれるが、より多くのマーカが用いられてもよい。静止画におけるこれらのマーカは「登録パターン」と呼ばれ、後の静止画において認識されうる。この3次元フレームは、座標x、y、zと回転座標Rx、Ry、およびRzとからなり「患者のフレーム」と呼ばれる。登録パターンが完全に視覚および識別可能である各連続する静止画において、患者のフレームは更新された登録パターンを用いて簡単に動かされる。座標x、y、およびzは患者のフレームの並進と言う。座標Rx、Ry、およびRzは患者のフレームの配向と言う。明確にするために、用語「フレーム」は本明細書において、既知の基準点から規定された位置および配向として規定される。ビデオまたは写真の単一区画は本書において「スチール」または画像と言う。静止画は「フレーム」と言ってもよいが、混同を避けるために本書は「フレーム」という用語を上述のような運動力学の意味に用い、用語「スチール」は、混同を避けるためにビデオフィードの単一画像を記載するのに用いることができる。
図1は運動力学的フレームを示す。この例示的な実施形態において、ロボットアーム103はセンタ104を有する固定ベース101に取り付けられる。このアーム103は工具102を保持し、配置する。工具はフレームを有し、分類されたx、y、zおよび工具102の位置および回転はベースのセンタ104に関して周知である。この位置および配向は電子的に保存されてもよい。工具とベースのセンタ104間の関係が変化すると、フレームは電子的に更新されうる。
登録パターンが同定され、電子的に保存された後、フレームの位置と配向は続く静止画においてマーカの位置を分析することにより更新されてもよい。図2はマーカの位置変化に基づくフレームの更新を示す。第1の静止画、静止画Nにおいて、3次元フレームはマーカ201、202、および203の位置により規定される。(基準とも呼ばれる)これらのマーカは、例えば、毛包単位または毛髪、ほくろ、傷跡、そばかす、しわ、隆起、またはくぼみのような患者の皮膚または体表の物理的なマーカまたは解剖学的標識であってもよい。マーカはまた、患者の皮膚に配置され、または付けられる物体であってもよく、外部基準と呼ばれることもある。基準は参照として機能する撮像装置の視野における物体である。それは解剖学的標識、外部のマーク、あるいは上述の何れの組み合わせであってもよい。静止画N−1において、マーカは静止画の右下に動いた。別の物体204は静止画Nにおけるマーカ201と近い位置に現れた。しかしながら、マーカ201はマーカ202および203と識別されるので、物体204はマーカ201と混同しない。フレームはデータベースまたは記憶装置において更新され、患者が動き、物体204がマーカ201ではないことが認識される。
いくつかのアプリケーションにおいて、登録パターンは、図3および図4にそれぞれ示されるように、リアルタイムの毛髪採取および移植計画に用いられてもよい。図3において、マーカ301、302、303、および304は患者のフレームを規定する。患者の皮膚306の各毛包単位305の位置は患者のフレームに関してマップされてもよい。毛包単位を採取するのに用いられる患者の体表の部分は「ドナー領域」307である。ドナー領域の毛包単位の密度は、静止画において毛包単位を計数することにより算出できる。毛包単位の計数は、例えば、参照により本書に組み込まれる、特許出願WO2008/024955号に記載されているように達成される。施術者は1平方センチメートル当たりにどれくらいの毛包単位が引き抜かれるかを特定し、このような情報を採取計画システムに入力できる。採取計画システムは順に、毛包単位の数と引き抜かれる平方センチメートル当たりの所望の毛包単位の数とに基づき引き抜く毛包を特定する。毛包単位の特徴および頭皮/体表の特徴を含む別の要因が、どの毛包を引き抜くかを特定するために用いられてもよい。
同様に、類似の方法が毛髪移植中に用いられてもよい。図4は例示的な移植方法を示す。登録パターンは、例えば、マーカ401、402、403、および404を含む。これらのマーカは、例えば、頭皮406のレシピエント領域407を規定する。計画システムは移植する毛包単位の数を示す入力と移植位置409とを受け取る。例示的な毛包単位408および405は毛包単位密度、無毛パターン、または毛包単位を移植するための他の基準を特定するために分析されてもよい。体表の無毛領域は、本開示による移植部位を作成するために追跡され、分類されうる対象物の主要点であってもよい。
頭皮分析、採取、あるいは移植中、患者は動いてもよい。監視システムは静止画を前の静止画と比較し、1つの静止画から次の静止画へとマーカの変更された位置に対応するよう患者のフレームを更新することにより、各毛包単位および頭皮の他の領域を追跡することができる。
しかしながら、患者は動いたり回転したりして、マーカが静止画の外にあるので、1以上のマーカが続く静止画に現れない場合がある。また、物体または血液が1以上のマーカを覆ったり、妨げとなったりすることもある。図5は静止画の外に動く患者のマーカを示す。マーカ501、502、および503は体表500の患者のフレームを規定する。静止画Nにおいて、すべてのマーカ501、502、および503は視認できる。さらなるマーカ504がまた視認および同定でき、その位置はマーカ501、502および503から形成される患者のフレームに関して記録されてもよい。静止画N−1はどのように患者が静止画に関して上および時計周りに回転したかを示す。従って、マーカ504のみが静止画N−1において視認できる。マーカ504の位置が患者のフレームに関して周知であるので、患者のフレームはマーカ504の位置変化に対応して更新することができる。しかしながら、この例において、マーカ504は座標x、y、およびzを更新するよう用いられるのみである。マーカ504は、ただ、各軸x、y、およびz周りの患者のフレームの回転に対応する座標Rx、Ry、およびRzを更新するデータを提供しない。このように、マーカ504は患者のフレームの並進を更新するが、患者のフレームの配向は更新しない。
少なくとも3つの非共線が、患者のフレームの並進および配向の双方を更新するために静止画Nおよび静止画N−1の双方において視認可能であるである。図6は患者のフレームを規定する3つのマーカ601、602、および603と、システムにより同定される4つのさらなるマーカ604、605、606および607を有する患者のフレームを示す。静止画Nにおいて、7つのすべてのマーカ601乃至607が視認できる。静止画N−1において、患者が動き、回転すると、マーカ601、602、および603は、静止画においてもはや視認できない。しかしながら、システムは、患者が動いた後、視野(FOV)に留まり続け、フレームの配向を含む患者のフレームを更新するマーカ604乃至606を用いてもよい。マーカ604乃至606は患者のフレームに固定されると想定され、フレームはこれらのマーカが各静止画における同じ患者のフレーム座標を有するよう動かすことができる。
外部基準あるいはマーカが患者のフレームを規定するよう用いられてもよいが、体表での自然出現が用いられてもよい。体表の最も一般的な主要点の一つ、あるいは物体は、ある本数の毛髪を含む毛包単位である。毛髪は分析、採取、および移植目的のシステムによって既に追跡されているので、毛髪移植を含むこれらのアプリケーションにおいてマーカとして一意に適している。各毛包単位の質量中心、または中心はマーカとして用いられてもよい。各中心の動きは静止画間で追跡され、1以上の毛包単位の動きは患者のフレームを更新するよう分析されてもよい。座標系は(例えば、毛包単位でありうる)対象物の主要点と、対象物の主要点に近隣または近接して配置された(ここでも他の毛包単位でありうる)1または複数のさらなる主要点との関係を特定することにより規定または作成されてもよい。例えば、毛包単位すべてが1mmだけ離れると、患者のフレームは1mmだけ離れると推測される。この原理は、患者のフレームを規定するすべての登録マーカが、静止画から静止画へと失われたとしても、6つの自由度のすべてにおいて機能し、提供された少なくとも3つの毛包単位はまだ、以下の例に示されるように視野において視認できる。
図7は毛包単位を有する患者のフレームの更新を示す。静止画Nにおいて、マーカ701、702、および703は患者のフレームを規定するのに用いられる。毛包単位704、705、706、および707は分析、採取、および移植目的のために追跡される。静止画N−1は静止画の外のマーカ701乃至703を示し、これは、例えば、体表が回転するときに生じるかもしれない。704乃至707の位置が患者のフレームに関して周知であり、704乃至707の任意の3つの毛包単位が、並進および配向を含む患者のフレームを更新するのに用いられてもよい。
毛髪または他の登録マーカが患者のフレームを規定または更新するのに用いられると、毛髪は点群アルゴリズムを用いるステップを含む任意の方法により追跡されてもよい。B.K.P. Horn, 「Closed Form solution of Absolute Orientation Using Unit Quaturnians, 」J.Opt.Soc. AMA/Vol.4 April 1987,はこのようなアルゴリズム(「ホーンアルゴリズム」)を開示するものである。
同様のセットの点が双方の静止画に用いられると、2つの点群間の剛体変換を見積もる点群アルゴリズムは強固に働く。剛体変換はそれが働く物体の形状を記憶するものである。この内容で用いられると、剛体変換を受ける点群の形状は保存されるであろう。したがって、円形に見える点群は円形のままであり、六角形に見える点群は六角形のままである。多くの毛髪を有する体表に点群アルゴリズムを用いる際に、アルゴリズムは同じ毛包単位が各点群で用いられ、かつ毛包単位が点群を生じさせるよう用いられると最も正確である。同じ毛包単位が各静止画において点群を含むことも重要である。
図8は患者が動き、点の正しい対応が静止画から静止画へと維持されない場合に生じうる典型的な「ホーンアルゴリズム」と関連する問題を示す。静止画Nにおいて、毛包単位803乃至809は点群を生じさせるよう用いられてもよい。しかしながら、静止画N−1において、患者が動き、毛包単位808および809が静止画においてもはや視認できない。また、毛包単位801および802が静止画に入った。同じ数の毛包単位が各静止画に存在するので、システムは静止画Nにおいて7つの毛包単位を用いる点群を誤って生じさせ、静止画N−1においてそれを7つの毛包単位と関連付けるかもしれない。各静止画において毛包単位は異なるので、患者のフレームは間違って更新されるであろう。
上述の問題を避けるために、本発明によるシステムは毛包単位の特徴(あるいは他の適した主要点)を分析し、同じ毛包単位が各静止画に存在するかどうかを特定する。双方の静止画に存在する毛包単位のみが、患者のフレームを規定および更新する点群を生じさせ、体表の物体と配置を追跡するよう用いられる。毛包単位、毛髪、または他の主要点を同定するのに用いられる特徴は、種類、内径、長さ、出現角度、領域、形状、色、および/またはこのような毛包単位または用いられる他の主要点の一意の「特徴」を規定する上述の組み合わせを含むが、これらに限定されない。任意の他の検出可能な特徴または「タグ」が毛包単位、毛髪、または主要点を同定するのに用いられてもよい。
上述の「点群」ベースの患者のフレームの更新は、特に、ロボット毛髪移植システムに用いるための移植の自動化および計画において有用である。移植(N)のための毛包単位の数はシステムに入力される。画像プロセッサはクラスタリングアルゴリズムを用いて同定の体表の画像に基づく任意の無毛点を配置し、次いで同定された無毛点内に配置されたN移植部位を発生させる。患者のフレームは周囲の毛髪およびできるかぎり任意の視認可能な外部のマーカから形成されてもよく、各移植部位は患者のフレームに関して規定される。(ロボットシステムにおけるロボットアームに配置された、あるいは人によって操作された)移植工具が各規定された位置で1つの部位から別の部位に動くとき、画像プロセッサは更新された患者のフレームに基づくセットにおいて次の移植部位の位置を更新することができる。
体表に視認できる毛髪がない場合、あるいは視認できる毛髪がシステムによって同定および追跡するのに効果的ではない場合、例えば、患者が無毛であるか、あるいは極端に薄く、薄くなったあるいは「わずかな」毛髪の大部分からなる場合、体表の主要点は毛髪または毛包単位の代わりに移動を追跡するのに用いることができる。これらの状況において、本開示によるシステムおよび方法は、それが均一ではなく、情報を含むので、人の頭皮のような体表を用い「追跡可能」である。例えば、本書に記載される方法の一実施形態によると、システムは1つの静止画(静止画N)および次の静止画(静止画N−1)間の一連のピクセルまたは対象物の領域(ROI)を比較できる。静止画の各セットは体表の並進を示し、静止画の多くのセットは密集し、頭皮の単一のシフト、または他の関連する本体部分を示す。さらに、一実施形態において、ほくろ、組織、血液、他の毛髪、および/または他の主要点および物体が比較して用いられ、静止画ベースで患者のフレームを更新する。任意の容易に識別可能な物体あるいは主要点が代用のマーカとして用いることができ、次いでその追跡位置は事前に記載された登録アルゴリズムに入力される際に用いることができる。
一旦フレームが登録されると、フレームおよびフレームに同定された主要点は電子的に、あるいは任意の他の既知の方法により保存される。何時でも新しい静止画がシステムに提示され、パターン認識アルゴリズムは、静止画におけるパターンが登録され、保存されたパターンに対応しているかを特定する。任意の同定された主要点が認識され、新しい静止画において同定されるとフレームが更新される。
開示された方法は、例えば、毛髪採取または移植処置の間のような患者の治療中、別の有用なアプリケーションを有する。画像プロセッサが採取されるべき具体的な毛包単位を配置し、同定した後、医者が領域における出血のため、あるいはQ−tipを領域に適用し、対象物の毛包単位を不明瞭にするため、このような毛包単位は視界から一時的に失われたり、消えたりするかもしれない。本発明なしでは、これらの状況において対象物の毛包単位がふたたび配置され同定される際に、実質的に処置の遅延が起こるであろう。しかしながら、開示された観念において、患者のフレームおよび問題とされる毛包単位の位置がシステムに保存され、素早く回収されるので、システムが予定された採取を続けることが可能となる。一旦システムが元の登録パターン上に配置されると、パターン認識アルゴリズムは同じパターンを認識し、フレームを再登録する。すべての他の点が患者のフレーム座標に関して保持されるので、単にフレームを再登録することは、すべての他の事前に知られた点を再び即座に知らせる。
別の態様によると、1つの静止画から別の静止画へと、毛髪、毛包単位、または他の対象物の主要点、あるいは物体を分類または追跡する方法は、移動ベクトルを算出するステップを含む。移動ベクトルを用いて毛包単位のような物体または対象物の主要点を追跡/分類する1つの方法は、図9Aおよび図9Bに示されている。図9Aは、マーカまたは基準として用いられうる4つの毛包単位901乃至904を有する頭皮900のような体表を示す。カメラ905または任意の他の画像取得装置は頭皮の画像を記録する。静止画Nは毛包単位901乃至904を含む第1の画像を示す。各毛包単位は質量中心または「中心」を有し、これらの毛包単位の集まりが「点群」だと考えられ、点群自体が中心を有する。本開示によるシステムは点群を含む各毛包単位の中心906乃至909を算出する。点群の中心910は、点群を含む個々の毛包単位901乃至904の中心906乃至909に基づいて算出される。システムはプログラムされてもよい画像プロセッサを含み、特許公報WO2008/024955に記載されているように、例えば、画像のバックグラウンド除去法、セグメンテーション、および雑音フィルタリングを行うために1以上の要素を含む。
静止画N−1は、例えば、患者の位置変化により毛包単位901乃至904の位置変化を示す。点群の中心910が算出され、静止画Nにおける位置と比較される。システムは静止画Nから静止画N−1への中心910の位置変化に対応して点群の移動ベクトル911を算出する。
しかしながら、毛包単位901乃至904の何れかが、画像ノイズ、血液のため不明瞭である場合、問題が生じるかもしれず、静止画から取り除かれる。システムは毛包単位が不在なので、同様に配置された毛包単位を混乱させるかもしれないし、4つの毛包単位901乃至904のすべてに対応する中心910に対応しない点群の中心を生じさせるかもしれない。1つの解決法は、同様の毛包単位、あるいは続く静止画における他の主要点または物体を維持するためにデジタル画像安定化を採用することである。
図10は移動ベクトルを算出するプロセスを示す。静止画0および1は4つの毛包単位1001乃至1004を含む。毛包単位は静止画Nおよび静止画N−1間の位置を変化させ、これらは、例えば、患者の動きに対応させることができる。システムは静止画0と静止画1とを比較し、移動ベクトルアルゴリズムを用い、患者の体表の移動ベクトル1005を算出する。
図9乃至図10は「dx」が水平移動要素であり、「dy」が対応する垂直移動要素である2次元での移動ベクトルを算出することを示し、システムはまた、3次元の移動ベクトルを算出する。3次元の移動ベクトルを算出する1つの方法は、面内回転シータを算出するステップを含んでもよい。別の方法は異なる角度から同時に2つの画像を得るためにステレオジオメトリーを用いるステップを含む。画像間の関係は高度な正確性を有することが知られている。ステレオ画像は、次いで2次元または3次元の移動ベクトルの何れかを得るために移動ベクトルアルゴリズムを用いて分析されてもよい。一旦システムが移動ベクトルを算出すると、ベクトルは続く静止画における物体や対象物の主要点を維持するために撮像装置を移動させるよう用いられてもよい。
採取および移植中、続く静止画において、同様の毛包単位を維持することが特に重要である。撮像装置は体表の静止画を生じさせるよう用いられる。撮像装置は手、ロボットアーム、または任意の他の機構により保持されてもよい。もちろん、様々な画像取得装置(あるいは撮像装置)は本書に記載されるシステムおよび方法の実施形態の何れかとともに用いることができる。例えば、撮像装置は市場で入手可能な1以上のカメラでありうる。あるいは撮像装置は(カメラ一体型ビデオのような)ビデオ記録装置でありうる。撮像装置はデジタル装置であることが好ましいが、必要というわけではない。例えば、後にデジタル画像にデジタル化される最初の画像を取得するアナログTVカメラでありうる。
施術者は移植の間、静止画を検査し、どの毛包単位が採取されるべきか、およびどの位置が毛包単位を受け取るかを特定する。このプロセスの間、実際に撮像装置の下にある体表が、施術者により検査される静止画と同じである場合に有用である。撮像装置が患者の体表に関する面内に維持されると、施術者は静止画の検査を終えるとすぐに静止画における領域にアクセスできる。このことは静止画を継続的に安定化装置に送り込むステップと、患者の動きに対応する移動ベクトルを分析するステップと、移動ベクトルに対応させるよう撮像装置を動かすステップとにより達成できる。撮像装置がロボットアームによって支持されると、ロボットアームの位置は移動ベクトルに対応して調整することができる。
一例示的なアプリケーションは、例えば、自動化された毛髪採取処置の間、毛包単位追跡/分類の強固さを向上させることにある。このような処置の間、システムは採取工具や毛髪採取の準備において、採取工具を操作する機構を配向するために、個々の毛包単位の座標を追跡しなければならない。このことは図11に示されるように、一意の標識を静止画像における各物体に割り当てることにより達成される。静止画Nにおいて、毛包単位1101乃至1103が認識され、これらの一意の「特徴」が同定され、次いでそれらは分類される。
好適な実施形態において、システムは毛包単位(あるいは他の所望の物体)の特徴を分析し、各続く静止画における同様の毛包単位の同定を助ける。毛包単位、毛髪、または他の主要点を同定するのに用いられうる特徴は、種類、内径、長さ、出現角度、領域、質量、色、および/またはこのような毛包単位または用いられる他の主要点の一意の「特徴」を規定する任意の上述の組み合わせを含むがこれらに限定されない。任意の他の検出可能な特徴または「タグ」が同定のアプリケーションに適切であるとして用いられてもよい。静止画N−1において同じ物体が配置され、同じ標識が付される。このことは最も近い物体の近くで探索することによりなされる。このプロセスは2つの静止画において同じ物体の配置を助けるために、毛包単位および静止画Nおよび静止画N−1間の患者の移動ベクトルの特定された「特徴」の双方を用いることにより強固かつ正確になされうる。当業者は毛包単位や毛髪が追跡のための対象物の物体であってもよい一方で、近くの毛包単位がマーカとして提供され、移動ベクトルを算出するよう用いられてもよい。
ある状況において、例えば、新しい毛包単位あるいは他の主要点が事前に同定された毛包単位の近くの続くフレームに導入されると、システムは混乱するかもしれない。図12は、静止画Nにおいて7つの毛包単位1201乃至1207を示す。静止画N−1は新しい毛包単位1208および1209を加えた、静止画Nからの1201乃至1207を含む9つの毛包単位を含む。毛包単位1208および1209は静止画N−1において静止画の視界領域の外側にあったが、患者が画像取得装置に関して動くと静止画N−1に現れる。システムが前の静止画において毛包単位の配置と近接のみに基づいて毛包単位を分析および同定すると、毛包単位1208および1209と、1206および1203とを混同させてしまう。
毛包単位のより強固な識別を提供するための好ましい解決は、図13Aおよび図13Bに示されるように、追跡ループにおけるデジタル画像安定器を組み込むステップと、それを毛包単位に関する一意の特徴情報と組み合わせて用いるステップとを含む。図13Aは毛包単位あるいはグレイスケール静止画から抽出された他の主要点を分類し、静止画Nにおいて前に同定された毛包単位に最も近い物体を見つけることにより、静止画N−1において毛包単位を同定する方法を描写する。このプロセスにおいて、グレイスケール静止画はフォアグラウンド物体(例えば、毛包単位)から純粋にセグメント化された静止画(例えば、バイナリ静止画)に転化されてもよい。バックグラウンド要素は当業者には周知の画像処理技術を用いる静止画から取り除かれる。
図13Bは同じプロセスを示すが、画像安定化法と特徴情報とで改良された。システムはグレイスケール静止画NおよびN−1を分析し、(その特徴情報を含む)毛包単位IDを特定する。静止画は移動ベクトルを算出し、静止画はセグメント化され、毛包単位特徴および移動ベクトルがフレームN−1に適用され、移動ベクトルの方向に探索することにより第1のフレームの毛包単位に対応する物体を探索する。画像における物体の動きが誘発された「フロー」についてのさらなる情報を用いることにより、動きが誘発されたフローは画像の下方左隅に向かい、毛包単位1209の特徴が毛包単位1206の特徴と対応しないので、図12に示されている毛包単位1208および1209を完全に破棄することができる。このことは毛包単位1206が2つの毛包単位を含むF2であり、毛包単位1209は単一の毛髪F1であるからである。
システムは第1の静止画における毛包単位の近くよりも、移動ベクトルの方向に探索するので、画像安定化分析を適用することにより、誤った分類の変更は実質的に低減される。図14は計測された移動ベクトルによって示された一般的な方向に基づく探索分野を規定する例を示す。移動ベクトル1401は上記のように算出されうる。いくつかの余地は追跡パラメータを設定する際に所望されてもよく、角度θは、システムが物体を探す移動ベクトルの別の側の探索領域を規定するのに用いられる。
多くのデジタル画像安定化アルゴリズムは、本書に記載される方法とともに機能してもよく、主要点または毛包単位を認識するロボットシステムをもたらす。全体におけるこのようなアルゴリズムはS.Ko,S. Lee, S.Joen, and E.Kangに記載されるようなグレイコードビットプレーン(GCBP)を用いるアプローチである。Fast digital image stabilizer based on gray-coded bit-plane matching. IEEE Transactions on Consumer Electronics, vol.45, no. 3, pp.598-603, Aug.1999. グレイコードビットプレーンアプローチの実行は図15に示されている。まず入力画像が撮像装置から受け取られる。画像はグレイコードビットプレーンに移される。いくつかの実施形態において、対象物の領域1601はグレイコードビットプレーン1602からスプライスされ、図16に示されるように計算要素上の探索領域および緊張を低減させることができる。GCBP静止画より小さいが、対象物の領域1601より大きい探索領域1603がまた規定されてもよい。対象物の領域のグレイコードビットプレーンは前述の画像のグレイコードビットプレーンと比較される。
移動ベクトルを算出する点群コードアプローチと対象的に、点群の全体的な動きを低減させる算出は「物体空間」(毛包単位または他のマーカの中心の知識を必要とする)において起こり、上述のGCBP画像安定化アプローチは、同定の主要点、例えば、毛包単位が配置されているという任意の推測的な知識なしで、あるいはその場面に毛包単位があったとしても、ピクセル強度データ上を純粋に操作する。このことは完全に独立した運動の測定を提供する強い利便性を有し、毛包単位座標の抜去が、画像化される場面の動的な本質のため、雑音のある計測となりうる。
グレイコードビットプレーンの代わりに用いられてもよい多くの他のデジタル画像安定化アルゴリズムがある。このような安定化アルゴリズムの例のいくつかは、Jean-Yves Bouquet, Pyramidal Implementation of the Lucas Kanade Feature Tracker, Intel Corporationに記載される「オプティカルフロー」技術、Vella F et al.「Robust digital image stabilization algorithm using block motion vector.」Consumer Electronics, ICCE, p.234-235, 2002 or in Sun Yi et al. 「Real-time digital image stabilization algorithm on PC.」Electronic Imaging and Multimedia Technology 3, SPIE Vol.4925, p. 510-513.に記載されるような「ブロックサーチ」技術を含むがこれらに限定されない。
「オプティカルフロー」概算アルゴリズムは画像内に物体の認知された動きを共に近付けるベクトルの分野、あるいは(ビデオにおけるような)画像のシリーズを算出する。ベクトルはその点の近くの局所化した動きを示す画像内のある点から算出される。上記引用されたBouguet articleにおいて、オプティカルフロー算出はピラミッドおよび階層的な探索方法を用いて算出される。局所化された動きの最初の推測は、画像の低解像度のバージョンから算出され、画像のより高い解像度のバージョンを利用して、アルゴリズムが「ピラミッドを上る」とき精微化に成功する。
「ブロックサーチ」方法は、MPEGのようなビデオコンプレッションスタンダードにおいて一般的に採用される技法を借用する。(上述に引用された)Vellaに記載されるように、ビデオコンプレッションに採用されるブロックサーチとデジタル画像安定化に用いられるものとの間のキー変化はまず、フォアグラウンド要素およびバックグラウンド要素に分割される。フォアグラウンドおよびバックグラウンドは順次、各セクションが分離重量を割り当てられるセクションに分割される。移動ベクトルは各セクションおよび与えられた重量を算出する。この量られた移動ベクトルはバックグラウンドおよびフォアグラウンドのための単一のベクトルを形成するよう組み合わされる。発見方法は次いで2つの移動ベクトルのどちらかを選択し、安定化に用いられる。
最終的に、分類/追跡メカニズムの強固さのさらなる向上のため本書に記載される方法は、画像において1以上の物体またはマーカに基づく移動ベクトルを算出するステップと、さらに上述の技術にあるように、それ自体の画像から移動ベクトルを算出するステップとの双方を採用してもよく、全体的な算出は双方の移動ベクトルに基づいている。
さらに、本システムの一実施形態において、図17に示されるように静止画は複数の画像に分割され、複数のベクトルを生じさせることができる。静止画Nは、例えば、4つのセクションQ1乃至Q4に分割される。各セクション1701は少なくも1つの異なる主要点または毛包単位に相当する。続く静止画N−1はまた、対応するセクションに分割され、さらに対応する探索領域1702および対象物の領域1703に分割される。この続くセクションは比較され、移動ベクトルは各セクション用に得ることができる。結果として生じる移動ベクトルは患者の回転運動を向上した正確性で示すことができる。
移動ベクトルを算出するための方法の何れかにおいて、静止画は参照静止画であってもよいし、変化可能な静止画であってもよい。例えば、参照静止画像は患者の身体の皮膚の領域から取られてもよい。次いで、各続く静止画像は移動ベクトルを特定するために参照静止画像と比較されてもよい。移動ベクトルは撮像装置における画像が参照静止画と同じであるように、撮像装置をベクトルの方向に動かすよう導くように用いられてもよい。代替的に、システムは第2の静止画を第1の静止画と比較し、移動ベクトルを算出し、移動ベクトルにより撮像装置を動かす。続く第3の静止画は次いで第2の静止画と比較され、プロセスが繰り返される。このケースにおいて、各続く静止画は参照静止画よりも前の静止画と比較される。
移動ベクトルは撮像装置を動かすよう用いられてもよいが、追跡データまたは任意の他の目的として用いられてもよい。例えば、システムは所定期間または所定の静止画数の間、移動ベクトルを記録することにより患者の動きを記録することができる。システムはまたある量の動き、またはある移動ベクトルの大きさに到達すると、撮像装置のみを動かすようプログラムされてもよい。例えば、システムは所定の毛包単位、位置、または点がいつも撮像装置の視野の所定の領域内にあることを確かめるようプログラムされてもよい。
画像安定化技術の別の例示的なアプリケーションは自動化された毛髪採取プロセス中、画像を安定化させるステップを含む。このような自動化された毛髪採取の間、所定の画像におけるすべての毛包単位がスコアリングシステムに基づいて保存されてもよく、次に採取されるべき同定の毛包単位が選択されうる。一般的にオペレータが、例えば、選択された基準により採取するために最良の毛包単位が正しく選択された画像プロセッサを確認するために、コンピュータのスクリーンまたは他の適切なディスプレイを見るとき、このプロセス中には通常休止期がある。オペレータが体表の静止画像を調べている間、患者は動くことができ、したがって、この期間中は安定化された映像を維持することが望まれる。
重要なことには、一旦ユーザが選択(あるいは異なるものを選択したとしても)を確認すると、システムは選択された毛包単位が有効な静止画における静止画であることを確かめる必要がある。このことは本開示によるデジタル画像安定化の結果を採用することを通して達成される。いくつかの実施形態において、ステレオ画像安定器からの3次元の移動ベクトル出力は無効とされ、例えば、ロボットアーム(ロボット操作されたシステム)に通される。このことは患者の動きを無効にするか、あるいはロボットアームに取り付けられうる1以上のカメラを動かす効果があり、同じ視野が続く画像取得において画像化される。
画像安定化技術のさらに別の例のアプリケーションは、毛髪移植中、ロボットシステムをガイドするために安定器の出力を用いるステップを含む。例示的な毛包移植および治療計画のためのシステムおよび方法は米国特許出願第2007/0078466号および米国特許出願第12/133,159号に記載され、これらは全体を参照することにより本書に組み込まれる。上述のシステムの何れかが用いられ、毛包単位が選択された治療計画により所定の位置に移植されてもよい。
一般に毛髪レシピエント領域は、画像システムが確かに追跡されうる毛包単位の数により間隔が空けられている。このため、毛包単位を追跡することは別として、いくつかの別手段を通してロボットの動きまたは患者の動きの追跡を維持する必要がある。このことは画像安定器を介して体表(例えば、頭皮)の動きを追跡することにより達成されうる。治療計画は外部の基準を用いるレシピエント領域で登録されうる。ロボットおよび患者が治療中に動くので、更新されるべき座標基準を確立した。座標基準(座標システム)は基準の位置を同定することで視覚システムにより更新されうる。しかしながら、先に説明したように、基準が見られない場合でも静止画ベースによる静止画に測定された移動ベクトルを追加することにより、デルタ方法で座標システムを更新し続けることができる。
毛包単位、マーカ、または他の物体を追跡する例示的なシステムが図18に示されている。いくつかの実施形態において、システムは撮像装置1800、特徴同定要素1801、ベクトリング要素1802、および追跡システム1803を含んでもよい。撮像装置1800はビデオカメラのようなカメラを含んでもよい。代替的に、画像を取得することができる任意の別の装置が用いられてもよい。好適には、撮像装置はデジタル撮像装置である。別の実施形態において、撮像装置は別個に提供されてもよいし、システムに含まれなくてもよい。これらの実施形態において、特徴同定要素のような様々な他の要素またはシステムのモジュールが別個の撮像装置と相互に作用可能となるインターフェイスが提供される。
撮像装置1800は特徴同定要素1801と相互作用し、毛包単位、マーカ、または他の物体を同定する。特徴同定要素1801はポータブルディスク、ハードディスク、または他の記憶装置に保存されるコードを有するソフトウェアプログラムであってもよい。このコードは、例えば、毛包単位、マーカ、または他の物体の識別特徴を同定するためにプロセッサ1807を含むコンピュータシステム1810と相互作用することができる。代替的に、特徴同定要素1801はハードウェアプラットフォーム、例えば、Field-Programmable Gate Array(「FPGA」)またはApplication-specific Integrated Circuit(「ASIC」)に具体化され、コンピュータシステム1810またはプロセッサ1807と相互作用することができる。コンピュータシステム1810またはプロセッサ1807はインターフェイス1811を介して撮像装置1800と相互作用する。インターフェイスはハードウェアポスト、ケーブル、リード、および他のデータ変換手段を含んでもよいし、コンピュータプログラムからなってもよい。
上述のように、種類、内径、長さ、出現角度、領域、色、および/または毛包単位または他の主要点または物体の一意の「特徴」を規定するのに用いることができる。任意の別の検出可能な特徴または「タグ」が同定のアプリケーションとして用いられてもよい。特徴同定プログラム1801は撮像装置から画像を分析し、毛包単位の特徴または他の主要点を同定し、毛包単位または他の主要点に電子的な電子特徴を用いて電子的にタグを付ける。
2以上の静止画が利用可能である場合、本書に記載される方法によるある実施形態において、ベクトリング要素1802は毛包単位または他の主要点を追跡する際にシステムを追跡する補助に用いることができる。ベクトリング要素1802は、毛包単位の動きを分析するためにプロセッサ1807を含むコンピュータシステム1810と相互作用するソフトウェアまたはハードウェアであってもよい。ベクトリング要素1802は周知の主要点のための位置情報を受け取る。周知の主要点は、例えば、特徴同定ユニット1801によって同定されてきた。位置情報は静止画において周知の主要点の位置に基づいている。ベクトリング要素1802は周知の主要点のベクトルを算出するために位置情報を用いる。
ベクトリング要素1802からの情報は、追跡システム1803を用いる毛包単位または他の主要点を追跡するのに用いられてもよい。追跡システム1803は、ロボットベース1808およびアーム1809、撮像装置における運動調節機構、画像またはスクリーン上の画像の一部を表すための符号、または複数の静止画間の物体を追跡するための任意の他の機構を含んでもよい。追跡ユニットがロボットアーム1809を含むと、撮像装置1800および採取または移植工具1806はロボットアーム1809の端部に配置されうる。ベクトリング要素1802からのベクトルは、静止画の運動方向に追跡システム1803を動かすために用いられ、有効な静止画において対象物の毛包単位または他の主要点を保持する。
一実施形態において、マーカ同定要素1804は静止画においてマーカを同定するのに用いられる。マーカ同定要素は、例えば、ソフトウェアプログラムであってもよく、プロセッサ1807を含むコンピュータシステム1810と相互作用する別の要素を参照して上述のようなハードウェアに実行可能である。このマーカ同定要素はまた、特徴同定要素1801の一部であってもよい。
別の実施形態において、対象物の主要点を追跡するシステムは、(システム自体に含まれない)撮像装置からの複数の画像を受け取るのに適合したインターフェイス1811のようなインターフェイス、1801のような特徴同定要素、およびマーカ参照システム1805を含む。マーカ参照システム1805はマーカ、毛包単位、または第1の画像における特徴同定要素1801によって同定される他の主要点に対応する情報を受け取り、マーカに対応する参照のフレームを規定する。マーカが第2の画像であるかどうか特定し、画像間のマーカの位置変化に対応する参照のフレームを調整する。システムはポータブルディスク、ハードディスク、フラッシュメモリ、または任意の他の記憶媒体を含む記憶装置に保存される。システムはまた、プロセッサ1807から独立しているプロセッサを含んでもよいし、同じプロセッサ1807を用いてもよい。
特徴同定要素、ベクトリング要素、追跡システム、マーカ同定システム、およびマーカ参照システムを含む上述の要素は、ソフトウェアまたはハードウェア要素の一部であってもよいし、複数のソフトウェアおよびハードウェアプログラムおよびモジュールを含んでもよい。各モジュールは任意の別のモジュールとは分離可能であってもよいし、すべてのモジュールが1つの装置またはチップと一体化されていてもよい。本書に記載される様々な実施形態および方法において、これらの要素のいくつかは光学式である。
一実施形態は体表の分析を含むが、上述のシステムおよび方法は任意の物体を追跡し、自動的にフレームを更新し、あるいは任意の物体または物体のセットに基づいて移動ベクトルを算出することができる。追跡される物体は空気で運ばれる物体、表面に沿って動く物体、地球上を動く物体、または同定されたり、追跡されたりする必要がある任意の他の物体を含む。
上述の様々な実施形態が例のみにより提供され、特許請求された発明を限定するよう解釈されるべきではない。当業者は本書に例示され、記載された例の実施形態およびアプリケーションに従うことなく、特許請求された発明の範囲の真の精神および範囲から逸脱することなく、様々な変更や変化が特許請求された発明になされてもよいことを容易に理解するであろう。

Claims (27)

  1. 毛包単位を追跡する方法であって、当該方法が、
    前記毛包単位を含む体表の第1の画像において、前記毛包単位を同定するステップと、
    前記第1の画像において、前記毛包単位の特徴(signature)を求めるステップと、
    前記第1の画像および同じ体表の第2の画像から移動ベクトルを求めるステップと、
    前記第1の画像における、前記移動ベクトルと前記毛包単位の特徴とを用いて、前記第2の画像において、前記毛包単位を分類するステップとを含むことを特徴とする方法。
  2. 請求項1に記載の方法がさらに、前記第1の画像および前記第2の画像において、少なくとも1つのマーカを同定するステップを含み、前記移動ベクトルを求めるステップが、前記第1の画像から前記第2の画像への、少なくとも1つのマーカの位置変化に対応する前記移動ベクトルを求めるステップを含むことを特徴とする方法。
  3. 請求項2に記載の方法において、前記第1の画像は、少なくとも3つのマーカがあることを特徴とする方法。
  4. 請求項2乃至3の何れかに記載の方法において、前記少なくとも1つのマーカが、前記体表の別の毛包単位、ほくろ、傷跡、そばかす、しわ、隆起、またはくぼみの1以上を含むことを特徴とする方法。
  5. 請求項2乃至4の何れかに記載の方法が、前記第1の画像において、複数のマーカを含み、前記少なくとも1つのマーカを同定するステップが、点群を同定するステップを含むことを特徴とする方法。
  6. 請求項5に記載の方法がさらに、前記点群の中心を算出するステップを含むことを特徴とする方法。
  7. 請求項1乃至6の何れかに記載の方法において、前記第1の画像において、前記毛包単位の特徴を求めるステップが、前記毛包単位の長さ、種類、内径、出現角度、領域、形状、または色の1以上を同定するステップを含むことを特徴とする方法。
  8. 請求項2乃至7の何れかに記載の方法がさらに、前記第1の画像内の少なくとも1つのマーカを分類するステップと、前記第2の画像において前記移動ベクトルにより示された方向に前記少なくとも1つのマーカを探索することにより、前記第2の画像内で前記第1の画像と同じ特徴を有する少なくとも1つのマーカを分類するステップとを含むことを特徴とする方法。
  9. 請求項1乃至8の何れかに記載の方法がさらに 前記第1の画像および前記第2の画像から第2の移動ベクトルを求めるステップと、さらに前記第2の画像において、前記毛包単位を分類する際に、前記第2の移動ベクトルを用いるステップとを含むことを特徴とする方法。
  10. 請求項1乃至9の何れかに記載の方法において、前記移動ベクトルが、グレイコードビットプレーン、オプティカルフロー、およびブロックサーチ画像安定化技術の1以上を用いて求められることを特徴とする方法。
  11. 請求項1乃至10の何れかに記載の方法がさらに、画像取得装置の視野に前記毛包単位を維持するために、前記移動ベクトルに応じて前記画像取得装置を動かすステップを含むことを特徴とする方法。
  12. 請求項2乃至11の何れかに記載の方法において、前記少なくとも1つのマーカを同定するステップが、電子識別子を前記少なくとも1つのマーカに関連付けるステップを含むことを特徴とする方法。
  13. 請求項2乃至12の何れかに記載の方法がさらに、前記移動ベクトルにより、前記第1の画像内でその位置において不整合である前記第2の画像におけるすべてのマーカを考慮から外すステップを含むことを特徴とする方法。
  14. 請求項1乃至13の何れかに記載の方法において、前記移動ベクトルが、前記毛包単位を配置するための探索領域を規定し、この探索領域を規定するステップが、前記移動ベクトルに沿い、かつ前記移動ベクトルから所定の距離内の領域を分析するステップを含むことを特徴とする方法。
  15. 請求項14に記載の方法において、前記移動ベクトルからの所定距離が、前記第1の画像において、前記マーカの位置に先端を有する円錐を含み、前記先端は所定の先端角度を有し、前記円錐は前記移動ベクトルの方向に延在し、前記所定の先端角度内の領域を含むことを特徴とする方法。
  16. 請求項1乃至15の何れかに記載の方法がさらに、前記第1および前記第2の画像を複数の第1および第2のサブ画像に分割するステップと、前記第1および第2のサブ画像から複数の移動ベクトルを求めるステップとを含むことを特徴とする方法。
  17. 請求項2乃至16の何れかに記載の方法において、当該方法がさらに、前記少なくとも1つのマーカに対応する座標系を規定するステップを含むことを特徴とする方法。
  18. 体表の毛包単位を追跡するシステムであって、当該システムが、
    前記毛包単位を含む体表の第1の画像において、前記毛包単位についての特徴情報を同定する特徴同定要素と、
    前記第1の画像と、同じ体表の前記第2の画像との間の移動ベクトルを算出するベクトリング要素と、
    前記移動ベクトルに対応するデータを受け取り、前記移動ベクトルと前記毛包単位の特徴情報とに基づいて、前記第2の画像内で前記毛包単位を分類するための追跡システムとを含むことを特徴とするシステム。
  19. 請求項18に記載のシステムにおいて、前記追跡システムが、前記体表の画像を取得するための撮像装置を含み、前記システムがさらに、前記移動ベクトルに基づいて、前記撮像装置を動かすようプログラムされていることを特徴とするシステム。
  20. 請求項18乃至19の何れかに記載のシステムにおいて、前記特徴同定要素、前記ベクトリング要素、および前記追跡システムが、単一のソフトウェアまたはハードウェア製品の一部であることを特徴とするシステム。
  21. 請求項18乃至20の何れかに記載のシステムがさらに、マーカ同定要素を含み、前記マーカ同定要素が、前記特徴同定要素の一部であることを特徴とするシステム。
  22. 請求項18乃至21の何れかに記載のシステムにおいて、前記特徴同定要素、前記ベクトリング要素、および前記追跡要素の1以上が、記憶装置および前記撮像装置の少なくとも1つに接続されているプロセッサを含むことを特徴とするシステム。
  23. 請求項18乃至請求項22の何れかに記載のシステムにおいて、前記システムが、さらにロボットアームを含むロボットシステムであることを特徴とするシステム。
  24. 体表に対象物の主要点(feature)を追跡する方法であって、当該方法が、
    撮像装置により取られる第1の静止画像において、少なくとも1つのマーカを同定するステップであって、前記第1の静止画像が、対象物の主要点を含むステップと、
    前記第1の静止画像において、前記対象物の主要点の特徴を特定するステップと、
    前記少なくとも1つのマーカに対応する座標系を規定するステップと、
    前記撮像装置により取られた第2の静止画像内に前記少なくとも1つのマーカを配置するステップと、
    前記特定された特徴を用いて前記第2の静止画像内で前記対象物の主要点の位置を検出し、前記第2の静止画像において、前記少なくとも1つのマーカの位置に基づいて、前記座標系の並進要素(translational component)を更新するステップとを含むことを特徴とする方法。
  25. 請求項24に記載の方法において、前記対象物の主要点が毛包単位であり、前記第1の画像において、前記毛包単位の特徴を同定するステップが、前記毛包単位の長さ、種類、内径、出現角度、領域、形状、または色の1以上を同定するステップを含むことを特徴とする方法。
  26. 請求項24に記載の方法において、前記対象物の主要点の位置を検出するステップが、前記第1の静止画像および前記第2の静止画像から移動ベクトルを求め、前記座標系を更新し前記少なくとも1つのマーカを配置するために前記移動ベクトルを用いるステップとを含むことを特徴とする方法。
  27. 請求項24に記載の方法において、前記座標系を規定するステップが、前記対象物の主要点と前記対象物の主要点の近くに位置する1以上のさらなる特徴との関係を特定するステップを含むことを特徴とする方法。
JP2011529082A 2008-09-29 2009-09-10 毛包単位の追跡 Active JP5307246B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/240,724 US8848974B2 (en) 2008-09-29 2008-09-29 Object-tracking systems and methods
US12/240,724 2008-09-29
PCT/US2009/056537 WO2010036513A1 (en) 2008-09-29 2009-09-10 Tracking of hair follicles

Publications (2)

Publication Number Publication Date
JP2012504277A true JP2012504277A (ja) 2012-02-16
JP5307246B2 JP5307246B2 (ja) 2013-10-02

Family

ID=41396287

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011529082A Active JP5307246B2 (ja) 2008-09-29 2009-09-10 毛包単位の追跡

Country Status (9)

Country Link
US (5) US8848974B2 (ja)
EP (2) EP3474229A1 (ja)
JP (1) JP5307246B2 (ja)
KR (1) KR101332997B1 (ja)
CN (1) CN102165492B (ja)
AU (1) AU2009296900B2 (ja)
BR (1) BRPI0919448B1 (ja)
CA (2) CA2736365C (ja)
WO (1) WO2010036513A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018149316A (ja) * 2014-07-31 2018-09-27 レストレーション ロボティクス, インコーポレイテッドRestoration Robotics, Inc. 毛髪移植処置部位を作り出すためのシステム及び方法

Families Citing this family (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2007361324A1 (en) * 2007-11-07 2009-05-14 Tele Atlas B.V. Method of and arrangement for mapping range sensor data on image sensor data
US8812226B2 (en) * 2009-01-26 2014-08-19 GM Global Technology Operations LLC Multiobject fusion module for collision preparation system
US8503720B2 (en) 2009-05-01 2013-08-06 Microsoft Corporation Human body pose estimation
US8998931B2 (en) 2011-10-17 2015-04-07 Pilofocus, Inc. Hair restoration
US9693799B2 (en) 2009-09-17 2017-07-04 Pilofocus, Inc. System and method for aligning hair follicle
IN2012DN02415A (ja) 2009-09-17 2015-08-21 Carlos K Weskley
US9314082B2 (en) 2009-09-17 2016-04-19 Pilofocus, Inc. System and method for extraction of hair follicle
US8675939B2 (en) 2010-07-13 2014-03-18 Stryker Leibinger Gmbh & Co. Kg Registration of anatomical data sets
KR101710624B1 (ko) 2010-07-27 2017-02-27 삼성전자주식회사 객체의 모션 벡터를 이용하여 자동 촬영 기능을 수행하는 디지털 영상 촬영 방법, 디지털 영상 촬영 장치 및 상기 방법을 기록한 기록 매체
US8911453B2 (en) 2010-12-21 2014-12-16 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US9498289B2 (en) 2010-12-21 2016-11-22 Restoration Robotics, Inc. Methods and systems for directing movement of a tool in hair transplantation procedures
US10200671B2 (en) * 2010-12-27 2019-02-05 3Dmedia Corporation Primary and auxiliary image capture devices for image processing and related methods
US8951266B2 (en) * 2011-01-07 2015-02-10 Restoration Robotics, Inc. Methods and systems for modifying a parameter of an automated procedure
US8942917B2 (en) 2011-02-14 2015-01-27 Microsoft Corporation Change invariant scene recognition by an agent
US9188973B2 (en) 2011-07-08 2015-11-17 Restoration Robotics, Inc. Calibration and transformation of a camera system's coordinate system
TWI469062B (zh) 2011-11-11 2015-01-11 Ind Tech Res Inst 影像穩定方法及影像穩定裝置
JP5248685B1 (ja) * 2012-01-20 2013-07-31 楽天株式会社 動画検索装置、動画検索方法、記録媒体、ならびに、プログラム
CN103284790B (zh) * 2012-03-01 2016-08-17 上海黑黛增发服务有限公司 头发毛囊定位仪
US9208577B2 (en) * 2012-06-25 2015-12-08 Adobe Systems Incorporated 3D tracked point visualization using color and perspective size
US9393961B1 (en) * 2012-09-19 2016-07-19 Google Inc. Verifying a target object with reverse-parallax analysis
US9008757B2 (en) 2012-09-26 2015-04-14 Stryker Corporation Navigation system including optical and non-optical sensors
CN103006332B (zh) * 2012-12-27 2015-05-27 广东圣洋信息科技实业有限公司 手术刀跟踪方法与装置及数字立体显微镜系统
US9857470B2 (en) 2012-12-28 2018-01-02 Microsoft Technology Licensing, Llc Using photometric stereo for 3D environment modeling
US9251590B2 (en) * 2013-01-24 2016-02-02 Microsoft Technology Licensing, Llc Camera pose estimation for 3D reconstruction
US9940553B2 (en) 2013-02-22 2018-04-10 Microsoft Technology Licensing, Llc Camera/object pose from predicted coordinates
US9202276B2 (en) * 2013-03-13 2015-12-01 Restoration Robotics, Inc. Methods and systems for hair transplantation using time constrained image processing
US9408691B2 (en) 2013-03-14 2016-08-09 Restoration Robotics, Inc. Locator device for medical procedures on the body surface and method of its use
US9392965B2 (en) 2013-03-14 2016-07-19 Restoration Robotics, Inc. Method and apparatus for determining a change in tension of a body surface
US9320593B2 (en) 2013-03-15 2016-04-26 Restoration Robotics, Inc. Systems and methods for planning hair transplantation
US9167999B2 (en) 2013-03-15 2015-10-27 Restoration Robotics, Inc. Systems and methods for planning hair transplantation
US9576359B2 (en) * 2013-11-01 2017-02-21 The Florida International University Board Of Trustees Context based algorithmic framework for identifying and classifying embedded images of follicle units
CN106170820A (zh) * 2014-02-26 2016-11-30 株式会社索思未来 图像识别系统以及半导体集成电路
US10387021B2 (en) 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool
US10348426B2 (en) * 2014-10-07 2019-07-09 DISH Technologies L.L.C. Apparatus, systems and methods for identifying particular media content event of interest that is being received in a stream of media content
WO2016071325A1 (en) * 2014-11-06 2016-05-12 Koninklijke Philips N.V. Skin treatment system
GB2532267A (en) * 2014-11-14 2016-05-18 Nat Oilwell Varco Norway As A method for placing and removing pipe from a finger rack
US11380079B2 (en) * 2015-02-19 2022-07-05 Metritrack, Inc. System and method for positional registration of medical image data
US10660562B2 (en) 2015-05-29 2020-05-26 Conopco, Inc. System and method for measuring hair diameter
JP6720756B2 (ja) * 2015-10-08 2020-07-08 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム
WO2017072008A1 (en) 2015-10-30 2017-05-04 Unilever Plc Hair curl measurement
EP3369041A1 (en) 2015-10-30 2018-09-05 Unilever Plc. Hair diameter measurement
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9757859B1 (en) 2016-01-21 2017-09-12 X Development Llc Tooltip stabilization
US9744665B1 (en) * 2016-01-27 2017-08-29 X Development Llc Optimization of observer robot locations
US10059003B1 (en) 2016-01-28 2018-08-28 X Development Llc Multi-resolution localization system
US10223798B2 (en) * 2016-05-27 2019-03-05 Intellijoint Surgical Inc. Systems and methods for tracker characterization and verification
US20180189976A1 (en) * 2016-12-29 2018-07-05 Michal Kasprzak Analysis unit and system for assessment of hair condition
CN108990412B (zh) 2017-03-31 2022-03-22 奥瑞斯健康公司 补偿生理噪声的用于腔网络导航的机器人系统
US11310417B2 (en) * 2017-05-04 2022-04-19 Carnegie Mellon University State estimation and localization for ROV-based structural inspection
US20190226287A1 (en) * 2017-05-11 2019-07-25 National Oilwell Varco Norway As System and method for placing pipe in and removing pipe from a finger rack
JP6349448B1 (ja) * 2017-08-23 2018-06-27 株式会社 ディー・エヌ・エー 情報処理装置、情報処理プログラム、及び、情報処理方法
US10339670B2 (en) * 2017-08-29 2019-07-02 Trimble Inc. 3D tool tracking and positioning using cameras
US10565714B2 (en) 2018-05-25 2020-02-18 Denso Corporation Feature tracking for visual odometry
JP7214757B2 (ja) * 2018-05-31 2023-01-30 オーリス ヘルス インコーポレイテッド 生理学的ノイズを検出する管腔網のナビゲーションのためのロボットシステム及び方法
EP3611468A1 (en) * 2018-08-17 2020-02-19 Ordnance Survey Limited Vector tile pyramiding
US11031128B2 (en) 2019-01-25 2021-06-08 Fresenius Medical Care Holdings, Inc. Augmented reality-based training and troubleshooting for medical devices
EP3941693A4 (en) * 2019-03-20 2022-11-30 Covidien LP ROBOTIC SURGICAL COLLISION DETECTION SYSTEMS
US11927944B2 (en) * 2019-06-07 2024-03-12 Honeywell International, Inc. Method and system for connected advanced flare analytics
CN112043299A (zh) * 2020-09-30 2020-12-08 上海联影医疗科技股份有限公司 一种医学设备的控制方法和系统
US11494881B2 (en) * 2020-12-29 2022-11-08 Hb Innovations, Inc. Global movement image stabilization systems and methods
US20220319054A1 (en) * 2021-03-01 2022-10-06 Waymo Llc Generating scene flow labels for point clouds using object labels
US20240091950A1 (en) * 2022-09-16 2024-03-21 Samsung Electronics Co., Ltd. Probabilistic approach to unifying representations for robotic mapping

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
WO2008024955A2 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for counting follicular units
WO2008024954A2 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for classifying follicular units

Family Cites Families (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4807163A (en) * 1985-07-30 1989-02-21 Gibbons Robert D Method and apparatus for digital analysis of multiple component visible fields
US5251127A (en) * 1988-02-01 1993-10-05 Faro Medical Technologies Inc. Computer-aided surgery apparatus
US5829444A (en) * 1994-09-15 1998-11-03 Visualization Technology, Inc. Position tracking and imaging system for use in medical applications
US5901199A (en) 1996-07-11 1999-05-04 The Board Of Trustees Of The Leland Stanford Junior University High-speed inter-modality image registration via iterative feature matching
US5865744A (en) * 1996-09-16 1999-02-02 Lemelson; Jerome H. Method and system for delivering therapeutic agents
US7856750B2 (en) * 1997-12-08 2010-12-28 Horus Vision Llc Apparatus and method for calculating aiming point information
US6572625B1 (en) 1998-09-13 2003-06-03 William R. Rassman Hair transplant harvesting device and method for its use
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
JP4101951B2 (ja) * 1998-11-10 2008-06-18 オリンパス株式会社 手術用顕微鏡
US6720988B1 (en) 1998-12-08 2004-04-13 Intuitive Surgical, Inc. Stereo imaging system and method for use in telerobotic systems
US6778850B1 (en) * 1999-03-16 2004-08-17 Accuray, Inc. Frameless radiosurgery treatment system and method
FR2802679B1 (fr) * 1999-12-21 2002-02-08 Oreal Systeme et procede d'analyse et de simulation previsionnelle de l'evolution d'une zone pileuse, et plus particulierement du cuir chevelu humain
US6585746B2 (en) * 2000-04-20 2003-07-01 Philip L. Gildenberg Hair transplantation method and apparatus
US6484049B1 (en) * 2000-04-28 2002-11-19 Ge Medical Systems Global Technology Company, Llc Fluoroscopic tracking and visualization system
US6771840B1 (en) * 2000-05-18 2004-08-03 Leica Geosystems Hds, Inc. Apparatus and method for identifying the points that lie on a surface of interest
DE10025817C2 (de) * 2000-05-24 2002-06-20 Raymond A & Cie Lösbare Schnellkupplung mit Sicherheitsverrastung
US7164883B2 (en) * 2001-02-14 2007-01-16 Motorola. Inc. Method and system for modeling and managing terrain, buildings, and infrastructure
AU2002311903A1 (en) * 2001-05-09 2002-11-18 University Hospitals Of Cleveland Evaluation of ultraviolet radiation damage to skin using new genemarkers, methods and compositions related thereto
US7217266B2 (en) * 2001-05-30 2007-05-15 Anderson R Rox Apparatus and method for laser treatment with spectroscopic feedback
US20030212320A1 (en) * 2001-10-01 2003-11-13 Michael Wilk Coordinate registration system for dual modality imaging systems
US7383073B1 (en) * 2001-10-16 2008-06-03 Z-Kat Inc. Digital minimally invasive surgery system
AU2003218010A1 (en) * 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
US6917702B2 (en) 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
DE10249786A1 (de) 2002-10-24 2004-05-13 Medical Intelligence Medizintechnik Gmbh Referenzierung eines Roboters zu einem Werkstück und Vorrichtung hierfür
JP4144389B2 (ja) * 2003-03-14 2008-09-03 オムロン株式会社 光学式膜計測装置
US7756567B2 (en) * 2003-08-29 2010-07-13 Accuray Incorporated Image guided radiosurgery method and apparatus using registration of 2D radiographic images with digitally reconstructed radiographs of 3D scan data
US20080033275A1 (en) * 2004-04-28 2008-02-07 Blank Thomas B Method and Apparatus for Sample Probe Movement Control
US7426318B2 (en) 2004-06-30 2008-09-16 Accuray, Inc. Motion field generation for non-rigid image registration
WO2006047502A2 (en) * 2004-10-25 2006-05-04 Brigham And Women's Hospital Automated segmentation, classification and tracking of cell nuclei in time-lapse microscopy
KR100603601B1 (ko) * 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US20060206018A1 (en) * 2005-03-04 2006-09-14 Alan Abul-Haj Method and apparatus for noninvasive targeting
US7713205B2 (en) * 2005-06-29 2010-05-11 Accuray Incorporated Dynamic tracking of soft tissue targets with ultrasound images, without using fiducial markers
US7613337B2 (en) * 2005-09-06 2009-11-03 Intel Corporation Method and apparatus for identifying mole growth
US7539334B2 (en) * 2005-09-06 2009-05-26 Intel Corporation Method and apparatus for identifying mole growth
CN101926678B (zh) 2005-09-30 2012-06-20 修复型机器人公司 用于采集和植入毛囊单位的自动化系统和方法
US20070078466A1 (en) * 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
US7656998B2 (en) 2005-11-14 2010-02-02 Accuray Incorporated Unified quality assurance for a radiation treatment delivery system
JP2007170819A (ja) * 2005-12-19 2007-07-05 Tdk Corp パルス波レーダー装置
US7806121B2 (en) * 2005-12-22 2010-10-05 Restoration Robotics, Inc. Follicular unit transplantation planner and methods of its use
US7623702B2 (en) * 2006-04-27 2009-11-24 Mako Surgical Corp. Contour triangulation system and method
US7558622B2 (en) * 2006-05-24 2009-07-07 Bao Tran Mesh network stroke monitoring appliance
US7539533B2 (en) * 2006-05-16 2009-05-26 Bao Tran Mesh network monitoring appliance
JP2009537231A (ja) 2006-05-19 2009-10-29 マコ サージカル コーポレーション 触覚デバイスを制御するための方法および装置
US7620144B2 (en) 2006-06-28 2009-11-17 Accuray Incorporated Parallel stereovision geometry in image-guided radiosurgery
US9718190B2 (en) 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
US10258425B2 (en) * 2008-06-27 2019-04-16 Intuitive Surgical Operations, Inc. Medical robotic system providing an auxiliary view of articulatable instruments extending out of a distal end of an entry guide
KR20090025389A (ko) 2006-07-10 2009-03-10 픽셀리전트 테크놀로지스 엘엘씨 포토리소그래피용 레지스트
US7894649B2 (en) * 2006-11-02 2011-02-22 Accuray Incorporated Target tracking using direct target registration
US7623679B2 (en) * 2006-12-13 2009-11-24 Accuray Incorporated Temporal smoothing of a deformation model
US20080154247A1 (en) * 2006-12-20 2008-06-26 Reliant Technologies, Inc. Apparatus and method for hair removal and follicle devitalization
US8417318B2 (en) 2007-02-22 2013-04-09 Accuray Incorporated Calibrating tracking systems to remove position-dependent bias
US8115807B2 (en) 2007-03-06 2012-02-14 William Rassman Apparatus and method for mapping hair metric
US9883818B2 (en) 2007-06-19 2018-02-06 Accuray Incorporated Fiducial localization
US7623623B2 (en) 2007-06-29 2009-11-24 Accuray Incorporated Non-collocated imaging and treatment in image-guided radiation treatment systems
AU2007361324A1 (en) * 2007-11-07 2009-05-14 Tele Atlas B.V. Method of and arrangement for mapping range sensor data on image sensor data
EP2240111B1 (en) 2008-06-18 2019-07-24 Mako Surgical Corp. Fiber optic tracking system
US8414469B2 (en) * 2008-06-27 2013-04-09 Intuitive Surgical Operations, Inc. Medical robotic system having entry guide controller with instrument tip velocity limiting
US9179832B2 (en) * 2008-06-27 2015-11-10 Intuitive Surgical Operations, Inc. Medical robotic system with image referenced camera control using partitionable orientational and translational modes
US8249345B2 (en) * 2008-06-27 2012-08-21 Mako Surgical Corp. Automatic image segmentation using contour propagation
US8184880B2 (en) * 2008-12-31 2012-05-22 Intuitive Surgical Operations, Inc. Robust sparse image matching for robotic surgery
US8454627B2 (en) * 2009-03-11 2013-06-04 Restoration Robotics, Inc. Systems and methods for harvesting and implanting hair using image-generated topological skin models
US8048090B2 (en) * 2009-03-11 2011-11-01 Restoration Robotics, Inc. System and method for harvesting and implanting hair using image-generated topological skin models
US8554711B2 (en) 2010-07-20 2013-10-08 Sparkling Logic Inc. Contextual decision logic elicitation

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7127081B1 (en) * 2000-10-12 2006-10-24 Momentum Bilgisayar, Yazilim, Danismanlik, Ticaret, A.S. Method for tracking motion of a face
WO2008024955A2 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for counting follicular units
WO2008024954A2 (en) * 2006-08-25 2008-02-28 Restoration Robotics, Inc. System and method for classifying follicular units

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN5012000162; YI SUN: 'A REAL-TIME DIGITAL IMAGE STABILIZATION ALGORITHM ON PC' ELECTRONIC IMAGING AND MULTIMEDIA TECHNOLOGY III [ONLINE] V4925, 20021015, P510-513 *
JPN5012000163; VELLA F: 'ROBUST DIGITAL IMAGE STABILIZATION ALGORITHM USING BLOOK MOTION VECTORS' IEEE TRANSACTIONS ON CONSUMER ELECTRONICS , 20020618, P234-235, IEEE SERVICE CENTER *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018149316A (ja) * 2014-07-31 2018-09-27 レストレーション ロボティクス, インコーポレイテッドRestoration Robotics, Inc. 毛髪移植処置部位を作り出すためのシステム及び方法

Also Published As

Publication number Publication date
CA2966822C (en) 2019-10-01
US20100080415A1 (en) 2010-04-01
BRPI0919448A2 (pt) 2015-12-15
AU2009296900A1 (en) 2010-04-01
US20170128137A1 (en) 2017-05-11
EP3474229A1 (en) 2019-04-24
US8811660B2 (en) 2014-08-19
US20100080417A1 (en) 2010-04-01
EP2329455B1 (en) 2018-11-07
CA2736365C (en) 2017-06-27
CA2736365A1 (en) 2010-04-01
BRPI0919448B1 (pt) 2019-12-10
US20140355834A1 (en) 2014-12-04
CN102165492A (zh) 2011-08-24
US8848974B2 (en) 2014-09-30
EP2329455A1 (en) 2011-06-08
US20160307333A1 (en) 2016-10-20
CA2966822A1 (en) 2010-04-01
US9589368B2 (en) 2017-03-07
WO2010036513A1 (en) 2010-04-01
JP5307246B2 (ja) 2013-10-02
AU2009296900B2 (en) 2013-06-27
US9405971B2 (en) 2016-08-02
US10022191B2 (en) 2018-07-17
KR20110084401A (ko) 2011-07-22
CN102165492B (zh) 2015-01-28
KR101332997B1 (ko) 2013-11-25

Similar Documents

Publication Publication Date Title
JP5307246B2 (ja) 毛包単位の追跡
US9542743B2 (en) Calibration and transformation of a camera system's coordinate system
US7561733B2 (en) Patient registration with video image assistance
Wolf et al. 3D tracking of laparoscopic instruments using statistical and geometric modeling
JPH09508994A (ja) 像形成装置及び方法
JP2003265408A (ja) 内視鏡誘導装置および方法
US11633235B2 (en) Hybrid hardware and computer vision-based tracking system and method
Erdoǧan et al. KEBOT: an artificial intelligence based comprehensive analysis system for FUE based hair transplantation
WO2009027088A9 (en) Augmented visualization in two-dimensional images
Kosaka et al. Augmented reality system for surgical navigation using robust target vision
JP6476125B2 (ja) 画像処理装置、及び手術顕微鏡システム
Žgaljić et al. Improving Markerless Registration Accuracy by Mapping Facial Deformation
US20240065572A1 (en) System and Method for Tracking an Object Based on Skin Images
WO2022180624A1 (en) Computer tomography to fluoroscopy registration using segmented inputs
WO2024121718A1 (en) Touchless registration using a reference frame adapter

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120521

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130311

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130626

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5307246

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250