JP2014520351A - カメラシステムの座標系の較正および変換 - Google Patents

カメラシステムの座標系の較正および変換 Download PDF

Info

Publication number
JP2014520351A
JP2014520351A JP2014519220A JP2014519220A JP2014520351A JP 2014520351 A JP2014520351 A JP 2014520351A JP 2014519220 A JP2014519220 A JP 2014519220A JP 2014519220 A JP2014519220 A JP 2014519220A JP 2014520351 A JP2014520351 A JP 2014520351A
Authority
JP
Japan
Prior art keywords
camera
coordinate system
robot
camera system
movable arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014519220A
Other languages
English (en)
Other versions
JP5688825B2 (ja
Inventor
テニイ,ジョン,エイ.
バード,エリック,アール.
チャン,ホイ
ビロ,ロバート,エフ.
Original Assignee
レストレーション ロボティクス,インク.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by レストレーション ロボティクス,インク. filed Critical レストレーション ロボティクス,インク.
Publication of JP2014520351A publication Critical patent/JP2014520351A/ja
Application granted granted Critical
Publication of JP5688825B2 publication Critical patent/JP5688825B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/50Prostheses not implantable in the body
    • A61F2/76Means for assembling, fitting or testing prostheses, e.g. for measuring or balancing, e.g. alignment means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F2/00Filters implantable into blood vessels; Prostheses, i.e. artificial substitutes or replacements for parts of the body; Appliances for connecting them with the body; Devices providing patency to, or preventing collapsing of, tubular structures of the body, e.g. stents
    • A61F2/02Prostheses implantable into the body
    • A61F2/10Hair or skin implants
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/408Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by data handling or data format, e.g. reading, buffering or conversion of data
    • G05B19/4086Coordinate conversions; Other special calculations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39022Transform between measuring and manipulator coordinate system
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39045Camera on end effector detects reference pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Robotics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Surgery (AREA)
  • Transplantation (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Vascular Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Cardiology (AREA)
  • Dermatology (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

システムおよび方法を開示する。該システムおよび方法は、第1のカメラシステムの座標系と第2のカメラシステムの座標系との間のマッピングを決定するか、またはロボットの座標系とカメラシステムの座標系との間の変換を決定し、および/またはカメラの座標系のツールの場所に基づいて、ロボットの座標系で、ロボットのアームから伸びるツールの場所を特定する。開示されるシステムおよび方法は、1つ以上の画像で見出される特徴の座標から導き出される変換を使用し得る。変換は、種々の座標系を相関するために使用され得、毛髪の採取および/または植付のための画像誘導ロボットシステム等のロボットシステムに含まれる、カメラシステムの較正を容易にする。
【選択図】図5

Description

本開示は、概して、ロボットシステム等の自動化システムに関し、より具体的には、画像誘導ロボットシステムのカメラシステムを較正するためのシステムおよび方法に関する。
それに載置されるツール、検査ユニット、または他のデバイスを有する可動ロボットアームを含むロボットシステム等のロボットシステムは、概して、一方の場所からもう一方の場所にロボットアームを位置付けるための、誘導システムを含む。画像誘導ロボットシステムは、概して、処理された画像に少なくとも部分的に基づいてロボットアームを位置付け、該画像は、ある応用において、1つ以上のカメラによって取得され得る。画像誘導ロボットシステムを正確に位置付けるのを補助するために、較正を行うことが望ましくなり得る。そのような較正手順の例は、例えば、Bodduluri他の米国特許出願公開第2007/0106306号の図4を参照して説明される。
一実施形態では、第1のカメラシステムの座標系と第2のカメラシステムの座標系との間のマッピングを決定するための方法が提供され、第1および第2のカメラシステムは、少なくとも部分的に重なる視野を有し、第1および第2のカメラシステムは、固定された空間関係を有する。本方法は、1つ以上のプロセッサを使用して、第1および第2のカメラシステムの座標系の双方で、第1および第2のカメラシステムからの対応する対の画像に見出される1組の特徴(例えば、1つ以上の特徴)の座標を決定し、それによって、第1のカメラシステムの座標系での第1の組の特徴の座標、および第2のカメラシステムの座標系での対応する第2の組の座標をもたらすことと、同じ1つ以上のプロセッサの1つまたは異なるプロセッサの使用によって、第1および第2の組の特徴の座標に基づいて、第1および第2のカメラシステムの座標系間のマッピングを決定することと、を含む。本方法は、第1および第2のカメラシステムの座標系間の座標を変換するように、後で使用するために、マッピングをメモリに記憶し得る。いくつかの実施形態において、本方法は、第1および第2のカメラシステムのそれぞれから、いくつかの対応する画像を、随意に取り込み、受け取り、または受け付け得る。
別の実施形態では、1つ以上のプロセッサを備えるシステムが提供され、該システムは、第1の組の画像の中の1組の特徴について、第1のカメラシステムの座標系で座標を決定し、それによって、第1のカメラシステムの座標系で第1の組の特徴の座標をもたらし、第2の組の画像の中の1組の特徴について、第2のカメラシステムの座標系で座標を決定し、第2の組の画像の中の特徴は、第1の組の画像の中の第1の組の特徴に対応し、それによって、第2のカメラシステムの座標系で第2の組の特徴の座標をもたらし、第1および第2の組の特徴の座標に基づいて、第1および第2のカメラシステムの座標系間の変換を計算するように構成される。本システムは、第1および第2のカメラシステムの座標系間の座標を変換するように、後で使用するために、マッピングをメモリに記憶し得る。単一のプロセッサが、列挙された全ての操作を行い得る。いくつかの実施形態において、システムはまた、第1の視野を有し、第1の組の画像を取り込むように構成される、第1のカメラシステム、および第2の視野を有し、第1の組の画像に対応する第2の組の画像を取り込むように構成される、第2のカメラシステムも含み、第1および第2のカメラシステムは、互いに対して固定された場所に位置付けられ、第1および第2の視野は、少なくとも部分的に重なる。
さらに別の実施形態において、第1および第2のカメラシステムのそれぞれは、ステレオ対のカメラを備える。さらに別の実施形態において、第1および第2のカメラシステムは、それらの視野のサイズが異なる。さらに別の実施形態において、第1および第2のカメラシステムは、ロボットシステム、例えば毛髪採取および/または植付のためのロボットシステムの一部であり得る、ロボットアームに載置される。さらに別の実施形態において、画像は、ほぼ同時に取り込まれ、受け取られ、または受け付けられ得る。さらに別の実施形態において、特徴は、チェッカーボードコーナー、ドットパターン、または重心から成る群の1つ以上から選択され得る、較正特徴である。
さらに別の実施形態において、第1および第2のカメラシステムのそれぞれからの対応する画像の数は、mであり、第1のカメラシステムからのj番目の画像および第2のカメラシステムからのj番目の画像は、j=1...mにおいて、互いに対応し、各画像においてその座標が決定される特徴の数は、nであり、第1のカメラシステムの座標系で決定される第1の組の座標は、{v1jk}であり、第2のカメラシステムの座標系で決定される第2の組の座標は、{v2jk}であり、ここで、jは、画像1...mの中のj番目の画像の指標であり、kは、特徴1...nの中のk番目の特徴の指標である。いくつかの実施形態では、m≧1、およびn≧1、およびmn≧6である。一実施形態によれば、m=48およびn=6である。
さらに別の実施形態において、マッピングは、第2の座標系から第1の座標系に座標を変換する、変換マトリクスQであり、マッピングを見出すステップは、量
Figure 2014520351
を少なくともほぼ最小化するマトリクスQを見出すことを含み、式中、dは、距離関数であり、よって、
Figure 2014520351
であり、ここで、vおよびvは、それぞれ、第1および第2のカメラシステム座標系での座標のベクトルである。加えて、いくつかの実施形態において、Qは、4×4マトリクスであり、座標のベクトルは、次のような形態である
Figure 2014520351
。さらに、いくつかの実施形態において、距離関数dは、
Figure 2014520351
である。さらに、変換マトリクスQを見出すことは、最適化手法を使用することを含み得る。
さらに別の実施形態では、第1のカメラシステムの座標系と第2のカメラの座標系との間のマッピングを決定するための装置が提供される。第1および第2のカメラシステムは、少なくとも部分的に重なる視野を有し、第1および第2のカメラシステムは、固定された空間関係を有する。本装置は、第1および第2のカメラシステムの座標系の双方で、第1および第2のカメラシステムからの対応する対の画像で見出される1組の特徴の座標を決定し、それによって、第1のカメラシステムの座標系での第1の組の特徴の座標、および第2のカメラシステムの座標系での対応する第2の組の座標をもたらすための手段と、第1および第2の組の特徴の座標に基づいて、第1および第2のカメラシステムの座標系間のマッピングを決定するための手段と、を備える。いくつかの実施形態において、本装置はさらに、第1および第2のカメラシステムのそれぞれから、いくつかの対応する画像を取り込むための手段を備える。
別の実施形態では、ロボットの座標系とカメラシステムの座標系との間の変換を決定するための方法が提供され、ロボットは、それに載置されるカメラシステムを有する可動アームを含み、ロボットの座標系は、可動アームの位置を定義し、カメラシステムの座標系は、カメラシステムの視野内の目標の位置を定義する。本方法は、目標が、個々の画像取り込み場所でカメラシステムの視野内にあり、かつ、可動アームが、目標の周りを回転し、該目標に対して一方の画像取り込み場所からもう一方の画像取り込み場所に平行移動するように、目標の周りで、可動アームを複数の画像取り込み場所に位置付けることと、個々の画像取り込み場所で、カメラシステムを使用して目標の1組の画像を取り込み、ロボットの座標系で可動アームの位置を記録することと、カメラシステムの座標系で、1組の画像の中で識別される目標の1組の較正特徴の座標を決定することと、個々の画像取り込み場所での可動アームの位置および1組の較正特徴の座標に基づいて、ロボットの座標系とカメラシステムの座標系との間の変換を決定することと、を含む。
ロボットの座標系とカメラシステムの座標系との間の変換を決定するための方法のいくつかの実施形態において、可動アームを目標の周りで位置付けるステップ、目標の1組の画像の組を取り込むステップ、可動アームの位置を記録するステップ、1組の較正特徴の座標を決定するステップ、およびロボットの座標系とカメラシステムの座標系との間の変換を決定するステップは、自動的に行われる。さらに別の実施形態において、可動アームは、それに載置される毛嚢ユニット採取ツール、毛嚢ユニット植付ツール、または双方を有し、ロボットは、毛嚢ユニットを採取し、毛嚢ユニットを植付する、または双方を行うように構成される。
本方法のさらに別の実施形態ではさらに、カメラシステムの座標系で、身体表面の画像の中の毛嚢ユニットの場所を識別することと、カメラシステムの座標系の毛嚢ユニットの場所に基づいて、ロボットの座標系で、毛嚢ユニットの場所を決定し、ロボットの座標系とカメラシステムの座標系との間の変換を決定することと、毛嚢ユニット採取または植付ツールを使用して毛嚢ユニットを採取または植付することができるように、ロボットの座標系での毛嚢ユニットの場所に基づいて、毛嚢ユニットに隣接して可動アームを位置付けることと、を含む。
別の実施形態では、システムが提供される。本システムは、可動アームの位置を定義する座標系を有する可動アームと、可動アームに載置されるカメラシステムであって、1組の画像等の1つ以上の画像を取り込むように構成され、カメラシステムの視野内の目標の位置を定義する座標系を有する、カメラシステムと、可動アームに動作可能に連結されるコントローラであって、目標が、個々の画像取り込み場所でカメラシステムの視野内にあり、かつ、可動アームが、目標の周りを回転し、該目標に対して一方の画像取り込み場所からもう一方の画像取り込み場所に平行移動するように、目標の周りで、可動アームを複数の画像取り込み場所に位置付けるように構成される、コントローラと、を備える。本システムはさらに、メモリと、カメラシステム、コントローラ、およびメモリに動作可能に連結されるプロセッサとを備える。プロセッサは、個々の画像取り込み場所で、カメラシステムに、カメラシステムを使用して目標の1組の画像を取り込ませ、個々の画像取り込み場所で、カメラシステムの座標系で1組の画像の中で識別される目標の1組の較正特徴の座標を決定させるように構成される。プロセッサはさらに、可動アームの座標系で可動アームの位置をメモリに記憶し、個々の画像取り込み場所での可動アームの位置および1組の較正特徴の座標に基づいて、可動アームの座標系とカメラシステムの座標系との間の変換を決定するように構成される。ある実施形態において、プロセッサは、可動アームの座標系で可動アームの位置を決定するために、個々の画像取り込み場所で、コントローラに質問し得、プロセッサは、個々の画像取り込み場所で、カメラシステムの座標系で1組の画像の中で識別される目標の1組の較正特徴の座標を決定するために、カメラシステムに問い合わせ得る。さらに、コントローラは、目標の周りで可動アームを位置付け得、プロセッサは、ユーザの介入を伴わずに自動的に、カメラシステムに、目標の1組の画像を取り込ませ、1組の較正特徴の座標を決定させ、可動アームの位置を記憶させ、また、可動アームの座標系とカメラシステムの座標系との間の変換を決定させ得る。
システムのさらに別の実施形態において、可動アームは、それに載置される毛嚢ユニット採取ツール、毛嚢ユニット植付ツール、または双方を有し、システムは、毛嚢ユニットを採取し、毛嚢ユニットを植付する、または双方を行うように構成されるロボットシステムを備える。いくつかの実施形態において、プロセッサはさらに、カメラシステムに、身体表面の画像を取り込ませ、カメラシステムの座標系で、身体表面の画像の中の毛嚢ユニットの場所を識別させ、可動アームの座標系で、カメラシステムの座標系での毛嚢ユニットの場所に基づいて、毛嚢ユニットの場所を決定させ、可動アームの座標系とカメラシステムの座標系との間の変換を決定させ、また、コントローラに、毛嚢ユニット採取または植付ツールを使用して毛嚢ユニットを採取または植付することができるように、毛嚢ユニットの場所に基づいて、可動アームの座標系で、毛嚢ユニットに隣接して可動アームを位置付けさせるように構成される。
さらに別の実施形態において、目標の位置は、固定され、可動アームの座標系とカメラシステムの座標系との間の変換は、可動アームの座標系とカメラシステムの座標系との間の変換のための値を反復的に選択し、(A)変換のための選択された値、可動アームの位置、および一方の画像取り込み場所での較正特徴の座標の積と、(B)変換のための選択された値、可動アームの位置、およびもう一方の画像取り込み場所での対応する較正特徴の座標の積とを比較して、(A)と(B)との間の差を最小化する、変換のための値を決定することによって(例えば、プロセッサによって)決定される。
さらに別の実施形態において、可動アームの座標系とカメラシステムの座標系との間の変換は、変換マトリクスTを含み、変換は、量
Figure 2014520351
を少なくともほぼ最小化する変換マトリクスTを見出すことによって、(例えば、プロセッサによって)決定され、式中、iおよびjは、個々の画像取り込み場所の異なるインスタンスに対応し、iは、2からmの範囲の値を有し、jは、1から(i−1)の範囲の値を有し、kは、1組の較正特徴の中の個々の較正特徴に対応し、1からnの範囲の値を有し、Rは、個々の画像取り込み場所iでの可動アームの位置であり、vikは、カメラシステムの座標系で決定される、i番目の画像取り込み場所でのk番目の較正特徴の座標であり、Rは、個々の画像取り込み場所jでの可動アームの位置であり、vjkは、カメラシステムの座標系で決定される、j番目の画像取り込み場所でのk番目の較正特徴の座標である。
特定の実施形態において、可動アームの位置は、
Figure 2014520351
の形態の可動アーム位置変換マトリクスRを含み得、式中、サブマトリクス
Figure 2014520351
は、可動アームの配向を基準配向と関連付ける、正規直交回転を表し、サブマトリクス
Figure 2014520351
は、可動アームの位置と基準位置との間のオフセットを表し、個々の較正特徴の座標は、
Figure 2014520351
の形態の配列を含み得、変換マトリクスTは、
Figure 2014520351
の形態のマトリクスを含み得、サブマトリクス
Figure 2014520351
は、可動アームの座標系とカメラシステムの座標系との間の回転関係を表し、3つの回転オフセットα、β、γから導き出され、サブマトリクス
Figure 2014520351
は、可動アームの座標系とカメラシステムの座標系との間の平行移動オフセットx、y、およびzを表す。
変換マトリクスTは、6つの独立した値を含み得、そのうちの3つは、平行移動オフセットx、y、およびzであり、他の3つは、回転オフセットα、β、およびγであり、6つの独立した値は、最適化アルゴリズムを使用して決定される。さらに別の実施形態において、ロボットの座標系とカメラシステムの座標系との間の変換は、例えば最急降下最適化アルゴリズム、および/またはシミュレーテッドアニーリングアルゴリズム、および/または最適適合アルゴリズムを含む、最適化アルゴリズムを使用して、(例えば、プロセッサによって)決定される。個々の画像取り込み場所は、目標とほぼ一致する中心点を有する球体の表面上にほぼ存在し得、可動アームは、一方の画像取り込み場所からもう一方の画像取り込み場所に、目標に対して半径方向に移動し得る。
一実施形態において、カメラシステムは、可動アームに載置される第1および第2のステレオカメラ対のそれぞれを備える、第1のステレオカメラ対は、第1の視野の画像を取得するように合焦および構成され、第2のステレオカメラ対は、第1の視野よりも大幅に狭い、第2の視野の画像を取得するように合焦および構成され、第1および第2の視野は、少なくとも部分的に重なり、可動アームの座標系とカメラシステムの座標系との間の変換は、最適化アルゴリズムを使用して、第1のステレオカメラ対の第1の変換を決定し、最適化アルゴリズムを使用して、第2のステレオカメラ対の第2の変換を決定することによって、(例えば、プロセッサによって)決定される。さらに、第1のステレオカメラ対の座標系での座標を第2のステレオカメラ対の座標系にマップする、変換マトリクスQが、(例えば、プロセッサによって)決定され得る。
別の実施形態では、ロボットの座標系とカメラシステムの座標系との間の変換を決定するためのシステムが提供され、ロボットは、それに載置されるカメラシステムを有する可動アームを含み、ロボットの座標系は、可動アームの位置を定義し、カメラシステムの座標系は、カメラシステムの視野内の目標の位置を定義する。本システムは、目標が、個々の画像取り込み場所でカメラシステムの視野内にあり、かつ、可動アームが、目標の周りを回転し、該目標に対して一方の画像取り込み場所からもう一方の画像取り込み場所に平行移動するように、目標の周りで、可動アームを複数の画像取り込み場所に位置付けるための手段と、個々の画像取り込み場所で、カメラシステムを使用して目標の1組の画像を取り込むための手段と、ロボットの座標系で、可動アームの位置を記録するための手段と、カメラシステムの座標系で、1組の画像の組の中で識別される目標の1組の較正特徴の座標を決定するための手段と、個々の画像取り込み場所での可動アームの位置および1組の較正特徴の座標に基づいて、ロボットの座標系とカメラシステムの座標系との間の変換を決定するための手段と、を備える。
別の実施形態では、そこに記憶される命令を有するコンピュータが読み出し可能な媒体が提供される。本命令は、目標が、個々の画像取り込み場所で可動アームに載置されるカメラシステムの視野内にあり、かつ、可動アームが、目標の周りを回転し、該目標に対して一方の画像取り込み場所からもう一方の画像取り込み場所に平行移動するように、ロボットの可動アームを複数の画像取り込み場所付近に位置付けさせるための命令と、カメラシステムに、個々の画像取り込み場所で目標の1組の画像を取り込ませるための命令と、ロボットの座標系で、可動アームの位置を記録するための命令と、カメラシステムの座標系で、1組の画像の中で識別される目標の1組の較正特徴の座標を決定するための命令と、個々の画像取り込み場所での可動アームの位置および1組の較正特徴の座標に基づいて、ロボットの座標系とカメラシステムの座標系との間の変換を決定するための命令と、を含む。
別の実施形態では、ロボットの座標系で、ロボットのアームから伸びるツールの場所を特定するための方法が提供される。本方法は、画像データから、カメラシステムの座標系で、ツールの場所を決定することと、所定の変換を使用して、カメラシステムの座標系からロボットの座標系にツールの場所を変換させることと、を含む。
いくつかの実施形態において、本方法は、画像データを取り込むことを含む。さらに別の実施形態において、画像データは、1組の画像を含み、決定ステップは、画像データから、カメラシステムの視野内のツールの側部に対応する、第1および第2の外周側壁エッジセグメントを検出することと、検出された第1および第2の外周側壁エッジセグメント間の平均に基づいて、中心線を計算することと、カメラシステムの座標系で、中心線に沿って、ツールの遠位端部の位置の場所を特定することと、を含む。いくつかの実施形態において、中心線は、第1および第2の外周側壁エッジセグメント間に形成される角度を二等分する。特定の実施形態において、ツールは、毛嚢採取を行うための針またはパンチを備え得る。
特定の実施形態において、検出ステップは、第1および第2の組のデータ遷移を確立するために、画像データの個々の横列での第1および第2のデータ遷移の場所を特定することと、第1および第2の組のデータ遷移のそれぞれから回帰を行うことによって、第1および第2の外周側壁エッジセグメントを計算することと、を含み、場所を特定するステップは、中心線に沿った画像データの中の遠位端部のデータ遷移の場所を特定し、よって、遠位端部のデータ遷移の場所が、カメラシステムの座標系で、遠位端部の空間位置を表す。
異なる実施形態では、単一の針、パンチ、もしくはカニューレを含む種々のツール、または種々の構成のツールアセンブリが使用され得る。いくつかの実施形態において、第1および第2のデータ遷移は、画像データのコントラスト、強度、色、または輝度の遷移のうちの1つ以上を含み得、検出ステップはさらに、ツールの遠位端部が、画像データ内の固有の値、例えば画像データ内の固有の色として表されるように、画像データを処理することを含み得る。いくつかの実施形態において、検出ステップはさらに、遠位端部が、第1の固有の色によって表され、背景特徴が、第2の固有の色によって表されるように、画像データを2値化することを含み得る。いくつかの実施形態において、回帰は、第1および第2の組のデータ遷移のそれぞれをほぼ接続する、最良適合アルゴリズムまたは最小二乗適合を含む。
別の実施形態では、ロボットの座標系で、ロボットのアームから伸びるツールの場所を特定するように構成される、システムが提供される。本システムは、画像データから、カメラシステムの座標系で、ツールの場所を決定し、所定の変換を使用して、カメラシステムの座標系からロボットの座標系にツールの場所を変換させるように構成される、1つ以上のプロセッサを備え得る。
いくつかの実施形態において、本システムは、座標系を有するカメラシステムを含み、カメラシステムは、画像データを取り込むように構成される。さらに別の実施形態において、画像データは、1対の画像含み、1つ以上のプロセッサはさらに、画像データから、カメラシステムの視野内のツールの側部に対応する、第1および第2の外周側壁エッジセグメントを検出し、検出された第1および第2の外周側壁エッジセグメント間の平均に基づいて、中心線を計算し、そして、カメラシステムの座標系で、中心線に沿って、ツールの遠位端部の空間位置の場所を特定することによって場所を決定するように構成される。いくつかの実施形態において、中心線は、第1および第2の外周側壁エッジセグメント間に形成される角度を二等分する。
いくつかの実施形態において、1つ以上のプロセッサはさらに、第1および第2の組のデータ遷移を確立するために、画像データの個々の横列で、第1および第2のデータ遷移の場所を特定し、第1および第2の組のデータ遷移のそれぞれから回帰を行うことによって、第1および第2の外周側壁エッジセグメントを計算することによって、ツールの第1および第2の外周側壁エッジセグメントを検出し、また、遠位端部のデータ遷移の場所が、カメラシステムの座標系で、遠位端部の空間位置を表すように、中心線に沿った画像データの中の遠位端部のデータ遷移の場所を特定することによって、ツールの遠位端部の位置の場所を特定するように構成される。
いくつかの実施形態において、1つ以上のプロセッサはさらに、第1および第2の組のデータ遷移から、所定の閾値を超える第1および第2の初期外周側壁エッジセグメントのそれぞれからの距離を有する、第1または第2のデータ遷移を除外することによって、ツールの第1および第2の外周側壁エッジセグメントを検出するように構成され得る。ある実施形態において、1つ以上のプロセッサはさらに、第1および第2の組のデータ遷移のそれぞれから回帰を行うことによって、第1および第2の外周側壁エッジセグメントを再計算するように構成され得、遠位端部のデータ遷移は、採取パンチ等のツールを(例えば、ほぼ所定の皮膚表面距離で)異なる位置まで伸ばす、または縮めるときに、該ツールの遠位端部に対応する。
別の実施形態では、ロボットの座標系で、ロボットのアームから伸びるツールの場所を特定するためのシステムが提供される。本システムは、画像データから、カメラシステムの座標系で、ツールの場所を決定するための手段と、所定の変換を使用して、カメラシステムの座標系からロボットの座標系にツールの場所を変換させるための手段とを備える。システムはまた、画像データを取り込むための手段も含み得る。
別の実施形態では、カメラシステムのカメラの相対位置および倍率を識別するための方法が提供される。本方法は、個々のカメラが少なくとも1つの基準点を観察し得るように、基準点を持つプラカードをカメラシステムの視野の中に配置することと、カメラシステムの個々のカメラから基準点を表す画像データを受け取ることと、画像データの中の基準点の表現に基づいて個々のカメラを特徴付けることとを含む。
図1は、一実施形態による、目標とする場所にエンドエフェクタツールアセンブリを位置付けおよび配向するための可動アームを含む、画像誘導ロボットシステムの図である。 図2は、図1の可動アームに固定され、アームおよび取り付けられたエンドエフェクタツールアセンブリの運動を誘導するための複数の視野から画像データを取り込むために使用される、第1および第2のステレオカメラ対を示す拡大図である。 図3は、一実施形態による、毛嚢ユニットの採取、受容部位の切開、および移植辺の配置のためのエンドエフェクタツールの断面図である。 図4Aは、操作可能なシステムの構成要素、およびツールフレームと固定されたワールド原点フレームとの間の関係を図示する、画像誘導ロボットシステムの図である。 図4Bは、第1および第2のカメラシステムの座標系とロボットの座標系との間の関係を図示する、ブロック図である。 図5は、一実施形態による、ロボット毛髪移植機械の一部として実現され得る、機械視覚サブシステムのブロック図である。 図6は、別の実施形態による、ロボット毛髪移植機械の一部として実現され得る、機械視覚サブシステムのブロック図である。 図7A−7Cは、種々の例示的な較正特徴を図示する図である。 図8は、一実施形態による、ロボットの座標系とカメラの座標系との間の変換を決定するための方法のフロー図である。 図9は、毛髪摘出/植付手順中に、エンドエフェクタツールアセンブリを位置付けるために、図8で図示される方法によって決定される変換を使用するための方法の実施例のフロー図である。 図10Aは、一実施形態による、カメラシステム間の座標変換を決定するための方法のフローチャートである。 図10Bは、第1および第2のカメラシステム間の座標変換、第1のカメラシステムの座標系とロボットの座標系との間の座標変換、および第2のカメラシステムの座標系とロボットの座標系との間の座標変換を図示する図である。 図11は、一実施形態による、カメラシステム間で座標を変換するための方法のフローチャートである。 図12は、例えば複数のカメラシステムを有し、機械視覚動作を使用する画像誘導ロボットシステムを使用して場所を特定され得る特徴を図示する、エンドエフェクタツールアセンブリの実施例の図である。 図13は、機械視覚動作を使用して、場所まで伸ばした、エンドエフェクタの針先端部の画像である。 図14は、一実施形態による、ロボットの座標系でエンドエフェクタツールの場所を特定するための方法のフロー図である。 図15は、一実施形態による、ツール、例えば図12で示されるツールの特徴を検出し、場所を特定することによって、カメラの座標系でエンドエフェクタツールの場所を決定するための方法のフロー図である。 図16は、一実施形態による、データ遷移の場所を特定し、回帰を計算することによって、カメラの座標系で、エンドエフェクタツールの側壁エッジセグメントを検出するための方法のフロー図である。 図17A及び17Bは、それぞれ、伸ばしたエンドエフェクタツールの未処理画像および2値化画像である。 図18A及び18Bは、それぞれ、縮めたエンドエフェクタツールの未処理画像および2値化画像である。 図19は、エンドエフェクタツールの側壁エッジセグメントを検出するための、別の方法のフロー図である。 図20は、一実施形態による、伸ばした、および縮めた状態でのツールの画像データを使用することによって、エンドエフェクタツールの遠位端部の場所を特定するための、方法のフロー図である。 図21A及び21Bは、複数のカメラの相対位置および倍率を識別するための特徴を持つプラカードの図である。 図22は、複数のカメラの相対位置および倍率を識別するための、カメラシステムの視野の中に位置付けられるプラカードの斜視図である。 図23は、一実施形態による、カメラの倍率を識別するための、システムの図である。 図24は、一実施形態による、カメラの相対位置を識別するための、システムの図である。 図25は、別の実施形態による、カメラの相対位置を識別するための、システムの図である。 図26は、一実施形態による、カメラシステムにおける複数のカメラの相対位置および倍率を識別し、構成するための、ソフトウェアシステムの画面ショットである。
上で列挙した図面を参照して、この本項は、特定の実施形態、ならびにそれらの詳細な構造および操作を説明する。本明細書で説明される実施形態は、単なる例示の目的で記載されており、限定するものではない。当業者は、本明細書の教示に照らして、例えば、他の実施形態が可能であること、本明細書で説明される例示的な実施形態に変更を行うことができ、また、説明される実施形態を構成する構成要素、部品、またはステップの均等物があり得ることを認識するであろう。
明確さおよび簡潔さのために、ある実施形態の構成要素またはステップのある態様は、過度の詳細を伴わずに表されており、そのような詳細は、本明細書の教示に照らして当業者に明らかになるであろうし、および/またはそのような詳細は、実施形態のより関連する態様の理解を不明瞭にするであろう。
本明細書で説明される方法または手順における1つ以上のステップは、人手による入力を必要とするいくつかの部分を伴って、自動化または自律化され得る。自動化システムは、オンスイッチを起動させる、または操作をスケジュールする等のいくつかのオペレータ相互作用、または手持ち式ツールが使用されるが、システムのいくつかの機構が機能を実行するために自律的に、例えば人間の入力を伴わずに機能するシステムを含み得る。本明細書で説明される自動化システムのいくつかはまた、ロボット的に支援され得るか、またはコンピュータ/ソフトウェア/機械の命令で制御され得る。
当業者が本開示に照らして認識するように、ある実施形態は、以下のうちのいくつかまたは全てを含む利点を達成することが可能であり得る。(1)ロボットシステムの可動アームに載置される複数のカメラ対の場所を、ロボットシステム上の載置点に関連付けるカメラ較正を自動的に計算する、システムおよび方法を提供すること、(2)ロボットシステムが、目標の場所の上側に1つ以上のカメラ対を正確に位置付けることを可能にする、システムおよび方法を提供すること、(3)ロボットアームに対してカメラシステムを較正するために、および/またはその較正を検証するために、ロボットアームの位置を自動的に移動させる、システムおよび方法を提供すること、(4)いかなる大幅なユーザ相互作用も伴わずに1回のボタン押下での較正を可能にする、システムおよび方法を提供すること(例えば、ロボットツールが、十分な程度の精度で製造され/組み立てられていれば、3次元多重視野視覚システムが、予め定義された大まかなロボットの場所に基づいて、いかなる大幅なユーザ相互作用も伴わずに1回のボタン押下で較正することができる)、(5)産業用ロボットを含む種々の応用例において、地点を較正する、および/または示すための多くの処理時間を節約する、システムおよび方法を提供すること、(6)複数のカメラ対について共通の座標系を使用する、システムおよび方法を提供すること、(7)複数対のステレオカメラの使用を単純化する、システムおよび方法を提供すること、(8)ロボットフランジから、取り囲む組織から毛嚢を切開するために使用されるパンチの先端部等のツール先端部までのオフセットを自動的に計算する、システムおよび方法を提供すること、および(9)ロボットシステムが、そのツール先端部の周りで正確に位置決めすること、および回転することを可能にする、システムおよび方法を提供すること。
図1は、エンドエフェクタツールアセンブリ120を身体表面上の目標場所に位置付け、配向するためのプログラム可能な可動アーム110を含む、例示的な画像誘導ロボットシステム100を示す。ロボットアームは、6つの自由度(x、y、z、α、β、およびγ)で、遠位端部プレートまたは「ロボットフランジ」(例えば、図4Aのフランジ446を参照されたい)の運動を正確に制御することを容易にする。高度な繰り返し性および精度(例えば、20ミクロンまで)による遠位端部プレートの運動は、可動アーム110のアーム関節112のそれぞれに位置する、複数対のモーターおよびエンコーダによって可能になる。可動アーム110の近位基部114は、テーブル面160に載置され得る。
種々のエンドエフェクタツールアセンブリが、人間または動物の患者に対して種々の手順を行うために、遠位端部プレートに取り付けられ得る。例えば、いくつかのエンドエフェクタの実施形態は、取り付けられるツール(例えば、針)またはツールアセンブリを患者の所望の場所に迅速かつ正確に位置付けるためにロボットアームの能力を利用する、診断または治療的医療手順を行い得る。加えて、種々のエンドエフェクタアセンブリは、それら自体が、移動する制御可能な部品を含み得る。1つの例(図示せず)において、エンドエフェクタツールアセンブリは、真皮を通して、正確に目標を定めて反復的に注射液を送達するために使用される、往復針を含む。図1および図2に示される実施例において、エンドエフェクタツールアセンブリ120は、人間の頭皮上の毛嚢(または毛嚢ユニット)を採取および植付するように設計された、3つの部分から成るツールを含む。エンドエフェクタツールアセンブリ120の実施例の追加的な詳細は、図3に関して説明される。
アーム110の運動は、可動アーム110の遠位端部に載置され得る1つ以上のカメラシステム140によって取得される画像データから導き出される制御信号に応じて、システムコントローラ(例えば、図4Aのロボットコントローラ430を参照されたい)によって管理される。1つ以上のカメラシステム140が、可動アーム110に直接的に取り付けもしくは連結され得るか、またはエンドエフェクタツールアセンブリに取り付けられ得、それが、可動アーム110に直接的または間接的に取り付けられる。カメラシステム140は、単一のカメラ、1対のステレオカメラ150、または2対以上のステレオカメラを備え得る。好ましい実施形態によれば、異なる(例えば、より広い、およびより狭い)視野を取り込むために、2対のステレオカメラ210および220(図2)が使用される。下の説明は、毛髪移植手順を参照して行われる。当業者には、本明細書で説明されるシステムおよび方法が、種々の医療用および工業用アプリケーションを含む、他のタイプのシステムおよびアプリケーションに同様に適用されることが理解されるであろう。
ステレオカメラ対210および220は、ロボットシステム100が、切開のために毛髪を識別および追跡することを可能にする、位置および配向情報を提供する。例えば、ステレオカメラ対210は、毛嚢の詳細な視野を提供する(例えば、詳細な視野は、切開のために個々の毛嚢の場所を特定し、追跡するために使用され得る)、比較的高倍率のカメラを含み得るが、ステレオカメラ対220は、基準点(例えば、図26の基準点2622を参照されたい)を追跡し、採取間隔および方向を計画するために使用される採取領域の概要を提供する、比較的低倍率のカメラを含む。一実施形態によれば、ステレオカメラ対210は、約2.5cmの対角視野を伴う左右の高倍率カメラを備え、ステレオカメラ対220は、約5cmの対角視野を伴う左右の低倍率カメラを備える。各ステレオカメラ対210および220は、頭皮領域の左右の視野を提供し、これらは、個々の毛嚢の3次元位置および配向を決定するために使用される。なおさらなる実施形態では、第1の(例えば、広い)視野を取り込むために単一のカメラが使用され得、第2の(例えば、狭い)視野を取り込むために第2のカメラが使用され得る。
毛髪移植は、概して、3つのステップ、すなわち、毛嚢ユニットの採取、受容部位の切開、および移植片の配置を含む。いくつかの状況において、手術の効率は、これらの機能が単一のツールで達成される場合に高めることができる。図3は、いくつかの実施形態において利用され得る3つの機能を達成するための3つの部分から成る、ツール300の実施例を示す。図3の実施例で示される3つの同軸要素は、受容部位の切開を行うために使用される鋭利なベベル切断を伴う、外側カニューレ(「穿刺針」)310、外側針の内側を移動するように位置付けられ得、また、ドナー移植辺の周囲を切開するために使用される、第2のカニューレ(「コアリング針」)320、および第2のカニューレ320の内側を移動するように位置付けられ得、また、受容部位で適切な深さに移植片を位置付けるために使用される、閉塞具330である。採取の場合は、第2のカニューレ320が、取り囲む組織から毛嚢ユニットを分離するための所望の深さまで進行しながら、(例えば、回転によって、または素早い突き刺しによって)組織を切断し得る。次いで、あるときには真空の援助によって、移植片がこのカニューレ320内に取り込まれ、引き出される。受容部位切開の場合は、外側カニューレ310が、組織の中へ進行し、所望の方向および深さによって所望の場所で切開を行うために使用される。閉塞具330は、カニューレ310が縮められる間、所望の深さで移植片を保持するために使用され得る。独立した採取および植付針/パンチを含む種々の異なるツールが、種々の実施形態において使用され、採取および/または植付の異なる方法を適用し得ることを理解されたい。
図4Aは、毛嚢ユニットを採取および/または頭皮等の身体表面の中へ植付するためのロボットシステム400の実施例を図示する。システム400は、採取または植付ツール410が連結される可動アーム405を含む。ツール410は、図1〜図3を参照して説明されるエンドエフェクタツールアセンブリ120に類似するまたは同一のツールを含み得る。ツール410は、好ましくは、可動アーム405の遠位端部プレートまたはフランジ446に載置されるが、図4Aでは、ロボットフレームの相対配向または座標系448を図示するために、可動アーム405から取り外されて図示される。ツール410の動作先端部の複数の方向での微細な運動を可能にするために、種々のモーターおよび他の運動デバイスが組み込まれ得る。ロボットシステム400はさらに、カメラシステムまたは画像取得デバイス415(例えば、図1および図2を参照して説明されるカメラシステム140、210、および220に類似するまたは同一のカメラシステム)を含み、それは、固定位置で載置されるか、または可動アーム405または他の制御可能な運動デバイスに(直接的または間接的に)連結され得る。ツール410の動作先端部は、身体表面420の上に位置付けられて示されており、この場合では、その上に毛嚢を有する患者の頭皮の一部である。
ロボットシステム400は、カメラシステム415、ロボットコントローラ430、およびメモリ435に動作可能に連結されるように構成される、プロセッサ425を含む。プロセッサ425は、カメラシステム415から得られた画像を処理するための、画像プロセッサ426を備える。画像プロセッサ426は、別個のデバイスであり得、またはプロセッサ425の一部として組み込まれ得る。カメラシステム415によって取得される画像データは、画像プロセッサ426、プロセッサ425、または双方を介して処理され、プロセッサ425は、アーム405の運動を指令するための制御信号をロボットコントローラ430に提供する。具体的には、画像は、所望の倍率(例えば、一実施形態において、6倍〜10倍の範囲)およびデューティサイクル(例えば、一実施形態において、30ヘルツ)で、カメラシステム415から取得される。取得した画像は、対象となる物体の位置(複数可)および配向(複数可)を識別するために、メモリ435に記憶されるソフトウェアで実現される画像セグメント化手法を使用してデジタル化される。Bodduluri他の米国特許出願公開第2007/0106306号は、参照によりその全体が本明細書に組み込まれ、1つ以上のカメラによって取得される処理された画像に少なくとも部分的に基づいて可動アームを位置付ける、(例えば、毛嚢ユニットを採取または植付するための)自動化システムのさらなる詳細を説明する。
プロセッサ425は、例えばコントローラ430を通して作用する、可動アーム405およびツール410を含む、ロボットシステムの種々の運動デバイスに指示する。コントローラ430は、可動アーム405に動作可能に連結され得、また、カメラシステム415によって取得される画像またはデータに基づく動きを含む、アーム405の動きを制御するように構成され得る。あるいは、コントローラ430は、プロセッサ425の一部として組み込まれ得、よって、カメラシステム415によって取得される画像またはデータに基づくものを含む、アセンブリの全ての種々のツール、可動アーム405、および任意の他の可動部品の全ての運動の全ての処理および制御が、1箇所に集約される。
可動アーム405は、1つ以上のモーターと関連付けさせた6つの回転軸440〜445(例えば、1つのモーターが、1つの軸または複数の軸の周りで回転を生じさせ得るか、または複数のモーターが互いに機能して単一の軸の周りで回転を生じさせ得る)と、およびエンコーダとを含む。可動アーム405は、6つよりも少ないまたは多い回転軸を含み得る。プロセッサ425から受け取られる命令に応じて、コントローラ430は、1つ以上のモーターに、ツール410を所望の位置および配向に協働的に移動させる、1つ以上の制御信号を生成する。換言すれば、コントローラ430は、可動アーム405の回転軸440〜445のうちの1つ以上の周りでの該可動アームの回転を調整して、それに載置されるツール410を有する遠位端部プレートまたはフランジ446を、任意のワールド原点フレームまたは座標系447に対して所望の位置(x、y、z、α、β、およびγ)に移動させる。
オイラー角α、β、およびγは、ヨー、ピッチ、およびロールに概念が類似しており、ワールド原点フレーム447に対する回転の組み合わせとして、任意のフレームまたは座標系の空間的配向を表すのを容易にする。例えば、図4Aは、フランジ446に対して直角のz軸を伴うフランジ446の中心点でx、y、z座標原点を有する、ロボットフレームまたは座標系448を図示する。図4Aで図示されるワールド原点フレーム447は、載置面に対して直角のz軸(例えば、ワールド原点フレーム447のz軸は、「真上」を指す)を伴う可動アーム405の基部の中心点に、x、y、z座標原点を有する。図4において、ワールド原点フレーム447は、可動アーム405の基部の中心点に図示されているが、ワールド原点フレーム447は、任意の固定場所に位置し得る。ワールド原点フレーム447に対するロボットフレーム448の配向を説明するために、ワールド原点フレーム447およびロボットフレーム448のx−y座標面の交差点として、交点線が定義され得る。換言すれば、交点線は、ワールド原点フレーム447およびロボットフレーム448のz軸に対して垂直な線である。よって、角度αは、ワールド原点フレーム447のx軸と交点線との間の角度として定義することができ、角度βは、ワールド原点フレーム447およびロボットフレーム448のz軸間の角度として定義することができ、そして、角度γは、交点線とロボットフレーム448のx軸との間の角度として定義することができる。
一実施形態によれば、ワールド原点フレーム447に対する、図4で図示されるロボットフレーム448等の、可動アーム405の位置は、式1で示される形態のロボット位置変換マトリクスRによって与えられる。ロボット位置変換マトリクスRは、ワールド原点フレーム447からロボットフレーム448に伸びる矢印によって、図4Aで概念的に図示される。
Figure 2014520351
式1
式1において、左上の3×3の回転サブマトリクス(例えば、サブマトリクスr00からr22まで)は、所与の位置(例えば、図4Aで図示されるロボットフレーム448)での可動アーム405の配向を、ワールド原点フレーム447等の基準配向と関連付ける、正規直交回転を表し、最右の縦列の最初の3つの要素(例えば、サブマトリクスx、y、z)は、可動アーム405の位置と基準位置との間の3次元オフセットを表す。回転サブマトリクス(例えば、要素r00からr22まで)の各要素の値は、それぞれ、z軸、y軸およびz軸の周りでのα、βおよびγの回転等によるオイラー角α、β、およびγから導き出される。換言すれば、回転サブマトリクスの3つの要素(例えば、角度α、β、およびγ)だけが独立しており、回転サブマトリクスの要素r00からr22は、角度α、β、およびγの種々のサインおよびコサインから確立され、これは、当業者に知られている。オイラー角α、β、およびγから回転サブマトリクスを生成することに関するさらなる詳細は、Richard Paul,MIT Press,1981による「Robot Manipulators:Mathematics,Programming and Control」からの第1章「Homogeneous Transformations」で見出すことができ、参照によりその全体が本明細書に組み込まれる。コントローラ430は、好ましくは、可動アーム405(例えば、図4Aで図示されるロボットフレーム448)の現在位置を、メモリ435等のコントローラメモリまたは別のメモリに記憶する。したがって、プロセッサ425は、ロボット位置変換マトリクスRによって定義されるように、可動アーム405の現在位置を決定するために、ルックアップを行い得る(例えば、コントローラ430またはメモリ435に質問または問い合わせ得る)。
ロボットシステム400はさらに、モニタ450、キーボード455、およびマウス460等の、任意の数の入力または出力デバイスを含み得る。身体表面420の拡大画像452は、撮像ディスプレイまたはモニタ450上に示される。加えて、システム400は、毛嚢の採取および/または植付において、または、毛髪治療計画において有用な他のツール、デバイス、および構成要素を含み得る。システムの種々の部品は、オペレータが、必要に応じて、状態を監視し、命令を提供することを可能にする。例えば、システム400はさらに、画像データを受け取るように適合されるインターフェース(図示せず)を備え得る。プロセッサ425は、インターフェースを介してカメラシステム415と相互作用し得る。インターフェースは、ハードウェアポート、ケーブル、リード、および他のデータ伝送手段を含み得、またはコンピュータプログラムを備え得る。
図4Aで図示されるカメラシステム415のいくつかの限定的でない例としては、任意の市販のカメラ等の、1つ以上のカメラが挙げられる。例示的な画像取得デバイスまたは撮像デバイスは、例えば、可動アーム405によって、または任意の他の機構もしくは手段によって保持され得る。当然、種々の画像取得デバイスまたは複数のデバイスの組み合わせが、本明細書で説明される実施例のいずれかとともに使用することができる。例えば、3D視野は、複数のカメラを使用すること、またはレーザー距離計等の外部センサと対にした単一のカメラを使用することが挙げられるが、それらに限定されない、複数の方法で達成することができる。使用するカメラは、異なるサイズ、色/グレースケール、可視光/IR、またはUV等の種々の組み合わせであり得る。カメラシステム415は、好ましくは、静止画像を撮影するデバイスを備えるが、カメラシステム415はまた、リアルタイムの撮像が可能なデバイス(例えば、連続的にリアルタイムまたはビデオで情報をストリーミングすることが可能なウェブカム)も有し得、および/またはカメラシステム415はまた、ビデオ録画能力(例えば、カムコーダー)も有し得る。ステレオまたは多重視野デバイスは、本開示において有用であるが、そのような幾何学形状または構成を利用する必要はなく、本開示は、そのように限定されない。同様に、カメラシステム415は、デジタルまたはアナログであり得る。例えば、カメラシステム415は、初期画像を取得するアナログTVカメラとすることができ、該画像は次いで、本開示の方法でのさらなる使用のために、(例えば、民生フレームグラバのようなアナログ−デジタルデバイスを介して)デジタル画像に処理される。カメラシステム415は、撮像動作を制御するために、および画像データを処理するために、プロセッサ425に連結され得る。
プロセッサ425は、好ましくは、例えばコンピュータに組み込まれ得る、データ処理デバイスとして動作する。プロセッサ425は、中央処理ユニットまたは並列プロセッサ、入力/出力インターフェース、プログラムを伴うメモリを含み得、ここで、全ての構成要素は、バスによって接続され得る。さらに、コンピュータは、入力デバイス、ディスプレイを含み得、また、1つ以上の二次記憶デバイスも含み得る。バスは、コンピュータに内蔵され得、また、キーボードまたは入力デバイスを受け取るためのアダプタを含み得、または外部接続部を含み得る。
プロセッサ425は、図8、図9、図10A、図11、図14、図15、図16、図19、および図20の方法800、900、1000、1100、1400、1500、1600、1900、および2000の1つ以上等の、所定の操作および方法を含むように構成され得る、プログラムを実行し得る。プロセッサ425は、所定の操作を行うためのプログラムを含む少なくとも1つの一連のコード命令がその中に記憶され得る、メモリ435にアクセスし得る。メモリ435およびプログラムは、コンピュータ内に位置し得るか、またはその外部に位置し得る。一例であり、限定するものではないが、好適な画像プロセッサ426は、1つ以上のプロセッサまたは他のタイプのデバイスを含む、デジタル処理システムであり得る。例えば、プロセッサおよび/または画像プロセッサは、コントローラまたは任意のタイプのパーソナルコンピュータ(PC)であり得る。あるいは、プロセッサは、特定用途向け集積回路(ASIC)またはフィールドプログラマブルゲートアレイ(FPGA)を備え得る。当業者には、本開示とともに使用するプロセッサまたは画像プロセッサが、種々の画像処理手法、例えばセグメント化、エッジ検出、物体認識、および選択を行うようにプログラムおよび構成されることが理解されるであろう。これらの手法は、一般に知られており、したがって、ここでは別に説明されない。
本明細書で説明される方法は、種々の汎用または特定用途のコンピュータシステム上に実現され得る。特定の実施形態において、本出願の方法は、特異的に構成されたパーソナルコンピュータまたはワークステーション上に実現され得る。他の実施形態において、本方法は、ネットワークに接続されるものを含む、汎用ワークステーション上に実現され得る。代替的に、または加えて、本開示の方法は、少なくとも部分的に、ネットワークデバイスまたは汎用コンピューティングデバイスのためのカード上に実現され得る。プロセッサ425および/または画像プロセッサ426はまた、当技術分野で一般に知られているメモリ、記憶デバイス、および他の構成要素も含み得、したがって、それらは、ここで詳細に説明される必要はない。画像プロセッサ426は、毛髪を採取、植付、または移植するためのシステムが挙げられるが、それらに限定されない、種々の人手による、部分的に自動化された、および完全に自動化された(ロボットを含む)、毛髪移植システムおよびデバイスと併せて使用することができる。
撮像表示デバイス450は、随意にタッチ画面であり得る高解像度コンピュータ用モニタを備え得る。撮像ディスプレイは、ビデオまたは静止画像等の画像を読み出すことを可能にし、ならびに毛嚢ユニットおよびその一部を可視化することを可能にし得る。あるいは、撮像表示デバイス450は、タブレット、ポケットPC、および他のプラズマ画面を含む、他のタッチセンサ式デバイスとすることができる。タッチ画面は、画像表示デバイスを通して直接的に、毛髪移植手順のパラメータを修正するために使用され得る。
本開示と一致する方法、装置、およびシステムは、コンピュータに送るために提供され得るインターフェースのクリック可能なアイコン、メニューの中の選択ボタン、ダイアログボックス、またはロールダウンウィンドウを含む、変更インターフェースまたはユーザ変更インターフェースを提供することによって実行され得る。別の実施形態によれば、撮像表示デバイス450は、選択を、例えばディスプレイ自体の上で直接入力するための、選択ウィンドウおよびスタイラスまたはキーボードを表示し得る。一実施形態によれば、コマンドは、プログラム可能なスタイラス、キーボード、マウス、音声処理システム、レーザポインタ、タッチ画面、リモート制御デバイス、または他の入力機構を通して、変更インターフェースを介して入力され得る。あるいは、変更インターフェースは、ハードウェアの専用部分を含み得る。いくつかの実施形態において、変更インターフェースを通して行われる選択または調整は、プロセッサ、例えばコンピュータプロセッサ上で実行され得るコード命令によって実行され得る。
図4Bは、第1および第2のカメラシステムの座標系とロボットの座標系との間の関係を図示する、ブロック図である。図4Bにおいて、カメラシステム415は、2対のステレオカメラ470および480を備え、これらは、異なる(例えば、より広いおよびより狭い)視野を取り込むために使用され得る。例えば、ステレオカメラ対470は、比較的高倍率を有する第1のカメラ471および第2のカメラ472を含み得、ステレオカメラ対480は、比較的低倍率を有する第1のカメラ481および第2のカメラ482を含み得る。第1のカメラ471の光軸473および第2のカメラ472の光軸474、ならびに第1のカメラ481の光軸483および第2のカメラ482の光軸484は、好ましくは、並列に取り付けられるまたは維持されるのではなく、僅かに接するか、互いに向かって(例えば、約10度)傾斜する。第1のカメラ471および第2のカメラ472は、好ましくは、ステレオカメラ対470の視野内の物体の3次元位置を決定するのを容易にするために、共通の軸(例えば、水平軸のx軸または垂直軸のy軸)を有するように整列される。同様に、第1のカメラ481および第2のカメラ482は、好ましくは、共通のx軸またはy軸を有するように整列される。
ステレオカメラ対の視野内の物体の3次元位置は、例えば、それぞれのカメラフレームの中の物体(例えば、左側の画像および右側の座標)のx位置のオフセットとy位置のオフセットとの間の差を比較することによって決定される。例えば、ステレオカメラ対(例えば、ステレオカメラ対470または480の1つ)が点490の画像を撮影した後に、カメラ対の座標系での点490の3次元場所は、カメラ対の第1のカメラおよび第2のカメラ(例えば、「左手」カメラおよび「右手」カメラ)によって取り込まれる画像の中の点490の2次元場所から計算される。換言すれば、それぞれのカメラ画像が水平に(または垂直に)整列されるので、同じ物体は、2つの画像の同じ水平走査線(または垂直走査線)で現れるはずである。さらに、カメラレンズに対する、撮像されている物体の深度は、既知の範囲内(例えば、それぞれのカメラの焦点距離によって確立される)にあるので、第1の画像の中の選択された物体(例えば、毛嚢)は、どちらの「対」が可能な範囲の計算された深度を有するかを決定するために、(例えば、同じ走査線の)第2の画像の中の可能な候補物体と対にしたときの物体の有効深度を計算することによって、第2の画像の中でそれ自体に一致させることができる(それによって、画像を互いに整列させる)。ステレオカメラ対によって取り込まれる物体の3次元の場所を決定することに関するさらなる詳細は、O’Reilly,2008によって出版された、Grary BradskiおよびAdrian Kaehlerによる、第12章「Learning OpenCV:Computer Vision with the OpenCV Library」で見出すことができ、参照によりその全体が本明細書に組み込まれる。
ステレオカメラ対470または480は、好ましくは、それらの関係が互いに固定されるように、例えば、ロボットツールフランジ446(概念的に、物理マウント475、476、485、および486によって図示される)に、強固に載置または取り付けられる。他の実施形態において、カメラは、他の場所、例えばロボットアーム上のどこか別の場所に取り付けられ得るか、またはシステムの外部の3D空間に固定され得る。カメラ対470の視野内の物体の座標は、(例えば、図4Aの1つ以上のプロセッサ425もしくは426、または図5および図6のプロセッサ550、610、620、および650を介して)カメラ対470と関連付けられるカメラフレームまたは座標系477で決定され、報告される。同様に、カメラ対480の視野内の物体の座標は、カメラ対480と関連付けられるカメラフレームまたは座標系487で決定され、報告される。一実施形態によれば、座標系477のz軸は、光軸473と474との間の角度を二等分し、座標系477のy軸は、カメラ471および472のレンズの中心の間に伸びる。同様に、座標系487のz軸は、光軸483と484との間の角度を二等分し、座標系487のy軸は、カメラ481および482のレンズの中心の間に伸びる。
一実施形態によれば、位置490の座標は、式2で示される形態の配列vで、カメラ対によって報告される。カメラ対またはカメラ対と関連付けられるプロセッサは、好ましくは、点490の座標をメモリ435等のメモリに記憶する。したがって、プロセッサ425は、点490(または別の物体)の座標を決定するために、ルックアップを行い得る(例えば、カメラ対470もしくは480、またはメモリ435に質問または問い合わせ得る)。点490は、図7A〜7Cに関して図示される較正特徴のうちの1つ等の、個々の較正特徴を表し得る。
Figure 2014520351
式2
患者の皮膚表面から伸びる毛嚢等の別の物体に対して、ツールフランジ446(例えば、針)に固定される物体を正確に位置付けおよび配向するのを補助するために、カメラ対470のカメラの座標系477とロボットの座標系448との間の変換、およびカメラ対480のカメラの座標系487とロボットの座標系448との間の変換を較正または決定することが望ましくなり得、それは、図8に関してさらに詳細に説明される。ロボットの座標系とカメラシステムの座標系との間の変換を決定することは、移動ロボット、医療用ロボット、および産業用ロボットを含む、多種多様な応用例において有用であり得る。加えて、カメラの座標系477と487との間のマッピングを較正または決定することが望ましくなり得、それは、図10Aに関してさらに詳細に説明される。複数のカメラシステムが共通の座標を報告することを可能にするマッピングを決定することは、移動ロボットおよび監視等の、複数のカメラシステムが使用される任意の環境で有用であり得る。さらに、ツールフランジ446とツール先端部との間のオフセットを較正または決定することが望ましくなり得、それは、図14〜図16および図19〜図20に関してさらに詳細に説明される。3次元でツール先端部の場所を自動的に計算することは、ツール先端部の正確な場所および回転が所望される任意の環境で有用であり得る。
ロボットの座標系448とカメラの座標系477および487との間の変換を決定した後には、カメラの座標系477または487で決定したときの物体の座標に基づいて、カメラ対470、480、または双方の視野内の物体に対して、可動アーム405を正確に位置付けることが可能である。換言すれば、カメラ対470または480を使用して毛嚢の画像を取り込んだ後に、プロセッサ425は、可動アーム405に対する毛嚢の位置を決定することができ、また、コントローラ430に、アーム405を所望の位置および配向に移動させる(例えば、針先端部を回転させて、針を毛嚢と整列させて、針がシャフトを下って毛嚢を採取する)命令を生成することができる。
カメラの座標系477と487との間のマッピングを決定した後には、カメラ対480の視野内の第2の物体の位置に対する、カメラ対470の視野内の第1の物体の位置を決定することが可能である。例えば、ステレオカメラ対480(比較的低倍率を有する)が、基準点または作業領域を取り囲む他の目標の画像を取り込み、ステレオカメラ対470(比較的高倍率を有する)が、毛嚢自体の画像を取り込む場合は、(例えば、患者の頭皮全体にわたる経路を計画するのを補助するために)基準点に対する毛嚢の位置を決定することが可能である。基準点は、患者の皮膚上に配置される皮膚テンショナデバイス上に位置し得るが(例えば、図26の基準点2622を参照されたい)、基準点は、皮膚上に配置される別の毛嚢、瘢痕、人工的な模様(例えば、ドット)、または別の自然または人工的な目印で構成され得る。
図5は、一実施形態による、機械視覚サブシステム500のブロック図である。機械視覚サブシステム500は、ロボットシステム400(図4Aおよび4B)等のロボット毛髪移植機械のような、より大きいシステムの一部であり得る。機械視覚サブシステム500は、複数のカメラシステムを備える。そのような2つのカメラシステム510および520は、図5で図示される。各カメラシステム510および520は、好ましくは、ステレオ対のカメラであるが、そのようにする必要はない。カメラシステム510および520は、図1で図示されるロボットアーム110または図4Aで示される毛髪移植用の可動アーム405等の、ロボットアーム上にあり得る。しかしながら、機械視覚サブシステム500は、異なる応用例に使用される別のシステムの一部であり得る。機械視覚サブシステム500は、図示されないさらなるカメラシステムを備え得る。
カメラシステム510および520は、互いに固定された場所を有し、よって、一方のカメラシステムをもう一方のカメラシステムと関連付ける変換は固定される。図1および図4Aで図示されるロボットアーム110および405がこれに当てはまる。概して、毛髪移植に利用されるロボットアームがこれに当てはまる。ロボットアームが移動するにつれて、カメラシステム510および520は、基本的にそれらの固定された位置関係を維持しながら、ともに移動する。本明細書で使用されるとき、「固定された」という用語は、カメラシステム510および520の位置関係を修正するために、カメラシステムのランダムな振動および僅かなずれ等の、何らかの僅かな相対運動を許容する。この僅かな相対運動が、有用なカメラシステム間の変換を決定し、利用することができるように十分小さければ、カメラシステムは、十分に「固定される」。概して、カメラの画素サイズ等のある小さい測定値未満の変動は、変換が決定されるときに平均化することができるより大きいランダムな変動と同様に、重要ではない。
カメラシステム510および520は、それぞれの視野530および540を有する。図5で図示されるように、一方のカメラは、もう一方のカメラよりも大きい視野を有し得、カメラシステム510の視野530は、カメラシステム520の視野540よりも広い。視野530および540は、完全に、または部分的に重なり、よって、双方のカメラシステムによって「視認される」場所がある。カメラシステム510および520は、異なる解像度を有し得る。例えば、カメラシステム510は、カメラシステム520よりも低い解像度を有し得る。毛髪移植の応用例では、より低い解像度およびより広い視野を伴うカメラシステム510を、ロボットツールを頭皮の大まかな領域に誘導するために使用することができ、その一方で、より高い解像度およびより狭い視野を伴うカメラシステム520を、ロボットツールを、毛髪摘出のための特定の毛嚢および植付のための正確な場所に誘導するために使用することができる。
機械視覚サブシステム500はまた、カメラシステム510および520から画像データを受け取り、そのデータを処理する、プロセッサ550も備える。プロセッサ500によって行われる処理は、一方のカメラシステム座標系での座標をもう一方のカメラシステムの座標に変換し、その変換がどのようなものであるべきか、または任意の他の画像処理を決定することを含む。プロセッサ550は、任意のタイプのプロセッサ、例えば汎用マイクロプロセッサまたはデジタル信号プロセッサ(DSP)等であり得る。機械視覚サブシステム500はまた、プロセッサ550によって実行されるプログラム、および/またはプロセッサ550によって処理もしくは生成されるデータを記憶するための、1つ以上のメモリ(図示せず)も備え得る。
視野530および540が少なくとも部分的に重なるので、重なる部分の物体および場所は、双方のカメラシステムによって撮像することができる。カメラシステム510および520が、共通の特徴を含むそれぞれの画像を生成し(異なる視点、尺度、解像度等によるものであっても、同じものを視認する)、カメラシステム510および520が、それぞれの画像が取り込まれた時間の間で、特徴に対して大幅に移動しなかったときに、それぞれの画像は、「対応する」と言われる。この状況における大幅な移動とは、画素サイズ等の小さい測定値を超えるもの、および位置の差が計算で使用される複数の画像データによって平均化されないほど十分に大きいものの双方である。第1のカメラシステム510および第2のカメラシステム520からの対応する画像は、同時またはほぼ同時に撮影することができるが、そのようにする必要はない。ここで使用される「対応する特徴」は、対応する画像の中の同じ特徴を指す。異なるカメラシステムからの対応する特徴は、概して、各カメラシステム自体の固有の位置、指示方向、尺度、ズーム、および/または解像度のため、各カメラシステムで異なるローカル座標を有することになる。
図6は、別の実施形態による、機械視覚サブシステム600のブロック図である。機械視覚サブシステム600は、ロボットシステム400(図4Aおよび4B)等のロボット毛髪移植機械のような、より大きいシステムの一部であり得る。図6の機械視覚サブシステム600は、機械視覚サブシステム600がさらに、カメラシステム510と関連付けられるプロセッサ610およびカメラシステム520と関連付けられるプロセッサ620を含むことを除いて、図5の機械視覚サブシステム500に類似する。プロセッサ610および620は、それぞれ、カメラシステム510および520に統合され得るか、または、それらは別々であり得る。プロセッサ610および620は、単一のプロセッサ550が図5の機械視覚サブシステム500で行う処理のいくつかを行い得る。プロセッサ650は、機械視覚サブシステム600の中央処理装置であり、カメラ固有のプロセッサ610および620によって行われない他の処理を行い得る。例えば、プロセッサ610および620のそれぞれは、関連するカメラシステムのローカル座標系での特徴のローカル座標を生成し得る一方で、中央処理装置650は、それらの2つのローカル座標系間で、またはローカルカメラシステムの座標系とロボットの座標系等の別の座標系との間で変換する。
図7A〜7Cは、カメラの座標系をロボットの座標系に較正し、一方のカメラの座標系をもう一方のカメラの座標系に較正するときに使用され得る、種々の例示的な較正特徴を図示する図である。図7Aは、48個の内部隅部710を有する7×9のパターンを含む、チェッカーボード較正目標700を図示する。内部隅部710は、個々の較正特徴(例えば、内部隅部710のうちの1つは、図4Bで図示される点490を表し得る)を定義し、好ましくは、互いに所定の距離だけ離間される。一実施形態によれば、チェッカーボード較正目標700は、クロムオンガラスの目標を備える。他の実施形態によるチェッカーボード較正目標は、さらなるまたはより少ない内部隅部を含み得る。図7Bおよび7Cは、ドット重心較正目標720および740を図示する。ドット重心較正目標720は、30個のドット重心730を含み、それらは、個々の較正特徴を定義し、好ましくは、互いに所定の距離だけ離間される。同様に、ドット重心較正目標740は、6つのドット重心750を含み、それらは、個々の較正特徴を定義し、好ましくは、互いに所定の距離だけ離間される。他の実施形態によるドット重心較正目標は、さらなるまたはより少ないドット重心を含み得る。
図8は、一実施形態による、ロボットの座標系とカメラの座標系との間の変換を決定するための方法800のフロー図である。患者の皮膚表面から伸びる毛嚢等の別の物体に対して、ツールフランジ446に固定された採取または植付ツール410(図4A)等の物体を正確に位置付けおよび配向するのを補助するために、方法800を使用して、ロボットの座標系448(図4B)とカメラの座標系477および487のうちの1つ以上との間の位置および回転オフセットを較正し得、それによって、該オフセットを補償するための情報を生成し得る。初期事項として、較正目標700、720、および740(図7A〜7C)等のうちの1つの目標が、較正特徴が合焦範囲内にあるように、カメラシステム415(図4B)等のカメラシステムの視野内に位置付けられる。これは、目標を視野内に配置することによって、または目標が視野内に入るまでカメラシステムを移動させることによって達成され得る。カメラシステムは、単一のカメラ、1対のステレオカメラ、または2対以上のステレオカメラ(例えば、図4Bで図示されるカメラ対470および480の1つ以上の)を備え得る。
ステップ810で、ロボットの可動アーム(例えば、図1の可動アーム110または図4Aの可動アーム405)は、目標が、個々の画像取り込み場所で、目標がカメラシステムの視野内に入る(および、好ましくは、合焦する)ように、目標の周りで、複数の画像取り込み場所に位置付けられる。可動アームは、好ましくは、一方の画像取り込み場所からもう一方の画像取り込み場所に、目標の周りを回転させ、該目標に対して平行移動させる。例えば、個々の画像取り込み場所は、目標とほぼ一致する中心点を有する球体の表面上にほぼ存在し得る。換言すれば、可動アームは、球体の中心に位置付けられる目標を見ながら、球体の表面に沿って回転する。目標に対して可動アームを平行移動させることに加えて、目標の周囲でロボットアームを回転させることは、システムが、カメラシステムの座標系での小さい動きをロボットの座標系での小さい動きに変換する、変換を決定することを可能にする。個々の画像取り込み場所は、球体または半球体のランダムな点上に存在し得るが、画像取り込み場所は、半球のあるセクタに限られ得る。例えば、カメラシステムの軸が、目標(例えば、チェッカーボード較正目標700)に対して直角の位置から始まると仮定すると、可動アームは、各方向において、約45度まで回転し得る。特定の実施形態において、可動アームは、一方の画像取り込み場所から(例えば、目標により近い、または目標からより離れた)もう一方の画像取り込み場所まで、目標に対して半径方向に移動する。ステップ810で、可動アームは、任意の数の画像取り込み場所に位置付けられ得るが、方法800は、好ましくは、3〜6つの画像取り込み場所を使用して実現される。一実施形態によれば、画像取り込み場所は、予め定められ、メモリ(例えば、図4Aのメモリ435)に記憶される。
個々の画像取り込み場所で、方法800は、カメラシステムを使用して目標の1組の画像(例えば、1つ以上の画像)を取り込み、ロボットの座標系(例えば、図4Aおよび4Bの座標系448)で、可動アームの位置を記録する(ステップ820)。例えば、個々の画像取り込み場所で、プロセッサ425(図4A)等のプロセッサは、カメラシステムに、可動アーム405の現在位置を決定するために、目標の1つ以上の画像を取り込み、ルックアップを行う(例えば、コントローラ430またはメモリ435に質問または問い合わせる)ように指示し得る。特定の実施形態では、ロボットアームの複数の位置、目標の複数の場所、またはロボットアームの複数の位置および目標の複数の場所の双方での複数の画像が記録される。例えば、較正は、ロボットの可動アームを固定したままにして較正プレートを回転、移動、および/もしくは傾斜させるか、較正プレートを固定したままにしてロボットの可動アームを再位置付け/配向するか、または較正プレートを回転、移動、および/もしくは傾斜させてロボットの可動アームを再位置付け/配向することによって行われ得る。個々の画像取り込み場所での可動アームの位置(および/または較正プレート/目標の位置)は、好適なデータ構造でその画像取り込み場所で取り込まれる画像(複数可)と関連付けられ、メモリ435等のメモリに記憶され得、よって、後で、個々の画像取り込み場所での画像(複数可)および可動アームの位置(および/または較正プレートの位置)にアクセスして、処理することができる。
ステップ830で、目標の1組の較正特徴の座標が、カメラシステムの座標系(例えば、図4Bの座標系477または487)で決定される。方法800によって利用される1組の較正特徴は、図7Aおよび7Bを参照して説明される内部チェッカーボード隅部710またはドット重心730および750等の、較正特徴であり得る。一実施形態によれば、ステップ830は、1組の画像の中の目標の1組の較正特徴を識別し、該1組の中の較正特徴の3次元場所を計算することを含む。較正特徴の3次元場所は、図4Bを参照して説明されるようなステレオカメラ対の第1および第2のカメラによって取り込まれる画像の中の較正特徴の2次元場所から計算され得る。別の実施形態によれば、1組の較正特徴の座標は、ステップ830で、ルックアップ機能を実行することによって決定される。例えば、画像を取り込んだ後に、カメラシステムまたはカメラシステムと関連付けられるプロセッサは、較正特徴の座標を自動的に計算し、メモリ435等のメモリに記憶し得る。したがって、プロセッサ425は、較正特徴の座標を決定するために、ルックアップを行い得る(例えば、カメラシステム415またはメモリ435に質問または問い合わせ得る)。任意の数の較正特徴が目標に含まれ得るが、提供される実施例において、方法800は、好ましくは、2〜48個の較正特徴を使用して実現される。
ステップ830で、較正特徴の座標が決定された後に、ステップ840で、個々の画像取り込み場所での可動アームの位置(および/または目標の位置)および1組の較正特徴の座標に基づいて、ロボットの座標系(例えば、図4Aおよび4Bの座標系448)とカメラの座標系(例えば、図4Bの座標系477または487)との間の変換または関係が決定される。例えば、変換は、各画像取り込み場所での可動アームの位置および1組の較正特徴の座標を、他の画像取り込み場所のそれぞれでの可動アームの位置および1組の較正特徴の座標と比較することによって決定され得る。
一実施形態によれば、目標の位置が固定され、ステップ840は、ロボットの座標系とカメラシステムの座標系との間の変換のための値を反復的に選択し、(A)変換のための選択された値、可動アームの位置、および一方の画像取り込み場所での較正特徴の座標の積と、(B)変換のための選択された値、可動アームの位置、およびもう一方の画像取り込み場所での対応する較正特徴の座標の積とを比較して、(A)と(B)との間の差を最小化する、変換のための値を決定することを含む。
ロボットの座標系とカメラの座標系との間の変換は、Tで表すことができる変換マトリクスの形態を取り得、これは、式3に従って、ロボットの座標系からカメラの座標系に座標を変換し、その逆もまた同じである。
Figure 2014520351
式3
Tを見出すための1つの手法は、量
Figure 2014520351
を最小化することであり、式中、iおよびjは、個々の画像取り込み場所の異なるインスタンスに対応し、iは、2からmの範囲の値を有し、jは、1から(i−1)の範囲の値を有し、kは、1組の較正特徴の中の個々の較正特徴に対応し、1からnの範囲の値を有し、Rは、個々の画像取り込み場所iでの可動アームの位置であり、vikは、カメラシステムの座標系で決定される、i番目の画像取り込み場所でのk番目の較正特徴の座標であり、Rは、個々画像取り込み場所jでの可動アームの位置であり、vjkは、カメラシステムの座標系で決定される、j番目の画像取り込み場所でのk番目の較正特徴の座標である。上で論じたように、方法800は、任意の数m個の画像取り込み場所、および任意の数n個の較正特徴を使用して実現され得る。一実施形態によれば、方法800は、3〜6つの画像取り込み場所および2〜48個の較正特徴を使用して実現される。
目標が固定される(例えば、目標は、一方の画像取り込み場所からもう一方の画像取り込み場所に大幅に移動しない)ので、較正特徴の場所が、一方の画像取り込み場所から異なる画像取り込み場所で比較され、アームを移動させたときに、この量
Figure 2014520351
はゼロになるか、限りなくゼロに近くなるはずである。換言すれば、Tは、量
Figure 2014520351
を最小化するために選択される。
式3はまた、
Figure 2014520351
としても表され得、式中、j≠iである。ある実施形態において、jはiに等しくなり得、その場合、事実上同じ画像がそれ自体と比較され、量
Figure 2014520351
は、ゼロになるはずである。画像をそれ自体と比較することは、下で説明される最適化アルゴリズムを駆動することを補助しないので、計算リソースを節約することを補助するために、j=iである計算をスキップすることが望ましくなり得る。さらに、この関数
Figure 2014520351
は、任意の距離関数または測定を含み得る。
一実施形態によれば、可動アームの位置は、上の式1で表される形態のロボット位置変換マトリクスRを含み、ここで、左上の3×3の回転サブマトリクス(例えば、サブマトリクスr00からr22まで)は、個々の画像取り込み場所での可動アームの配向を、ワールド原点フレーム447(図4A)等の基準配向と関連付ける、正規直交回転を表し、サブマトリクスx、y、zは、可動アームの位置と基準位置との間の3次元オフセットを表す。個々の較正特徴の座標は、上の式2で示される形態の配列vを含み得る。
変換マトリクスTは、例えば、式4で示される形態のマトリクス等の、4×4マトリクスを含み得、ここで、左上の3×3の回転サブマトリクス(例えば、サブマトリクスr00からr22まで)は、ロボットの座標系とカメラシステムの座標系との間の回転関係を表し、上で式1を参照して上で説明したように、3つの回転オフセットα、β、およびγから導き出され、サブマトリクスx、y、zは、ロボットの座標系とカメラシステムの座標系との間の平行移動オフセットx、y、およびzを表す。換言すれば、変換マトリクスTは、ロボットの座標系とカメラシステムの座標系との間の回転関係および平行移動関係(例えば、カメラシステムの視野の動きがロボットの座標系の動きにどのように関連するか)を指定する。
Figure 2014520351
式4
式4で示される変換マトリクスTは、6つの独立した値を含み、そのうちの3つは、平行移動オフセットx、y、およびzであり、他の3つは、回転オフセットα、β、およびγである。変換マトリクスTの回転オフセットα、β、およびγ、ならびに平行移動オフセットx、y、およびzの値は、好ましくは、最急降下最適化アルゴリズム、シミュレーテッドアニーリングアルゴリズム、または最適適合アルゴリズム等の、好適な最小化手順または最適化アルゴリズムを使用して決定される。最適化アルゴリズムは、1組の利用可能な選択肢から6つの独立した値のそれぞれについて好適な値を決定するのを補助する。方法800のステップ810〜830は、最適化アルゴリズムを駆動して変換マトリクスTを計算するために、データを生成する。ステップ810で、目標に対して可動アームを平行移動させることに加えて、目標の周囲で可動アームを回転させることは、式3を解くこと、およびカメラシステムの座標系とロボットの座標系との間の関係を定義することを可能にする、豊富なデータを提供するのを補助する。
方法800は、複数のカメラシステムの座標系とロボットの座標系と間の変換を決定するために使用され得る。例えば、方法800は、ロボットの座標系448(図4B)とカメラ対470のカメラの座標系477との間の回転関係および平行移動関係を指定する、第1の変換T、およびロボットの座標系448とカメラ対480のカメラの座標系487との間の回転関係および平行移動関係を指定する、第2の変換Tを決定し得る。変換マトリクスTは、ロボットの座標系448からカメラの座標系477に伸びる矢印によって、図10Bで概念的に図示される。同様に、変換マトリクスTは、ロボットの座標系448からカメラの座標系487に伸びる矢印によって、図10Bで概念的に図示される。ステップ810〜840のうちの1つ以上は、第1の変換Tおよび第2の変換Tを決定するために繰り返され得る。例えば、ステップ810、820、および830は、データを生成して最適化アルゴリズムを駆動するために同時に行われ得、ステップ840は、変換マトリクスTおよびTを計算するために2回繰り返され得る。さらに別の変形例として、ステップ840は、さらなるデータを採集して、反復アルゴリズムを使用することによって変換をさらに精緻化するために、ステップ810および820にループバックすることができ、そのうちの1つの反復は、それぞれステップ840の通過中に完了され、よって、各反復は、連続的に解をより近似させる。このようにして使用することができる反復アルゴリズムの例としては、再帰的最小二乗法(RLS)、最小平均二乗法(LMS)、および勾配降下が挙げられる。
ステップ840で、いかなる形態であっても、変換が決定された後に、方法800は随意に、後で使用するために、その変換をメモリ435等のメモリに記憶し得る。代替として、または加えて、方法800は、変換を所望の場所に伝送し得、またはそれをディスプレイ450等の好適な表示デバイス上に表示し得る。さらに、システムが複数のカメラシステムを含む場合、方法800はさらに、カメラの座標系間のマッピングを決定し得、それは、図10Aに関してさらに詳細に説明される。一実施形態によれば、方法800は、ツールまたはツール先端部を較正点に接触させることとは無関係に(例えば、ロボットアームをホームポジションおよび配向から、ツールまたはツール先端部が較正点と接触する位置に移動させることを伴わずに)行われる。
ステップ810〜840のうちの1つ以上は、ユーザの介入を伴わずに、自動的に行われ得る。さらに、方法800およびそのステップは、種々の構造を使用して実現され得る。例えば、位置決めステップ810は、1つ以上の、プロセッサ425(図4A)、コントローラ430、ならびに可動アーム405のそれぞれのアーム関節に位置するモーターおよびエンコーダを使用して行われ得る。ステップ820で1組の画像を取り込むことは、カメラシステム415等のカメラシステムを使用して行うことができ、ステップ820で可動アームの位置を記録することは、プロセッサ425、コントローラ430、およびメモリ435のうちの1つ以上を使用して行われ得る。座標決定ステップ830および変換決定ステップ840は、プロセッサ425または画像プロセッサ426等の1つ以上のプロセッサを使用して行われ得る。ステップ810〜840は、任意の順序で、または並行して(例えば、同時に)行われ得る。さらに、ステップ810〜840のうちの1つ以上は、省略され得、および/または他のステップと置き換えられ得る。例えば、ステップ810および820は、方法800が、既存の取り込まれた1組の画像および記録された場所から「〜の座標を決定すること」(例えば、ステップ830)によって開始し得るように、独立して別々に行われ得る。いくつかの実施形態において、個々の画像取り込み場所での較正プレート/目標の位置(および/または可動アームの位置)および画像取り込み場所で取り込まれた画像(複数可)は、受け取られ、受け付けられ、またはアクセスされ得る(例えば、メモリ435等のメモリからアクセスされ得る)。可動アームの位置(および/または較正プレート/目標の位置)および画像取り込み場所で取り込まれた画像(複数可)が受け取られ、受け付けられ、またはアクセスされた後に、方法800は、座標決定ステップ830および変換決定ステップ840を行い得る。
1つ以上の変換(例えば、変換マトリクスTおよびT)が方法800または別の好適な方法によって決定された後には、ロボットの座標系とカメラシステムの座標系との間で座標を容易に変換するために、変換を利用することができる。1つのそのような変換は、図9で図示され、図9は、毛髪摘出/植付手順中にエンドエフェクタツールアセンブリを位置付けるために、図8で図示される方法によって決定される変換を使用するための、方法900のフロー図である。随意のステップ910で、方法900は、座標系を有するカメラシステムを使用して、身体表面の1つ以上の画像を取り込み得る。特定の実施形態において、方法900は、例えば、(カメラシステムによって既に取り込まれた)身体表面の画像の中の、カメラシステムの座標系での1つ以上の対象となる特徴の座標を識別することによって、ステップ920から開始し得る。そのような取り込まれた画像は、例えば、メモリから事前に、または同時に受け取られ得、または受け付けられ得、またはアクセスされ得る。対象となる特徴は、例えば、毛嚢または毛髪移植片のための植付部位であり得る。一実施形態によれば、ステップ920は、画像の中の対象となる特徴を識別し、対象となる特徴の3次元場所を計算すること含む。対象となる特徴の3次元場所は、図4Bを参照して説明されるようなステレオカメラ対の第1および第2のカメラによって取り込まれた画像の中の対象となる特徴の2次元場所から計算され得る。別の実施形態によれば、対象となる特徴の座標は、ステップ920で、対象となる特徴の座標を決定するために、ルックアップ機能を実行する(例えば、図4Aのカメラシステム415またはメモリ435に質問または問い合わせる)ことによって決定される。
方法900はまた、ステップ930で、方法800によって(例えば、メモリ435のルックアップを行うことによって)決定される変換(例えば、変換マトリクスTおよびTのうちの1つ)を取り出し、カメラシステムの座標系からロボットの座標系に、対象となる特徴の座標を変換し得る。カメラシステムの座標系からロボットの座標系に、対象となる特徴の座標を変換することは、式5によって決定され得、ここで、Tは、変換マトリクス(例えば、方法800によって決定される)であり、vは、カメラシステムの座標系で決定される対象となる特徴の座標であり、vは、ロボットフランジ446に対するロボットの座標系での対象となる特徴の座標である。
Figure 2014520351
式5
ステップ940で、可動アームは、対象となる特徴に隣接して位置付けられる。例えば、ロボットの座標系での対象となる特徴の座標に基づいて、プロセッサ425は、コントローラ430に、アーム405を対象となる特徴に対して所望の位置および配向に移動させる命令を生成することができる。対象となる特徴が毛嚢である場合、プロセッサ425は、コントローラ430に、可動アームに載置された採取ツールを毛嚢ユニットに対して回転および位置付けさせ、よって、採取ツールがそのような毛嚢ユニットを採取することができる命令を生成することができる。方法900のステップは、示されるものと異なる順序で、または順次ではなく同時に行われ得ることに留意されたい。
図10Aは、一実施形態による、2つのカメラシステム間の座標変換またはマッピングを決定するための方法1000のフローチャートである。結果として生じる座標変換は、図11を参照して下で説明するように、第1のカメラシステムの座標系での座標を、第2のカメラシステムの座標系に変換するために使用することができ、または、その逆が可能である。方法1000は、その変換を決定するためのプロセスである。第1および第2のカメラシステムは、例えば、図5または図6で図示されるカメラシステム510および520であり得る。第1および第2のカメラシステムは、それらが対応する特徴の対応する画像を生成することができるように、少なくとも部分的に重なる視野を有する。第1および第2のカメラシステムは、それぞれステレオ対のカメラであり得、それらの視野のサイズが異なり得、および/または毛髪の採取または植付に使用されるもの等の、ロボットアームに載置され得る。
随意のステップ1010および1020で、方法1000は、カメラシステムのそれぞれから、画像を取り込み得る。特定の実施形態において、画像は、例えば上の図8および図9で述べられるように、受け取られ、アクセスされ、または受け付けられ得る。ステップ1015および1025で、方法1000は、画像の中の対応する特徴のローカル座標を決定する。それらの対応する特徴の異なる座標を使用して、方法1000は、カメラシステムの座標系間のマッピングを決定し(ステップ1030)、そのマッピングをメモリに記憶する(ステップ1040)。ステップ1015、1025、および1030は、図5または図6で図示されるプロセッサ等の1つ以上のプロセッサによって行われる。方法1000によって利用される特徴は、上の図7A〜7C等を参照して、この文書の中の他の部分で説明されるように、チェッカーボード隅部またはドット重心等の較正特徴であり得る。
ここで、方法1000の各ステップが、さらに詳細に説明される。随意のステップ1010で、方法1000は、第1のカメラシステムを使用して、1つ以上の画像を取り込み得る。特定の実施形態では、方法1000が、第1のカメラシステムによって取り込まれる画像から第1のカメラシステムの座標系で特徴の座標を決定し得る(ステップ1015)ように、1つ以上の画像が、上で説明されるように、受け取られ、アクセスされ、受け付けられ得る。随意のステップ1020で、方法1000はまた、第2のカメラシステムを使用して、1つ以上の画像を取り込み得る。特定の実施形態では、方法1000が、第2のカメラシステムによって取り込まれる画像から第2のカメラシステムの座標系で特徴の座標を決定し得る(ステップ1025)ように、1つ以上の画像が、受け取られ、アクセスされ、受け付けられ得る。ステップ1010、1015、1020、および1025は、示されるように、並行して行われ得る。実際に、ステップ1010および1020は、対応する画像をもたらすように、同時またはほぼ同時に行われ得る。あるいは、ステップ1010、1015、1020、および1025は、対応する特徴を有する対応する画像をもたらす、任意の実現可能な順序で順次行われ得る。それらのステップの目的は、第1および第2のカメラシステムから対応する画像の対に見出される対応する特徴の座標の組を生成することである。換言すれば、それらのステップは、第1のカメラシステムの座標系での第1の組の特徴の座標、および第2のカメラシステムの座標系での対応する第2の組の座標をもたらす。
画像、それらの画像の特徴、および各座標系でのそれらの特徴の座標を指す、数学的表記を利用することが可能であり、洞察に満ちる。記号vおよびvは、それぞれ、第1および第2のカメラシステムの座標系で座標を表すために使用することができる。vおよびvのそれぞれは、例えば、式2で指定されるような形態の座標のベクトルであり得、それは、ステレオ対のカメラであるカメラシステムによって生成されるような、3次元座標を表すための有用な形態である。より少ない次元を有する形態を含む、vおよびvの座標の他の形態も使用することができる。
画像および特徴を指定するためにさらなる指標を使用することができる。例えば、次の指標jを、画像を指定するために使用することができ、ここで、第1および第2のカメラシステムのそれぞれからの対応する画像の数は、mであり、第1のカメラシステムからのj番目の画像および第2のカメラシステムからのj番目画像は、j=1...mにおいて、互いに対応する。さらに、次の指標kを、画像の特徴を指定するために使用することができ、ここで、各画像においてその座標が決定される特徴の数はnである。この表記によれば、第1のカメラシステムの座標系で決定される第1の組の特徴の座標は、{v1jk}であり、第2のカメラシステムの座標系で決定される第2の組の特徴の座標は、{v2jk}であり、ここで、jは、画像1...mの中のj番目の画像の指標であり、kは、j番目の画像の中の特徴1...nの中のk番目の特徴の指標である。
方法1000は、m≧1、およびn≧1、およびmn≧6の任意の値について使用可能である。換言すれば、方法1000は、画像と画像1つあたりの特徴との積が少なくとも6であれば、各カメラシステムからの僅かに単一の画像および最小で2つの異なる特徴で機能する。さらなる特徴および/または画像は、方法1000をより正確にするさらなるデータを生成する。一実施形態では、m=48およびn=6で、288対の特徴の座標をもたらす。
方法1000のステップ1030は、第1および第2の組の特徴の座標(例えば、{v1jk}および{v2jk})に基づいて、一方のカメラシステムの座標系からもう一方のカメラシステムの座標系へのマッピングまたは変換を決定する。マッピングまたは変換は、Qで表すことができる、変換マトリクスの形態を取り得、以下のように、第2の座標系(例えば、図4Bおよび図10Bで図示される座標系487)から第1の座標系(例えば、図4Bおよび図10Bで図示される座標系477)に座標を変換する。
Figure 2014520351
式6
Qを見出すための1つの手法は、数量
Figure 2014520351
を最小化することであり、式中、dは、Lノルム距離関数d=
Figure 2014520351
またはd=
Figure 2014520351
等の、距離関数である。あるいは、Qを見出すために、任意の最適化手法が使用され得る。さらに別の変形例として、ステップ1030は、さらなるデータを採集して、反復アルゴリズムを使用することによってマッピングをさらに精緻化するために、ステップ1010および1020をループバックすることができ、そのうちの1つの反復は、それぞれステップ1030の通過中に完了し、よって、各反復は、連続的に解をより近似させる。このようにして使用することができる反復アルゴリズムの例としては、再帰的最小二乗法(RLS)、最小平均二乗法(LMS)、および勾配降下が挙げられる。
ステップ1030によって、いかなる形態であっても、マッピングまたは変換が決定されると、方法1000は随意に、後で使用するために、そのマッピングをメモリに記憶することができる(ステップ1040)。あるいは、方法1000は、例えば、代わりに、マッピングを所望の場所に伝送し得、またはそれを好適な表示デバイス上に表示し得る。
方法1000およびそのステップは、種々の構造を使用して実現することができる。例えば、画像取り込みステップ1010および1020は、図5または図6で示されるカメラシステム510および520等のカメラシステムを使用して行うことができ、座標決定ステップ1015および1025は、図5のプロセッサ550または図6のプロセッサ610および620等の1つ以上のプロセッサを使用して行うことができ、マッピング決定ステップ1030は、図5のプロセッサ550または図6のプロセッサ650等のプロセッサを使用して行うことができる。
第2の座標系(例えば、座標系487)から第1の座標系(例えば、座標系477)に座標をマッピングする、座標変換マトリクスQは、座標系477から座標系487に伸びる矢印によって、図10Bで概念的に図示される。図10Bは、図10Bが座標変換マトリクスQ、T、およびTを概念的に図示することを除いて、図4Bにかなり類似する。図10Bにおいて、ステレオカメラ対470は、図10Aを参照して説明される第1のカメラシステムの実施例である。同様に、図10Bで図示されるステレオカメラ対480は、図10Aを参照して説明される第2のカメラシステムの実施例である。図10Bにおいて、ロボットの座標系448からカメラの座標系477に伸びる矢印は、変換マトリクスTを概念的に図示し、それは、カメラ対470のカメラの座標系477とロボットの座標系448との間の回転関係および平行移動関係を指定する。同様に、図10Bにおいて、ロボットの座標系448からカメラの座標系487に伸びる矢印は、変換マトリクスTを概念的に図示し、それは、カメラ対480のカメラの座標系487とロボットの座標系448との間の回転関係および平行移動関係を指定する。
カメラの座標系477および487が一致していないので、ステレオカメラ対470および480によって観察および報告される特徴は、互いに異なる座標vおよびvを有することになる。カメラ対470および480の双方によって返される座標が、動作上の許容範囲内で同一になる(例えば、カメラ対470によって返される点490の座標が、カメラ対480によって返される点490の座標と同じまたはほぼ同じ座標を有する)ことが望ましくなり得る。これは、視野特徴
Figure 2014520351
の場所に関する式を、修正式
Figure 2014520351
と置き換えることによって達成することができ、ここで、Qは、ステレオカメラ対480によって返される視野座標を、ステレオカメラ対470によって返される同じ座標にマップする変換である。例えば、どの毛嚢を採取するのかを計画する自動化アルゴリズムは、グローバル座標系(例えば、皮膚テンショナデバイスの位置および配向に対するグローバル座標系)を使用して、グリッドの中の全ての毛嚢を追跡し得る。各毛嚢は、より高倍率のカメラ座標系を使用して、見出され、追跡され、そしてグローバル座標系に加えられ得る。座標変換マトリクスQが(例えば、方法1000を使用して)計算された後に、カメラ対480のカメラの座標系487とロボットの座標系448との間のロボット−カメラ変換が、
Figure 2014520351
として計算され得、第2のカメラ対480によって返される座標が、
Figure 2014520351
として報告され得る。カメラ対480によって報告される視野特徴の座標を調整するために変換マトリクスQを使用することによって、カメラ対470および480によって報告される対象となる特徴の座標は、同じまたはほぼ同じになるはずである。例えば、目標の場所は、カメラ対2(例えば、低倍率のカメラ対)を使用して見出され得、そして、
Figure 2014520351
を使用してカメラ対1(例えば、高倍率のカメラ対)の座標系に変換され得、それは、例えば、採取のために毛嚢に対してロボットアームを配向するために、カメラ対1が毛嚢の場所を特定することを可能にし得る。別の例として、カメラ対1(例えば、高倍率のカメラ対)が採取された部位の場所を報告する場合、カメラ対2(例えば、低倍率のカメラ対)は、
Figure 2014520351
を使用してその採取された部位を見出し得る。
3つの座標変換マトリクスQ、T、およびTのうちの2つが既知である(例えば、方法800、1000、または双方を使用して計算される)場合、2つの既知の変換から第3の変換を決定することが可能であり得る。例えば、変換マトリクスQが方法1000を使用して計算され、変換マトリクスTが方法800を使用して計算される場合、変換マトリクスT(またはTの近似値)を、
Figure 2014520351
として計算することができる。2つの既知の変換から第3の変換を決定することは、計算リソースを節約するのを補助し得る。例えば、Q−1およびTからTを導き出すことは、変換マトリクスTを計算するために最適化アルゴリズムを使用しなければならないことを回避するのを補助し得る。
方法1000または別の好適な方法によってマッピング(例えば、変換マトリクスQ)が決定された後に、そのマッピングは、第1および第2のカメラシステムの座標系間の変換を容易にするために利用することができる。1つのそのような変換は、図11で図示され、図11は、一実施形態による、2つの異なるカメラシステム間で座標を変換するための方法1100のフローチャートである。随意のステップ1110で、方法1100は、1つの座標系を有するカメラシステムを使用して、1つ以上の画像を取り込み得る。特定の実施形態において、1つ以上の画像は、方法1100が、その座標系(例えば、v)での画像から対象となる特徴の座標にアクセスする(ステップ1120)ように、図8、図9、および図10を参照して説明されるものに類似する様式で、受け取られ、アクセスされ、または受け付けられ得る。対象となる特徴は、毛嚢または毛髪移植片の植付部位であり得る。2次元カメラシステムの場合、座標を決定することは、画素数に基づく基準からのXおよびYのオフセットを決定することと同程度に単純であり得る。ステレオ対のカメラの場合、3次元座標を決定するための手法は、当技術分野でよく知られている。方法1100はまた、方法1000等によって決定されるマッピング(例えば、Q)を取り出し(ステップ1130)、その座標をローカルカメラシステムの座標系から別のカメラシステムの座標系に変換する(ステップ1140)(例えば、
Figure 2014520351
)。方法1100は、次に、所望に応じて、変換された座標(例えば、v)を利用する。方法1100のステップは、示されるものと異なる順序で、または順次ではなく同時に行われ得ることに留意されたい。例えば、マッピング取り出しステップ1130は、図11で示されるよりも早い任意のときに行われ得る。
図12は、例示的な針アセンブリ1200の図であり、該針アセンブリは、例えば毛髪採取手順で使用するための、エンドエフェクタアセンブリの一部(例えば、図4Aを参照して説明されるツール410を参照されたい)として、ロボットアーム(例えば、それぞれ、図1および図4Aを参照して説明されるロボットアーム110または405を参照されたい)に取り付けられ得る。図12で示され、下で説明されるように、針アセンブリ1200上の種々の特徴は、ツール場所較正ルーチンの一部としての機械視覚動作によって場所を特定され得る。ある構成において、針アセンブリ1200は、外側針(「パンチ」)1210と、同軸内側針1220とを含み得る。針1220は、一般的に、比較的鋭利な遠位先端部1280を伴う円筒状である。この針は、パンチ1210の管腔内に適合するようにサイズ決定される。パンチ1210は、湾曲肩部1270を通して側壁1222および1224を伴うより狭い円筒遠位部分に遷移する側部1252および1254を伴う、主円筒部分1250を含み得る。パンチ1210も、遠位先端部1240を含む。実質的に平行な側部を有するように図示されているが、任意の形状の針またはパンチ、例えば遠位端部に向かって先細になる針またはパンチが利用され得ることが明らかになるであろう。針アセンブリ1200は、中心線1290によって表される平行移動の運動軸に沿って伸ばされ得るか、または縮められ得る。加えて、針1220は、パンチ1210内部で中心線1290に沿って伸ばされ、縮められ得る。例えば、図13は、パンチ1210がカメラの視野内に入っていないが、例えば皮膚面に対応する位置まで伸ばした針1220を表す、カメラシステム(例えば、図4Aを参照して説明されるカメラシステム415を参照されたい)からの例示的な画像1300を示す。
図14は、ツール場所較正方法1400の実施例を表す、フロー図を示す。図8〜図11の説明に類似しており、ステップ1410は、随意である。方法1400は、カメラシステム415等のカメラシステムで画像データを取り込むステップを含み得、または本方法は、例えば既存の画像データから、ツール先端部の場所を決定することを含み得る。ある実施形態において、画像データは、上で説明したように受け取られ、アクセスされ、または受け付けられ得る。画像データは、エンドエフェクタツールを表し得、データは、上で論じられるステレオカメラ対470または480からの1対の画像を含み得る。一実施形態によれば、画像データは、針アセンブリ1200の少なくともある一部を表し得、またはツールアセンブリの単一のパンチ構成が使用される場合は、単一の針もしくはパンチを表し得る。
方法1400は、カメラシステムの座標系でのツール先端部の場所を決定することを含む、ステップ1420を継続する。例示的なステレオカメラ対470において、ツール先端部1280(例えば、針1220の先端部1280、またはパンチ1210の先端部1240)の場所は、座標系477の範囲内で決定される。図12に関して上で述べたように、カメラシステムは他の可視特徴の場所を特定し得、先端部1280等のツール先端部は、機械視覚方法を使用して場所を特定され得るツール特徴の1つの例に過ぎない。決定された場所は、ステレオカメラの画像内で場所を特定される点(例えば、点490を参照されたい)の1対の2次元場所から、標準的な(上で説明される)プロセスに従って取得される、3次元座標を含み得る。
カメラシステムの座標系でのツール場所が決定されると、方法1400は、カメラシステムの座標系からロボットの座標系(例えば、図4Aおよび4Bの座標系448)にツール場所を変換させることを含む、ステップ1460を継続する。正確なツール場所較正により、変換させた場所は、ツール、例えば針アセンブリ1200が採取動作を行い得るように、プロセッサ425が、ロボットアーム405にエンドエフェクタツールアセンブリ410を移動させるように指示することによって使用される、ロボットフランジ446からのオフセットを決定するために使用され得る。一実施形態によれば、変換は、次のように計算することができる。
Figure 2014520351
式7
ここで、tcamは、決定されたツール場所であり、Tは、カメラの変換マトリクス(例えば、式3に従って決定されるロボットの座標系とカメラの座標系との間の変換)であり、trobは、ロボットツールフランジ446に関するツール場所である。
方法1400およびそのステップは、種々の構造を使用して実現され得る。例えば、画像取り込みステップ1410は、カメラシステム415等のカメラシステムを使用して行うことができ、場所決定ステップ1420および変換ステップ1460は、プロセッサ425または画像プロセッサ426等の1つ以上のプロセッサを使用して行われ得る。ステップ1410、1420、および1460は、任意の順序で、または並行して(例えば、同時に)行われ得る。
図15は、方法1400(図14)のステップ1420を実行するための例示的な方法1500を表す、フロー図を示す。ステップ1521は、画像データから、カメラシステムの視野内のツールの側部に対応する、第1および第2の外周側壁エッジセグメントを検出することを含む。例示的な針アセンブリ1200(図12)では、例えば、側部1252および1254が線セグメントとして検出されて表され得、ならびに/または側部1222および1224が線セグメントとして検出されて表され得る。
次に、ステップ1526は、検出された第1および第2の外周側壁エッジセグメント間の平均に基づいて、中央線を計算することを含む。例示的な針アセンブリ1200において、中心線1290は、側部1252と1254との間の平均距離として計算され得る。
ステップ1528は、カメラシステムの座標系で、中心線に沿って、ツールの遠位端部の空間位置の場所を特定することを含む。例示的な針アセンブリ1200において、針1220およびパンチ1210は、ほぼ真っ直ぐである。したがって、中心線1290が正確に計算されると、針1220の先端部1280またはパンチ1210の先端部1240は、概して、中心線1290に沿って、例えば側部1222と1224との間または1252と1254との間に位置する。例えば、先端部1240等のツール先端部は、中心線1290に沿った画像データ、例えば図16に関して下で論じられるデータ遷移点の変化によって場所を特定され得る。代替の方法(図示せず)において、針アセンブリ1200を表すデータについて質量中心または重心が決定され得、質量中心から最も遠くに位置する点が、ツール先端部に対応し得る。
方法1500およびそのステップは、種々の構造を使用して実現され得る。例えば、ステップ1521、1526、および1528は、プロセッサ425または画像プロセッサ426等の1つ以上のプロセッサを使用して行われ得る。ステップ1521、1526、および1528は、任意の順序で、または並行して(例えば、同時に)行われ得る。
図16は、方法1500(図15)のステップ1521を実行するための例示的な方法1600を表す、フロー図を示す。ステップ1622は、第1および第2の組のデータ遷移を確立するために、画像データの個々の横列での第1および第2のデータ遷移の場所を特定することを含む。例えば、図17Aおよび17Bは、それぞれ、グレースケール形式1710および2値化形式1720でのパンチ1210の画像1700を示す。図17Aで示される一実施形態によれば、データ遷移は、デジタル画像1700の画素横列に沿った明色から暗色への遷移として識別され得る。デジタル画像1700は、画素強度のマトリクスとして表され得、その場合、データ遷移は、マトリクスの横列に沿ったデータ値の変動によって識別され得る。方法1600およびそのステップは、種々の構造を使用して実現され得る。例えば、ステップ1622および1623は、プロセッサ425または画像プロセッサ426等の1つ以上のプロセッサを使用して行われ得る。ステップ1622および1623は、任意の順序で、または並行して(例えば、同時に)行われ得る。
データ遷移の場所を特定するために、画像1700の中の画素の横列をトラバースして、ツールの両側部に対応する第1および第2の検出された遷移の場所を特定し得る。第1および第2の遷移は、第1および第2の組の遷移のそれぞれで記録され得る。画像データの解像度に応じて、画像全体の横列毎にトラバースされ得る。しかしながら、いくつかの実施形態において、いくつかの横列をスキップすることは、本方法の正確さを高め得る。例えば、湾曲肩部1270を表すデータ遷移は、側部1252および1254と実質的に平行ではなく、したがって、これらのデータ遷移を記録することは、計算された中心線1290に沿ったツール先端部1240の場所を決定する際の誤りを潜在的に増加させる。結果的に、横列のサブセットは、中間の横列をスキップすることによってトラバースされ得、または、側部1252および1254(または側部1222および1224)を表す遷移を有することが知られている画像のサブ領域、例えば画像1700の下半分がトラバースされ得る。
図17Bの実施例で示されるように、データ遷移は、画像データを前処理することによって、よりはっきりと異なり得る。一例において、ツールの画像は、2値化、例えば白黒に変換され得るか、または2つの色に変換され得、第1の色は、閾値未満(または以下)の全ての画素値を表し、もう1つの色値は、閾値を超える全ての画素値を表す。好適な閾値を決定することは、陰影効果、照明、反射率、および(図18Aおよび18Bに関して下で論じられる)遠近歪みの量に依存する。結果的に、画像の前処理は随意であり、データ遷移の場所を特定するために、グレースケールエッジ検出が使用され得る。別の例において、データ遷移位置は、セグメント化によって最初に決定され、次いで、エッジ検出手法が利用され得る。エッジが見出される位置の場所を特定するために、各横列について、例えば小さい範囲において、最初にセグメント化されたデータ遷移位置の周囲で検索を行うことができる。その後、勾配に基づく検出器、ソーベル演算子等の、エッジ検出演算子を適用することができる
ステップ1623は、第1の組のデータ遷移からの第1の回帰、および第2の組のデータ遷移からの第2の回帰を行うことによって、第1および第2の外周側壁エッジセグメントを計算することを含む。種々の評価方法が、最小二乗推定法等の回帰を計算するために使用され得る。
回帰計算は、種々の理由から、互いに正確に整列し得ない、または実際の外周側壁と整列し得ない、個々の検出されたデータ遷移に基づく、適合された線セグメントを提供するのを補助する。例えば、カメラ470がエンドエフェクタツールアセンブリ410に固定されるときに、カメラの光路は、針アセンブリ1200の平行移動の運動軸と正確に共線であり得ない。結果的に、カメラ470の視野の中の針アセンブリ1200には、かなりの量の遠近歪みまたはぼやけがあり得る。換言すれば、針アセンブリ1200の中心線1290は、カメラの光路に正確に平行になり得ず、その結果、ツール(例えば、パンチ1240)の先端部は、カメラのz軸において、針アセンブリ1200の対向端部よりもさらに遠くに離れる。実際に、先端部1240または1280のz軸距離は、いくつかの高倍率のカメラレンズの焦点深度を超え得る。したがって、任意の所与の瞬間に、例えば主円筒部分1250の比較的小さい部分だけしかはっきりと合焦し得ない。それは、結果としてぼやけ得、図18Aで示されるような明〜暗の遷移を検出することがより困難になり得る。加えて、パンチ1210は、鮮明に検出可能な隅部を伴う平坦面ではない。図17Bで示されるように、例えば、エンドエフェクタツールの可視部分または湾曲肩部1270を表す任意のデータ遷移は、長手方向軸と実質的に平行ではなく、潜在的に、ツール先端部1240の場所を特定するための中心線1290を計算する際に誤りを誘導し得る。したがって、パンチ1210のエッジ1252および1254(または1222および1224)を近似するために、回帰算出が使用され得る。
いくつかの実施形態において、パンチ1210等のツールは、カメラ軸から傾き得、パンチ1210の長さに沿って均一でない、主円筒部分1250の遠近歪みをもたらす。例えば、図18Aおよび18Bでは、遠近歪みのため、画像1810の底部近くのパンチ、および対応する前処理された画像1820の観察可能な直径は、湾曲肩部1270による観察可能な直径よりも数画素だけ幅が広い。結果的に、不均一な歪みまたは鮮明な合焦の不足のため、方法1500(図15)のステップ1521からの検出側壁エッジセグメントは、収束し、最終的に交差する。したがって、中心線を計算するステップ1526は、いくつかの実施形態において、2つの収束する側壁線セグメントによって形成される角度の二等分線を識別することを含み得る。
図19は、方法1500(図15)のステップ1521を実行するための別の例示的な方法1900を表す、フロー図を示す。一般に、方法1900は、外れ値データ遷移を識別し、次いで、除去するために、2ステッププロセスを使用する。ステップ1922およびステップ1923は、それぞれ、方法1600(図16)のステップ1622およびステップ1623に対応し、計算された回帰は、側壁1222、1224または1252、1254の初期近似としての役割を果たす。
側壁エッジセグメントについて初期回帰計算を使用して、ステップ1924は、第1および第2の組のデータ遷移から、所定の閾値を超える第1および第2の初期外周側壁エッジセグメントのそれぞれからの距離を有する第1または第2のデータ遷移を除外する、例えば、データ遷移の組から外れ値を識別して、除去する。ステップ1925は、第1および第2の組のデータ遷移のそれぞれから回帰を行うことによって、第1および第2の外周側壁エッジセグメントを再計算することを含む。再計算された回帰は、中心線1290、およびツール先端部1280を表す計算された中心線1290に沿ったデータ遷移点の計算を潜在的に歪める外れ値データ遷移を除外するので、再計算は、ツール場所較正の精度を高め得る。方法1900およびそのステップは、種々の構造を使用して実現され得る。例えば、ステップ1922、1923、1924、および1925は、プロセッサ425または画像プロセッサ426等の1つ以上のプロセッサを使用して行われ得る。ステップ1922、1923、1924、および1925は、任意の順序で、または並行して(例えば、同時に)行われ得る。
針アセンブリをその運動軸に沿って伸ばすことによって、より多数の合焦したデータ遷移が、主円筒1250の側部1252および1254に沿って取得され得、それによって、外周側壁エッジセグメントの近似が改善される。針アセンブリは、次いで、先端部1240の場所を決定するために、縮められ、はっきり合焦する範囲内に導かれ得る。別の実施形態において、ツールが伸ばされたままであるが、ツールの先端部の合焦が改善されるように、カメラの焦点が変化し得る。図20は、伸ばした、および縮めた状態でのツールの画像データを使用して、エンドエフェクタツールの遠位端部の場所を特定するための、例示的な方法2000のフロー図である。上の実施例を参照すると、随意のステップ2010で、方法2000は、伸ばしたツールを表す、例えば、採取または植付手順中に、皮膚面、例えば患者の皮膚によって形成される面を2ミリ超えて伸ばした採取パンチを表す、画像データを取得し得る。ある実施形態において、画像データは、受け取られ、アクセスされ、または受け付けら得る。ステップ2021は、方法1500(図15)のステップ1521に類似する、側壁エッジセグメントを検出すること含む。同様に、ステップ2026は、ステップ1526に対応する。ステップ2027は、縮めた状態のツール、例えば皮膚面の上側または面上の点に伸ばした採取パンチ1210を表す画像データを取り込むことを含む。ステップ2028は、ツール先端部の場所を特定することを含み、ステップ1528に対応する。ステップ2060は、ステップ1460に関して上で説明されるように、ツール先端部の場所を変換させることを含む。
方法2000およびそのステップは、種々の構造を使用して実現され得る。例えば、画像取り込みステップ2010は、カメラシステム415等のカメラシステムを使用して行うことができ、ステップ2021、2026、2027、2028、および2060は、プロセッサ425または画像プロセッサ426等の1つ以上のプロセッサを使用して行われ得る。ステップ2010、2021、2026、2027、2028、および2060は、任意の順序で、または並行して(例えば、同時に)行われ得る。
上述したツール場所較正方法1400、1500、1600、1900、または2000のいずれかは、随意の2値化もしくは他の好適な前処理手法、随意の角度二等分線の場所の特定、データ遷移の数を制限する、例えば画素横列もしくは画像の領域をスキップすることによって検索空間を削減するための随意の手法、または随意の種々の焦点深度での複数の画像取り込みを利用し得る。
図21Aおよび21Bは、相対位置および複数のカメラの倍率を識別するための特徴を持つ、プラカード2110および2120を表す図である。ユーザは、カメラシステムの視野の中にプラカードを配置し、プラカードを表す個々のカメラからの画像データを観察し、そして、観察した画像データに基づいて、個々のカメラをシステムの物理的構成と関連付け得る。プラカードおよび取得された画像データは、カメラ制御システムを構成する方法を容易にし得、該方法は、個々のカメラから整理番号(または他の識別用表示)を人手によって記録し、その情報をロボット制御システムの構成ソフトウェアに入力することに代わるものとして行われ得る。カメラからカメラの整理番号を人手によって取得することは、場所および整理番号ラベルのサイズのため、困難であり得る。さらに、いくつかのカメラブロックは、どちらのカメラが高倍率もしくは低倍率なのか、またはどちらのカメラが左側または右側なのかを示すラベルを有しない。さらに、カメラシステムの左側および右側の定義は、該定義がカメラシステムに対する人の位置に依存するので、混同し得る。
図21Aおよび21Bで示されるように、一実施形態によれば、プラカード2110および2120には、2つの基準点−カードの両側に1つずつ−が印刷され得る。プラカード2110は、左側の長方形の基準点2116と、右側の円形の基準点2118とを含む。プラカード2120は、両側部に2つの長方形の基準点2126および2128を含む。基準点の数および形状は、幾分任意的なものである。ただし、個々の基準点の配向および一般的形状は、機械視覚動作によって識別できるものとする。下で論じられるように、基準点の対2116、2118または2126、2128は、種々の光学特性に基づいて識別され得、よって、構成システムは、低倍率カメラと高倍率カメラとを区別すること、ならびに左側のカメラと右側のカメラとを区別することができる。チェッカーボード較正目標700(図7A)またはドット重心較正目標720および740(図7Bおよび7C)は、カメラ識別のために使用され得る。別の実施形態において、基準点2116、2118または2126、2128は、単一の較正ユニットまたはカート(図示せず)の一部として、目標700、720、740とともに印刷され得る。
図22は、図21Aで示されるプラカード2110の斜視図であり、複数のカメラの相対位置および倍率を識別するために、図4Aに関して説明されるカメラシステム470等のカメラシステムの視野の中に位置付けられる。プラカード2110は、一実施形態によれば、基準点2116および2118がカメラシステム470の視野の中で横方向に現れるように位置付けられる。スタンドアロンのプロセスとして、下で論じられるカメラ識別ルーチンは、ロボットアームの動きに依存しないが、自動的な動きも使用され得る。製造中に、アセンブリマウント上のエンドエフェクタで、プラカード2110が、好適なスタンド2280上に配置され、所定の位置に移動される。スタンド2280は、自由な形態で位置付けられ得、またはスタンド2280は、プラカード2110のより整合性のある画像を提供するのを補助するために、ツールのアセンブリマウント(図示せず)に取り付けることができる。プラカードが位置付けられると、適切な照明が適用される。照明は、ツール上の内蔵LED照明を使用して達成することができ、または、基準点は、透明の基板上に印刷し、背面照明することができる。ユーザまたはプロセッサが、プラカード2110の画像取り込みおよびプロセッサ上で実行するソフトウェアを起動するか、または専用の機械視覚ハードウェアが、下で説明される手法に従って、カメラの位置および倍率を識別する。
図23は、カメラシステムの個々のカメラの倍率を識別するための、例示的なシステム2300を示す。例示的なシステム2300は、プロセッサ2310と、少なくとも2つのカメラシステム2320および2330とを含む。例示的なシステム2300において、左側のカメラシステム2320は、低倍率カメラシステムに対応し、右側のカメラシステム2330は、高倍率カメラシステムに対応する。カメラシステム2320および2330は、それぞれが単一のカメラを有し得るか、またはそれぞれがステレオカメラシステムを含み得る。カメラシステム2320および2330は、プラカード2110がカメラシステム2320および2330の視野2360および2370の中に配置されるときに、プラカード2110を表す画像2340および2350のそれぞれを取得するように構成される。一実施形態において、基準点2116および2118は、全体が視野2360および2370内にあり、プラカード2110のサイズおよび間隔、ならびに各基準点2116および2118の領域が予め定められる。プラカード2110上の各基準点2116および2118の領域が予め定められるので、取得された画像2340または2350の中の基準点2346、2348または2356、2358の領域が閾値を超える場合は、対応するカメラシステム2320または2330が高倍率カメラであると決定される。別の実施形態において、画像2340および2350は、互いに比較され得る。例えば、画像2340の中の基準点2346の領域は、画像2350の中の基準点2356の領域よりも大きい。このように、カメラ2330がより大きい領域を有する基準点2356を生じたので、プロセッサ2310は、カメラシステム2330を高倍率カメラとして適切に識別し得る。
図24および図25は、それぞれ、視野および遠近歪みの差を使用してエンドエフェクタの両側のカメラを識別するためのシステムを示す。図24で示される例示的なシステム2400において、カメラシステム2420および2430は、画像2440および2450のそれぞれを生成するための高倍率カメラである。プラカード2110は、カメラシステム2420および2430の前方に配置され、よって、視野2460の中で、基準点2116は見えるが、基準点2116は見えない。これとは逆に、視野2470の中で、基準点2118は見えるが、基準点2118は見えない。故に、基準点2116および2118が、慣性モーメント、循環性、周辺長さ、または他の特性等の、独特の特性を有するように形成されると、画像2440および2450は、全体が重ならず、プロセッサ2310がカメラシステム2420および2430の物理的配設を決定し得るように十分に異なる。例えば、画像2440は、基準点2116を表す長方形の基準点2446を含み、画像2450は、基準点2118を表す円形の基準点2458を含む。換言すれば、内側に傾けた左側の高倍率カメラ2420は、右側の基準点2116だけを視認することができる一方で、内側に傾けた右側の高倍率カメラ2430は、左側の基準点2118だけを視認することができる。
図25で示される別の例示的なシステム2500において、カメラシステム2520および2530は、互いに平行ではなく、若干内側に傾けられており、よって、遠近歪みが基準点の幾何学形状に影響を及ぼす。プラカード2120は、図21Bに関して説明されるように、両側に長方形状の基準点2126および2128を含む。カメラシステム2520および2530の焦点面がプラカード2120に対して垂直でないので、画像2540および2550のそれぞれの中の一方の基準点は、もう一方の基準点よりも合焦点に若干近く、画像2540および2550の中の基準点間の領域に差を生じさせる。基準点の形状のピンホールカメラ歪みも、同様に異なり得、2つの側部の輪郭形状を変化させる。例えば、基準点2546は、基準点2548よりも若干小さく見える一方で、基準点2556は、基準点2558よりも若干大きく見える。加えて、基準点2546および2548は、左に歪む一方で、基準点2556および2558は、ピンホールド歪みのため、右に歪む。遠近歪みはまた、所定の形状の基準点に関する歪みの量を特徴付けることによって、個々のカメラのレンズの合焦を決定するために使用され得る。さらに、画像2540の中の基準点2546および2548の場所は、システム2400に関して説明されるように、視野2560および2570における差の結果として他の画像2550と比較すると、ずれ得る(図示せず)。
図26は、上で説明されるカメラ識別ルーチンを検証し、識別情報をシステム構成XMLファイル2610に書き込むための、ソフトウェアアプリケーションの画面ショット2600を示す。XMLファイル2610は、位置、倍率、レンズの合焦、または技術者がカメラの種々の態様を追跡することを可能にする、他の構成パラメータを含み得る。識別データは、最初に、システム初期化中に書き込むか、またはカメラ再構成中に上書きすることができる。自動化識別ルーチンの検証は、図26で示されるように行われ得る。基準点2622(図4Bを参照して説明される)を含む帯状部2620は、低倍率カメラでは見えるが、高倍率カメラではそのより狭い視野のため見えず、また、針アセンブリ1200の角度は、左右のカメラについて異なる方向に傾けられる。
実施形態は、種々のプログラミング言語で開発されたコンピュータソフトウェアを使用して実現され得る。実施形態は、本明細書で説明されるプロセスまたは方法を行うようにコンピュータ(または他の電子デバイス)をプログラムするために使用され得る、(圧縮形態または非圧縮形態で)命令をそこに記憶させた、非一時的な機械が読み出し可能な記憶媒体を含む、コンピュータプログラム製品として提供され得る。機械が読み出し可能な記憶媒体としては、ハードドライブ、フロッピーディスク、光ディスク、CD−ROM、DVD、リードオンリーメモリ(ROM)、ランダムアクセスメモリ(RAM)、EPROM、EEPROM、フラッシュメモリ、磁気もしくは光カード、固体メモリデバイス、または電子命令を記憶するのに好適な他のタイプの媒体/機械が読み出し可能な媒体が挙げられ得るが、それらに限定されない。さらに、実施形態はまた、(圧縮形態または非圧縮形態で)一時的な機械が読み出し可能な信号を含む、コンピュータプログラム製品としても提供され得る。機械が読み出し可能な信号の例としては、搬送波を使用して変調されるかどうかに関わらず、インターネットまたは他のネットワークを通してダウンロードされる信号を含む、コンピュータプログラムをホストまたは実行するコンピュータシステムまたは機械がアクセスするように構成することができる信号が挙げられるが、それらに限定されない。例えば、ソフトウェアの配信は、CD−ROMを介して、またはインターネットダウンロードを介してなされ得る。
本明細書で説明される方法およびシステムを実行するソフトウェアプログラムは、所望の操作を実行するための1組の命令を含む、別々のプログラムコードを含み得、またはある操作のそのようなサブ操作を行う、複数のモジュールを含み得、または該操作を提供するより大きいプログラムの単一のモジュールの一部であり得る。モジュール構造は、その中のモジュールならびに/またはモジュール内の特徴を追加する、削除する、更新する、および/もしくは修正することを容易にする。プログラムは、固有の識別子情報および/または追加的な情報を受け取り得、また、例えば、固有の識別子情報および/または追加的な情報と関連付けられるデータを有する記憶デバイスにアクセスし得る。
上で使用される用語および説明は、単なる実例として記載されており、限定することを意味するものではない。当業者は、本開示の基礎を成す原則を逸脱することなく、上で説明した実施形態の詳細に数多くの変形を行うことができることを認識するであろう。したがって、本発明の範囲は、以下の特許請求の範囲およびそれらの均等物だけによって決定されるべきである。

Claims (36)

  1. 第1のカメラシステムの座標系と第2のカメラシステムの座標系との間のマッピングを決定するための方法であって、前記第1および第2のカメラシステムは、少なくとも部分的に重なる視野を有し、前記第1および第2のカメラシステムは、固定された空間関係を有し、前記方法は、
    1つ以上のプロセッサを使用して、前記第1および第2のカメラシステムの座標系の双方で、前記第1および第2のカメラシステムからの対応する対の画像に見出される1組の特徴の座標を決定し、それによって、前記第1のカメラシステムの座標系での第1の組の特徴の座標、および前記第2のカメラシステムの座標系での対応する第2の組の座標をもたらすことと、
    前記1つ以上のプロセッサと同じまたは異なるプロセッサの使用によって、前記第1および第2の組の特徴の座標に基づいて、前記第1および第2のカメラシステムの座標系間のマッピングを決定することと、
    を含む、方法。
  2. ほぼ同時に、前記第1および第2のカメラシステムのそれぞれから、いくつかの対応する画像を取り込むことをさらに含む、請求項1に記載の方法。
  3. 前記第1および第2のカメラシステムのそれぞれは、ステレオ対のカメラである、請求項1に記載の方法。
  4. 前記第1および第2のカメラシステムは、それらの視野のサイズが異なる、請求項1に記載の方法。
  5. 前記第1および第2のカメラシステムは、毛髪採取および/または植付のためのロボットシステムの一部である、ロボットアームに載置される、請求項1に記載の方法。
  6. 前記特徴は、チェッカーボードコーナーおよびドット重心から成る群の1つ以上から選択される較正特徴である、請求項1に記載の方法。
  7. 前記第1および第2のカメラシステムのそれぞれからの対応する画像の数は、mであり、前記第1のカメラシステムからのj番目の画像および前記第2のカメラシステムからのj番目の画像は、j=1...mにおいて、互いに対応し、各画像においてその座標が決定される特徴の数は、nであり、前記第1のカメラシステムの座標系で決定される前記第1の組の座標は、{v1jk}であり、前記第2のカメラシステムの座標系で決定される前記第2の組の座標は、{v2jk}であり、ここで、jは、画像1...mの中のj番目の画像の指標であり、kは、j番目の画像の中の特徴1...nの中のk番目の特徴の指標である、請求項1に記載の方法。
  8. m≧1、およびn≧1、およびmn≧6である、請求項7に記載の方法。
  9. m=48およびn=6である、請求項8に記載の方法。
  10. 前記マッピングは、前記第2の座標系から前記第1の座標系に座標を変換する、変換マトリクスQであり、前記マッピングを見出す前記ステップは、量
    Figure 2014520351
    を少なくともほぼ最小化するマトリクスQを見出すことを含み、式中、dは、距離関数であり、よって、
    Figure 2014520351
    であり、ここで、vおよびvは、それぞれ、前記第1および第2のカメラシステムの座標系での座標のベクトルである、請求項7に記載の方法。
  11. Qは、4×4マトリクスであり、前記座標のベクトルは、次のような形態である
    Figure 2014520351
    、請求項10に記載の方法。
  12. 前記距離関数dは、d=
    Figure 2014520351
    である、請求項10に記載の方法。
  13. 前記変換マトリクスQを見出すことは、最適化手法を使用することを含む、請求項10に記載の方法。
  14. 第1のカメラシステムの座標系と第2のカメラシステムの座標系との間のマッピングを決定するためのシステムであって、
    第2のカメラシステムとの固定された空間関係を有する、第1のカメラシステムであって、前記第1および前記第2のカメラシステムは、少なくとも部分的に重なる視野を有する、第1のカメラシステムと、
    前記第1および前記第2のカメラシステムからの対応する対の画像において、前記第1のカメラシステムの座標系での第1の組の特徴の座標、および前記第2のカメラシステムの座標系での第2の組の特徴の座標を決定するための手段と、
    前記第1および前記第2の組の特徴の座標に基づいて、前記第1および前記第2のカメラの座標系間のマッピングを決定するための手段と、
    を備える、システム。
  15. 前記第1および前記第2のカメラシステムのそれぞれから、いくつかの対応する画像を取り込むための手段をさらに備える、請求項14に記載のシステム。
  16. ロボットの座標系とカメラシステムの座標系との間の変換を決定するための方法であって、前記ロボットは、それに載置される前記カメラシステムを有する可動アームを含み、前記ロボットの座標系は、前記可動アームの位置を定義し、前記カメラシステムの座標系は、前記カメラシステムの視野内の目標の位置を定義し、前記方法は、
    前記目標が、個々の画像取り込み場所で前記カメラシステムの前記視野内にあり、かつ、前記可動アームが、前記目標の周りを回転し、該目標に対して一方の画像取り込み場所からもう一方の画像取り込み場所に平行移動するように、前記目標の周りで、前記可動アームを複数の画像取り込み場所に位置付けることと、
    前記個々の画像取り込み場所で、前記カメラシステムを使用して前記目標の1組の画像を取り込み、前記ロボットの座標系で前記可動アームの位置を記録することと、
    前記カメラシステムの座標系で、前記1組の画像の中で識別される前記目標の1組の較正特徴の座標を決定することと、
    前記個々の画像取り込み場所での前記可動アームの前記位置および前記1組の較正特徴の前記座標に基づいて、前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換を決定することと、
    を含む、方法。
  17. 前記可動アームを前記目標の周りで位置付ける前記ステップ、前記目標の前記1組の画像を取り込む前記ステップ、前記可動アームの前記位置を記録する前記ステップ、前記1組の較正特徴の前記座標を決定する前記ステップ、および前記ロボットの座標系と前記カメラシステムの座標系との間の変換を決定する前記ステップは、自動的に行われる、請求項16に記載の方法。
  18. 前記可動アームは、それに載置される毛嚢ユニット採取ツール、毛嚢ユニット植付ツール、または双方を有し、前記ロボットは、毛嚢ユニットを採取し、毛嚢ユニットを植付する、または双方を行うように構成され、さらに、
    前記カメラシステムの座標系で、身体表面の画像の中の毛嚢ユニットの場所を識別することと、
    前記カメラシステムの座標系での前記毛嚢ユニットの前記場所に基づいて、前記ロボットの座標系で、前記毛嚢ユニットの場所を決定し、前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換を決定することと、
    前記毛嚢ユニット採取または植付ツールを使用して前記毛嚢ユニットを採取または植付することができるように、前記ロボットの座標系での前記毛嚢ユニットの前記場所に基づいて、前記毛嚢ユニットに隣接して前記可動アームを位置付けることと、を含む、請求項16に記載の方法。
  19. 前記目標の位置は、固定され、前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換を決定する前記ステップは、前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換のための値を反復的に選択し、(A)前記変換のための前記選択された値、前記可動アームの位置、および一方の画像取り込み場所での較正特徴の座標の積と、(B)前記変換のための前記選択された値、前記可動アームの位置、およびもう一方の画像取り込み場所での対応する前記較正特徴の座標の積とを比較して、(A)と(B)との間の差を最小化する、前記変換のための値を決定することを含む、請求項16に記載の方法。
  20. 前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換は、変換マトリクスTを含み、前記変換を決定する前記ステップは、量
    Figure 2014520351
    を少なくともほぼ最小化する変換マトリクスTを見出すことを含み、式中、iおよびjは、個々の画像取り込み場所の異なるインスタンスに対応し、iは、2からmの範囲の値を有し、jは、1から(i−1)の範囲の値を有し、kは、前記1組の較正特徴の中の個々の較正特徴に対応し、1からnの範囲の値を有し、Rは、個々の画像取り込み場所iでの前記可動アームの前記位置であり、vikは、前記カメラシステムの座標系で決定される、i番目の前記画像取り込み場所でのk番目の前記較正特徴の座標であり、Rは、個々画像取り込み場所jでの前記可動アームの前記位置であり、vjkは、前記カメラシステムの座標系で決定される、j番目の前記画像取り込み場所でのk番目の前記較正特徴の座標である、請求項16に記載の方法。
  21. 前記可動アームの前記位置は、
    Figure 2014520351
    の形態のロボット位置変換マトリクスRを含み、サブマトリクス
    Figure 2014520351
    は、前記可動アームの配向を基準配向と関連付ける、正規直交回転を表し、サブマトリクス
    Figure 2014520351
    は、前記可動アームの前記位置と基準位置との間のオフセットを表し、
    前記個々の較正特徴の座標は、
    Figure 2014520351
    の形態の配列を含み、
    前記変換マトリクスTは、
    Figure 2014520351
    の形態のマトリクスを含み、サブマトリクス
    Figure 2014520351
    は、前記ロボットの座標系と前記カメラシステムの座標系との間の回転関係を表し、3つの回転オフセットα、β、およびγから導き出され、サブマトリクス
    Figure 2014520351
    は、前記ロボットの座標系と前記カメラシステムの座標系との間の平行移動オフセットx、y、およびzを表す、請求項20に記載の方法。
  22. 前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換は、最急降下最適化アルゴリズム、シミュレーテッドアニーリングアルゴリズム、または最適適合アルゴリズムのうちの1つ以上を含む、最適化アルゴリズムを使用して決定される、請求項16に記載の方法。
  23. 前記個々の画像取り込み場所は、前記目標とほぼ一致する中心点を有する球面の表面上にほぼ存在する、請求項16に記載の方法。
  24. 前記可動アームは、一方の画像取り込み場所からもう一方の画像取り込み場所に、前記目標に対して半径方向に移動する、請求項16に記載の方法。
  25. 前記カメラシステムは、前記可動アームに載置される第1および第2のステレオカメラ対のそれぞれを備え、前記第1のステレオカメラ対は、第1の視野の画像を取得するように合焦および構成され、前記第2のステレオカメラ対は、前記第1の視野よりも大幅に狭い、第2の視野の画像を取得するように合焦および構成され、前記第1および第2の視野は、少なくとも部分的に重なり、前記ロボットの座標系と前記カメラシステムの座標系との間の前記変換を決定する前記ステップは、最適化アルゴリズムを使用して、前記第1のステレオカメラ対の第1の変換を決定し、最適化アルゴリズムを使用して、前記第2のステレオカメラ対の第2の変換を決定することを含み、さらに、
    前記第1のステレオカメラ対の座標系での座標を前記第2のステレオカメラ対の座標系にマップする、変換マトリクスQを決定することを含む、請求項16に記載の方法。
  26. ロボットの座標系とカメラの座標系との間の変換を決定するためのシステムであって、
    それに載置されるカメラシステムを有する可動アームを備える、ロボットであって、前記ロボットの座標系が、前記可動アームの位置を定義し、前記カメラシステムの座標系が、前記カメラシステムの視野内の目標の位置を定義する、ロボットと、
    a)前記目標が、前記個々の画像取り込み場所で前記カメラシステムの前記視野内にあるように、前記可動アームを、前記目標の周りで1つ以上の個々の画像取り込み場所に位置付け、b)前記可動アームを、一方の個々の画像取り込み場所からもう一方の個々の画像取り込み場所に移動させるための手段と、
    前記個々の画像取り込み場所で、前記目標の1組の画像を取り込むための手段と、
    前記ロボットの座標系で、前記個々の画像取り込み場所で前記可動アームの位置を記録するための手段と、
    前記カメラシステムの座標系で、前記目標の1組の較正特徴の座標を決定するための手段と、
    前記個々の画像取り込み場所での前記可動アームの前記位置および前記1組の較正特徴の前記座標に基づいて、前記ロボットの座標系と前記カメラシステムの座標系との間の変換を決定するための手段と、
    を備える、システム。
  27. 毛嚢ユニット採取ツールもしくは毛嚢ユニット植付ツール、または双方をさらに備える、請求項26に記載のシステム。
  28. ロボットの座標系で、前記ロボットのアームから伸びるツールの場所を特定する方法であって、
    画像データから、カメラシステムの座標系で、前記ツールの場所を決定することと、
    所定の変換を使用して、前記カメラシステムの座標系から前記ロボットの座標系に前記ツールの前記場所を変換させることと、
    を含む、方法。
  29. 画像データを取り込むことであって、前記画像データは、1対の画像を含み、前記決定ステップは、前記画像データから、前記カメラシステムの視野内の前記ツールの側部に対応する、第1および第2の外周側壁エッジセグメントを検出することを含む、取り込むことと、前記検出された第1および第2の外周側壁エッジセグメント間の平均に基づいて、中心線を計算することと、前記カメラシステムの座標系で、前記中心線に沿って、前記ツールの遠位端部の位置の場所を特定することと、をさらに含む、請求項28に記載の方法。
  30. 前記中心線は、前記第1および第2の外周側壁エッジセグメント間に形成される角度を二等分する、請求項29に記載の方法。
  31. 前記検出ステップは、第1および第2の組のデータ遷移を確立するために、前記画像データの個々の横列での第1および第2のデータ遷移の場所を特定することと、前記第1および第2の組のデータ遷移のそれぞれから回帰を行うことによって、前記第1および第2の外周側壁エッジセグメントを計算することと、を含み、前記場所を特定するステップは、前記中心線に沿った前記画像データの中の遠位端部のデータ遷移の場所を特定し、よって、前記遠位端部のデータ遷移の前記場所が、前記カメラシステムの座標系で、前記遠位端部の前記空間位置を表すことを含む、請求項29に記載の方法。
  32. 前記第1および第2のデータ遷移は、前記画像データのコントラスト、強度、色、または輝度の遷移のうちの1つ以上を含む、請求項31に記載の方法。
  33. 前記検出ステップはさらに、前記遠位端部が、前記画像データ内の固有の値として表されるように、前記画像データを処理することを含む、請求項31に記載の方法。
  34. 前記検出ステップはさらに、前記遠位端部が、第1の固有の色によって表され、背景特徴が、第2の固有の色によって表されるように、前記画像データを2値化することを含む、請求項31に記載の方法。
  35. 前記データ遷移は、グレースケールエッジ点を含む、請求項31に記載の方法。
  36. 前記回帰は、第1および第2の組のデータ遷移のそれぞれをほぼ接続する最良適合アルゴリズム、および/または第1および第2の組のデータ遷移のそれぞれをほぼ接続する最小二乗適合を含む、請求項31に記載の方法。
JP2014519220A 2011-07-08 2012-07-02 カメラシステムの座標系の較正および変換 Active JP5688825B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/178,867 2011-07-08
US13/178,867 US9188973B2 (en) 2011-07-08 2011-07-08 Calibration and transformation of a camera system's coordinate system
PCT/US2012/045202 WO2013009510A2 (en) 2011-07-08 2012-07-02 Calibration and transformation of a camera system's coordinate system

Publications (2)

Publication Number Publication Date
JP2014520351A true JP2014520351A (ja) 2014-08-21
JP5688825B2 JP5688825B2 (ja) 2015-03-25

Family

ID=47438427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014519220A Active JP5688825B2 (ja) 2011-07-08 2012-07-02 カメラシステムの座標系の較正および変換

Country Status (6)

Country Link
US (2) US9188973B2 (ja)
EP (1) EP2729060A2 (ja)
JP (1) JP5688825B2 (ja)
KR (1) KR101495011B1 (ja)
CN (1) CN103702607B (ja)
WO (1) WO2013009510A2 (ja)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016187148A (ja) * 2015-03-27 2016-10-27 沖電気工業株式会社 画像処理装置、方法及びプログラム、並びに画像処理システム
JP2017504492A (ja) * 2014-01-17 2017-02-09 ブルックス オートメーション インコーポレイテッド 基板搬送装置
JP2017077614A (ja) * 2015-10-22 2017-04-27 キヤノン株式会社 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置
JP2018153910A (ja) * 2016-12-22 2018-10-04 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム
JP2019029820A (ja) * 2017-07-31 2019-02-21 セイコーエプソン株式会社 カメラの校正方法および校正用具
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
KR20190085237A (ko) * 2018-01-10 2019-07-18 한국과학기술연구원 영상 기반의 위치정보를 이용한 카메라간 좌표계 교정 장치 및 방법
JP2019211337A (ja) * 2018-06-05 2019-12-12 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
JP2020082231A (ja) * 2018-11-19 2020-06-04 Dmg森精機株式会社 測定方法
JP2021507763A (ja) * 2017-12-22 2021-02-25 アクラレント インコーポレイテッドAcclarent, Inc. 外科ナビゲーションシステム用の顔面の目印を登録する装置及び方法
JP2021523488A (ja) * 2018-05-16 2021-09-02 ブイタッチ・カンパニー・リミテッド 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
WO2023100234A1 (ja) * 2021-11-30 2023-06-08 オリンパス株式会社 内視鏡システムおよび座標系補正方法

Families Citing this family (179)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10354407B2 (en) 2013-03-15 2019-07-16 Spatial Cam Llc Camera for locating hidden objects
US9736368B2 (en) 2013-03-15 2017-08-15 Spatial Cam Llc Camera in a headframe for object tracking
US10896327B1 (en) 2013-03-15 2021-01-19 Spatial Cam Llc Device with a camera for locating hidden object
US9171221B2 (en) 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
US11119396B1 (en) 2008-05-19 2021-09-14 Spatial Cam Llc Camera system with a plurality of image sensors
US10585344B1 (en) 2008-05-19 2020-03-10 Spatial Cam Llc Camera system with a plurality of image sensors
US8423186B2 (en) * 2009-06-30 2013-04-16 Intuitive Surgical Operations, Inc. Ratcheting for master alignment of a teleoperated minimally-invasive surgical instrument
US9258975B2 (en) 2011-04-28 2016-02-16 Technologies Holdings Corp. Milking box with robotic attacher and vision system
CA2840397A1 (en) 2011-06-27 2013-04-11 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9251562B1 (en) 2011-08-04 2016-02-02 Amazon Technologies, Inc. Registration of low contrast images
EP2729850A4 (en) * 2011-08-11 2015-07-08 Siemens Healthcare Diagnostics METHOD AND DEVICE FOR CALIBRATING AN ALIGNMENT OF A ROBOT GRIPPER AND A CAMERA
CN108174435A (zh) * 2011-11-25 2018-06-15 班德韦斯克公司 用于为移动无线装置提供智能网络接入选择的系统
US10175177B2 (en) * 2012-01-30 2019-01-08 SeeScan, Inc. Adjustable variable resolution inspection systems and methods
WO2013128542A1 (ja) * 2012-02-27 2013-09-06 株式会社安川電機 ロボットシステム
JP5953842B2 (ja) * 2012-03-14 2016-07-20 オムロン株式会社 画像検査方法および検査領域設定方法
JP5949242B2 (ja) * 2012-07-11 2016-07-06 セイコーエプソン株式会社 ロボットシステム、ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP6195333B2 (ja) * 2012-08-08 2017-09-13 キヤノン株式会社 ロボット装置
US20140132729A1 (en) * 2012-11-15 2014-05-15 Cybernet Systems Corporation Method and apparatus for camera-based 3d flaw tracking system
TW201425871A (zh) * 2012-12-21 2014-07-01 Zong Jing Investment Inc 測距方法及電腦程式產品
US9272312B1 (en) * 2013-01-02 2016-03-01 The Boeing Company Methods and systems for removing lubricants from superplastic-forming or hot-forming dies
US20140229873A1 (en) * 2013-02-13 2014-08-14 Corel Corporation Dynamic tool control in a digital graphics system using a vision system
KR102060390B1 (ko) 2013-03-13 2019-12-30 스트리커 코포레이션 가상 구속 경계들을 확립하기 위한 시스템
US9238304B1 (en) 2013-03-15 2016-01-19 Industrial Perception, Inc. Continuous updating of plan for robotic object manipulation based on received sensor data
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
JP6091977B2 (ja) * 2013-04-22 2017-03-08 日立建機株式会社 建設機械
KR102077498B1 (ko) * 2013-05-13 2020-02-17 한국전자통신연구원 상호 기하 관계가 고정된 카메라 군의 이동 경로 추출 장치 및 방법
EP2821024A1 (en) * 2013-07-01 2015-01-07 Advanced Osteotomy Tools - AOT AG Computer assisted surgery apparatus and method of cutting tissue
US10203683B2 (en) 2013-07-16 2019-02-12 Seagate Technology Llc Coordinating end effector and vision controls
JP6468741B2 (ja) * 2013-07-22 2019-02-13 キヤノン株式会社 ロボットシステム及びロボットシステムの校正方法
US10366445B2 (en) 2013-10-17 2019-07-30 Mashgin Inc. Automated object recognition kiosk for retail checkouts
US11551287B2 (en) 2013-10-17 2023-01-10 Mashgin Inc. Automated object recognition kiosk for retail checkouts
US9555549B2 (en) * 2013-10-31 2017-01-31 Seiko Epson Corporation Control device, robot, robot system, and control method
US20150134099A1 (en) * 2013-11-08 2015-05-14 Startechno Co., Ltd. Workpiece machining device with calibration function and workpiece machining device
US10341881B2 (en) * 2013-11-12 2019-07-02 Vasona Networks, Inc. Supervision of data in a wireless network
US9409297B2 (en) * 2013-12-24 2016-08-09 Tieman Vehicle Technologies LLC Remote control button actuation module, system, and method
US9576414B2 (en) * 2013-12-24 2017-02-21 Tieman Vehicle Technologies LLC Remote control button actuation module, system, and method
KR102164919B1 (ko) * 2014-02-26 2020-10-13 한국전자통신연구원 대규모 가상 데스크탑 제공 방법 및 시스템
WO2015130320A1 (en) 2014-02-28 2015-09-03 Hewlett-Packard Development Company, L.P. Calibration of sensors and projector
KR102364743B1 (ko) * 2014-03-17 2022-02-18 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 중간 과정 재시작 동안의 기기 제어 입력 위치/배향의 복구
DE102014005030A1 (de) * 2014-04-05 2015-10-08 Airbus Defence and Space GmbH Testvorrichtung für Sichtsysteme
EP2946740B1 (en) * 2014-05-23 2017-11-15 Olcay Yilmaz Damar Device for follicular unit transplantation
CN104048601B (zh) * 2014-06-19 2018-01-23 湖北汽车工业学院 基于坐标变换的完整成像映射方法
US10387021B2 (en) * 2014-07-31 2019-08-20 Restoration Robotics, Inc. Robotic hair transplantation system with touchscreen interface for controlling movement of tool
GB201413991D0 (en) 2014-08-07 2014-09-24 Ubisense Ltd Tool tracking
US9327406B1 (en) 2014-08-19 2016-05-03 Google Inc. Object segmentation based on detected object-specific visual cues
GB2530790B (en) * 2014-10-02 2016-10-19 Vision Rt Ltd Method of calibrating a patient monitoring system for use with a radiotherapy treatment apparatus
CN105588525B (zh) * 2014-11-14 2019-09-20 北京配天技术有限公司 一种工具在机器人法兰坐标系上的标定方法及装置
US10179407B2 (en) * 2014-11-16 2019-01-15 Robologics Ltd. Dynamic multi-sensor and multi-robot interface system
WO2016079967A1 (en) * 2014-11-21 2016-05-26 Seiko Epson Corporation Robot and robot system
KR102296451B1 (ko) * 2014-12-08 2021-09-06 큐렉소 주식회사 중재시술 로봇용 공간정합 시스템
JP6486679B2 (ja) * 2014-12-25 2019-03-20 株式会社キーエンス 画像処理装置、画像処理システム、画像処理方法及びコンピュータプログラム
CN104739514A (zh) * 2015-03-13 2015-07-01 华南理工大学 大视场下手术器械的自动跟踪定位方法
JP2016185572A (ja) * 2015-03-27 2016-10-27 セイコーエプソン株式会社 ロボット、ロボット制御装置およびロボットシステム
JP6345627B2 (ja) * 2015-05-20 2018-06-20 株式会社ソニー・インタラクティブエンタテインメント 情報処理装置および情報処理方法
US11070793B2 (en) * 2015-07-31 2021-07-20 Cognex Corporation Machine vision system calibration
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
US10828125B2 (en) * 2015-11-03 2020-11-10 Synaptive Medical (Barbados) Inc. Dual zoom and dual field-of-view microscope
JP6616170B2 (ja) * 2015-12-07 2019-12-04 ファナック株式会社 コアシートの積層動作を学習する機械学習器、積層コア製造装置、積層コア製造システムおよび機械学習方法
EP3397188B1 (en) 2015-12-31 2020-09-09 Stryker Corporation System and methods for preparing surgery on a patient at a target site defined by a virtual object
US10445898B2 (en) * 2016-02-05 2019-10-15 Sony Corporation System and method for camera calibration by use of rotatable three-dimensional calibration object
US10827930B2 (en) * 2016-02-26 2020-11-10 Niramai Health Analytix Pvt Ltd Privacy booth for breast cancer screening
CN107309884B (zh) * 2016-04-27 2023-03-21 上海捷勃特机器人有限公司 机器人标定系统及方法
CA3025300A1 (en) * 2016-05-23 2017-11-30 Mako Surgical Corp. Systems and methods for identifying and tracking physical objects during a robotic surgical procedure
US10427305B2 (en) * 2016-07-21 2019-10-01 Autodesk, Inc. Robotic camera control via motion capture
US10078908B2 (en) * 2016-08-12 2018-09-18 Elite Robotics Determination of relative positions
EP3510562A1 (en) 2016-09-07 2019-07-17 Starship Technologies OÜ Method and system for calibrating multiple cameras
CN110463174A (zh) * 2016-09-29 2019-11-15 美的洛博迪克斯公司 用于外科探针的光学系统,组成其的系统和方法,以及用于执行外科手术的方法
US20210147150A1 (en) * 2016-10-08 2021-05-20 Zhejiang Guozi Robot Technology Co., Ltd. Position and orientation deviation detection method and system for shelf based on graphic with feature information
CN106524906B (zh) * 2016-10-13 2019-03-26 深圳市速腾聚创科技有限公司 激光扫描仪归位方法及激光扫描仪
KR102078518B1 (ko) * 2016-11-16 2020-02-17 윙크 로보틱스, 인코포레이티드 뷰티 살롱용 기계
CN106530357B (zh) * 2016-11-30 2023-10-03 深圳市泰沃德技术有限公司 视觉对位控制装置以及校准方法
CN108214486A (zh) * 2016-12-22 2018-06-29 精工爱普生株式会社 控制装置、机器人及机器人系统
WO2018119642A1 (zh) * 2016-12-27 2018-07-05 深圳配天智能技术研究院有限公司 一种工业机器人的工具坐标系原点的标定方法及装置
JP6527178B2 (ja) * 2017-01-12 2019-06-05 ファナック株式会社 視覚センサのキャリブレーション装置、方法及びプログラム
JP7233841B2 (ja) * 2017-01-18 2023-03-07 ケービー メディカル エスアー ロボット外科手術システムのロボットナビゲーション
JP6858593B2 (ja) * 2017-03-02 2021-04-14 ソニー・オリンパスメディカルソリューションズ株式会社 医療用観察装置、および制御方法
US11304644B2 (en) * 2017-03-07 2022-04-19 Biosense Webster (Israel) Ltd. 3-D electrophysiology heart simulation system and related methods
US10628695B2 (en) 2017-04-26 2020-04-21 Mashgin Inc. Fast item identification for checkout counter
US10803292B2 (en) 2017-04-26 2020-10-13 Mashgin Inc. Separation of objects in images from three-dimensional cameras
US10467454B2 (en) * 2017-04-26 2019-11-05 Mashgin Inc. Synchronization of image data from multiple three-dimensional cameras for image recognition
US11281888B2 (en) 2017-04-26 2022-03-22 Mashgin Inc. Separation of objects in images from three-dimensional cameras
CN107239748A (zh) * 2017-05-16 2017-10-10 南京邮电大学 基于棋盘格标定技术的机器人目标识别与定位方法
CN108709542B (zh) * 2017-05-18 2020-11-17 金钱猫科技股份有限公司 基于坐标变换的快速测量方法、系统及装置
WO2018213980A1 (zh) * 2017-05-22 2018-11-29 深圳配天智能技术研究院有限公司 一种机器人的标定方法、系统及标定板
US10485615B2 (en) 2017-06-30 2019-11-26 Synaptive Medical (Barbados) Inc. Medical electronic device with multi-tracking cameras
CN109215082B (zh) * 2017-06-30 2021-06-22 杭州海康威视数字技术股份有限公司 一种相机参数标定方法、装置、设备及系统
US11244468B2 (en) * 2017-07-28 2022-02-08 Qualcomm Incorporated Image output adjustment in a robotic vehicle
US10834332B2 (en) * 2017-08-16 2020-11-10 Covidien Lp Synthesizing spatially-aware transitions between multiple camera viewpoints during minimally invasive surgery
TWI668541B (zh) * 2017-09-29 2019-08-11 財團法人工業技術研究院 機器人工具中心點校正系統及其方法
WO2019097601A1 (ja) * 2017-11-15 2019-05-23 三菱電機株式会社 数値制御装置および表示方法
CN108230401A (zh) * 2018-01-12 2018-06-29 上海鼎盛汽车检测设备有限公司 3d四轮定位仪相机自动标定方法及系统
GB201800534D0 (en) 2018-01-12 2018-02-28 Ubisense Ltd Tool tracking
US20190236360A1 (en) 2018-01-30 2019-08-01 Mashgin Inc. Feedback loop for image-based recognition
US10786901B2 (en) * 2018-02-09 2020-09-29 Quanta Storage Inc. Method for programming robot in vision base coordinate
CN110349218A (zh) * 2018-04-03 2019-10-18 泰科电子(上海)有限公司 摄像机的标定方法和标定系统
JP6888580B2 (ja) * 2018-04-05 2021-06-16 オムロン株式会社 情報処理装置、情報処理方法、及びプログラム
TR201805930A2 (tr) * 2018-04-26 2018-08-27 Asmed Oezel Sac Ekimi Saglik Hizmetleri Ticaret Ltd Sirketi Görüntü i̇şleme ve roboti̇k teknoloji̇ler kullanilarak yapilan saç eki̇m süreci̇ değerlendi̇rme yöntemi̇ ve yönteme ai̇t si̇stem
US20190368865A1 (en) * 2018-05-30 2019-12-05 Carbon Robotics, Inc. Method for deriving varied-resolution 3d information from 2d images
US20210215811A1 (en) * 2018-07-06 2021-07-15 Brain Corporation Systems, methods and apparatuses for calibrating sensors mounted on a device
EP3820343A4 (en) * 2018-07-13 2022-06-29 iRobot Corporation Mobile robot cleaning system
JP6740288B2 (ja) * 2018-07-13 2020-08-12 ファナック株式会社 物体検査装置、物体検査システム、及び検査位置を調整する方法
US11291507B2 (en) 2018-07-16 2022-04-05 Mako Surgical Corp. System and method for image based registration and calibration
EP3844432A4 (en) 2018-08-30 2022-06-15 Veo Robotics, Inc. SYSTEMS AND METHODS FOR AUTOMATIC SENSOR ALIGNMENT AND CONFIGURATION
JP7154069B2 (ja) * 2018-08-31 2022-10-17 株式会社キーエンス 画像検査装置
EP3755970A4 (en) * 2018-09-03 2021-11-24 ABB Schweiz AG ROBOT SYSTEM MANAGEMENT METHOD AND APPARATUS
DE102018215491A1 (de) * 2018-09-12 2020-03-12 Robert Bosch Gmbh Verfahren zur Kalibrierung eines Erfassungssystems
AU2019338462A1 (en) 2018-09-14 2021-04-29 Neuralink Corp. Device implantation using a cartridge
CA3112749A1 (en) * 2018-09-14 2020-03-19 Neuralink Corp. Computer vision techniques
EP3629071A1 (en) * 2018-09-26 2020-04-01 Anton Paar TriTec SA Microscopy system
CN109242914B (zh) * 2018-09-28 2021-01-01 上海爱观视觉科技有限公司 一种可动视觉系统的立体标定方法
CN109144375B (zh) * 2018-10-09 2022-08-19 中天智领(北京)科技有限公司 一种屏幕控制方法及装置
CN109465822A (zh) * 2018-10-22 2019-03-15 江苏集萃微纳自动化系统与装备技术研究所有限公司 基于3d视觉手眼标定方法
JP7258516B2 (ja) * 2018-10-30 2023-04-17 Thk株式会社 キャリブレーション方法および把持システム
EP3873369A1 (en) * 2018-10-31 2021-09-08 Intuitive Surgical Operations, Inc. System and method for assisting tool exchange
US11065768B2 (en) * 2018-11-01 2021-07-20 TE Connectivity Services Gmbh Automatic calibration for camera-robot system with tool offsets
TWI677413B (zh) 2018-11-20 2019-11-21 財團法人工業技術研究院 用於機械手臂系統之校正方法及裝置
SE1851590A1 (sv) 2018-12-14 2020-06-15 Brokk Ab Fjärrstyrd demoleringsrobot med förbättrat användningsområde och ett förfarande för att åstadkomma en sådan demoteringsrobot.
US11529741B2 (en) 2018-12-17 2022-12-20 Divergent Technologies, Inc. System and method for positioning one or more robotic apparatuses
US11449021B2 (en) * 2018-12-17 2022-09-20 Divergent Technologies, Inc. Systems and methods for high accuracy fixtureless assembly
CN111383283B (zh) * 2018-12-29 2023-03-10 上海铼钠克数控科技有限公司 机器人的工具坐标系的标定方法及系统
KR102577448B1 (ko) * 2019-01-22 2023-09-12 삼성전자 주식회사 핸드 아이 캘리브레이션 방법 및 시스템
US11340649B2 (en) 2019-02-07 2022-05-24 Blue Eclipse, Llc Two button remote control actuator
US10899012B2 (en) * 2019-02-15 2021-01-26 GM Global Technology Operations LLC Coordinated robot to robot component assembly
CN109848994A (zh) * 2019-02-22 2019-06-07 浙江启成智能科技有限公司 一种机器人视觉引导定位算法
CN109903326B (zh) * 2019-02-28 2022-02-22 北京百度网讯科技有限公司 用于确定工程机械设备的旋转角度的方法和装置
US11254019B2 (en) * 2019-03-05 2022-02-22 The Boeing Company Automatic calibration for a robot optical sensor
CN110009689B (zh) * 2019-03-21 2023-02-28 上海交通大学 一种用于协作机器人位姿估计的图像数据集快速构建方法
US10399227B1 (en) 2019-03-29 2019-09-03 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US10906184B2 (en) 2019-03-29 2021-02-02 Mujin, Inc. Method and control system for verifying and updating camera calibration for robot control
US11259687B2 (en) 2019-04-04 2022-03-01 Biosense Webster (Israel) Ltd. Medical instrument calibration
US20220120602A1 (en) * 2019-04-05 2022-04-21 Daedalus Technology Group, Inc. Calibration System and Method
CN110022393A (zh) * 2019-04-10 2019-07-16 北京易诚高科科技发展有限公司 一种自适应评估手机防抖功能的方法
CN113613850B (zh) * 2019-06-17 2022-08-12 西门子(中国)有限公司 一种坐标系校准方法、装置和计算机可读介质
US10565737B1 (en) * 2019-07-09 2020-02-18 Mujin, Inc. Method and system for performing automatic camera calibration for a scanning system
TWI758626B (zh) * 2019-08-01 2022-03-21 達明機器人股份有限公司 機器手臂的視覺系統定位方法
WO2021087433A1 (en) * 2019-11-01 2021-05-06 True Digital Surgery Robotic surgical navigation using a proprioceptive digital surgical stereoscopic camera system
CN110640747B (zh) * 2019-11-07 2023-03-24 上海电气集团股份有限公司 机器人的手眼标定方法、系统、电子设备和存储介质
CN110640746B (zh) * 2019-11-07 2023-03-24 上海电气集团股份有限公司 机器人的坐标系标定及定位方法、系统、设备、介质
CN110977950B (zh) * 2019-11-12 2021-05-25 长沙长泰机器人有限公司 一种机器人抓取定位方法
CN110772651A (zh) * 2019-11-19 2020-02-11 武汉纺织大学 基于机器视觉的鞋内紫外定向杀菌的方法和装置
CN111089569B (zh) * 2019-12-26 2021-11-30 中国科学院沈阳自动化研究所 一种基于单目视觉的大型箱体测量方法
CN111791227B (zh) * 2019-12-31 2022-03-11 深圳市豪恩声学股份有限公司 机器人手眼标定方法、装置及机器人
CN111098306A (zh) * 2019-12-31 2020-05-05 广东利元亨智能装备股份有限公司 机器人的标定方法、装置、机器人和存储介质
RU2721461C1 (ru) * 2020-02-25 2020-05-19 Ассистирующие Хирургические Технологии (Аст), Лтд Способ управления камерой в роботохирургическом комплексе
EP3871842A1 (en) 2020-02-28 2021-09-01 Hamilton Sundstrand Corporation System and method for member articulation
CN113066132B (zh) * 2020-03-16 2024-06-25 天目爱视(北京)科技有限公司 一种基于多设备采集的3d建模标定方法
CN111522305B (zh) * 2020-04-15 2021-03-30 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) 面向3c装配的双模块协作机器人协调装配系统及规划方法
CN111759463B (zh) * 2020-07-31 2022-03-15 南京普爱医疗设备股份有限公司 一种提高手术机械臂定位精度的方法
CN111991038A (zh) * 2020-08-18 2020-11-27 重庆大学 一种用于毛囊提取的机械结构
US11600022B2 (en) 2020-08-28 2023-03-07 Unity Technologies Sf Motion capture calibration using drones
US20220067968A1 (en) * 2020-08-28 2022-03-03 Weta Digital Limited Motion capture calibration using drones with multiple cameras
US11636621B2 (en) 2020-08-28 2023-04-25 Unity Technologies Sf Motion capture calibration using cameras and drones
TWI748626B (zh) * 2020-08-31 2021-12-01 財團法人工業技術研究院 工具中心點的校正方法、機械手臂的教導方法及應用其之機械手臂系統
CN112264996B (zh) * 2020-10-16 2022-06-14 中冶赛迪上海工程技术有限公司 一种抓钢机定位控制方法及系统
US20240054679A1 (en) * 2020-12-29 2024-02-15 Abb Schweiz Ag Method and apparatus for managing camera system
CN112967343B (zh) * 2021-01-20 2023-01-06 深圳视觉龙智能传感器有限公司 一种实现2d相机引导2.5d贴装的算法
EP4062818A1 (en) * 2021-03-22 2022-09-28 BHS Technologies GmbH Medical imaging system, deflection unit and method for calibrating a medical imaging system
EP4326498A1 (en) * 2021-04-23 2024-02-28 Divergent Technologies, Inc. Robot calibration
CN113203412A (zh) * 2021-05-07 2021-08-03 江苏俱为科技有限公司 一种多模态传感的定位引导方法
US20220392012A1 (en) * 2021-06-07 2022-12-08 Alcon Inc. Optical axis calibration of robotic camera system
CN113499137B (zh) * 2021-07-07 2022-07-12 南开大学 一种手术机器人导航定位系统及测量视角多目标优化方法
US11684799B2 (en) 2021-08-28 2023-06-27 Cutera, Inc. Image guided laser therapy
CN113820070B (zh) * 2021-09-23 2024-04-30 浙江理工大学 基于机器视觉和扭摆法的刚体转动惯量测量方法及系统
CN114095657B (zh) * 2021-11-22 2024-02-27 成都天翼空间科技有限公司 一种基于新增摄像头的自动校准的方法与系统
CN114359394B (zh) * 2022-03-17 2022-06-17 季华实验室 一种双目视觉的定位方法、装置、电子设备及存储介质
CN114750151B (zh) * 2022-03-31 2023-09-12 歌尔科技有限公司 标定方法、装置、电子设备及计算机可读存储介质
CN114920000A (zh) * 2022-04-22 2022-08-19 歌尔科技有限公司 搬运装置、机械设备以及搬运装置的控制方法
WO2023238039A1 (en) * 2022-06-07 2023-12-14 Venus Concept Inc. Method and device for treating the skin
CN115179294A (zh) * 2022-08-02 2022-10-14 深圳微美机器人有限公司 机器人控制方法、系统、计算机设备、存储介质
CN115589531B (zh) * 2022-09-13 2023-10-20 深圳市拓普智造科技有限公司 目标场景的拍摄方法、系统及存储介质
WO2024058499A1 (ko) * 2022-09-16 2024-03-21 주식회사 오대 모발이식 영역의 좌표 데이터 생성 방법 및 장치
KR102598858B1 (ko) * 2022-09-16 2023-11-08 주식회사 오대 모발이식 영역의 좌표 데이터 생성 방법 및 장치
CN115294217B (zh) * 2022-10-10 2022-12-09 季华实验室 一种视觉实验平台标定方法、定位方法及相关设备
FR3140979A1 (fr) * 2022-10-13 2024-04-19 Inbolt Procédé de détermination d’une position d’une zone d’un outil
CN115969418B (zh) * 2022-11-07 2023-08-15 珠海市人民医院 一种核酸检测口腔采集点识别方法
CN117817671B (zh) * 2024-02-21 2024-06-21 北京迁移科技有限公司 基于视觉引导的机器人系统及机器人系统校准方法
CN117901142B (zh) * 2024-03-15 2024-06-04 陇东学院 基于超声波机器人的特种加工方法及相关产品

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814828A (ja) * 1994-06-29 1996-01-19 Kobe Steel Ltd ステレオ画像センサのキャリブレーション方法及びその装置
US6256099B1 (en) * 1998-11-06 2001-07-03 Frederick Kaufman Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
JP2007309660A (ja) * 2006-05-16 2007-11-29 Roland Dg Corp 3次元形状測定装置におけるキャリブレーション方法
JP2008176791A (ja) * 2007-01-18 2008-07-31 Ricoh Co Ltd グラウンドトルース・データからの合成画像及びビデオの生成
JP2009509671A (ja) * 2005-09-30 2009-03-12 レストレーション ロボティクス,インク. 毛嚢ユニットの採収および移植用の自動システム
JP2010028820A (ja) * 2008-07-23 2010-02-04 Pixart Imaging Inc 広角センサーアレイモジュール、並びにそのイメージキャリブレーション方法、動作方法、及びアプリケーション
WO2011079258A1 (en) * 2009-12-24 2011-06-30 Cognex Corporation System and method for runtime determination of camera miscalibration

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69720150T2 (de) 1996-05-29 2004-01-08 Northern Digital Inc., Waterloo Bildschirmgesteuertes chirurgisches system
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6228089B1 (en) * 1997-12-19 2001-05-08 Depuy International Limited Device for positioning and guiding a surgical instrument during orthopaedic interventions
US6083167A (en) * 1998-02-10 2000-07-04 Emory University Systems and methods for providing radiation therapy and catheter guides
US6973202B2 (en) 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US6720988B1 (en) 1998-12-08 2004-04-13 Intuitive Surgical, Inc. Stereo imaging system and method for use in telerobotic systems
US6585746B2 (en) 2000-04-20 2003-07-01 Philip L. Gildenberg Hair transplantation method and apparatus
US6917702B2 (en) 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
US7231063B2 (en) 2002-08-09 2007-06-12 Intersense, Inc. Fiducial detection system
US7386365B2 (en) 2004-05-04 2008-06-10 Intuitive Surgical, Inc. Tool grip calibration for robotic surgery
US7660623B2 (en) 2003-01-30 2010-02-09 Medtronic Navigation, Inc. Six degree of freedom alignment display for medical procedures
JP4167940B2 (ja) * 2003-05-29 2008-10-22 ファナック株式会社 ロボットシステム
US20050096515A1 (en) 2003-10-23 2005-05-05 Geng Z. J. Three-dimensional surface image guided adaptive therapy system
JP4021413B2 (ja) * 2004-01-16 2007-12-12 ファナック株式会社 計測装置
US20050276377A1 (en) * 2004-06-10 2005-12-15 Carol Mark P Kilovoltage delivery system for radiation therapy
US7426318B2 (en) 2004-06-30 2008-09-16 Accuray, Inc. Motion field generation for non-rigid image registration
JP4726194B2 (ja) 2005-04-01 2011-07-20 キヤノン株式会社 キャリブレーション方法及び装置
US20070078466A1 (en) 2005-09-30 2007-04-05 Restoration Robotics, Inc. Methods for harvesting follicular units using an automated system
US7962192B2 (en) * 2005-09-30 2011-06-14 Restoration Robotics, Inc. Systems and methods for aligning a tool with a desired location or object
US7747050B2 (en) 2005-11-23 2010-06-29 General Electric Company System and method for linking current and previous images based on anatomy
CN101448468B (zh) 2006-05-19 2011-10-12 马科外科公司 用于验证外科手术装置的校准的系统和方法
US7620144B2 (en) 2006-06-28 2009-11-17 Accuray Incorporated Parallel stereovision geometry in image-guided radiosurgery
US20080091373A1 (en) * 2006-07-31 2008-04-17 University Of New Brunswick Method for calibrating sensor positions in a human movement measurement and analysis system
US8417318B2 (en) 2007-02-22 2013-04-09 Accuray Incorporated Calibrating tracking systems to remove position-dependent bias
US7623623B2 (en) 2007-06-29 2009-11-24 Accuray Incorporated Non-collocated imaging and treatment in image-guided radiation treatment systems
DE602007003849D1 (de) * 2007-10-11 2010-01-28 Mvtec Software Gmbh System und Verfahren zur 3D-Objekterkennung
EP2070664A1 (en) 2007-12-14 2009-06-17 Montanuniversität Leoben Object processing system
US8160345B2 (en) * 2008-04-30 2012-04-17 Otismed Corporation System and method for image segmentation in generating computer models of a joint to undergo arthroplasty
US8086004B2 (en) 2008-01-15 2011-12-27 Accuray Incorporated Use of a single X-ray image for quality assurance of tracking
JP4513906B2 (ja) * 2008-06-27 2010-07-28 ソニー株式会社 画像処理装置、画像処理方法、プログラム及び記録媒体
US8848974B2 (en) 2008-09-29 2014-09-30 Restoration Robotics, Inc. Object-tracking systems and methods
WO2010045271A1 (en) * 2008-10-14 2010-04-22 Joshua Victor Aller Target and method of detecting, identifying, and determining 3-d pose of the target
US8048090B2 (en) 2009-03-11 2011-11-01 Restoration Robotics, Inc. System and method for harvesting and implanting hair using image-generated topological skin models
US8223193B2 (en) 2009-03-31 2012-07-17 Intuitive Surgical Operations, Inc. Targets, fixtures, and workflows for calibrating an endoscopic camera
JP4621789B2 (ja) * 2009-06-02 2011-01-26 ファナック株式会社 物品搬送ロボットシステム
CN101577002B (zh) * 2009-06-16 2011-12-28 天津理工大学 应用于目标检测的鱼眼镜头成像系统标定方法
US9393694B2 (en) 2010-05-14 2016-07-19 Cognex Corporation System and method for robust calibration between a machine vision system and a robot
US8957948B2 (en) * 2010-08-24 2015-02-17 Siemens Corporation Geometric calibration of head-worn multi-camera eye tracking system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0814828A (ja) * 1994-06-29 1996-01-19 Kobe Steel Ltd ステレオ画像センサのキャリブレーション方法及びその装置
US6256099B1 (en) * 1998-11-06 2001-07-03 Frederick Kaufman Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
JP2009509671A (ja) * 2005-09-30 2009-03-12 レストレーション ロボティクス,インク. 毛嚢ユニットの採収および移植用の自動システム
JP2007309660A (ja) * 2006-05-16 2007-11-29 Roland Dg Corp 3次元形状測定装置におけるキャリブレーション方法
JP2008176791A (ja) * 2007-01-18 2008-07-31 Ricoh Co Ltd グラウンドトルース・データからの合成画像及びビデオの生成
JP2010028820A (ja) * 2008-07-23 2010-02-04 Pixart Imaging Inc 広角センサーアレイモジュール、並びにそのイメージキャリブレーション方法、動作方法、及びアプリケーション
WO2011079258A1 (en) * 2009-12-24 2011-06-30 Cognex Corporation System and method for runtime determination of camera miscalibration
JP2013515959A (ja) * 2009-12-24 2013-05-09 コグネックス・コーポレイション カメラのミスキャリブレーションの実行時決定のためのシステムと方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YIU CHEUNG SHIU ET AL: "Calibration of Wrist-Mounted Robotic Sensors by Solving Homogeneous Transform Equations of the Form", IEEE TRANSACTIONS ON ROBOTICS AND AUTOMATION, vol. 5, no. 1, JPN6014024308, February 1989 (1989-02-01), US, pages 16 - 29, XP000086744, ISSN: 0002987378, DOI: 10.1109/70.88014 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11273558B2 (en) 2014-01-17 2022-03-15 Brooks Automation Us, Llc Substrate transport apparatus
JP2017504492A (ja) * 2014-01-17 2017-02-09 ブルックス オートメーション インコーポレイテッド 基板搬送装置
JP2016187148A (ja) * 2015-03-27 2016-10-27 沖電気工業株式会社 画像処理装置、方法及びプログラム、並びに画像処理システム
JP2017077614A (ja) * 2015-10-22 2017-04-27 キヤノン株式会社 教示点補正方法、プログラム、記録媒体、ロボット装置、撮影点作成方法、及び撮影点作成装置
JP2018153910A (ja) * 2016-12-22 2018-10-04 セイコーエプソン株式会社 制御装置、ロボット、およびロボットシステム
JP7067017B2 (ja) 2016-12-22 2022-05-16 セイコーエプソン株式会社 制御装置およびロボットシステム
JP2019029820A (ja) * 2017-07-31 2019-02-21 セイコーエプソン株式会社 カメラの校正方法および校正用具
JP2019089188A (ja) * 2017-11-16 2019-06-13 株式会社東芝 作動システムおよびプログラム
JP2021507763A (ja) * 2017-12-22 2021-02-25 アクラレント インコーポレイテッドAcclarent, Inc. 外科ナビゲーションシステム用の顔面の目印を登録する装置及び方法
JP7271551B2 (ja) 2017-12-22 2023-05-11 アクラレント インコーポレイテッド 外科ナビゲーションシステム用の顔面の目印を登録する装置及び方法
KR102002785B1 (ko) 2018-01-10 2019-07-23 한국과학기술연구원 영상 기반의 위치정보를 이용한 카메라간 좌표계 교정 장치 및 방법
KR20190085237A (ko) * 2018-01-10 2019-07-18 한국과학기술연구원 영상 기반의 위치정보를 이용한 카메라간 좌표계 교정 장치 및 방법
JP2021523488A (ja) * 2018-05-16 2021-09-02 ブイタッチ・カンパニー・リミテッド 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
JP7161550B2 (ja) 2018-05-16 2022-10-26 ブイタッチ・カンパニー・リミテッド 関心領域の空間座標を算出する方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体
JP2019211337A (ja) * 2018-06-05 2019-12-12 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
JP7204346B2 (ja) 2018-06-05 2023-01-16 キヤノン株式会社 情報処理装置、システム、情報処理方法及びプログラム
JP2020082231A (ja) * 2018-11-19 2020-06-04 Dmg森精機株式会社 測定方法
WO2023100234A1 (ja) * 2021-11-30 2023-06-08 オリンパス株式会社 内視鏡システムおよび座標系補正方法

Also Published As

Publication number Publication date
CN103702607A (zh) 2014-04-02
EP2729060A4 (en) 2014-05-14
KR101495011B1 (ko) 2015-02-23
EP2729060A2 (en) 2014-05-14
KR20140012771A (ko) 2014-02-03
US9542743B2 (en) 2017-01-10
WO2013009510A3 (en) 2013-05-02
US20130010081A1 (en) 2013-01-10
US9188973B2 (en) 2015-11-17
JP5688825B2 (ja) 2015-03-25
WO2013009510A2 (en) 2013-01-17
CN103702607B (zh) 2015-11-25
US20160035079A1 (en) 2016-02-04

Similar Documents

Publication Publication Date Title
JP5688825B2 (ja) カメラシステムの座標系の較正および変換
JP5307246B2 (ja) 毛包単位の追跡
US20210225032A1 (en) Multiple camera calibration
US10803634B2 (en) Reconstruction of three dimensional model of an object compensating for object orientation changes between surface or slice scans
CN117122414A (zh) 一种主动跟踪式手术导航系统
TWI774537B (zh) 用於毛髮毛囊擷取的系統及方法
US20180293764A1 (en) Reconstruction of three dimensional model of an object compensating for object orientation changes between surface or slice scans
US20230248467A1 (en) Method of medical navigation
US12016642B2 (en) Constellations for tracking instruments, such as surgical instruments, and associated systems and methods
Zeng et al. A novel reconstruction model of multi-camera positioning system based on neural network
US20230355319A1 (en) Methods and systems for calibrating instruments within an imaging system, such as a surgical imaging system
Wu et al. A Novel Method for Preoperative 6D Pose Estimation of Rat Skull Based on 3D Vision Techniques
Ayadi et al. Fully automatic needle calibration for robotic-assisted puncture on small animals
WO2023235804A1 (en) Methods and systems for calibrating and/or verifying a calibration of an imaging system such as a surgical imaging system
CN117357217A (zh) 一种经皮穿刺机械臂的系统标定方法
KR20230162209A (ko) 겐트리 탑재형 3d 형상 스캐닝 장치 및 이를 이용한 스캐닝 방법

Legal Events

Date Code Title Description
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20140603

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140617

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140916

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140924

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150120

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150123

R150 Certificate of patent or registration of utility model

Ref document number: 5688825

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250