JP5814938B2 - リアルタイム速度最適化を使用した校正不要のビジュアルサーボ - Google Patents

リアルタイム速度最適化を使用した校正不要のビジュアルサーボ Download PDF

Info

Publication number
JP5814938B2
JP5814938B2 JP2012547558A JP2012547558A JP5814938B2 JP 5814938 B2 JP5814938 B2 JP 5814938B2 JP 2012547558 A JP2012547558 A JP 2012547558A JP 2012547558 A JP2012547558 A JP 2012547558A JP 5814938 B2 JP5814938 B2 JP 5814938B2
Authority
JP
Japan
Prior art keywords
robot
tracking
vector
digital video
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012547558A
Other languages
English (en)
Other versions
JP2013516264A5 (ja
JP2013516264A (ja
Inventor
ポポビッチ,アレクサンドラ
シーンフラパ,ポール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2013516264A publication Critical patent/JP2013516264A/ja
Publication of JP2013516264A5 publication Critical patent/JP2013516264A5/ja
Application granted granted Critical
Publication of JP5814938B2 publication Critical patent/JP5814938B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • Y10S901/15Jointed arm
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Mechanical Engineering (AREA)
  • Molecular Biology (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Veterinary Medicine (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)

Description

本発明は、一般的には、ロボットプロセスにおけるロボットのビジュアルサーボに関する。特には、本発明は、低侵襲手術(minimally invasive surgery)における内視鏡ロボットのビジュアルサーボに関するものである。
一般的に、低侵襲手術は、画像処理能力を有する、長くて、フレキシブルな、もしくはリジッド(rigid)な内視鏡を利用している。内視鏡を身体の自然開口部または小さな切り口から体内に挿入することにより、内視鏡は、外科医が手術を行う際に、アイピースを通して、もしくはスクリーン上で観察できる、関心領域の映像を提供する。
ビジュアルサーボとは、ビジュアル入力(画像入力)を使用してロボットの動作パラメーターを設定する、ロボットの制御方法である。この方法は、目標追従型ロボットや、自律型ロボットについて、使用されている。外科手術用のロボットにおいて、ビジュアルサーボは、解剖学上の対象(例えば、臓器)または外科的な対象(例えば、器官)に向かってロボットを案内するように、医学的画像のコントロールループにおいて使用されている。この領域におけるビジュアルサーボの標準的な画像のモダリティ(modality)は、リジッドな内視鏡である。内視鏡のカメラ映像は、ロボットコントロールループに接続され、操作情報を提供している。
ビジュアルサーボのコントロールループを閉じるためには、画像座標(visualcoordination)とロボット関節空間(robotic joint space)との間の数学的変換を確立する必要がある(画像ヤコビアン:Image Jacobian として参照される)。プロセス全体は、システム校正(system calibration)として参照され、カメラ校正やロボット校正といった、種々の段階が必要とされる。さらには、完全な校正を提供するには、カメラ検討中の臓器/対象物との間の深さを、画像から、もしくは特別なセンサーを使用して測定する必要がある。
より特定的には、カメラ校正とは、例えば、画像の光学的中心とか、両方向の焦点距離およびピクセルサイズといった、固有のカメラパラメーターを確立するプロセスである。通常これは、術前に行われるもので、校正対象物(通常は、チェス盤のようなもの)のいくつかの画像の獲得と、これらの画像からのパラメーターの算出を含んでいる。もし、いくつかのパラメーターが、手術の最中に変更になれば(例えば、カメラの焦点が変化する)カメラ校正を繰り返す必要がある。
ロボット校正とは、ロボットの関節空間と先端効果器(end−effector)、つまり、この領域においては内視鏡、との間の数学的な関係を確立するプロセスである。このプロセスは、簡単なプロセスであり、実際にもうまく確立されている。しかしながら、通常は、校正を実行するためには技術的なエキスパートを必要とする。もし、ユーザーまたは外科医が、ロボットに対して内視鏡を移動したならば、ロボット校正を繰り返す必要がある。
特に内視鏡手術について、医療用ロボットのビジュアルサーボを解決するための異なった手法が提案されてきている、しかしながら、これらの全ての手法は、画像ヤコビアンに依存しており、当業者者にとって知られるように、多くの欠点を経験する
本発明は、画像ヤコビアン、もしくは内視鏡画像からの深さ認識に依存しない、ビジュアルサーボ技術を提供する。より特定的には、本発明に係るビジュアルサーボ技術は、内視鏡の校正、もしくはロボットに対する内視鏡の相対的な位置の獲得、をする必要のない内視鏡を有するロボットを含んでいる。本発明に係るビジュアルサーボ技術は、さらに、ハードウェアのいかなる調整もなく、そして手術ワークフローにプロセスを追加することもなく、一般的な内視鏡と共に使用されるロボットシステムを実現する。
本発明の一つの形態は、カメラ(例えば、内視鏡)と、ロボットと、ロボットコントローラーを有するロボットシステムである。カメラは、画像を示すデジタルビデオフレームを獲得するための光学的視野(例えば、前方または斜め方向)を有している。ロボットは、先端効果器を有しており、先端効果器を巧みに操縦するための一つまたはそれ以上の関節を有している。ロボットコントローラーは、デジタルビデオフレームの中の画像特徴(image feature)に対する先端効果器の姿勢をコントロールするためのビジュアルサーボを含んでいる。こうして、ビジュアルサーボは、追跡ポイント(tracking point)から画像特徴に関する目標ポイント(target point)へ延びる、デジタルビデオフレームの画像座標系における追跡ベクトル(tracking vector)を定め、先端効果器に関するロボット座標系から組み立てられた構成空間(configuration space)において追跡ベクトルをマップ(map)し、そして構成空間における追跡ベクトルのマップからロボット座標系における先端効果器の姿勢を導出する
本発明の第二の形態は、光学的視野を有するカメラと、先端効果器と先端効果器を巧みに操縦するための一つまたはそれ以上の関節を持ったロボットと、を含んだロボットコントロール方法である。ロボットコントロール方法は、カメラによって光学的に視認された画像示すデジタルビデオフレームを獲得することを含み、デジタルビデオフレームにおける画像特徴に対する先端効果器の姿勢をコントロールするためのビジュアルサーボの実行を含む。ビジュアルサーボは、追跡ポイントから画像特徴に関する目標ポイントへ延びる、デジタルビデオフレームの画像座標系における追跡ベクトルを定めること、先端効果器に関するロボット座標系から組み立てられた構成空間において追跡ベクトルをマップすること、そして構成空間における追跡ベクトルのマップからロボット座標系における先端効果器の姿勢を導出すること、を含んでいる。
図1は、本発明に従って、ロボットシステムの典型的な実施例を示している。 図2は、本発明に従って、ロボットコントロールループの典型的な実施例を示している。 図3は、図2に示すロボットコントロールループに従って、デジタルビデオフレームの典型的なシーケンスを示している。 図4は、図2に示すロボットコントロールループに従って、デジタルビデオフレームの典型的なシーケンスを示している。 図5は、図2に示すロボットコントロールループに従って、デジタルビデオフレームの典型的なシーケンスを示している。 図6は、図2に示すロボットコントロールループに従って、デジタルビデオフレームの典型的なシーケンスを示している。 図7は、本発明に従って、ロボットコントロール方法の典型的な実施例を表すフローチャートを示している。 図8は、本発明に従って、方向設定方法の典型的な実施例を表すフローチャートを示している。 図9は、図8に示すフローチャートに従って、先端効果器の姿勢を決定する第一の典型的なシーケンスを示している。 図10は、図8に示すフローチャートに従って、先端効果器の姿勢を決定する第一の典型的なシーケンスを示している。 図11は、図8に示すフローチャートに従って、先端効果器の姿勢を決定する第一の典型的なシーケンスを示している。 図12は、図8に示すフローチャートに従って、先端効果器の姿勢を決定する第二の典型的なシーケンスを示している。 図13は、図8に示すフローチャートに従って、先端効果器の姿勢を決定する第二の典型的なシーケンスを示している。 図14は、図8に示すフローチャートに従って、先端効果器の姿勢を決定する第二の典型的なシーケンスを示している。 図15は、本発明に従って、光学的ビジュアルサーボ方法の第一の典型的な実施例を表すフローチャートを示している。 図16は、本発明に従って、光学的ビジュアルサーボ方法の第二の典型的な実施例を表すフローチャートを示している。 図17は、本発明に従って、速さファクターの典型的な安定化について示している。 図18は、本発明に従って、速さ調整方法の典型的な実施例を表すフローチャートを示している。 図19は、本発明に従って、方向調整方法の典型的な実施例を表すフローチャートを示している。 図20は、本発明に従って、目標プローブ方法の典型的な実施例を表すフローチャートを示している。
図1に示すように、ロボットシステム20は、カメラ30と、ロボット40と、ロボット40の自動操縦機能を含むあらゆるロボット工程のためのロボットコントローラー50を有している。このようなロボット工程の例としては、これらに限定されるわけではないが、医療工程、組立ライン工程、そして可動性ロボットを含んだ工程、がある。特に、ロボットシステム20は、これらに限定されるわけではないが、低侵襲心臓手術(例えば、冠状動脈バイパス移植または左房室弁交換)、低侵襲腹部手術(腹腔鏡検査)(例えば、前立腺摘出手術または胆嚢切除手術)、および経管腔的内視鏡手術(natural orifice translumenal endoscopic surgery)を含む医療工程のために利用されている。
カメラ30は、前方の光学的視野もしくは斜め方向の光学的視野を持ち、規定のフレームレート(例えば、毎秒30フレーム)で連続した2次元のデジタルビデオフレーム32を取り込むことができる、あらゆるタイプのフレーム取り込み装置31を備えた、あらゆるタイプのカメラであり得る。一つの典型的な実施例において、カメラ30は、前方の光学的視野もしくは斜め方向の光学的視野を有し、各デジタルビデオフレーム32をロボットコントローラー50へ提供することができるデジタルフレーム取り込み装置を利用する画像装置(例えば、光ファイバー、レンズ、CCDベースの小型画像システム、など)を介して、体の(例えば、人間でも動物でも)解剖学的部位の画像を取るために構成されたあらゆる装置であるとして、ここにおいて広く定義された内視鏡である。内視鏡の例としては、これらに限定されるわけではないが、あらゆるタイプの画像スコープ(例えば、気管支鏡、大腸内視鏡、腹腔鏡、関節鏡、など)および画像装置に備え付けのスコープに類似したあらゆる装置(例えば、画像用カニューレ)を含んでいる。
ロボット40は、特定のロボット工程のために要求されるように、ロボット40の先端効果器42を巧みに操縦するための一つまたはそれ以上の関節41をモーターでコントロールするように構成された、あらゆるロボット装置であるとして、ここでは広く定義される。実際問題として、ロボット40は、最低限4次の自由度を有し、望ましくは、6次もしくは7次の自由度を有し得る。
先端効果器42の姿勢は、ロボット40の座標系における先端効果器42の位置と方向のことであり、先端効果器42の姿勢が与えられると、ロボット40の座標系におけるカメラ40の光学的視野の姿勢が定まる。このように、カメラ0は、先端効果器42に取り付けられ得る(例えば、医療工程において、体の解剖学的部位の画像を提供するためにロボット40に取り付けられた内視鏡)。
前方の光学的視野をもったカメラ30を備えたロボット40の実施例として、ロボット40は、カメラ30のあらゆる仮の向きを許容することができる(例えば、カメラ30の長手方向の軸まわりに、カメラ30を術中に手動で回転させる)。斜め方向の光学的視野をもったカメラ30を備えたロボット40の実施例として、ロボット40は、カメラ30の長手方向の軸まわりにカメラ30を回転するための特定の関節を持つことができる。
ロボットコントローラー50は、先端効果器42の望ましい姿勢を達成するために必要な、それぞれのロボット関節41の最終的な動作を命令することにより、特定のロボット工程のために必要とされるように先端効果器42の姿勢をコントロールするために、一つまたはそれ以上のロボットコントロール命令(Robot Control Command:RCC)52をロボット40に与えるように構成された、あらゆるコントローラーであるとして、ここでは広く定義される。
例えば、カメラ30が先端効果器42に取り付けられた内視鏡である場合、ロボットコントロール命令52、外科医に一貫した先端部の画像を提供するように、内視鏡によって外科手術用ツールの機器先端部の追跡を促進するために、もしくは心臓病手術における血管といった特定の解剖学的部位に向かって内視鏡を操縦するために、もしくは臓器の解剖学的視野に係る安定した画像を提供するように、内視鏡と臓器を生理的に同時に移動させるために必要なように、一つまたはそれ以上のロボット関節41を動作させることができる
デジタルビデオフレーム32における画像の特徴をロボット追跡(robotic tracking)するために、ロボットコントローラー50は、それぞれのデジタルビデオフレーム32における画像の特徴に対する先端効果器42の姿勢をコントロールするためのビジュアルサーボ51を有する。特に、ビジュアルサーボ51は、デジタルビデオフレーム32における特定の画像特徴の決定された目標ポイント(例えば、一つまたはそれ以上のピクセル)静的な(static)、もしくは動的な(dynamic)ロボット追跡を、デジタルビデオフレーム32における、追跡ポイント(例えば、一つまたはそれ以上のピクセル)から目標ポイントまで延びる追跡ベクトルを自動的に特定する適応性のある(adaptive)アルゴリズムを実行することによって、実施する
このために、図2に示すように、ビジュアルサーボ51は、特徴追跡工程53、方向設定工程55、および逆運動学工程57を、ロボットコントロールのクローズドループ21において、フレーム取り込み装置31によって実施される画像取り込み工程33とロボット関節41のコントロールされた動作43と共に、実施する。実際には、工程53、55および57は、あらゆるプラットフォーム(例えば、一般的なコンピューター、ASICボード、など)に取り込まれた、ハードウェア、ソフトウェア、及び/又はファームウェアにより実現されるビジュアルサーボ51(図示なし)のモジュールによって実行され得る。
図2において、特徴追跡工程53は、従来技術として知られているように、デジタルビデオフレーム32における特定の画像特徴の目標ポイントを特定するために、デジタルビデオフレーム32を個別に処理することを含む。例えば、図3から図6は、黒字のXとしてシンボル化された特定の画像特徴の目標ポイントTGの4つのデジタルビデオフレーム32を示している。この図3から図6の例においては、特定の特徴とは、外科手術用ツールの機器先端部であって、カメラ30は外科医に一貫した先端部の画像を提供する内視鏡であり得るか、もしくは、特定の特徴とは、血管または臓器といった、特定の解剖学的特徴の限定的な部位であり得る。
再び図2であるが、特徴追跡工程53は、それぞれのデジタルビデオフレーム32における目標ポイントの追跡された移動を示す2次元の画像データ(2DID)54を生成する。次に、方向設定工程55は、それぞれのデジタルビデオフレーム32について、追跡ポイントから目標ポイントに延びる追跡ベクトル(例えば、追跡方向と追跡速さ)を特定するために2D(2次元)データ54を処理する。追跡ベクトルの特定では、追跡ポイントから目標ポイントに延びる固定の追跡方向を設定し、追跡速さを設定する。追跡速さも固定され得るか、代替的には目標ポイントの追跡を最適化するために調整され得る。あらゆる大きさの、もしくは最小の大きさの追跡ベクトルをもった、それぞれのデジタルビデオフレーム32について、方向設定工程55は、デジタルビデオフレーム32における画像特徴に対するロボット40の先端効果器42の望ましい姿勢を示す3次元のロボットデータ(3DRD)56を生成する。逆運動学工程57は、デジタルビデオフレーム32における画像特徴に対する先端効果器42の望ましい姿勢を達成するように、ロボット関節41の適切な関節動作43のために必要な一つまたはそれ以上のロボットコントロール命令52を生成するために、従来技術として知られているように3D(3次元)データ56を処理する。
例えば、図3から図6は、白抜きのXとしてシンボル化された追跡ポイントTRから目標ポイントTGまで延びる追跡ベクトルの特定について図示している。特に、図3は、追跡ポイントTRにおいて初期化された目標ポイントTGを有するデジタルビデオフレーム32(1)を示している。図4に示すように、デジタルビデオフレーム32(2)において目標ポイントTGが追跡ポイントTRから離れて動くと、方向設定工程55は、追跡ポイントTRから目標ポイントTGに向かう矢印によってシンボル化された追跡ベクトルを特定する。追跡ベクトルを特定することにより、方向設定工程55は、デジタルビデオフレーム32(3)の目標ポイントTGの方向に、デジタルビデオフレーム32(2)における追跡ポイントTRを動かすための追跡方向を設定する。そして、デジタルビデオフレーム32(2)における画像特徴に対するロボット40の先端効果器42の望ましい姿勢を決定するために、追跡ベクトルの追跡方向と追跡速さを利用する。次に、逆運動学工程57は、デジタルビデオフレーム32(2)における画像特徴に対する先端効果器42の望ましい姿勢を達成するように、ロボット関節41の適切な関節動作43のために必要なロボットコントロール命令52を生成する。
図5に示すように、デジタルビデオフレーム32(3)では、追跡ポイントTRは目標ポイントTGの方向に動いているが、目標ポイントTGは、まだ追跡ポイントTRから離れている。方向設定工程55は、再び、追跡ポイントTRから目標ポイントTGに向かう矢印によってシンボル化された追跡ベクトルを特定する。追跡ベクトルを特定することにより、方向設定工程55は、デジタルビデオフレーム32(5)(図示なし)の目標ポイントTGの方向に、デジタルビデオフレーム32(4)における追跡ポイントTRを動かすための追跡方向を設定する。そして、デジタルビデオフレーム32(3)における画像特徴に対する先端効果器42の望ましい姿勢を決定するために、追跡ベクトルの追跡方向と追跡速さを利用する。再び、逆運動学工程57は、デジタルビデオフレーム32(4)における画像特徴に対するロボット40の先端効果器42の望ましい姿勢を達成するように、ロボット関節41の適切な関節動作43のために必要なロボットコントロール命令52を生成する。
図6に示すように、デジタルビデオフレーム32(4)では、追跡ポイントTRと目標ポイントTGは、再び一致している。このように、デジタルビデオフレーム32(4)の追跡ベクトルはゼロであり、ロボットコントローラー50は、後続デジタルビデオフレーム32がゼロでない追跡ベクトルを示すか、もしくは追跡ポイントTRと目標ポイントTGの間の最小量の追跡ベクトルを示すときまで、ロボット関節41を固定状態に維持する。
ここでの図1から図6の記載は、ビジュアルサーボ51の一般的な理解を促進させる。後続の図8から図16に示すビジュアルサーボ51の典型的な実施例は、より詳細なビジュアルサーボ51の理解を促進させる。特に、図15および図16のビジュアルサーボ方法については、追跡速度は、必要に応じてそれぞれのビデオフレームにおいて調節されるか、もしくは最適な追跡速度に固定されるまで、あらゆる特定のフレームレートである。
図7は、ビジュアルサーボ51のためにロボットシステム20(図1)によって実行されるロボットコントロール方法の代表的なフローチャート60を示している。特に、フローチャート60は、ビジュアルサーボステージS63のために事前に必要なものとしてロボット校正ステージS61と目標初期化ステージS62を含んでいる。実際問題として、ステージS61の初期導入にあたり、当業者にとっては理解されるであろうように、追跡されるべき新たな画像特徴のために、ステージS62とステージS63だけが実行される必要があろう。
ステージS61は、従来技術として知られているように、ロボット40の関節空間と先端効果器42の間の数学的な関係を確立することを含んだロボット40のロボット校正を包含している。
ステージS62は、従来技術として知られているように、デジタルビデオフレーム32において画像の特定の特徴の目標初期化を包含している。ステージS62の一つの典型的な実施例においては、特定の環境におけるカメラ30の鉛直方向の動き(挿入)は、システム20のユーザーにより設定可能なパラメーターであり、それゆえビジュアルサーボ51による自動的なコントロールを超えたものである。このように、環境の中にカメラ30を挿入した後において、ビジュアルサーボ51によるロボット40の自動的なコントロールは、ロボット40のための2次元的な球形キャップ(spherical cap)を定義するためのシータ角度θとファイ角度φを含む、先端効果器42の2次の自由度で実行され得る。このことは、環境の中にカメラ30を挿入する際にロボット40の仮想リモート回転中心(remote−center−of−rotation:RCM)を確立することを含み得る。仮想RCMは、ロボット40のための球状円錐(spherical conic)な作業空間を定義る特定のピボットポイントまわりのロボット40の動きを固定する(例えば、低侵襲外科手術において患者の体の小さな開口部を通して内視鏡を挿入するポイントである)。球状円錐な作業空間は、当業者にとっては理解されるであろうように、シータ角度θとファイ角度φに基づく2次元の球形キャップに変換される。
カメラ30が内視鏡であるロボットコントローラー50でのRCMの実施例としては、内視鏡に関するRCMポイントは以下により定義される。(1)内視鏡の先端から固定の距離にある内視鏡のシャフトに沿って配置されたマーカーを利用することによるもの、(2)コンピュータープログラムを介したRCMポイントと内視鏡の先端との間の距離のユーザースペックによるもの、(3)内視鏡の先端を望ましい挿入ポイントに位置決めした後でRCMとして挿入ポイントを設定し、望ましい深さまで内視鏡を挿入することによるもの、もしくは(4)ロボット40に関する空間における既定のポイントを利用し、既定のポイントが望ましい挿入ポイントと一致するようにロボット40を位置決めすることによるもの、である。
実際問題として、RCMに基づくロボット40の動きは、フローチャート60のステージS63のビジュアルサーボのためにロボットコントローラー50によって実行される典型的な動作モードであろう。代替的には、ロボットコントローラー50は、カメラ40のための球状円錐な作業空間を定義するステージS63のビジュアルサーボのために、カメラ40の初期位置決めを実施し得る。あらゆる動作モード(RCMでも、そうでなくても)のために、ステージS63は、図2に関連して前述したように、特徴追跡工程53と逆運動学工程57を含んだビジュアルサーボを包含し、図8から図16に示すように、方向設定工程55の典型的な実施例を含む。
特に、図8は、本発明の方向設定方法を表わすフローチャート70を示している。フローチャート70の理解を促進するために、先端効果器42は内視鏡の先端効果器93で表わされる。一つの実施例においては、内視鏡の先端効果器93は、従来技術として知られたあらゆる手段によってロボット40に接続された近位端(proximal end)を有する内視鏡である。
図8において、フローチャート70のステージS71は、それぞれのデジタルビデオフレーム32の2次元の画像座標系80を、3次元であり、2次の自由度を持つロボット40のロボット座標系90にマップすること(mapping)を包含している。ステージS71に示すように一つの実施例においては、画像座標系80は、x軸とy軸を有しており、ロボット座標系90は、ピボットポイント91(例えば、仮想RCM)から、内視鏡の先端効果器93がピボットポイント91まわりに一回転することで輪郭付けされる2次元平面92へ延びる破線によってシンボル化された軸を有する球形キャップである。実際問題として、ピボットポイント91と内視鏡の先端効果器93の遠位端との距離がわかる場合、シータ角度θは、平面92の表面に沿った原点に対する球面キャップの軸まわりの内視鏡の先端効果器93の遠位端の回転の程度を明確に数量化し、ファイ角度φは、内視鏡の先端効果器93の遠位端の、球面キャップの軸からの分離の程度を明確に数量化する。代替的には、実際問題として、ピボットポイント91と内視鏡の先端効果器93の遠位端との距離がわかる場合、シータ角度θは、平面92の表面に沿った原点に対する球面キャップの軸まわりの内視鏡の先端効果器93の遠位端の回転の程度を非明示的に示、ファイ角度φは、内視鏡の先端効果器93の遠位端の、球面キャップの軸からの分離の程度を非明示的に示す
フローチャート70のステージS72は、ロボット座標系90によって定義されるようにシータ角度θとファイ角度φのとり得る範囲に関して、ロボット座標系90の2次元の構成空間100を構築することを包含している。実際問題として、構成空間の構築は、ロボット座標系90の平面92を、構成空間100となる2次元平面へ球面投影することを含んでいる。結果として生じる構成空間100は、二つの設定可能なパラメーターに関する内視鏡の先端効果器93の先端の構成空間の全てを表わしている。
フローチャート70のステージS73は、画像座標系80における追跡ベクトルのマッピングに基づいて、構成空間100においてロボットベクトルをマッピングすることを含む、ロボット座標系90に関して内視鏡の先端効果器93の姿勢を決定することを包含している。特に、複数のデジタルビデオフレームを通して画像座標系80における画像の動きは、構成空間100においてマップされる。このマッピングは、以下の事実の観点で未知のスケールを伴う定性的なものである。すなわち、画像座標系80におけるピクセルでの位置(非明示的にミリメーター単位)は、構成空間100により表わされるように、ロボット座標系90において二つの角度(ラジアン単位)で内視鏡の先端効果器93の姿勢に変換される。
例えば、図9から図11に示すように三つのデジタルビデオフレームを通して、追跡ポイント(白抜きのX)の周りの円によって表わされる最小量の追跡ベクトル(vtrk)を特定することは、追跡ベクトル(vtr)を構成空間100におけるロボットベクトル(vrob)としてマップすることを可能にする。マッピングのスケールが未知であるとしても、画像座標系80における目標ポイントTGの位置は、構成空間100により表わされるように、ロボット座標系90において二つの角度(ラジアン単位)で内視鏡の先端効果器93の姿勢に変換される。このために、画像座標系80における追跡ベクトル(vtrk)の追跡方向は、ロボット座標系90におけるロボットベクトル(vrob)のロボット方向を決定する。次に、逆運動学によって、ロボット座標系90において内視鏡の先端効果器93の姿勢を達成するためにロボット関節41を動かすように処理される。
さらなる例として、図12から図14に示すように三つのデジタルビデオフレームを通して、再び、最小量の追跡ベクトル(vtrk)を特定することは、追跡ベクトル(vtr)を構成空間100におけるロボットベクトル(vrob)としてマップすることを可能にする。そしてまた、マッピングのスケールが未知であるとしても、画像座標系80における目標ポイントTGの位置は、構成空間100により表わされるように、ロボット座標系90において二つの角度(ラジアン単位)で内視鏡の先端効果器93の姿勢に変換される。このために、画像座標系80における追跡ベクトル(vtrk)の追跡方向は、ロボット座標系90におけるロボットベクトル(vrob)のロボット方向を決定する。次に、逆運動学によって、ロボット座標系90において内視鏡の先端効果器93の姿勢を達成するためにロボット40の関節41を動かすように処理される。
図9から図14では、上述のように、画像座標系80と構成空間100の間のマッピングスケールは未知である。このように、追跡ベクトル(vtrk)は正規化され(すなわち、長さが1に設定される)、ロボットベクトル(vrob)として構成空間100に変換される。従ってロボットベクトル(vrob)に関するシータ角度θとファイ角度φの値は、与えられたロボットベクトル(vrob)の方向におけるロボットの単位変位を定義する。実際問題として、ロボット40は速度制御されそれによってロボットの単位変位はシータ角度θとファイ角度φの両方の方向において、ラジアン/秒 で定義されるロボットベクトル(vrob)は正規化されているため、シータ角度θとファイ角度φの方向における速度は、1ラジアン/秒 以下となるべきである。しかしながら、他のパラメーター(例えば、デジタルビデオフレーム32での特徴の深さ、デジタルビデオフレーム32での追跡ポイントの相対速さ、など)によってはロボットベクトル(vrob)の速度は、追跡ポイントTRが目標ポイントTGに到達するのに不十分であり得るし、もしくは追跡ポイントTRが目標ポイントTGをオーバーシュートしてしまうほど速くもあり得る。
画像座標系80と構成空間100の間の未知のマッピングスケールを補償するために、図15のフローチャート110と図16のフローチャート120は、追跡ベクトルの追跡速さ成分を最適化するための、ステージS73で実行され得る最適なビジュアルサーボ方法を表わしている。
図15において、フローチャート110のステージS111は、デジタルビデオフレーム32の二つの連続したサンプルフレームの間で、目標ポイントが追跡ポイントから動かされているたびに、速さファクターの初期化と画像座標系80での追跡ベクトル(vtrk)の特定を含む。実際問題として、速さファクターの初期値は、任意の無次元経験値であり得る(例えば、≦1≧)。ステージS111はさらに、追跡ベクトル(vtrk)と等しい参照ベクトル(vref)の初期化も含んでいる。
フローチャート110のステージS112は、構成作業空間100における追跡ベクトル(vtrk)のマッピングを含んだ構成作業空間100におけるロボットベクトル(vrob)の特定を含んでいる。ステージS112は、さらに、速さファクター(s)とロボットベクトル(vrob)のとしての追跡ベクトルの設定を含んでおり、これにより速さファクター(s)は、ロボットベクトル(vrob)に関するシータ角度θとファイ角度φのラジアン/秒 の値を調整する。追跡速度(s*vrob)はロボット座標空間100にマップされ、それにより、追跡速度(s*vrob)を実行するために必要なロボット運動の指標としての3Dロボットデータを生成するために、対応するシータ角度θとファイ角度φを使用する。
ロボット40は追跡ベクトルに従って動かされるので、追跡ポイントと目標ポイントの間のあらゆる変位は、以下の事実の観点においてデジタルビデオフレーム32の後続フレームから更新されなければならない。すなわち、(1)目標ポイントは、先端効果器42の動きに因って、連続したサンプルデジタル画像フレーム32の画像座標系80において動いている可能性があること、および(2)目標ポイントは、環境の座標系において動いている可能性があること、である。従ってフローチャート110のステージS113からステージS117は、デジタルビデオフレーム32のサンプルレート(sampling rate)で(例えば、デジタルビデオフレーム32のフレーム毎、もしくはデジタルビデオフレーム32の指定されたフレームレートにおいて)、追跡速度を調整するために利用される。
特に、ステージS113は、デジタルビデオフレーム32の連続したサンプルフレームにおける、追跡ポイントと目標ポイントの間の追跡ベクトル(vtrk)の更新を含む。ステージS114は、デジタルビデオフレーム32の連続したサンプルフレームの中にわずかなノイズが存在してもロボット40の安定した位置決めを維持できるように設定された精度閾値(accuracy threshold)よりも、追跡ベクトル(vtrk)が小さいかどうかを決定する。もし、追跡ベクトル(vtrk)が精度閾値よりも小さければ、デジタルビデオフレーム32の次の連続したサンプルフレームにおいて追跡ベクトル(vtrk)を更新するために、フローチャート110はステージS113に戻る。そうでなければ、フローチャート110はステージS115に進み、追跡ベクトル(vtrk)と参照ベクトル(vref)の間の角度が、角度閾値X°(例えば、90°)よりも小さいかを決定する。
もし、追跡ベクトル(vtrk)と参照ベクトル(vref)の間の角度が、角度閾値X°よりも小さければ、次にフローチャート110はステージS116に進み、参照ベクトル(vref)を追跡ベクトル(vtrk)と等しくなるように更新して、速さファクター(s)を増加させる。その後で、ステージS112に戻り、デジタルビデオフレーム32の追加のサンプルフレームのために、必要に応じてループを繰り返す。もし、追跡ベクトル(vtrk)と参照ベクトル(vref)の間の角度が、角度閾値X°に等しいか、より大きければ、次にフローチャート110はステージS117に進み、参照ベクトル(vref)を追跡ベクトル(vtrk)と等しくなるように更新して、速さファクター(s)を減少させる。その後で、ステージS112に戻り、デジタルビデオフレーム32の追加のサンプルフレームのために、必要に応じてループを繰り返す。
実際問題として、もし、システム20のユーザーがカメラ30を回転させれば、追跡ベクトル(vtrk)と参照ベクトル(vref)は方向が変わり得る(例えば、シャフトまわりの内視鏡の回転、または内視鏡の近位端にあるCCDカメラの回転)。もし、このような種類の動作がシステムによって許されていないのであれば、ステージS117は除外することができる。
ステージS113からS117の利点は、追跡速度(s*vrob)の最適化である。特に、もし、デジタルビデオフレーム32の二つのサンプルフレームの間で追跡ポイントが移動している場合、ステージS115は、新たに更新された追跡ベクトル(S113)と以前に更新された参照ベクトル(vref)の間の角度変位を評価して、新たに更新された追跡ベクトル(vtrk)が、以前に更新された参照ベクトル(vref)と同一の一般的方向にあるかどうか(例えば、角度(vtrk,vref)<90°)、または、新たに更新された追跡ベクトル(vtrk)が以前に更新された参照ベクトル(vref)と異なる方向を示しているかどうか(例えば、角度(vtrk,vref)≧90°)を決定する。実際問題として、方向の変化は、0°より大きく90°より小さいあらゆる角度で成される。
同一の一般的方向にいるシナリオにおいては、ロボット40は、目標ポイントをオーバーシュートすることなく、デジタルビデオフレーム32における目標ポイントの方向に追跡ポイントを移動させるために、正しい方向で移動しているとみなされる。このケースでは、ステージS116で、参照ベクトル(vref)が更新され、速さファクター(s)が増加される。そして、ステージS112からS117のもう一つのループにおいて、目標ポイントの追跡は続いている。例えば、図9に示すように、最初の追跡ベクトル(vtrk)は、画像座標系の第一のフレーム80(1)において特定され、構成作業空間100(1)においてロボットベクトル(vrob)をマップするのに利用される。追跡速度(s*vrob)は、それに応じてロボット40が動かされるロボットベクトル(vrob)のために設定され、図10に示すように画像座標系の第二のフレーム80(2)において、追跡ベクトル(vtrk)が更新される。図10の追跡ベクトル(vtrk)は、図9に示される追跡ベクトル(vtrk)と同一の一般的方向にある。このように、参照ベクトル(vref)は、画像座標系80(1)において示される追跡ベクトル(vtrk)として更新され、速さファクター(s)が増加される。ステージS112からステージS117の後続のループにおいて、画像座標系の第二のフレーム80(2)において更新された追跡ベクトル(vtrk)は、構成作業空間100(2)においてロボットベクトル(vrob)をマップするのに利用される。次に、追跡速度(s*vrob)は、それに応じてロボット40が動かされるロボットベクトル(vrob)のために更新され、図11に示すように画像座標系の第三のフレーム80(3)において、新たな追跡ベクトル(vtrk)が特定される。追跡ベクトル(vtrk)(図11での図示なし)は、追跡ポイントを囲む円によってシンボル化されたステージS114での精度閾値より小さい。そして、次の更新された追跡ベクトル(vtrk)が、精度閾値と等しいか、より大きくなるまでは、ロボット40は、固定された位置に設定される
異なる方向にいるシナリオにおいては、ロボット40は、デジタルビデオフレーム32における目標ポイントの方向に追跡ポイントを移動させるために、正しい方向で移動しているとみなされるが、目標ポイントをオーバーシュートするか、もしくは、デジタルビデオフレーム32の連続したサンプルフレームにおいて目標ポイントが変更されている。この両方のケースでは、ステージS116で、参照ベクトル(vref)が更新され、速さファクター(s)が減少される。そして、ステージS112からS117のもう一つのループにおいて、目標ポイントの追跡は続いている。例えば、図12に示すように、最初の追跡ベクトル(vtrk)は、画像座標系の第四のフレーム80(4)において特定され、構成作業空間100(4)においてロボットベクトル(vrob)をマップするのに利用される。追跡速度(s*vrob)は、それに応じてロボット40が動かされるロボットベクトル(vrob)のために設定され、図13に示すように画像座標系の第五のフレーム80(5)において新たな追跡ベクトル(vtrk)が特定される。図13の追跡ベクトル(vtrk)は、図12に示される追跡ベクトル(vtrk)の方向と比較して異なった方向にある。このように、参照ベクトル(vref)は、画像座標系80(4)追跡ベクトル(vtrk)として更新され、速さファクター(s)が減少される。ステージS112からステージS117の後続のループにおいて、画像座標系の第五のフレーム80(5)において更新された追跡ベクトル(vtrk)は、構成作業空間100(5)においてロボットベクトル(vrob)をマップするのに利用される。次に、追跡速度(s*vrob)は、それに応じてロボット40が動かされるロボットベクトル(vrob)のために更新され、図14に示すように画像座標系の第六のフレーム80(6)において、新たな追跡ベクトル(vtrk)が特定される。追跡ベクトル(vtrk)(図14での図示なし)は、追跡ポイントを囲む円によってシンボル化されたステージS114での精度閾値より小さい。そして、次の追跡ベクトル(vtrk)が、精度閾値と等しいか、より大きくなるまでは、ロボット40は、固定された位置に設定される
図16のフローチャート120は、画像座標系80における追跡ベクトルの長さファクター(l)を使用した比例制御(proportional control)を実行することを除いて、フローチャート110(図14)と同義である。長さファクター(l)は、追跡ポイントが目標ポイントからどれだけ離れているかを示しており、ピクセルで表現され得る。このように、長さファクター(l)は、フローチャート120のステージS121でしかるべく初期化され、ロボットベクトル(vrob)の追跡速度は、フローチャート120のステージS122において(s*l*vrob)として表わされ得る。このケースでは、速さファクター(s)の次元は、mm/(s*pixel)である。一つの実施例においては、ステージS126とステージS127での長さファクター(l)の比例制御は、従来技術として知られるPID(proportional−integral−derivative)制御と同様に、長さファクター(l)の微分および積分要素を使って拡張され得る
図9から図14は、速さファクター(s)の最適化について、二つの簡単な例を示している。実際問題として、ステージS112からS117(図15)とステージS122からS127(図16)の有利な点は、ビジュアルサーボ51がリアルタイムで最適な速さファクター(s)を学習していることである。もし、目標ポイントが一定の速度で移動しているとすれば、速さファクター(s)の初期のばらつきは、フレームをカバーする時間t 後の速さファクター(s)の安定化を示す図17に示すように、デジタルビデオフレーム32の複数のフレーム後に安定していく。そうでなければ、もし、追跡ポイントが変動する速度で移動しているとすれば、速さファクター(s)の初期のばらつきは、いくらかのノイズを伴ってデジタルビデオフレーム32の複数のフレームの後で安定する。
実際問題として、図15と図16において示される速さファクター(s)の増加値および減少値は、一定であり得る。代替的には、図18は、本発明の速さ調整方法を表わすフローチャート140を示している。特に、フローチャート140のステージS141は、追跡ポイントの追跡待ち時間(tracking latency)の観点もしくはシステム20のアプリケーションの観点で、追跡速度(s*rob)または(s*l*rob)の速さを評価することを包含する。追跡待ち時間の実施例においては、ロボット40のコントロールは、いかなる与えられた時間においても、できる限り最大のロボット40の速さで、追跡ポイントを追跡するように試みている。このために任意の時間において可能な限り最大の速さで追跡ポイントを追跡しようとして、フローチャート140のステージS142で、速さファクター(s)を調整する目的のために、速さファクター(s)の安定化と追跡待ち時間が評価される。例えば、速さファクター(s)の増加値減少値、低い追跡待ち時間を持つ安定した速さファクター(s)のために、もしくは不安定な速さファクター(s)(例えば、目標ポイントが追跡ポイントをオーバーシュートする)のために、ステージS142において減少される。反対に、速さファクター(s)の増加値および減少値は、高い追跡待ち時間を持つ安定した速さファクター(s)のために、フローチャート140のステージS142で増加される。実際問題として、固有のロボット速さの他に、追跡待ち時間に影響するパラメーターとしては、これらに限定されるわけではないが、追跡ポイントと目標ポイントの間の距離、カメラ30の挿入深さ、カメラ30の先端部とRCM挿入ポイントとの間の距離、がある。にもかかわらず、速さファクター(s)の調整は、パラメーターのいかなる変化にもかかわらず、追跡速度(s*rob)または(s*l*rob)の最適化を維持している。
アプリケーションの実施例においては、ロボット40のコントロールは、デジタルビデオフレーム32において、ロボット40の最大限の速さではなく、アプリケーションに適した速さで追跡ポイントを追跡しようと試みているこのために、追跡速度(s*rob)または(s*l*rob)の速さ範囲は、デジタルビデオフレーム32からビジュアルサーボ51により決定された追跡ポイント、もしくはシステム20の作業者によりビジュアルサーボ51に提供された追跡ポイントの予見された動作の観点から評価される。速さファクター(s)は、ステージS142でしかるべく設定される。例えば、外科手術用ツールの静的な追跡は、小さな震えを無視できるだろうし、それゆえ速さファクター(s)は小さな震えを無視するように設定されるだろう。またも例として、鼓動している心臓の動的な追跡は、心臓の動作における速い変化を含み、それゆえ速さファクター(s)は心臓の動作の速い変化についていくように設定されるだろう。
またも実際問題として、追跡されている特定の特徴はロボット40に関して回転することもあり(例えば、上下動作と左右動作は二つの座標系において同一ではない、特に斜めの光学的視野のカメラがそうである)、ロボット40のコントロールは、目標ポイントにたどり着くことなく目標ポイントのまわりで発振することもある。図19は、目標ポイントまわりのロボット40の潜在的な発振を修正するための、本発明に係る方向評価を表わすフローチャート150を示している。フローチャート150のステージS151は、デジタルビデオフレーム32の二つの所定フレーム間での連続した方向変化の回数を数えることを含、追跡速度(s*rob)または(s*l*rob)の追跡方向の評価を包含する。カウンターが、連続した方向変化の指定した回数に到達すると(望ましくは2回または3回の連続した方向変化)、フローチャート150はステージS152に進み、ロボット40の移動の前に、画像座標系80においてマップされた追跡ベクトル(vtrk)に関して、構成作業空間100においてマップされたロボットベクトル(vrob)を回転する。収束に達する最も早い手法は、構成作業空間を90°、180°、もしくは270°回転に対する四つの象元に分けることである。フローチャート150はステージS112で実行されるが、正しい象元を検出すると、追跡方向がさらに評価されるにつれて、さらなる象元の分割が必要とされるであろう。
またも実際問題として、ロボット40は、斜めの光学的視野のカメラ30のために、一旦挿入ポイント(例えば、RCMポイント)が定義されれば、デジタルビデオフレーム32において特定の特徴を自動的に発見して追跡するように、コントロールされ得る。図20は、画像における特定の特徴を自動的に発見し追跡するための目標プローブ方法(target probe method)を表わすフローチャート160を示している。フローチャート160のステージS161は、挿入ポイントに関する軸まわりのカメラ30の回転を含んだカメラスイープ(camera sweep)を包含している。一旦カメラ30が目標の特徴を発見すれば、上述のように、方向設定の目的のためのロボット座標系90として、フローチャート160のステージS162において、ロボットコントローラー50はスイープの構成を固定する。
本発明は、典型的な見地、特徴および実行に関し述べられてきたが、開示されたシステムおよび方法は、そうした典型的な見地、特徴、及び/又は実行に限定されるものではない。むしろ、ここにおいて提供された記述から、当業者にとっては直ちに明らかなように、開示されたシステムと方法は、本発明の精神もしくは範囲から離れることのない範囲で、変更、代替、拡張することができる。従って、本発明は、明確に、そのような変更、代替、そして拡張を包含している。

Claims (20)

  1. ロボットシステムであって:
    先端効果器および該先端効果器を巧みに操作するための少なくとも一つのロボット関節を有するロボットと;
    画像を示す一連のデジタルビデオフレームを取り込むための光学的視野を有するカメラであり、前記ロボットに取り付けられたカメラと;
    前記カメラおよび前記ロボットと通信するロボットコントローラーであり、該ロボットコントローラーは、デジタルビデオフレームにおける画像特徴に対する前記先端効果器の姿勢をコントロールするためのビジュアルサーボを含ロボットコントローラーと;
    を有し、
    デジタルビデオフレームについて、前記ビジュアルサーボは、追跡ポイントから前記画像特徴に関する目標ポイントへ延びる、前記デジタルビデオフレームの画像座標系における追跡ベクトルを特定
    前記先端効果器に関するシータ角度とファイ角度で表されるロボット座標系から構築された構成空間において前記追跡ベクトルをマップし、
    画像ヤコビアンに拠らず、前記構成空間における前記追跡ベクトルのマッピングから前記ロボット座標系における前記先端効果器の姿勢を導出するように動作可能である
    ことを特徴とするロボットシステム。
  2. 前記カメラは、前記先端効果器に搭載された内視鏡である、
    請求項1に記載のロボットシステム。
  3. 前記ビジュアルサーボは、さらに、前記デジタルビデオフレームにおける前記画像特徴の動きを追跡するように動作可能である、
    請求項1に記載のロボットシステム。
  4. 前記ビジュアルサーボは、さらに、前記先端効果器の少なくとも一つの導出された姿勢を実現するための少なくとも一つのロボット関節の動きを命令するように動作可能である、
    請求項1に記載のロボットシステム。
  5. 追跡ベクトルを特定することが、前記画像座標系における前記追跡ベクトルの追跡方向と追跡速さを含む追跡速度を設定する
    請求項1に記載のロボットシステム。
  6. 前記構成空間において現在マップされた追跡ベクトルの追跡方向は、前記構成空間において以前にマップされた少なくとも二つの追跡ベクトルの間での、指定された回数の連続的な方向の変化に応じて、前記構成空間の少なくとも二つの象元の間で回転される
    請求項5に記載のロボットシステム。
  7. 前記構成空間においてマップされた前記追跡ベクトルの追跡速さは、前記デジタルビデオフレームの連続したサンプルフレームの前記画像特徴の動きの程度に応じて、速さファクターによって調整される、
    請求項5に記載のロボットシステム。
  8. 前記速さファクターは、前記追跡ベクトルの追跡待ち時間と前記ロボットシステムのアプリケーションに応じた速さのうち、少なくとも一つの関数である、
    請求項7に記載のロボットシステム。
  9. 前記構成空間においてマップされた前記追跡ベクトルの追跡速さ、前記追跡ポイントと前記目標ポイントとの間の距離に応じて、長さファクターによって調整される、
    請求項5に記載のロボットシステム。
  10. 前記長さファクターは、比例制御、積分制御、微分制御の、少なくとも一つの関数である、
    請求項9に記載のロボットシステム。
  11. 前記ロボット座標系は、リモート回転中心に対するまわりの前記カメラの回転を表わす、
    請求項1に記載のロボットシステム。
  12. 前記ロボット座標系は、前記カメラがリモート回転中心に対する前記軸まわりに回転されると、前記画像特徴のプローブ及び特定により確立される、
    請求項11に記載のロボットシステム。
  13. 先端効果器および該先端効果器を巧みに操縦するための少なくとも一つの関節を有するロボットと、光学的視野を有するカメラであり、前記ロボットに取り付けられたカメラのためのビジュアルサーボであって、
    前記ビジュアルサーボは;
    デジタルビデオフレームにおける画像特徴の動きを追跡するための、特徴追跡モジュール;および
    前記デジタルビデオフレームの画像座標系において、追跡ポイントから前記画像特徴に関する目標ポイントへ延びる追跡ベクトルを特定し、
    前記先端効果器に関するシータ角度とファイ角度で表されるロボット座標系から構築された構成空間において前記追跡ベクトルをマッピングし
    画像ヤコビアンに拠らず、前記構成空間における前記追跡ベクトルのマッピングから前記ロボット座標系における前記先端効果器の姿勢を導出する
    前記特徴追跡工程のためのモジュールに応答する方向設定工程のためのモジュール;
    を有することを特徴とするビジュアルサーボ。
  14. 前記ビジュアルサーボは、さらに:
    前記先端効果器の少なくとも一つの導出された姿勢を実現するための少なくとも一つのロボット関節の動きを命令する、
    前記方向設定工程のためのモジュールに応答する逆運動学工程のためのモジュール、
    を有する
    請求項13に記載のビジュアルサーボ。
  15. 前記カメラは、前記先端効果器に搭載された内視鏡である、
    請求項13に記載のビジュアルサーボ。
  16. 先端効果器および該先端効果器を巧みに操縦するための少なくとも一つの関節を有するロボットと、光学的視野を有するカメラであり、前記ロボットに取り付けられたカメラと、を含むロボットシステムをコントロールする方法であって、
    前記ロボットシステムが
    前記カメラによって光学的に視られた画像を示す一連のデジタルビデオフレームを獲得すること;および
    デジタルビデオフレームにおける画像特徴に対して先端効果器の姿勢をコントロールするためのビジュアルサーボを実行すること、
    を含み、
    デジタルビデオフレームのための前記ビジュアルサーボは:
    前記デジタルビデオフレームの画像座標系において、追跡ポイントから前記画像特徴に関する目標ポイントへ延びる追跡ベクトルを特定すること、
    前記先端効果器に関するシータ角度とファイ角度で表されるロボット座標系から構築された構成空間において前記追跡ベクトルをマッピングすること、および
    画像ヤコビアンに拠らず、前記構成空間における前記追跡ベクトルのマッピングから前記ロボット座標系における前記先端効果器の姿勢を導出すること、
    を含む、
    ことを特徴とするロボットシステムをコントロールする方法。
  17. 前記ロボットコントロール方法は、さらに、
    前記デジタルビデオフレームにおける前記画像特徴の動きを追跡すること、
    を含む、
    請求項16に記載のロボットシステムをコントロールする方法。
  18. 前記ロボットコントロール方法は、さらに、
    前記先端効果器の少なくとも一つの導出された姿勢を実現するための少なくとも一つのロボット関節の動きを命令すること、
    を含む、
    請求項16に記載のロボットシステムをコントロールする方法。
  19. 追跡ベクトルを特定することが、前記画像座標系における前記追跡ベクトルの追跡方向と追跡速さを含む追跡速度を設定する
    を含む、
    請求項16に記載のロボットシステムをコントロールする方法。
  20. 前記ロボット構成空間は、リモート回転中心に対するまわりの前記カメラの回転を表わす、
    請求項16に記載のロボットシステムをコントロールする方法。
JP2012547558A 2010-01-08 2010-11-17 リアルタイム速度最適化を使用した校正不要のビジュアルサーボ Active JP5814938B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US29322210P 2010-01-08 2010-01-08
US61/293,222 2010-01-08
PCT/IB2010/055245 WO2011083374A1 (en) 2010-01-08 2010-11-17 Uncalibrated visual servoing using real-time velocity optimization

Publications (3)

Publication Number Publication Date
JP2013516264A JP2013516264A (ja) 2013-05-13
JP2013516264A5 JP2013516264A5 (ja) 2015-04-02
JP5814938B2 true JP5814938B2 (ja) 2015-11-17

Family

ID=43498595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012547558A Active JP5814938B2 (ja) 2010-01-08 2010-11-17 リアルタイム速度最適化を使用した校正不要のビジュアルサーボ

Country Status (5)

Country Link
US (2) US8934003B2 (ja)
EP (1) EP2521507B1 (ja)
JP (1) JP5814938B2 (ja)
CN (1) CN102791214B (ja)
WO (1) WO2011083374A1 (ja)

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8923602B2 (en) * 2008-07-22 2014-12-30 Comau, Inc. Automated guidance and recognition system and method of the same
GB201003883D0 (en) * 2010-03-09 2010-04-21 Univ Southampton Apparatus and method for measurement of hand joint movement
EP2369899A1 (en) 2010-03-25 2011-09-28 Koninklijke Philips Electronics N.V. Method for controlling an outdoor lighting system, a computer program product, a controlling device and an outdoor lighting system
US20120197461A1 (en) * 2010-04-03 2012-08-02 Geoffrey Louis Barrows Vision Based Hover in Place
US10231787B2 (en) * 2012-01-12 2019-03-19 Brainlab Ag Method and system for medical tracking using a plurality of camera positions
ES2881537T3 (es) * 2012-03-07 2021-11-29 Transenterix Europe Sarl Sistema de control endoscópico general
US9616573B2 (en) * 2012-05-25 2017-04-11 The Ritsumeikan Trust Robot control apparatus, robot control method, program, recording medium and robot system
JP5766150B2 (ja) * 2012-05-29 2015-08-19 国立大学法人東京工業大学 内視鏡操作システム
CN104427927B (zh) 2012-06-28 2018-04-13 皇家飞利浦有限公司 用于血管可视化和监测的由光纤传感器引导的导航
US9220570B2 (en) * 2012-06-29 2015-12-29 Children's National Medical Center Automated surgical and interventional procedures
CN104298244B (zh) * 2013-07-17 2016-12-28 刘永 一种工业机器人三维实时高精度定位装置的定位方法
US9295372B2 (en) * 2013-09-18 2016-03-29 Cerner Innovation, Inc. Marking and tracking an area of interest during endoscopy
CN103544701B (zh) * 2013-10-15 2016-03-02 中国科学院自动化研究所 一种多路显微视觉标定系统及方法
JP6000928B2 (ja) * 2013-10-24 2016-10-05 オリンパス株式会社 医療用マニピュレータおよび医療用マニピュレータの初期化方法
US11083529B2 (en) 2014-01-24 2021-08-10 Koninklijke Philips N.V. Continuous image integration for robotic surgery
US10945796B2 (en) 2014-02-12 2021-03-16 Koninklijke Philips N.V. Robotic control of surgical instrument visibility
JP6364836B2 (ja) * 2014-03-14 2018-08-01 セイコーエプソン株式会社 ロボット、ロボットシステム、及び制御装置
US9841749B2 (en) 2014-04-01 2017-12-12 Bot & Dolly, Llc Runtime controller for robotic manufacturing system
US9701018B2 (en) 2014-04-01 2017-07-11 Bot & Dolly, Llc Software interface for authoring robotic manufacturing process
US9278449B1 (en) 2014-05-21 2016-03-08 Bot & Dolly, Llc Closed-loop control system for robotic operation
US9555545B2 (en) 2014-05-21 2017-01-31 Bot & Dolly, Llc Systems and methods for time-based parallel robotic operation
US9308647B2 (en) * 2014-06-03 2016-04-12 Bot & Dolly, Llc Systems and methods for instructing robotic operation
WO2016009339A1 (en) 2014-07-15 2016-01-21 Koninklijke Philips N.V. Image integration and robotic endoscope control in x-ray suite
DE102014226240A1 (de) * 2014-12-17 2016-06-23 Kuka Roboter Gmbh System zur roboterunterstützten medizinischen Behandlung
JP6433389B2 (ja) * 2015-08-04 2018-12-05 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
CN108348300A (zh) * 2015-09-29 2018-07-31 皇家飞利浦有限公司 用于机器人辅助微创手术的仪器控制器
US11209954B2 (en) 2015-12-10 2021-12-28 Cmr Surgical Limited Surgical robotic system using dynamically generated icons to represent orientations of instruments
CA3003632A1 (en) * 2015-12-10 2017-06-15 Covidien Lp Robotic surgical systems with independent roll, pitch, and yaw scaling
JP6714085B2 (ja) * 2015-12-29 2020-06-24 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ロボット手術のために仮想現実デバイスを使用するシステム、コントローラ、及び方法
EP3397184A1 (en) * 2015-12-29 2018-11-07 Koninklijke Philips N.V. System, control unit and method for control of a surgical robot
EP3397187A1 (en) 2015-12-30 2018-11-07 Koninklijke Philips N.V. Image based robot guidance
JP7232050B2 (ja) 2016-03-31 2023-03-02 コーニンクレッカ フィリップス エヌ ヴェ 腫瘍吸引のための画像誘導ロボットシステム
CN105643607A (zh) * 2016-04-08 2016-06-08 深圳市中科智敏机器人科技有限公司 一种具备感知和认知能力的智能工业机器人
CN106256310B (zh) * 2016-08-18 2018-04-13 中国科学院深圳先进技术研究院 自动调节鼻内镜位姿的方法和系统
CN106239520A (zh) * 2016-08-23 2016-12-21 深圳市中科智敏机器人科技有限公司 具备认知能力的智能工业机器人运动控制系统
US10751133B2 (en) * 2017-03-31 2020-08-25 Koninklijke Philips N.V. Markerless robot tracking systems, controllers and methods
US11406459B2 (en) 2017-07-07 2022-08-09 Koninklijke Philips N.V. Robotic instrument guide integration with an acoustic probe
CN111801704A (zh) 2018-01-03 2020-10-20 皇家飞利浦有限公司 用于使用血管特征检测异常组织的系统和方法
US11833696B2 (en) 2018-01-15 2023-12-05 Technische Universität München Vision-based sensor system and control method for robot arms
CN110051436B (zh) * 2018-01-18 2020-04-17 上海舍成医疗器械有限公司 自动化协同工作组件及其在手术器械中的应用
CN111989194A (zh) * 2018-04-17 2020-11-24 Abb瑞士股份有限公司 用于控制机器人臂的方法
US10925598B2 (en) 2018-07-16 2021-02-23 Ethicon Llc Robotically-assisted surgical suturing systems
JP7325173B2 (ja) * 2018-10-06 2023-08-14 シスメックス株式会社 手術支援ロボットの遠隔支援方法、および遠隔支援システム
CN109454639A (zh) * 2018-11-02 2019-03-12 广东人励智能工程有限公司 一种智能制造生产线中机器人臂调整的方法及系统
US10926416B2 (en) * 2018-11-21 2021-02-23 Ford Global Technologies, Llc Robotic manipulation using an independently actuated vision system, an adversarial control scheme, and a multi-tasking deep learning architecture
US20200205911A1 (en) * 2019-01-01 2020-07-02 Transenterix Surgical, Inc. Determining Relative Robot Base Positions Using Computer Vision
JP6898374B2 (ja) * 2019-03-25 2021-07-07 ファナック株式会社 ロボット装置の動作を調整する動作調整装置およびロボット装置の動作を調整する動作調整方法
CN110039542B (zh) * 2019-06-13 2022-04-12 东北大学 具有速度方向控制的视觉伺服跟踪控制方法及机器人系统
IT201900009354A1 (it) 2019-06-18 2020-12-18 Hiro Robotics S R L Robot con controllo di inseguimento pezzo e metodo di controllo di un end effector corrispondentemente ad un pezzo da trattare spostabile nello spazio
GB2585691B (en) * 2019-07-11 2024-03-20 Cmr Surgical Ltd Anonymising robotic data
US11173610B2 (en) 2019-11-13 2021-11-16 Vicarious Fpc, Inc. Method and system for robot control using visual feedback
CN111179308B (zh) * 2019-12-17 2022-10-11 清华大学 一种基于视觉伺服的果蝇跟踪方法及系统
US11219501B2 (en) 2019-12-30 2022-01-11 Cilag Gmbh International Visualization systems using structured light
US11759283B2 (en) 2019-12-30 2023-09-19 Cilag Gmbh International Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto
US11896442B2 (en) 2019-12-30 2024-02-13 Cilag Gmbh International Surgical systems for proposing and corroborating organ portion removals
US11832996B2 (en) 2019-12-30 2023-12-05 Cilag Gmbh International Analyzing surgical trends by a surgical system
US11776144B2 (en) 2019-12-30 2023-10-03 Cilag Gmbh International System and method for determining, adjusting, and managing resection margin about a subject tissue
US11744667B2 (en) 2019-12-30 2023-09-05 Cilag Gmbh International Adaptive visualization by a surgical system
US20210196384A1 (en) * 2019-12-30 2021-07-01 Ethicon Llc Dynamic surgical visualization systems
US11648060B2 (en) 2019-12-30 2023-05-16 Cilag Gmbh International Surgical system for overlaying surgical instrument data onto a virtual three dimensional construct of an organ
US11284963B2 (en) 2019-12-30 2022-03-29 Cilag Gmbh International Method of using imaging devices in surgery
US11607287B2 (en) * 2019-12-31 2023-03-21 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11864841B2 (en) 2019-12-31 2024-01-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US11409091B2 (en) * 2019-12-31 2022-08-09 Carl Zeiss Meditec Ag Method of operating a surgical microscope and surgical microscope
US20210244485A1 (en) * 2020-02-12 2021-08-12 Medtech S.A. Robotic guided 3d structured light-based camera
USD1022197S1 (en) 2020-11-19 2024-04-09 Auris Health, Inc. Endoscope
CN112947569B (zh) * 2021-03-09 2022-08-12 中南大学 基于预设性能四旋翼无人机视觉伺服目标跟踪控制方法
CN113601498B (zh) * 2021-07-11 2024-02-02 西北工业大学 基于权重分配的机器人视觉伺服与人机交互混合操控方法
CN113848908B (zh) * 2021-09-27 2024-04-05 浙江工业大学 一种全方位移动机器人视觉伺服系统的建模与控制方法
CN113814986B (zh) * 2021-11-23 2022-04-26 广东隆崎机器人有限公司 一种基于机器视觉控制scara机器人的方法及系统
CN115082518B (zh) * 2022-05-30 2024-03-26 华南理工大学 视觉伺服的在线轨迹生成系统及其方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3236070B2 (ja) * 1992-06-04 2001-12-04 オリンパス光学工業株式会社 スコープ保持装置およびスコープ装置
US5762458A (en) * 1996-02-20 1998-06-09 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
US5855583A (en) * 1996-02-20 1999-01-05 Computer Motion, Inc. Method and apparatus for performing minimally invasive cardiac procedures
JP2000042960A (ja) * 1998-07-29 2000-02-15 Gifu Prefecture マニピュレータの遠隔操作装置
US6278906B1 (en) 1999-01-29 2001-08-21 Georgia Tech Research Corporation Uncalibrated dynamic mechanical system controller
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
EP1769769A1 (en) 2005-09-28 2007-04-04 DePuy Orthopädie GmbH Tracking surgical items
US7819859B2 (en) * 2005-12-20 2010-10-26 Intuitive Surgical Operations, Inc. Control system for reducing internally generated frictional and inertial resistance to manual positioning of a surgical manipulator
ES2298051B2 (es) 2006-07-28 2009-03-16 Universidad De Malaga Sistema robotico de asistencia a la cirugia minimamente invasiva capaz de posicionar un instrumento quirurgico en respueta a las ordenes de un cirujano sin fijacion a la mesa de operaciones ni calibracion previa del punto de insercion.
EP2124709B1 (fr) * 2007-02-23 2016-08-31 Université de Strasbourg (Etablissement Public à Caractère Scientifique, Culturel et Professionnel) Dispositif d'endoscope flexible a asservissement visuel
WO2009045827A2 (en) 2007-09-30 2009-04-09 Intuitive Surgical, Inc. Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems
KR20110097140A (ko) * 2010-02-24 2011-08-31 삼성전자주식회사 이동 로봇의 위치 추정 장치 및 방법
US9411037B2 (en) * 2010-08-18 2016-08-09 RetailNext, Inc. Calibration of Wi-Fi localization from video localization

Also Published As

Publication number Publication date
EP2521507A1 (en) 2012-11-14
US8934003B2 (en) 2015-01-13
US20120307027A1 (en) 2012-12-06
CN102791214B (zh) 2016-01-20
US20150094856A1 (en) 2015-04-02
CN102791214A (zh) 2012-11-21
EP2521507B1 (en) 2015-01-14
JP2013516264A (ja) 2013-05-13
US9205564B2 (en) 2015-12-08
WO2011083374A1 (en) 2011-07-14

Similar Documents

Publication Publication Date Title
JP5814938B2 (ja) リアルタイム速度最適化を使用した校正不要のビジュアルサーボ
JP2013516264A5 (ja)
US20220191388A1 (en) Intelligent manual adjustment of an image control element
US10945796B2 (en) Robotic control of surgical instrument visibility
US20200261155A1 (en) Image based robot guidance
Zhang et al. Autonomous scanning for endomicroscopic mosaicing and 3D fusion
EP3716879A1 (en) Motion compensation platform for image guided percutaneous access to bodily organs and structures
US20230000565A1 (en) Systems and methods for autonomous suturing
JP2019503766A (ja) 手術ロボットの制御のためのシステム、制御ユニット、及び方法
CN106572887B (zh) X射线套件中的图像整合和机器人内窥镜控制
JP2015524309A (ja) ロボット遠隔運動中心のコントローラ定義
Wu et al. Safety-enhanced model-free visual servoing for continuum tubular robots through singularity avoidance in confined environments
Noonan et al. A stereoscopic fibroscope for camera motion and 3D depth recovery during minimally invasive surgery
US20190069955A1 (en) Control unit, system and method for controlling hybrid robot having rigid proximal portion and flexible distal portion
CN113143461A (zh) 人机协同的微创内窥镜持镜机器人系统
Dagnino et al. A vision-based system for fast and accurate laser scanning in robot-assisted phonomicrosurgery
Zhang et al. Image-guided control of an endoscopic robot for OCT path scanning
WO2022054428A1 (ja) 医療システムおよび制御方法
Molnár et al. Visual servoing-based camera control for the da Vinci Surgical System
Tamadazte et al. Weakly calibrated stereoscopic visual servoing for laser steering: Application to phonomicrosurgery
US20230320793A1 (en) Surgery system and control method for surgery system
WO2023100234A1 (ja) 内視鏡システムおよび座標系補正方法
Popovic et al. An approach to robotic guidance of an uncalibrated endoscope in beating heart surgery
WO2023127004A1 (ja) 内視鏡システム
US20220323157A1 (en) System and method related to registration for a medical procedure

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131115

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140711

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140909

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20141201

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20141208

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20150212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150825

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150918

R150 Certificate of patent or registration of utility model

Ref document number: 5814938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250