JP5249343B2 - ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法 - Google Patents

ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法 Download PDF

Info

Publication number
JP5249343B2
JP5249343B2 JP2010533617A JP2010533617A JP5249343B2 JP 5249343 B2 JP5249343 B2 JP 5249343B2 JP 2010533617 A JP2010533617 A JP 2010533617A JP 2010533617 A JP2010533617 A JP 2010533617A JP 5249343 B2 JP5249343 B2 JP 5249343B2
Authority
JP
Japan
Prior art keywords
image
robot
projected
organism
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010533617A
Other languages
English (en)
Other versions
JP2011502673A (ja
Inventor
オルトマイエル,トビアス
ヤコブ,ディルク
パシーク,ゲオルク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KUKA Laboratories GmbH
Original Assignee
KUKA Laboratories GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KUKA Laboratories GmbH filed Critical KUKA Laboratories GmbH
Publication of JP2011502673A publication Critical patent/JP2011502673A/ja
Application granted granted Critical
Publication of JP5249343B2 publication Critical patent/JP5249343B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • G06F3/0426Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected tracking fingers with respect to a virtual keyboard projected or printed on the surface
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T74/00Machine element or mechanism
    • Y10T74/20Control lever and linkage systems
    • Y10T74/20207Multiple controlling elements for single controlled element
    • Y10T74/20305Robotic arm

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Manipulator (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)

Description

本発明は、ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法に関する。
たとえば外科においては、生物を手術治療する外科医に情報を提供するコンピュータベースの情報システムがますます多用されるようになっている。これらの情報とは、たとえば生物の生体パラメータ、リスク構造または手術の目標ポジションなどとすることができる。情報はたとえば情報システムの表示装置によって画面に表示される一方で、情報システムは当該システムを操作するための入力手段を含みうる。情報が表示装置によって画面に表示されることにより、外科医は手術台と、表示装置と、場合により入力手段とにそれぞれ目配りすることが必要である。
そこで本発明の目的は、視覚情報を容易に把握するための前提条件を実現する装置を提供することである。
本発明の上記課題は、ロボットアームと、ロボットアームに取り付けてもしくはロボットアームに組み込まれて対象物の表面に画像を投影するための装置とを備えたロボットによって解決される。
本発明の上記課題はまた、対象物の表面に画像を投影する方法であって、
ロボットのロボットアームに組み込まれてもしくはロボットアームに取り付けられて画像を投影する装置によって、特に生物である対象物の表面に画像を投影するステップ
を有する方法によって解決される。
本発明による方法または本発明によるロボットは特に医療分野向けに想定されているものであるが、ただし医療以外の分野での使用、たとえば機械類の保守、点検または修理に際する使用も考えられる。
ロボットは一般に、対象物を自動処理するために合理的なツールを備え、複数の運動軸に関して、特に向き、位置および径路の点でプログラマブルな処理マシンである。ロボットは一般に、マニピュレータとも称されるロボットアームと、制御装置と、場合によりたとえばツールを掴むためのグリッパとして形成されているかまたは、たとえば医療技術分野で使用される場合に、医療技術器具を取り付けるために形成されていてよいエフェクタとを含んでいる。マニピュレータまたはロボットアームは基本的にロボットの可動部を表している。ロボットアームは、特に、たとえば電気駆動装置を介して、たとえばコンピュータとして形成された制御装置によって制御される複数の軸を有している。
本発明によれば、特に生物である対象物の表面に画像を投影するように、画像を投影する装置は、ロボットのロボットアームに組み込まれているもしくは当該アームに取り付けられている。したがって、ロボットアームを適切に制御することにより、対象物の表面に画像を投影することは比較的容易に可能である。画像を投影する装置は、特に、ロボットのいわゆるツールセンターポイント(TCP)の近傍に組み込まれるもしくは取り付けられることが可能である。投影場所はたとえばソフトウェアによって選択可能である。
本発明によるロボットの一実施形態においては、ロボットは特にロボットアームに取り付けられてもしくはロボットアームに組み込まれて対象物の表面に投影された画像の画像を記録する装置を備え、特にロボットのデータ処理装置は、画像を記録する装置によって記録された対象物の表面に投影された画像の画像に対応した画像データセットを分析するように構成されている。対象物の表面に投影された画像の画像を記録する装置は、たとえば、特に自動的に環境の2.5D画像を供するカメラまたはセンサである。画像を記録する装置はまた、たとえば台架、壁面あるいは天井に取り付けられていることが可能である。
たとえば、投影された画像が特にロボットのデータ処理装置のバーチャル入力手段またはさらなる別のデータ処理装置のバーチャル入力手段である場合には、本発明によるロボットの一実施態様においては、特にロボットのデータ処理装置は、バーチャル入力手段の操作を認識するように、人の動きについて画像データセットを分析するように構成されている。バーチャル入力手段は、たとえば、投影画像によって対象物の表面に表されたバーチャル操作エレメントを有することが可能であり、この場合、データ処理装置は、たとえばパターン認識アルゴリズムを用いて、当該人がバーチャル表示された操作エレメントに触れたか否かについて画像データセットを分析する。それゆえ、画像または画像データセットの分析に基づいて、当該人物の動作を認識し、それをバーチャル入力手段の操作として解釈することが可能である。特に対象物が生物たとえば治療されるべき患者である場合には、当該人たとえば外科医または一般に医師は滅菌環境においてバーチャル入力手段を操作することが可能である。
本発明によるロボットのさらなる別の実施形態においては、ロボットは、対象物の表面の表面ジオメトリに起因する投影画像のひずみを認識し、画像を投影するための装置を制御して投影画像のひずみが少なくとも部分的に補償されるようにする手段を有している。ひずみとは、画像高さ、すなわち投影画像の画像中心からの画素の距離が対応する物点の高さに非線形的に依存していることとして理解される。これはまた、結像基準が対応する物点の高さに依存しているということもできる。ひずみは、たとえば、投影画像の画像中心を通らない直線のイメージが曲面化して再現されるという結果をもたらすことになる。
ひずみを認識するための手段は、本発明によるロボットの一実施態様においては、特にロボットアームに組み込まれてもしくはロボットアームに取り付けられて画像を記録するための装置と、データ処理装置とを有し、当該データ処理装置は、本実施形態においては、分析された画像データセットに基づいてひずみを認識するように構成されている。これはたとえば次のようにして実現することができる。すなわち、投影画像の画像に対応する画像データセットが投影画像に対応する画像データセットと比較されることができる。これにより、ひずみを求めるためのステレオシステムが生ずる。こうして、投影画像の投影に際して、投影画像の反転イメージを考慮することができるため、ひずみを少なくとも部分的に補償することが可能である。
ひずみの決定はたとえば画像の投影中に行うことができる。ただし、ひずみの決定は、たとえば、画像を投影するための装置の、基準画像によるキャリブレーションプロセス中に実施されることも可能である。
本発明によるロボットのさらなる別の実施形態においては、データ処理装置は、あらかじめ準備されたさらなる別の画像データセット、特に対象物の三次元画像データセットに基づいて、画像を投影する装置を制御し、それによって投影画像のひずみが少なくとも部分的に補償されるように構成されている。対象物が生物である場合には、対象物の上記さらなる別の画像データセットは特に画像生成医用技術装置たとえば磁気共鳴装置、コンピュータ断層撮影装置、X線装置または超音波装置によって準備されることができる。
本発明によるロボットは、特に、医療ワークステーション環境で使用されるように想定されている。本発明による医療ワークステーションの一実施形態においては、当該ワークステーションは、本発明によるロボットのほかに、上記生物およびロボットの位置を認識するためのナビゲーションシステムを有し、その際、ロボットのデータ処理装置は、投影画像のひずみの少なくとも部分的な補償にあたってロボットおよび上記生物の位置が考慮されるようにして、画像を投影する装置を制御するように構成されている。したがって、本発明による医療ワークステーションのこの実施態様は、本発明による方法のためにさらなる以下のステップつまり
−特にナビゲーションシステムによってロボットおよび上記生物の位置を算定するステップと、
−上記生物およびロボットのポジションに基づくと共にあらかじめ上記生物について記録された画像データセットに基づいて、上記生物の表面に投影された画像に予測されるひずみを算定するステップと、
−ロボットおよび上記生物のポジションに基づくと共に上記生物の上記画像データセットに基づいて、上記表面投影画像に予測されるひずみを少なくとも部分的に補償するステップと、
を実施することができるように構成されている。
ナビゲーションシステムについては、医療技術分野、特に最小侵襲医療技術分野において、たとえば独国特許第19951503B4号明細書に開示されている。ナビゲーションシステムは、たとえばロボットに配置されたマーカと、上記生物または上記生物が載置された患者ベッドシートに配置されたマーカと、当該マーカを認識する装置とを有する。マーカを認識する装置はたとえば光学装置であって、たとえばステレオカメラである。マーカを認識する装置によって記録されたマーカに基づいて、ナビゲーションシステムは、主に一般に公知の方法で、ロボットおよび上記生物のポジションを決定することができる。ロボットおよび上記生物のポジションに基づくと共に上記生物について記録された特に三次元画像データセットに基づいて、データ処理装置は投影画像に予測されるひずみを計算し、それに応じて画像を投影するための装置を調整するために、予測されるひずみは少なくとも部分的に補償され得る。
ナビゲーションシステムのマーカを認識する装置は、投影画像の画像を記録するためにも使用することができる。それゆえ、この画像に対応する画像データセットは上記ひずみを認識する手段のためにも使用することが可能である。
ナビゲーションシステムが上記生物の治療中も上記生物の位置を決定するために使用される場合には、患者の動きに起因して予測されるひずみの部分的補償も実現することが可能である。この補償はたとえば投影するための装置自体によって実施可能である。
ただし、本発明による方法の一実施形態においては、上記の少なくとも部分的な補償は、ロボットアームが上記生物の動きに応じて連行されることによって実現される。
したがって、本発明によるロボットまたは本発明による方法によって、いわゆる拡張リアリティー(英語:Augmented Reality)の利用が可能である。拡張リアリティーとは、一般に、コンピュータ支援による現実感の拡張として理解される。
本発明の実施例については添付の概略図面により例示的に表されている。
ロボットを示す図である。 図1に示したロボットを配備した医療ワークステーションを示す図である。 バーチャル入力手段を示す図である。 画像生成医用技術装置を示す図である。
図1は、本実施例において台座Sに取り付けられた場合のロボットアームAを有するロボットRを示している。ロボットアームAは基本的に、ロボットRの可動部を表しており、複数の軸1〜6と、複数のレバー7〜10と、たとえばツールまたは医療器具を取り付けることのできるフランジFとを有する。
各々の軸1〜6は、本実施例においては、ロボットRの制御コンピュータ17に図示されていない方法で電気的に接続された電気駆動装置で可動されるため、制御コンピュータ17または制御コンピュータ17で実行されるコンピュータプログラムは電気駆動装置を制御して、ロボットRのフランジFの位置および向きを基本的に自由に空間において設定することができる。ロボットRの電気駆動装置はたとえば、それぞれ1つの電動機11〜16と、場合により、電動機11〜16を制御する電子式出力制御装置とを有する。
本実施例においては、ロボットアームA、特にフランジFには、対象物の表面に画像を投影し得るプロジェクタ18が組み込まれている。別法として、プロジェクタ18はロボットアームAの構造物、特にフランジFに、たとえば着脱式に取り付けられることが可能である。
プロジェクタ18はコンピュータたとえば制御コンピュータ17に図示されていない方法で電気的に接続されている。
本実施例においては、ロボットRは図2に示した医療ワークステーションの一部として配備されている。
本実施例によって示した医療ワークステーションはロボットRのほかに、場合により高さ調節も可能な患者ベッドシートLと、ナビゲーションシステムとを有する。患者ベッドシートLは、図2に示した患者Pをその上に載置できるように形成されている。この患者は、たとえば、図2には図示されていない外科医によって手術されることができる。
ロボットRは、本実施例においては、プロジェクタ18によって患者Pの表面に画像20を投影するように構成されている。図3に詳細に示した投影画像20は、本実施例においては、制御コンピュータ17用または図中には詳細に図示されていないさらなる別のデータ処理装置用の入力手段を表しており、たとえばキーボードの形を有している。投影画像20の形でのバーチャル入力手段はさらに、たとえば現実のキーボードのキーに相当するバーチャル操作エレメント21を含んでいる。
本実施例においては、ロボットRはさらに、ロボットアームAに組み込まれてもしくは当該アームに取り付けられて制御コンピュータ17と電気的に接続されたカメラ19を有する。カメラ19は患者P上に投影された画像20の画像を記録するように配向されている。投影画像20の画像に対応した画像データセットは、制御コンピュータ17、または制御コンピュータ17で実行されるコンピュータプログラムにより、パターン認識アルゴリズムを用いて、図中に図示されていない人物たとえば患者Pを手術する外科医が投影画像20の形で表されたバーチャルな、バーチャル入力手段のバーチャル操作エレメント21を操作するか否かについて分析される。制御コンピュータ17で実行されるコンピュータプログラムが、上記画像データセットの分析に基づいて、外科医がたとえばバーチャル操作エレメント21の一領域に触れたことを認識すると、制御コンピュータ17で実行されるコンピュータプログラムはこのバーチャル操作エレメント21の操作に対応するリアクションを指令する。
患者Pの表面が曲面化していることにより、投影画像20はひずみを生ずる。これは、本実施例においては、患者P上に画像20を投影する前に図中に詳細には図示されていない基準画像がプロジェクタ18によって患者P上に投影されることにより少なくとも部分的に補償される。その際、基準画像は、画像20もそこに投影されることになる患者Pの表面の基本的に同一の箇所に投影される。
続いて、カメラ19により、投影された基準画像の画像が記録され、この画像に属する画像データセットが制御コンピュータ17で実行されるさらなる別のコンピュータプログラムによって分析される。投影された基準画像の画像に対応する画像データセットと、投影された基準画像の基準表示とに基づいて、制御コンピュータ17はプロジェクタ18を制御して、その後に投写される投影画像20のひずみが少なくとも部分的に補償されるようにすることができる。
さらなる別の実施形態においては、患者Pの手術前に同患者につき、図4に示した画像生成医用技術装置22によって特に三次元画像データセットが準備される。医用技術装置22はたとえば、磁気共鳴装置、コンピュータ断層撮影装置、X線装置たとえばCアーム付きX線装置、または超音波装置である。
患者Pについて準備された三次元画像データセットはたとえば患者Pの診断のために使用することができ、ロボットRの制御コンピュータ17に入力される。ロボットRおよび患者Pの位置に基づいてならびに患者Pの三次元画像データセットに基づいて、制御コンピュータ17で実行されるさらなる別のコンピュータプログラムが投影画像20に予測されるひずみを決定し、これによって、プロジェクタ18の投影を変化させて、投影画像20に予測されるひずみが少なくとも部分的に補償されるようにすることが可能である。
ロボットRおよび患者Pの位置を求めるように、上記のナビゲーションシステムが使用される。ナビゲーションシステムは、当業者に一般に知られていて、たとえばステレオカメラ23と、患者Pに配置された基準マークM1と、ロボットRに配置された基準マークM2とを有する。ロボットRおよび患者Pの位置を決定するように、ステレオカメラ28は基準マークM1,M2の画像を記録し、それに対応する画像データセットはナビゲーションシステムのコンピュータ24によって一般に公知の方法で評価される。ナビゲーションシステムのコンピュータ24はさらに、図中に図示されていない方法で、ロボットRの制御コンピュータ17に接続されているため、制御コンピュータ17はロボットR、特にそのプロジェクタ18の位置および患者Pの位置に関する情報を得ることができる。
本実施例においてはさらに、患者Pの動きに起因する投影画像20のひずみの変化は、たとえば認識された動きまたは動きに起因する患者Pの位置変化に基づいてプロジェクタ18が再調整されるかまたはロボットアームAが患者Pの動きと共に連行されてひずみの変化が少なくとも部分的に補償されることにより、補償されるように構成されている。

Claims (14)

  1. ロボットアームと、
    前記ロボットアームに取り付けてもしくは前記ロボットアームに組み込まれて対象物の表面に画像を投影する装置と、
    データ処理装置と、
    対象物の表面に画像を投影する前記装置により投影される前記画像の画像を記録する装置であって、該装置は、前記ロボットアームに取り付けられてもしくは前記ロボットアームに組み込まれて画像を記録する装置と、
    を備えたロボットであって、
    前記投影画像は、前記データ処理装置のバーチャル入力手段またはのデータ処理装置のバーチャル入力手段を表していて、前記データ処理装置は、画像を記録する前記装置によって記録された前記対象物の前記表面に投影された前記画像の画像に対応する画像データセットを分析し、前記データ処理装置は、前記バーチャル入力手段の操作を認識するように、人の動きについて前記画像データセットを分析し、
    前記生物の表面に投影された前記画像に予測されるひずみを、前記対象物および前記ロボットの位置に基づいてならびにあらかじめ前記対象物について記録された画像データセットに基づいて算定し、前記表面に投影された画像の予測される前記ひずみを、前記ロボットおよび前記生物の位置に基づいてならびに前記生物の前記画像データセットに基づいて少なくとも部分的に補償する
    ように構成されている、ロボット。
  2. 前記対象物の表面の表面ジオメトリに起因する前記投影画像のひずみを認識し、前記画像を投影する前記装置を制御して前記投影画像の前記ひずみが少なくとも部分的に補償されるようにする手段、すなわち前記画像を記録する前記装置および前記データ処理装置(17)を有する請求項1記載のロボット。
  3. 前記ひずみを認識する前記手段は、特に前記ロボットアームに組み込まれてもしくは前記ロボットアームに取り付けられて画像を記録する前記装置と、前記データ処理装置とを有し、前記データ処理装置は分析された前記画像データセットに基づいて前記ひずみを認識するように構成されている請求項2記載のロボット。
  4. 前記データ処理装置は、あらかじめ準備されたさらなる別の画像データセット、特に前記対象物の三次元画像データセットに基づいて前記画像を投影する前記装置を制御し、それによって前記投影画像のひずみが少なくとも部分的に補償されるように構成されている請求項2または3記載のロボット。
  5. 前記対象物は生物であり、前記対象物の前記さらなる別の画像データセットは画像生成医用技術装置によって準備されたものである請求項4記載のロボット。
  6. 請求項1〜5のいずれか一項記載のロボットを備える医療ワークステーション。
  7. 請求項5記載のロボットと、前記生物および前記ロボットのポジションを認識するためのナビゲーションシステムとを含み、前記データ処理装置は、前記投影画像の前記ひずみの少なくとも部分的な補償にあたって前記ロボットおよび前記生物の位置が考慮されるようにして、前記画像を投影する前記装置を制御するように構成されている医療ワークステーション。
  8. 前記ナビゲーションシステムは、前記ロボットに配置されたマーカと、前記生物または前記生物が載置された患者ベッドシートに配置されたマーカと、前記マーカを検出するための装置とを有する請求項7記載の医療ワークステーション。
  9. 前記マーカを検出する前記装置は前記対象物の表面に投影された前記画像の画像を記録するためにも使用され、前記ロボットの前記データ処理装置は、前記マーカを検出する前記装置によって記録された前記対象物の表面に投影された前記画像の画像に対応する画像データセットを分析するように構成されている請求項8記載の医療ワークステーション。
  10. 対象物の表面に画像を投影する方法であって、
    ロボットのロボットアームに組み込まれてもしくは前記ロボットアームに取り付けられて画像を投影する装置によって、特に生物である対象物の表面に画像を投影するステップと、
    前記生物の表面に投影された前記画像の画像を前記ロボットアームに取り付けたもしくは前記ロボットアームに組み込まれたカメラによって記録するステップであって、前記投影画像はバーチャル入力手段を表す、ステップであり、該記録するステップは、前記生物の表面に投影された前記画像に予測されるひずみを、前記生物および前記ロボットの位置に基づいてならびにあらかじめ前記生物について記録された画像データセットに基づいて算定するステップと、前記表面に投影された画像の予測される前記ひずみを、前記ロボットおよび前記生物の位置に基づいてならびに前記生物の前記画像データセットに基づいて少なくとも部分的に補償するステップと、をさらに有する、ステップと、
    前記カメラによって記録された画像に対応するさらなる別の画像データセットを人の動きについて分析して、前記バーチャル入力手段の操作を認識するステップと、
    を有する、方法。
  11. 特にナビゲーションシステムによって前記ロボットおよび前記対象物の位置を算定するステップをさらに有する請求項10記載の方法。
  12. 前記生物の動きに起因して前記表面に投影された画像に予測される前記ひずみの少なくとも部分的な補償を実現することを含む請求項11記載の方法。
  13. 前記生物の動きに起因して前記表面投影画像に予測される前記ひずみの少なくとも部分的な補償を前記動きに応じた前記ロボットアームの連行によって実現することを含む請求項12記載の方法。
  14. 前記生物の前記画像データセットは画像生成医用技術装置によって記録されたものである請求項10〜13のいずれか一項記載の方法。
JP2010533617A 2007-11-19 2008-11-18 ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法 Active JP5249343B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102007055204.3 2007-11-19
DE102007055204A DE102007055204B4 (de) 2007-11-19 2007-11-19 Roboter, medizinischer Arbeitsplatz und Verfahren zum Projizieren eines Bildes auf die Oberfläche eines Objekts
PCT/EP2008/065758 WO2009065831A2 (de) 2007-11-19 2008-11-18 Roboter, medizinischer arbeitsplatz und verfahren zum projizieren eines bildes auf die oberfläche eines objekts

Publications (2)

Publication Number Publication Date
JP2011502673A JP2011502673A (ja) 2011-01-27
JP5249343B2 true JP5249343B2 (ja) 2013-07-31

Family

ID=40532562

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010533617A Active JP5249343B2 (ja) 2007-11-19 2008-11-18 ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法

Country Status (7)

Country Link
US (1) US8965583B2 (ja)
EP (1) EP2214872B1 (ja)
JP (1) JP5249343B2 (ja)
KR (1) KR101280665B1 (ja)
CN (1) CN101903140B (ja)
DE (1) DE102007055204B4 (ja)
WO (1) WO2009065831A2 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5327312B2 (ja) * 2009-03-06 2013-10-30 株式会社安川電機 ロボットの関節ユニット及びロボット
US8751049B2 (en) * 2010-05-24 2014-06-10 Massachusetts Institute Of Technology Kinetic input/output
DE102011111949B4 (de) * 2011-08-29 2013-05-29 Thermo Electron Led Gmbh Laborabzug und insbesondere Sicherheitswerkbank mit Projektionsvorrichtung
JP2015506121A (ja) * 2011-11-16 2015-02-26 ストーウェル・リンネル・エルエルシー ロボット制御のオブジェクトによる3dプロジェクション・マッピングのシステム及び方法
US9832352B2 (en) 2011-11-16 2017-11-28 Autofuss System and method for 3D projection mapping with robotically controlled objects
US10414792B2 (en) 2011-12-03 2019-09-17 Koninklijke Philips N.V. Robotic guidance of ultrasound probe in endoscopic surgery
US9679500B2 (en) * 2013-03-15 2017-06-13 University Of Central Florida Research Foundation, Inc. Physical-virtual patient bed system
US10380921B2 (en) * 2013-03-15 2019-08-13 University Of Central Florida Research Foundation, Inc. Physical-virtual patient bed system
CN105431102B (zh) 2013-06-11 2018-01-30 迷你麦克斯医疗 用于身体部分的计划量的处理的系统
EP4233775A3 (en) * 2014-03-17 2023-10-18 Intuitive Surgical Operations, Inc. Methods and devices for table pose tracking using fiducial markers
CN103974048B (zh) * 2014-04-28 2016-05-04 京东方科技集团股份有限公司 控制可穿戴设备投影的方法及装置、可穿戴设备
DE102014211115A1 (de) * 2014-06-11 2015-12-17 Siemens Aktiengesellschaft Vorrichtung und Verfahren zur gestengesteuerten Einstellung von Einstellgrößen an einer Röntgenquelle
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
DE102016203701A1 (de) 2016-03-07 2017-09-07 Kuka Roboter Gmbh Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen
EP3664739A4 (en) * 2017-08-10 2021-04-21 Intuitive Surgical Operations, Inc. SYSTEMS AND METHODS FOR DISPLAYS OF INTERACTION POINTS IN A TELEOPERATIONAL SYSTEM
WO2019211741A1 (en) 2018-05-02 2019-11-07 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
DE102019206779A1 (de) 2018-06-13 2019-12-19 Heidelberger Druckmaschinen Ag Bildinspektionsroboter
JP7172305B2 (ja) * 2018-09-03 2022-11-16 セイコーエプソン株式会社 三次元計測装置およびロボットシステム
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
US11772276B2 (en) 2020-01-02 2023-10-03 Universal City Studios Llc Systems and methods for optical performance captured animated figure with real-time reactive projected media
DE102020201070A1 (de) * 2020-01-29 2021-07-29 Siemens Healthcare Gmbh Darstellungsvorrichtung
US12008917B2 (en) 2020-02-10 2024-06-11 University Of Central Florida Research Foundation, Inc. Physical-virtual patient system
DE102020213038A1 (de) 2020-10-15 2022-04-21 Kuka Deutschland Gmbh Verfahren zur Durchführung von Gesundheitstests und mobile Gesundheitstestanlage
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
CN114508680A (zh) * 2021-12-22 2022-05-17 江苏艾克斯医疗设备有限公司 一种医疗影像投影设备
WO2024057210A1 (en) 2022-09-13 2024-03-21 Augmedics Ltd. Augmented reality eyewear for image-guided medical intervention

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4373804A (en) * 1979-04-30 1983-02-15 Diffracto Ltd. Method and apparatus for electro-optically determining the dimension, location and attitude of objects
TW464800B (en) * 1998-10-07 2001-11-21 Intel Corp A method for inputting data to an electronic device, an article comprising a medium for storing instructions, and an image processing system
US6973202B2 (en) * 1998-10-23 2005-12-06 Varian Medical Systems Technologies, Inc. Single-camera tracking of an object
US9572519B2 (en) * 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
DE19951503B4 (de) * 1999-06-28 2004-01-29 Siemens Ag Medizinisches System mit einem Bildgebungs- und einem Navigationssystem
US6317616B1 (en) * 1999-09-15 2001-11-13 Neil David Glossop Method and system to facilitate image guided surgery
DE10033723C1 (de) 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
DE10108547B4 (de) * 2001-02-22 2006-04-20 Siemens Ag Operationssystem zur Steuerung chirurgischer Instrumente auf Basis von intra-operativen Röngtenbildern
CN1479191A (zh) * 2002-08-28 2004-03-03 由田新技股份有限公司 投影式虚拟键盘装置
KR20040056489A (ko) * 2002-12-23 2004-07-01 한국전자통신연구원 임의의 영사면에 대한 화면 왜곡현상 보정 시스템 및 그방법
JP2005165804A (ja) 2003-12-04 2005-06-23 Matsushita Electric Ind Co Ltd データ入力装置
CA2546265A1 (en) * 2003-12-30 2005-07-21 Liposonix, Inc. Systems and methods for the destruction of adipose tissue
JP3930482B2 (ja) * 2004-01-19 2007-06-13 ファナック株式会社 3次元視覚センサ
US7567833B2 (en) * 2004-03-08 2009-07-28 Stryker Leibinger Gmbh & Co. Kg Enhanced illumination device and method
JP2005304596A (ja) * 2004-04-19 2005-11-04 Olympus Corp 医療用遠隔操作装置
JP2006102360A (ja) * 2004-10-08 2006-04-20 Matsushita Electric Ind Co Ltd 生体情報提示装置
JP4449081B2 (ja) * 2005-10-11 2010-04-14 国立大学法人 千葉大学 撮像装置及び撮像システム
JP4836122B2 (ja) * 2006-02-09 2011-12-14 国立大学法人浜松医科大学 手術支援装置、方法及びプログラム
JP2008006551A (ja) * 2006-06-29 2008-01-17 National Univ Corp Shizuoka Univ 作動装置
US20080136775A1 (en) * 2006-12-08 2008-06-12 Conant Carson V Virtual input device for computing

Also Published As

Publication number Publication date
US20100275719A1 (en) 2010-11-04
JP2011502673A (ja) 2011-01-27
CN101903140A (zh) 2010-12-01
WO2009065831A3 (de) 2009-10-15
KR101280665B1 (ko) 2013-07-01
DE102007055204B4 (de) 2010-04-08
CN101903140B (zh) 2013-03-06
KR20100106308A (ko) 2010-10-01
EP2214872A2 (de) 2010-08-11
EP2214872B1 (de) 2019-02-13
DE102007055204A1 (de) 2009-05-20
WO2009065831A2 (de) 2009-05-28
US8965583B2 (en) 2015-02-24

Similar Documents

Publication Publication Date Title
JP5249343B2 (ja) ロボット、医療ワークステーションおよび、対象物の表面に画像を投影する方法
US11357581B2 (en) Method for using a physical object to manipulate a corresponding virtual object in a virtual environment, and associated apparatus and computer program product
JP5048136B2 (ja) ナビゲーションシステムの検出装置の配置場所を決定する方法および検出装置を配置する方法
JP4152402B2 (ja) 手術支援装置
JP4220780B2 (ja) 手術システム
KR102501099B1 (ko) 원격조작 의료 시스템에서 기구의 스크린상 식별정보를 렌더링하기 위한 시스템 및 방법
KR102218244B1 (ko) 영상 포착 장치 및 조작 가능 장치 가동 아암들의 제어된 이동 중의 충돌 회피
US20210315637A1 (en) Robotically-assisted surgical system, robotically-assisted surgical method, and computer-readable medium
KR20230003408A (ko) 원격조작 의료 시스템에서 기구의 스크린상 식별을 위한 시스템 및 방법
JP2011502807A (ja) ロボット具有装置、医療ワークステーションおよび、対象物を位置決めする方法
JP2019188038A (ja) 外科手術システム及び外科手術システムの制御方法
JP2020156800A (ja) 医療用アームシステム、制御装置、及び制御方法
US11229493B2 (en) Motion programming of a robotic device
JP2022532167A (ja) 手術中の3次元可視化
CN113855287A (zh) 一种带评估种植精度的口腔种植手术机器人及控制方法
WO2021199979A1 (ja) 情報処理装置、情報処理システム及び情報処理方法
WO2021062340A1 (en) Systems and methods for anatomical segmentation
US12059221B2 (en) Motion programming of a robotic device
US20240033005A1 (en) Systems and methods for generating virtual reality guidance
US20220323157A1 (en) System and method related to registration for a medical procedure
JP2023551531A (ja) 医療処置の生成及び評価のためのシステム及び方法
KR20240076809A (ko) 실시간 3d 로봇 상태
CN113945589A (zh) 一种带防脱落检测的口腔种植手术机器人及控制方法

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20110914

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120417

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130411

R150 Certificate of patent or registration of utility model

Ref document number: 5249343

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250