JP6643362B2 - ロボット手術中に更新された患者画像を供給するための方法および装置 - Google Patents

ロボット手術中に更新された患者画像を供給するための方法および装置 Download PDF

Info

Publication number
JP6643362B2
JP6643362B2 JP2017559816A JP2017559816A JP6643362B2 JP 6643362 B2 JP6643362 B2 JP 6643362B2 JP 2017559816 A JP2017559816 A JP 2017559816A JP 2017559816 A JP2017559816 A JP 2017559816A JP 6643362 B2 JP6643362 B2 JP 6643362B2
Authority
JP
Japan
Prior art keywords
anatomy
image
volume
data
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017559816A
Other languages
English (en)
Other versions
JP2018517473A (ja
Inventor
アジジアン、マフディ
ブローム、ルッツ
クンツェ、ホルガー
ニープラー、クリスティーヌ
ゾルガー、ジョナサン
Original Assignee
シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
インテュイティブ サージカル オペレーションズ, インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング, シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング, インテュイティブ サージカル オペレーションズ, インコーポレイテッド, インテュイティブ サージカル オペレーションズ, インコーポレイテッド filed Critical シーメンス ヘルスケア ゲゼルシヤフト ミツト ベシユレンクテル ハフツング
Publication of JP2018517473A publication Critical patent/JP2018517473A/ja
Application granted granted Critical
Publication of JP6643362B2 publication Critical patent/JP6643362B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/064Measuring instruments not otherwise provided for for measuring force, pressure or mechanical tension
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/368Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/374NMR or MRI
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Gynecology & Obstetrics (AREA)
  • Robotics (AREA)
  • General Business, Economics & Management (AREA)
  • Business, Economics & Management (AREA)
  • Urology & Nephrology (AREA)
  • Manipulator (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)

Description

本発明は、ロボットマニピュレータによって実行された外科手術の進行中に画像を供給するために使用される撮像システムおよび手術に関する。
一般にロボット手術と呼ばれる、ロボット制御で実行される医学的手術は、患者の多くの異なる器官に関連する様々な医学的介入手術に対しての使用が広まっている。特に膵臓または肝臓などに関連する腹部手術の場合、関心器官は、手術の進行中にロボットマニピュレータによって物理的に移動もしくは処置が行われる。以下において、そのような変化は、部位または生体構造に対する幾何学的変化とされる。関心器官または部位における同様の変化は、その患者体内の他の部位でも発生する。
周知のように、市販のロボットマニピュレータは、把持、切断、押下、牽引など、手術中に1つ以上の器官と数多くの物理的相互作用を実行するために医師(外科医)によって操作される。処置されている器官を露出するために手術部位が切除される場合が多いが、器具または内視鏡を入れるための小切開のみで実行可能な種類の手術もある。
通常、手術部位のコンピュータ断層撮影または磁気共鳴画像は、手術計画の一部として取得される。実際の手術中において内視鏡画像が通常取得されるため、そのような内視鏡画像のコンテンツは、その内視鏡画像を取得する際に使用されるカメラの視野によって制限される。この内視鏡画像は、カメラの直接の視線内にあるコンテンツのみを含み得るため、カメラに対向する器官の側部と周辺組織のみが画像内に含みうる。
計画画像内の関心器官は表示画面においてセグメント化後に回転、並進など既知の方法で変化させることが可能であるが、計画画像は外科手術の開始前に取得されたものであるため、外科手術の進行中に発生した切断などの器官における変化を示さず、さらに手術中に発生し得る器官の位置的変化も示さない場合がある。
外科手術において使用される既知のロボットマニピュレータは、外科医の元にある制御卓から操作される。制御卓は、医師が実際の手術部位で器具を使用するのと同じようにして医師が操作する手動動作または操作する要素を数多く含む。そのため、たとえば、医師がロボットマニピュレータを介して切断手術を器官に対して実行したい場合、はさみ状の制御要素が制御卓に供給される場合がある。ロボットマニピュレータの該当する切断器には適切な力覚センサが設けられており、その力覚センサによってロボットマニピュレータが器官に加えられた力を検出し、器官が発生させたロボットマニピュレータに対する力を検出する。これらの力の組み合わせによって制御卓を操作する外科医に対して視覚フィードバックが供給されるため、はさみ状制御要素を操作している外科医は同様の切断力およびその切断力に対する器官の抵抗を経験することが可能となり、外科医は、手術部位において切断要素を手動で直接操作しているように感じることができる。
これは、外科医が選択した方法で器官の全部または一部をずらすことができるように器官を把持する器具など、ロボットマニピュレータによって実行される他の種類の器具においても同様である。
本発明の目的は、ロボット制御で実行される外科手術の進行中に1つ以上の表示画像を外科医に対して供給して、処置の対象である生体構造または器官のその時点の状態を示すだけでなく、外科医が表示画像を操作することによって従来の内視鏡画像では見ることができなかった生体構造の一部を確認できるようにすることである。
この目的は、本発明による、ロボット制御によって実行された外科手術の対象となる選択器官などの生体構造を含む、患者のボリュームの3Dデータが取得される方法および装置によって達成される。その後、関心生体構造または器官は、3Dデータから再構成された上述のボリュームの画像からセグメント化される。このセグメント化は、手動またはコンピュータ化されたパターン認識セグメント化アルゴリズムのいずれかで実行可能である。ロボット制御で実行される外科的処置の実行中において、外科医は生体構造または器官に1つ以上の力が加えられることによって生体構造または器官を変化または変位させる(幾何学的変化)。それらの力は、市販のロボットマニピュレータに従来存在する力覚センサによって検出されることが知られている。それらの力は、手術中に外科医または助手が閲覧する表示画面でのセグメント化生体構造または器官の表示を制御する処理装置に対して供給される。処理装置は、加えられた力の結果として、および生体構造または器官の物理的特性の結果として発生する生体構造または器官の変化量または変位量を計算する。その後、処理装置は手術中にリアルタイムで表示画面上に表示されたセグメント化生体構造または器官の外観および/または位置を自動的に修正することによって、外科医は、常に、手術の進行に伴った生体構造または器官の現時点の状態を見ることができる。さらに、器官または生体構造がセグメント化されているため、表示されているセグメント化生体構造に対して実行される回転や並進などのすべての従来動作が手術中に外科医によって実行可能となる。例えば、生体構造または器官の前方図が表示されている場合、医師が器官を回転させれば、そのような手術中に使用される従来の内視鏡画像では通常見ることができない後方図を得ることができる。
外科的処置の対象である生体構造または器官の物理的特性を表わすデータは、生体構造もしくは器官の結果的な変化または変位を計算的に決定するためにロボットマニピュレータによって加えられた力と組み合わせて使用され、解剖学アトラスから得ることできる。そのようなアトラスは、一般的な患者母集団のそれぞれの生体構造または器官に対して編集可能であり、あるいは、手術を受ける患者と類似した患者母集団との一致度が特に高いものでよい。例えば、関連生体構造または器官などの病的状態が同一の患者と類似した年齢または医療履歴の患者に対してアトラスが編集可能である。
本発明は、さらに、格納媒体がロードされた1つ以上の処理装置またはロードされた格納媒体に対するアクセスを有する1つ以上の処理装置によって実行されると、本発明による方法の上述の実施形態のいずれかまたは全部を実行するプログラミング命令で符号化される非一時的なコンピュータ可読データ格納媒体も含む。本格納媒体は、ロボット制御で実行される表面手術の進行中に実行される全機能を制御する中央作業ステーションの処理装置にロードされてもよく、プログラミング命令は、完全機能スイートのサブセットを制御する役割を個々に担う処理装置間において適切に分散されてもよい。
本発明による方法の基本工程を示すフローチャートであり、任意の工程を点線で示す。 本発明により構築され動作する装置の基本構成要素を示すブロック図である。
図1のフローチャートに示すように、本発明による方法は、ステップ1で手術室の台上に患者を配置することによって開始する。患者は、手術室において台上でロボット制御によって実行される外科手術を受ける。
患者が台上に配置されると、ステップ2において、ロボット制御で操作される外科的処置の対象となる生体構造または器官を含む患者のボリュームから3Dデータが取得される。
ステップ3において、取得した3Dデータを処理装置に対して供給し、処置装置は3D再構成アルゴリズムを実行して、取得した3Dデータによって表わされる患者のボリュームの3D画像を作成する。
ステップ4において、処置の対象である特定の生体構造または器官がボリュームの3D画像全体からセグメント化される。これは、外科医が光学ペンまたはカーソルを用いてセグメント化される器官または生体構造の輪郭をなぞることによって、外科医が画面上の表示画像と相互作用するなどして手動で実行可能である。もしくは、このセグメント化は、既知のパターン認識ベースのセグメント化アルゴリズムを使用して完全に自動で実行可能である。
本発明によれば、任意で、ステップ12において、患者の事前検査で取得された患者の1つ以上の医療画像を表わすデータセットなど、患者の手術前データを供給してもよい。そのような手術前3Dデータセットは、色分け、造影剤強調、脳手術が実行される場合のfMRI画像、拡散強調画像など、選択された生体構造または病的状態を強調するために使用される既知の技術のいずれかを含んでもよい。
ステップ12においてそのような手術前データセットが任意で供給された場合、その後ステップ13において手術前データセットは台上の患者の上述した3D再構成画像と重ね合わせた後、セグメント化が実行されて、再構成ボリューム画像と組み合わされた重ね合わせ手術前データセットから生体構造または器官をセグメント化できる。
セグメント化後、ステップ5において、処理装置によって材料特性がセグメント化された部位に対して割り当てられる。この材料特性とは、解剖学アトラスに対してアクセス可能な処理装置によってなど、処理装置に対して供給されるセグメント化生体構造の既知または推定される特性である。この解剖学アトラスは、数多くの異なる解剖学的部位または器官の関連材料特性の一覧を提供可能であるため、処理装置はセグメント化部位に対応するアトラスから適切な特性群を選択する。上述したように、アトラスは一般の患者母集団に対して編集可能であり、または外科手術が実行される患者に類似した患者に対してより詳細に関係し得る。例えば、当該患者と同一年齢グループの患者、当該患者と同じセグメント化生体構造の病的状態を示す患者、当該患者と同様の医療履歴を有する患者などからアトラスを編集可能である。
本発明による上述のステップと平行して、またはそれと交互に、ステップ6において、手術で使用される動作装置(ロボットマニピュレータ)の座標系を、台上の患者の上述の3D画像を取得した走査装置の座標系と重ね合わせる。この座標系の重ね合わせは、検査台に動作装置を物理的に設置することによって結果的に生じる座標系の物理的関係の認識、または検査台上の患者の取得3Dデータにおいて可視である動作装置上の適切な場所に付けられるマーカによってなど、既知の方法のいずれで実行してもよい。ただし、マーカを使用する場合は、動作装置は走査装置の視野内に存在する必要がある。また、動作装置および走査装置のそれぞれの座標系を識別して、それらの座標系を互いに重ね合わせる適切なナビゲーションシステムも知られている。
その後、再構成ボリューム内の生体構造または器官を選択的に操作するために、動作装置を使用して介入手術が開始される(ステップ7)。ロボットマニピュレータなどの市販の動作装置は、装置を操作している外科医に対して視覚フィードバックを供給し、その目的のため、手術の進行中に動作装置によって生体構造または器官に対して加えられた力を検出する力覚センサを含む。したがって、触覚フィードバックを供給する動作装置によって使用される処理装置は、手術中に生体構造または器官に対して加えられた力の正確な推定をすでに供給可能であり、この処理装置の出力は、手術室に配置された表示画面でのセグメント化部位の表示を制御する処理装置によって供給可能であり、セグメント化部位の表示を手術の進行中に外科医によって確認可能である。
もしくは、力覚センサの出力が処理装置に対して直接供給可能であり、処理装置はセグメント化ボリュームに対して加えられた力の推定を実行可能である。
ステップ8において、いずれかの種類の推定が実行される。
手術中の所与の時間においてセグメント化ボリュームに対して加えられた力の推定に基づいて、さらにセグメント化部位の材料特性に基づいて、ステップ9において、処理装置は器官または生体構造に生じた変化または変位を自動的に決定し、そのような変化または変位を取り入れるために、ステップ10においてセグメント化ボリュームの表示を更新する。その後、この更新後のセグメント化ボリュームは、ステップ11において表示において可視化され、セグメント化ボリュームの回転または並進などの通常の方法で外科医によって選択的に操作可能である。
それによって外科医は手術の進行中の変化に伴ってセグメント化生体構造または器官状態を確認するだけでなく、内視鏡カメラに対向する生体構造または器官の側部のみを検知できる、従来の内視鏡画像から利用可能でなかったビューを取得するために、更新後(現在)のセグメント化ボリュームを操作可能である。
図2は、本発明による装置の基本構成要素を図示するブロック図である。本装置は、ロボットに搭載されたCアームX線撮像システムなどの撮像装置またはシステム14を含む。本システムは、例えば、SiemensHealthcare社から市販されているArtisVD11アンギオシステムでもよい。本システムは、手術環境において使用される、従来利用可能な種類の適切な衝突監視構成要素とその他の制御モジュールを含んでもよい。撮像システム14は、手術中に患者が横たわる患者テーブルを含み、そこに手術ロボット17が設置される。手術ロボットは、手術の進行中に外科医によって操作されるあらゆる数の制御要素を含む操作部18から操作される。操作部において外科医によってなされた操作は、ハサミ、グラバーなどの手術ロボットが有する用具または器具の動作を含む、手術ロボットの動きに変換される。操作部は、上述の動作を実行させるロボットに対して適切な制御コマンドを供給する。ロボットは、手術部位を含む視野を有する内視鏡カメラを有することができるため、手術部位の内視鏡画像が操作部で外科医に対して供給される。
撮像システムを作業ステーション(制御卓)15でコンピュータによって操作して、患者テーブル上の患者のCT画像などの上述の3D画像を取得する。取得した3Dデータは、取得部位の画像を示すために再構成され、それによって作業ステーション15で関心生体構造または器官がセグメント化される。上述の内視鏡画像は作業ステーション15に対して供給可能であり、それによって手術ロボット17に存在する力覚センサによって力が検出される。この加えられた力の情報と、送信元16から作業ステーション15の処理装置に対して知らされたセグメント化部位の上述の材料特性から、上述したようにセグメント化部位の更新が作業ステーション15で実行されるため、更新後のセグメント化画像は、処置の進行中に発生したセグメント化生体構造または器官の変化および変位を取り入れる。更新後のセグメント化部位は、作業ステーション15の表示画面に表示可能であり、それによって操作部から外科医が見ることが可能であり、または内視鏡画像とともに操作部18の表示画面で表示するために供給可能である。更新後のセグメント化部位は、操作部で直接利用可能となっている制御または作業ステーションで利用可能な制御のいずれかで外科医によって操作可能である。同時に、外科医は作業ステーション15を操作可能であり、または外科医の指示の通りに更新後のセグメント化画像を操作するように作業ステーション15にいる助手に対して口頭で指示を与えることができる。
当業者が修正および変更を提案する場合があるが、ここで是認する本特許内において、当業界に対する寄与の範囲内で合理的かつ適切な変更および修正のすべてを実施することは発明者の意図である。
14 撮像装置
15 作業ステーション
16 送信元
17 手術ロボット
18 操作部

Claims (13)

  1. 処理装置が手術部位の像を供給する法であって、
    医療用撮像装置が、患者テーブル上に配置された手術ロボットによる処置の対象となる生体構造を含む患者のボリュームを表わす3Dデータを取得するステップ
    記3Dデータを供給された前記処理装置、前記3Dデータから前記ボリュームの3D画像を再構成するステップと、
    前記処理装置、前記ボリュームの前記3D画像から前記生体構造の3Dボリューム画像をセグメント化するステップと、
    前記処理装置、前記生体構造の少なくとも1つの材料特性を定するステップと、
    前記処理装置、前記医療用撮像装置の座標系に対して前記手術ロボットの座標系を重ね合わせするステップと、
    前記処理装置が力覚センサで検出される少なくとも1つの力を表わす電子信号を取得し、前記力、前記手術ロボットによって、前記生体構造の幾何学的変化を生じさせるように前記生体構造に対して加えられる力であり、前記処理装置、前記生体構造に対する前記力および前記少なくとも1つの材料特性に基づいて前記生体構造の前記セグメント化されたボリューム画像を新し前記生体構造の前記幾何学的な変化を視覚的に示す前記生体構造の更新後セグメント化ボリューム画像を生成するステップと、
    前記処理装置が、表示画面に対して、記生体構造の前記更新後セグメント化ボリューム画像を表示するステップと、
    を含む方法。
  2. 異なる解剖学的対象物に対してそれぞれ少なくとも1つの材料特性を電子データベースに格納されており
    前記処理装置が、前記セグメント化ボリューム画像における前記生体構造に対して前記少なくとも1つの材料特性を前記データベースから取得するテップ含む請求項1に記載の方法。
  3. 前記処理装置が、前記患者前記3Dデータを取得する前に前記患者の前記3Dデータに含まれる前記患者のボリュームも含む手術前データセットを取得するステップ
    記手術前データセットを取得した前記処理装置、前記手術前データセットを前記3Dデータから再構成された前記画像と重ね合わせ、前記手術前データセットを前記3Dデータから再構成された前記画像と結合するステップと、
    前記処理装置が、前記結合画像から前記生体構造をセグメント化して、前記生体構造の前記セグメント化されたボリューム画像を取得するステップと、
    を含む請求項2に記載の方法。
  4. 前記処理装置が、前記生体構造の前記更新後セグメント化ボリューム画像操作を受け付け、内視鏡画像に対して前記生体構造のビューを表示するステップ含む請求項1から3のいずれか1項に記載の方法。
  5. 前記処理装置記3Dデータから再構成された前記ボリュームの前記画像から前記生体構造セグメント化を実行する指示を受け付けるステップを含む請求項1から4のいずれか1項に記載の方法。
  6. パターン認識を有するセグメント化アルゴリズムを実行することによって、前記処理装置、前記3Dデータから再構成された前記ボリュームの前記画像から前記生体構造をグメント化するステップを含む請求項1から5のいずれか1項に記載の方法。
  7. 術部位の像を供給するための装置であって、
    患者用テーブルと、医療用撮像装置と、者の生体構造に対してなくとも1つの器具によって加えられる力を検出する力覚センサとを含む術ロボット含む手術設備と、
    前記患者テーブル上に配置された前記手術ロボットによる処置の対象となる生体構造を含む患者のボリューム表わす3Dデータを取得する処理装置と、
    前記処理装置と通信する表示画面と
    を含み、
    前記処理装置が
    前記3Dデータから前記ボリュームの3D画像を再構成
    前記ボリュームの前記3D画像から前記生体構造の3Dボリューム画像をセグメント化
    記生体構造の少なくとも1つの材料特性を決定し
    前記医療用撮像装置の座標系に対して前記手術ロボットの座標系を重ね合わ
    前記手術ロボットから前記処理装置に対して前記力覚センサで検出される前記力を表す電子信号を取得し
    記生体構造の前記力および前記少なくとも1つの材料特性に基づいて前記生体構造の前記セグメント化されたボリューム画像を新し前記生体構造の何学的な変化を視覚的に示す前記生体構造の更新後セグメント化ボリューム画像を生成
    記表示画面に前記生体構造の前記更新後セグメント化ボリューム画像を表示する
    ことを特徴とする装置。
  8. 異なる解剖学的対象物に対してそれぞれ少なくとも1つの材料特性が格納される電子データベースをさらに含み、
    前記処理装置、前記電子データベースにアクセスして、前記セグメント化ボリューム画像における前記生体構造に対して前記少なくとも1つの材料特性を前記データベースから取得する
    とを特徴とする請求項7に記載の装置。
  9. 前記処理装置が、前記患者から前記3Dデータを取得する前に前記患者の前記3Dデータに含まれる前記患者のボリュームも含む手術前データセット受信し、前記手術前データセットを前記3Dデータから再構成された前記画像と重ね合わせ、前記手術前データセットを前記3Dデータから再構成された前記画像と結合
    前記処理装置、前記結合画像から前記生体構造をセグメント化して、前記生体構造の前記セグメント化されたボリューム画像を取得する
    ことを特徴とする請求項8に記載の装置。
  10. 前記手術ロボット、前記生体構造の内視鏡画像を取得する内視鏡カメラを含み、
    前記処理装置が記生体構造の前記更新後セグメント化ボリューム画像操作を受け付け、前記内視鏡画像に対して前記生体構造のビューを表示する請求項7から9のいずれか1項に記載の装置。
  11. ユーザインタフェースを含み、前記ユーザインタフェースは、記3Dデータから再構成された前記ボリュームの前記画像から前記生体構造のグメント化を実行する指示を受け付ける請求項7から10のいずれか1項に記載の装置。
  12. 前記処理装置、パターン認識を有するセグメント化アルゴリズムを実行することによって、前記3Dデータから再構成された前記ボリュームの前記画像に基づいて前記生体構造をグメント化する請求項7から11のいずれか1項に記載の装置。
  13. プログラムを格納したコンピュータ可読データ格納媒体であって、
    前記プログラムは、前記格納媒体は患者用テーブルと、医療用撮像装置と、者の生体構造に対してなくとも1つの器具によって加えられる力を検出する力覚センサとを含む術ロボット含む手術設備を有する装置処理装置にロードされるものであって、前記プログラは、前記処理装置に、
    患者テーブル上に配置された手術ロボットによる処置の対象となる生体構造を含む患者のリュームを表わす3Dデータを取得
    前記3Dデータから前記ボリュームの3D画像を再構成し、
    前記ボリュームの前記3D画像から前記生体構造の3Dボリューム画像をセグメント化し、
    前記生体構造の少なくとも1つの材料特性を定し、
    前記医療用撮像装置の座標系に対して前記手術ロボットの座標系を重ね合わせ、
    記生体構造に対して加えられ前記力覚センサで検出された少なくとも1つの力を表わす電子信号を受信し、記生体構造の前記力および前記少なくとも1つの材料特性に基づいて前記生体構造の前記セグメント化されたボリューム画像を新して、前記生体構造の前記幾何学的な変化を視覚的に示す前記生体構造の更新後セグメント化ボリューム画像を生成し、
    表示画面に対して、記生体構造の前記更新後セグメント化ボリューム画像を出力する
    処理を実行させることを特徴とする格納媒体。
JP2017559816A 2015-05-20 2015-09-10 ロボット手術中に更新された患者画像を供給するための方法および装置 Active JP6643362B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/716,963 2015-05-20
US14/716,963 US9622831B2 (en) 2015-05-20 2015-05-20 Method and apparatus to provide updated patient images during robotic surgery
PCT/IB2015/056938 WO2016185259A1 (en) 2015-05-20 2015-09-10 Method and apparatus to provide updated patient images during robotic surgery

Publications (2)

Publication Number Publication Date
JP2018517473A JP2018517473A (ja) 2018-07-05
JP6643362B2 true JP6643362B2 (ja) 2020-02-12

Family

ID=57319517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017559816A Active JP6643362B2 (ja) 2015-05-20 2015-09-10 ロボット手術中に更新された患者画像を供給するための方法および装置

Country Status (5)

Country Link
US (1) US9622831B2 (ja)
EP (1) EP3282994B1 (ja)
JP (1) JP6643362B2 (ja)
CN (1) CN107847274B (ja)
WO (1) WO2016185259A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11705238B2 (en) * 2018-07-26 2023-07-18 Covidien Lp Systems and methods for providing assistance during surgery
GB2577718B (en) * 2018-10-03 2022-08-24 Cmr Surgical Ltd Feature identification
CN111166473A (zh) * 2018-12-04 2020-05-19 艾瑞迈迪科技石家庄有限公司 一种髋膝关节置换手术的导航方法和系统
US10698493B1 (en) * 2019-06-26 2020-06-30 Fvrvs Limited Virtual reality surgical training systems with advanced haptic feedback
CN112932663B (zh) * 2021-03-02 2021-10-22 成都与睿创新科技有限公司 一种提高腹腔镜胆囊切除术安全性的智能辅助系统
US11844583B2 (en) 2021-03-31 2023-12-19 Moon Surgical Sas Co-manipulation surgical system having an instrument centering mode for automatic scope movements
US11819302B2 (en) 2021-03-31 2023-11-21 Moon Surgical Sas Co-manipulation surgical system having user guided stage control
US11832909B2 (en) 2021-03-31 2023-12-05 Moon Surgical Sas Co-manipulation surgical system having actuatable setup joints
US11812938B2 (en) 2021-03-31 2023-11-14 Moon Surgical Sas Co-manipulation surgical system having a coupling mechanism removeably attachable to surgical instruments
US12042241B2 (en) 2021-03-31 2024-07-23 Moon Surgical Sas Co-manipulation surgical system having automated preset robot arm configurations
AU2022247392A1 (en) 2021-03-31 2023-09-28 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery
US11986165B1 (en) 2023-01-09 2024-05-21 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force
US11839442B1 (en) 2023-01-09 2023-12-12 Moon Surgical Sas Co-manipulation surgical system for use with surgical instruments for performing laparoscopic surgery while estimating hold force

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8944070B2 (en) * 1999-04-07 2015-02-03 Intuitive Surgical Operations, Inc. Non-force reflecting method for providing tool force information to a user of a telesurgical system
WO2001062173A2 (en) * 2000-02-25 2001-08-30 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatuses for maintaining a trajectory in sterotaxi for tracking a target inside a body
ES2304430T3 (es) * 2001-01-29 2008-10-16 The Acrobot Company Limited Robots con limitacion activa.
US8010180B2 (en) * 2002-03-06 2011-08-30 Mako Surgical Corp. Haptic guidance system and method
AU2003224882A1 (en) * 2002-04-05 2003-10-27 The Trustees Of Columbia University In The City Of New York Robotic scrub nurse
US7155316B2 (en) * 2002-08-13 2006-12-26 Microbotics Corporation Microsurgical robot system
US7376903B2 (en) * 2004-06-29 2008-05-20 Ge Medical Systems Information Technologies 3D display system and method
KR101258912B1 (ko) * 2005-06-06 2013-04-30 인튜어티브 서지컬 인코포레이티드 복강경의 초음파 로보트 수술 시스템
US8620473B2 (en) * 2007-06-13 2013-12-31 Intuitive Surgical Operations, Inc. Medical robotic system with coupled control modes
US10217282B2 (en) * 2007-11-02 2019-02-26 Koninklijke Philips N.V. Automatic movie fly-path calculation
CN100571637C (zh) * 2008-05-28 2009-12-23 华中科技大学 动态模型指导下的血管造影三维重建方法
WO2010048160A2 (en) * 2008-10-20 2010-04-29 The Johns Hopkins University Environment property estimation and graphical display
US8374723B2 (en) * 2008-12-31 2013-02-12 Intuitive Surgical Operations, Inc. Obtaining force information in a minimally invasive surgical procedure
IT1395018B1 (it) * 2009-07-22 2012-09-05 Surgica Robotica S R L Apparecchiatura per procedure chirurgiche minimamente invasive
US9844414B2 (en) * 2009-08-31 2017-12-19 Gregory S. Fischer System and method for robotic surgical intervention in a magnetic resonance imager
US20120265051A1 (en) * 2009-11-09 2012-10-18 Worcester Polytechnic Institute Apparatus and methods for mri-compatible haptic interface
JP2011254975A (ja) * 2010-06-09 2011-12-22 Nakashima Medical Co Ltd 手術支援システム
US8900131B2 (en) * 2011-05-13 2014-12-02 Intuitive Surgical Operations, Inc. Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery
JP5657467B2 (ja) * 2011-05-13 2015-01-21 オリンパスメディカルシステムズ株式会社 医療用画像表示システム
US9770828B2 (en) * 2011-09-28 2017-09-26 The Johns Hopkins University Teleoperative-cooperative robotic system
JP2015528713A (ja) * 2012-06-21 2015-10-01 グローバス メディカル インコーポレイティッド 手術ロボットプラットフォーム
SG11201507610RA (en) * 2013-03-15 2015-10-29 Synaptive Medical Barbados Inc Planning, navigation and simulation systems and methods for minimally invasive therapy
CN104112384A (zh) * 2013-04-22 2014-10-22 天津市天堰医教科技开发有限公司 一种神经外科虚拟手术训练系统

Also Published As

Publication number Publication date
JP2018517473A (ja) 2018-07-05
EP3282994B1 (en) 2019-10-30
WO2016185259A1 (en) 2016-11-24
CN107847274B (zh) 2020-07-10
US20160338797A1 (en) 2016-11-24
EP3282994A4 (en) 2018-12-12
CN107847274A (zh) 2018-03-27
US9622831B2 (en) 2017-04-18
EP3282994A1 (en) 2018-02-21

Similar Documents

Publication Publication Date Title
JP6643362B2 (ja) ロボット手術中に更新された患者画像を供給するための方法および装置
US20240205377A1 (en) Augmented reality display for fluorescence guided surgery
JP6081907B2 (ja) 医療処置のコンピュータ化シミュレーションを行うシステム及び方法
CN110709894B (zh) 用于增强深度感知的虚拟阴影
CN105520716B (zh) 荧光镜图像的实时模拟
JPH11309A (ja) 画像処理装置
US20200113636A1 (en) Robotically-assisted surgical device, robotically-assisted surgery method, and system
US20210393358A1 (en) Enhanced haptic feedback system
JP6967983B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US20210298848A1 (en) Robotically-assisted surgical device, surgical robot, robotically-assisted surgical method, and system
KR101464330B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
US7340291B2 (en) Medical apparatus for tracking movement of a bone fragment in a displayed image
US10376335B2 (en) Method and apparatus to provide updated patient images during robotic surgery
CN109481016B (zh) 以患者面部作为触摸板用户界面
JP7495216B2 (ja) 鏡視下手術支援装置、鏡視下手術支援方法、及びプログラム
KR101529659B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
KR101513229B1 (ko) 수술전 호흡 레벨과 수술장 호흡 레벨을 비교하는 방법
Thomas Real-time Navigation Procedure for Robot-assisted Surgery

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180313

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191210

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R150 Certificate of patent or registration of utility model

Ref document number: 6643362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250