JP7146772B2 - コンテクストオーバレイを提供する拡張現実インターベンションシステム - Google Patents

コンテクストオーバレイを提供する拡張現実インターベンションシステム Download PDF

Info

Publication number
JP7146772B2
JP7146772B2 JP2019537767A JP2019537767A JP7146772B2 JP 7146772 B2 JP7146772 B2 JP 7146772B2 JP 2019537767 A JP2019537767 A JP 2019537767A JP 2019537767 A JP2019537767 A JP 2019537767A JP 7146772 B2 JP7146772 B2 JP 7146772B2
Authority
JP
Japan
Prior art keywords
user
graphics processing
processing module
context overlay
overlay
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019537767A
Other languages
English (en)
Other versions
JP2020510461A (ja
JP2020510461A5 (ja
Inventor
モリー ララ フレクスマン
アレクサンドラ ポポヴィク
アシシュ パンセ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020510461A publication Critical patent/JP2020510461A/ja
Publication of JP2020510461A5 publication Critical patent/JP2020510461A5/ja
Application granted granted Critical
Publication of JP7146772B2 publication Critical patent/JP7146772B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/003Repetitive work cycles; Sequence of movements
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/252User interfaces for surgical systems indicating steps of a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/376Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
    • A61B2090/3762Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
    • A61B2090/3764Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT] with a rotating C-arm having a cone beam emitting source
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Business, Economics & Management (AREA)
  • Public Health (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Educational Administration (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Educational Technology (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • General Business, Economics & Management (AREA)
  • Robotics (AREA)
  • Gynecology & Obstetrics (AREA)
  • Human Computer Interaction (AREA)
  • Pathology (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、拡張現実システム及び方法、より具体的には、コンテクストオーバレイ(contextual overlays)を特徴とする拡張現実インターベンション処置を実行するシステム及び方法に関する。
ハイブリッド手術室(OR)及びカテーテル処置室(cathlab)は、幅広い範囲の撮像プロトコルをサポートする。これらのプロトコルの数及びタイプは、処置の各ステップに対する正しいプロトコルを最適に見つけるように複雑であることができる。加えて、処置中に支援なしで新しいプロトコル、フィーチャ及びツールを導入しようと試みる場合に課題が生じる。
一例において、インターベンションX線室は、撮像を最適化し、様々な画像フォーマットを取得し、複雑なプロトコルを実行するように大規模な範囲のフィーチャ及びツールを提供する。ユーザインタラクションは、典型的には、撮像モジュール、幾何学モジュール、xperモジュール及びレビューモジュールのようなモジュールにより、並びにキーボード、マウス及び(データ及びレビューモニタのような)モニタを介する典型的なオンスクリーンインタラクションにより実行される。
拡張現実は、一般的に、ライブ画像ストリームが、追加のコンピュータ生成情報を追加される状況を指す。ライブ画像ストリームは、目、カメラ、スマートフォン、タブレット等を使用して提供されることができる。この画像ストリームは、前記ユーザに対してディスプレイにより拡張される。拡張された表示は、眼鏡、コンタクトレンズ、投影又はライブ画像ストリーム装置(例えばスマートフォン、タブレット等)を介してユーザに伝達されることができる。
ユーザに支援又はガイダンスを提供する又はインターベンション処置のユーザの実行を強化するようにコンテクストオーバレイを含む拡張現実インターベンションシステムを提供することは、有利である。
本原理によると、医療インターベンションシステムが、提供される。前記医療インターベンションシステムは、複数のコンポーネントを含むインタラクティブ医療装置を含む。拡張現実表示装置は、前記インタラクティブ医療装置を使用する環境においてインターベンション処置の実行中にユーザにより見られるように構成される。グラフィック処理モジュールは、前記インタラクティブ医療装置を使用する前記インターベンション処置の前記ユーザの実行を支援又は強化するように前記拡張現実表示装置上にコンテクストオーバレイを生成するように構成される。
他の実施例において、医療インターベンションシステムが、提供される。前記医療インターベンションシステムは、1以上のプロセッサ、メモリ及びインタフェースを含むワークステーションを含む。前記医療インターベンションシステムは、複数のコンポーネントを含むインタラクティブ医療装置をも含む。拡張現実表示装置は、前記インタラクティブ医療装置を使用する環境においてインターベンション処置の実行中にユーザにより見られるように構成される。グラフィック処理モジュールは、前記インタラクティブ医療装置を使用する前記インターベンション処置の前記ユーザの実行を強化する又は前記ユーザを支援するように前記拡張現実表示装置上にコンテクストオーバレイを生成するように構成される。
他の実施例において、インタラクティブ医療装置を使用する環境においてインターベンション処置のユーザの実行を支援又は強化する方法が、提供される。前記方法は、拡張現実表示装置上に生成されるコンテクストオーバレイを決定するステップを含む。前記方法は、前記ユーザを支援する又は前記インターベンション処置の前記ユーザの実行を強化するように前記拡張現実表示装置上に前記コンテクストオーバレイを生成するステップをも含む。
本開示のこれら及び他の目的、フィーチャ及び利点は、添付の図面と関連して読まれるべきである、実例的実施例の以下の詳細な記載から明らかになる。
本開示は、以下の図を参照して好適な実施例の以下の記載を詳細に提示する。
一実施例によるコンテクストオーバレイを提供する拡張現実インターベンションシステムを示すブロック/フロー図である。 モジュールに関連して各超現実表示装置上に表示されるコンテクストオーバレイの画像を示す。 モジュール及びインタラクティブ表示装置に関連して拡張現実表示装置上に表示される処置のステップを通してユーザをガイドするコンテクストオーバレイの画像を示す。 Cアームを持つ撮像装置に関連して拡張現実表示装置上に表示される現在の及び目標のアイソセンタに対するコンテクストオーバレイの画像を示す。 Cアームを持つ撮像装置に関連して拡張現実表示装置上の障害があってはならない領域を識別するコンテクストオーバレイの画像を示す。 一実施例によるインターベンション処置のユーザの実行を支援又は強化する方法を示すフロー図である。
本原理によると、ユーザを支援若しくはガイドする又はインターベンション処置の実行を強化するコンテクストオーバレイを提供するように拡張現実を使用して前記インターベンション処置を実行するシステムが、提供される。前記システムは、インタラクティブ医療装置を使用する前記インターベンション処置の実行中にユーザにより見られるように構成されるヘッドマウント仮想現実システムのような拡張現実表示装置を含む。グラフィック処理モジュールは、前記ユーザを支援又はガイドする又は他の形で前記インターベンション処置の実行を強化するように前記拡張現実表示装置上にコンテクストオーバレイを生成するように構成される。
前記グラフィック処理モジュールは、前記インタラクティブ医療装置のコンポーネント又は制御装置を識別し、前記コンポーネント又は制御装置に関する前記ユーザに対する命令を提供してもよいコンテクストオーバレイを生成するように構成される。前記コンテクストオーバレイは、前記ユーザにより実行されるべき処置のステップを識別し、前記処置の実行に対する命令を提供してもよい。前記コンテクストオーバレイは、前記インターベンション処置が実行される環境の特定の領域を識別してもよい。
前記グラフィック処理モジュールは、カスタマイズされたコンテクストオーバレイを提供するように前記ユーザからの入力を受けてもよい。前記グラフィック処理モジュールは、処置のステップを動的に決定する又は前記環境における特定の対象又は関心領域を識別するように前記システムにおける入力されたコマンドのフィードバック及び履歴を受けてもよい。前記システムは、インターベンション処置及びインタラクティブ医療装置の前記処置の実施のワークフローに関して改善された明確性を提供する。前記システムは、インターベンション処置の実行の効率性及び精度を改善する。前記システムは、新しい装置又は前記インタラクティブ医療装置における処置に関して前記ユーザを識別及びガイドする。
本発明が、医療インターベンションシステムに関して記載されるが、しかしながら、本発明の教示が、とても幅広く、いかなるインターベンションシステムにも適用可能であると、理解されるべきである。一部の実施例において、本原理は、複雑な生物学的又は機械的システムに対するインターベンション処置を実行するのに採用される。図面に描かれた要素は、ハードウェア及びソフトウェアの様々な組み合わせで実装されてもよく、単一の要素又は複数の要素において組み合わせられてもよい機能を提供してもよい。
図面に示される様々な要素の機能は、専用ハードウェア及び適切なソフトウェアと関連してソフトウェアを実行することができるハードウェアの使用により提供されることができる。プロセッサにより提供される場合、機能は、単一の専用プロセッサにより、単一の共有プロセッサにより、又は一部が共有されることができる複数の個別のプロセッサにより提供されることができる。更に、用語「プロセッサ」又は「コントローラ」の明示的な使用は、ソフトウェアを実行することができるハードウェアを排他的に指すと解釈されるべきではなく、無制限に、デジタル信号プロセッサ(DSP)ハードウェア、ソフトウェアを記憶する読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、不揮発性記憶装置等を暗示的に含むことができる。
更に、本発明の原理、態様及び実施例をここに記載する全ての記述並びにその具体例は、構造的及び機能的同等物の両方を含むと意図される。加えて、このような同等物が、現在既知の同等物及び未来に開発される同等物(すなわち、構造にかかわらず同じ機能を実行する開発された要素)の両方を含むことが、意図される。したがって、例えば、ここに提示されたブロック図が、実例的なシステムコンポーネント及び/又は本発明の原理を実施する回路の概念図を表す。同様に、フローチャート、フロー図等が、コンピュータ可読記憶媒体において実質的に表され、コンピュータ又はプロセッサが明示的に示されているかどうかにかかわらず、コンピュータ又はプロセッサにより実行されると、理解される。
更に、本発明の実施例は、コンピュータ又はいかなる命令実行システムにより使用する又は関連するプログラムコードを提供するコンピュータ使用可能又はコンピュータ可読記憶媒体からアクセス可能なコンピュータプログラムの形を取ることができる。この記載の目的で、コンピュータ使用可能又はコンピュータ可読記憶媒体は、前記命令実行システム、装置又はデバイスにより使用する又は関連する前記プログラムを包含、記憶、通信、伝搬、又は輸送してもよい任意の装置であることができる。前記媒体は、電子、磁気、光、電磁、赤外、又は半導体システム(又は装置又はデバイス)又は伝搬媒体であることができる。コンピュータ可読記憶媒体の例は、半導体若しくは固体メモリ、磁気テープ、取り外し可能コンピュータディスケット、ランダムアクセスメモリ(RAM)読取専用メモリ(ROM)、剛体磁気ディスク及び光ディスクを含む。光ディスクの現在の例は、コンパクトディスク-読取専用メモリ(CD-ROM)、コンパクトディスク-リード/ライト(CD-R/W)、ブルーレイ(登録商標)及びDVDを含む。
本明細書における本原理の「一実施例」又は「実施例」及び他の変形例に対する参照は、実施例に関連して記載された特定のフィーチャ、構造、特性等が、本原理の少なくとも1つの実施例に含まれることを意味する。したがって、明細書を通して様々な場所に現れる表現「一実施例において」又は「実施例において」及びその変形の出現は、必ずしも全て同じ実施例を参照するわけではない。
以下の「/」、「及び/又は」及び「の少なくとも1つ」のいずれかの使用は、例えば、「A/B」、「A及び/又はB」及び「A及びBの少なくとも1つ」の場合に、第1のリストされたオプション(A)のみの選択、第2のリストされたオプション(B)のみの選択、又は両方のオプション(A及びB)の選択を含むことが意図される。他の例として、「A、B及び/又はC」及び「A、B及びCの少なくとも1つ」の場合、このような表現は、第1のリストされたオプション(A)のみの選択、又は第2のリストされたオプション(B)のみの選択、又は第3のリストされたオプション(C)のみの選択、又は第1及び第2のオプション(A及びB)のみの選択、又は第1及び第3のオプション(A及びC)のみの選択、又は第2及び第3のオプション(B及びC)のみの選択、又は3つ全てのオプション(A及びB及びC)の選択を含むことが意図される。これは、当業者により容易に理解されるように、リストされた多数のアイテムに対して、拡張されうる。
層、領域又は材料のような要素が他の要素の「上」又は「上方」にあると称される場合、これは、他方の要素の直接的に上であることができる又は中間要素が存在してもよいと理解される。対照的に、要素が他の要素の「直接的に上」又は「すぐ上」にあると称される場合、中間要素は存在しない。要素が他の要素に「接続」又は「結合」されると称される場合、これは、他の要素に直接的に接続又は結合されることができるか、又は中間要素が存在してもよい。対照的に、要素が他の要素に「直接接続」又は「直接結合」されると称される場合、中間要素は存在しない。
ここで、同様の番号が同じ又は同様の要素を表す図面、最初に図1を参照すると、インターベンション処置を実行するシステム100が、一実施例によって実例として示される。システム100は、インタラクティブ医療装置102を含む。例えば、一実施例において、前記インタラクティブ医療装置は、フィリップスALLURA(登録商標)X線システムのようなインターベンション撮像装置である。前記インタラクティブ医療装置は、対象111の生体構造の再構成に対して構成される撮像システム113を含んでもよい。撮像システム113は、X線システム、超音波システム、IVUSシステム、ナビゲーションシステム、コンピュータ断層撮影システム、磁気共鳴又は当技術分野において既知である他の撮像システムであってもよい。
インタラクティブ医療装置102は、前記インターベンション処置を実行する際に前記ユーザにより使用されてもよい複数のコンポーネント104を含む。例えば、一実施例において、コンポーネント104は、対象111を撮像する撮像モジュール、前記システムのモータコンポーネントを位置決めする幾何学モジュール、前記システムにより取得されたデータをモニタするデータモニタリングモジュール等のような前記システムに対する特別機能を実行するように構成されたモジュールを含んでもよい。コンポーネント104は、キーボード、マウス、ジョイスティック、触覚装置のようなユーザ入力用のインタフェース装置109を含んでもよい。
インタラクティブ医療装置102は、処置を監督及び/又は管理するワークステーション又はコンソール103を含んでもよい。ワークステーション103は、好ましくは、1以上のプロセッサ105並びにプログラム及びアプリケーションを記憶するメモリ107を含む。ディスプレイ114は、ユーザ101が、ワークステーション103及びそのコンポーネント及び機能又はシステム100内の他の要素とインタラクトすることを可能にしてもよい。これは、ワークステーション103からのユーザフィードバック及びインタラクションを可能にするインタフェース装置109により更に容易化される。
好適な実施例において、システム100は、ユーザ101、環境108及び/又はインタラクティブ医療装置102及びコンポーネント104に関するフィードバックを取得するように構成される複数のフィードバック装置112をも含む。フィードバック装置112は、ユーザビュー及び/又は前記環境内の他のビュー、前記ユーザの視線追跡及び/又は頭部追跡のカメラフィードを提供する1以上のカメラ115であってもよい。フィードバック装置112は、ユーザ101又は環境108内の様々な対象、人若しくは装置からの音声を取得するマイクロフォンであってもよい。フィードバック装置112は、前記ユーザの身体の一部、装置102及び/又はコンポーネント104の位置を決定するセンサであってもよい。例えば、センサは、動きを追跡するように前記ユーザの腕又は頭部に配置されてもよい。フィードバック装置112は、加速度計、赤外線追跡、光ファイバ追跡、電磁(EM)追跡又は他の追跡メカニズムのような1以上の動き追跡装置であってもよい。
システム100は、手術室のような環境108におけるインターベンション処置の実行中にユーザにより見られるように構成される拡張現実表示装置106をも含む。例えば、一実施例において、拡張現実表示装置106は、GOOGLE GLASS(登録商標)、HOLOLENS(登録商標)、MAGIC LEAP(登録商標)、VUSIX(登録商標)のようなヘッドマウント仮想現実システムであってもよい。しかしながら、拡張現実表示装置106は、当技術分野において既知であるいかなる他の仮想現実/拡張現実システムであってもよい。拡張現実表示装置106は、2又は3次元性能を持ちうる。
前記システムは、前記ユーザの視野に対応する前記表示装置の特定の領域において拡張現実表示装置106上にコンテクストオーバレイ116を生成するように構成されるグラフィック処理モジュール110を更に含む。コンテクストオーバレイ116は、前記ユーザを支援又はガイドする又は前記インターベンション処置の前記ユーザの実行を強化するように前記ユーザの視野に対して特定的に配置された情報を前記ユーザに提供するように構成される。一部の実施例において、グラフィック処理モジュール110は、前記拡張現実表示装置上に生成する特定のオーバレイを決定するためにフィードバック装置112からフィードバックを受信するように構成されてもよい。拡張現実表示装置106は、ケーブルを介して前記システムに接続されてもよく、又は前記システムに無線で接続されてもよい。
図2に示されるように、一実施例において、グラフィック処理モジュール110は、前記インタラクティブ医療装置のコンポーネント104上の様々な制御装置118に対してコンテクストオーバレイ116を生成するように構成される。一例として、図2における画像120は、前記制御装置及び前記制御装置の移動を識別する各制御装置118に対して拡張現実表示装置106上に生成されたコンテクストオーバレイ116を含むインタラクティブ医療装置102のモジュール117を示す。例えば、図2に示されるように、前記Cアームの位置を制御するノブ119は、ユーザ定義コンテクストオーバレイ「Cアームウィグル(Wiggle)」を含んでもよい。グラフィック処理モジュール110は、他のモジュール又は装置を含むインタラクティブシステムのいかなる他のコンポーネント104に対してもコンテクストオーバレイ116を生成するように、構成されてもよい。
グラフィック処理モジュール110は、メモリ107に記憶されたデータベース122から前記コンテクストオーバレイに対する情報を受けてもよい。好適な実施例において、グラフィック処理モジュール110は、コンテクストオーバレイ116において表示されるべき情報に関してインタフェース109を介してユーザ101からの入力を受けるように構成されてもよい。これは、前記ユーザが前記ユーザの優先傾向及び/又は実行される特定の処置に基づいて前記コンテクストオーバレイをカスタマイズすることを可能にする。コンテクストオーバレイ116は、様々なコンポーネント又は制御装置上に配置される物理的ステッカのような既存の製品より明確であり、より包括的であり、よりカスタマイズ可能である、インタラクティブ装置102のコンポーネント及び制御装置に対する情報を識別及び提供する。
グラフィック処理モジュール110は、処置の様々なステップを通して前記ユーザをガイドするコンテクストオーバレイ116を生成するように構成されてもよい。一実施例において、前記処置のステップは、データベース122に記憶され、グラフィック処理モジュール110は、データベース122から適切なコンテクストオーバレイ116に対する情報を受け取る。グラフィック処理モジュール110は、コンテクストオーバレイ116をカスタマイズするためにインタフェース109を介して前記ユーザからの入力を受け取るように構成されてもよい。
特定の実施例において、システム100は、前記ユーザが実行する適切なステップを決定するために、データベース122から実行される前記処置のステップに関する情報を、及びフィードバック装置112からフィードバックを、又はモジュールのような前記システムのコンポーネントから信号の履歴を受け取るように構成される決定モジュール124を含んでもよい。決定モジュール124は、この場合、コンテクストオーバレイ116に関する情報をグラフィック処理モジュール110に送信するように構成される。
例えば、インタラクティブインターベンションX線製品における目標生体構造の3D再構成の実行は、しばしば、複雑であり、正確にかつ特定の順序で実行されるべき多くのステップを要求する処置を伴う。多くのモジュール、制御装置、スクリーン及び入力装置は、ユーザにとって分かりにくく、結果として前記インターベンション処置の実行において誤り及び低減された効率を生じる。
目標生体構造の3D再構成を生成するために、前記目標生体構造は、第一に、アイソセンタに配置(isocentered)されてもよく、これにより、前記撮像装置の前記Cアームは、対象111の目標生体構造が画像の中心に留まる形で、前記目標生体構造の周りで回転する経路を取る。前記目標生体構造をアイソセンタに配置するために、前記ユーザは、典型的には、前記生体構造が中心になるまで横位置における前記Cアームを用いて台を上下に移動しなくてはならない。前記ユーザは、次いで、前記目標生体構造が中心になるまでAP位置における前記Cアームを用いて左右及び前後に前記台を移動してもよい。この処置は、時間がかかるかもしれず、蛍光透視ガイダンスの下での前記台の移動を要求する。
前記目標生体構造がアイソセンタに配置された後に、前記ユーザは、画像取得プロトコルを実行してもよく、Cアーム運動の終了及び開始位置は、前記Cアームがいかなる物体にもぶつかることなしに回転運動により自由に移動することができ、前記アームが前記終了及び開始位置に到達しうることを保証するように試験される。しかしながら、この処置の実行における問題は、アイソセンタ配置が正確に決定されない、前記ユーザが前記終了及び開始位置を通して前記装置を移動するのに正しいボタンを押さない、又は前記Cアームが経路内に障害を持つことにより、頻繁に生じる。拡張現実表示装置106上のコンテクストオーバレイ116の生成は、これらの問題を減少又は防止し、前記インターベンション処置の効率を増大するように前記ユーザに十分な情報を提供する。
例えば、図3に示されるように、画像126-131は、アイソセンタ配置が実行された後に画像取得プロセスを実行するための幾何学モジュール132及びインタラクティブ表示装置134に関連した拡張現実表示装置106上に表示されるコンテクストオーバレイ116を示す。グラフィック処理モジュール110により生成されたコンテクストオーバレイ116は、各ステップの順序に関する識別、前記ステップ及び/若しくは前記モジュールの特定の制御を実行する命令又は前記ユーザが動作を実行する前記インタラクティブ表示装置の領域を含む。
一例として、画像126は、インタラクティブ表示装置134の下に生成され、「ステップ1:蛍光透視プロトコルを選択する」を宣言するコンテクストオーバレイ135を示す。円を有するコンテクストオーバレイ141は、蛍光透視プロトコルを選択するために前記ユーザが押す又は他の形で操作する必要のある、インタラクティブ表示装置134の特定の領域の上に生成される。
画像127は、モジュール132の下に生成され、「ステップ2:台の高さを調整することにより横位置、アイソセンタを呼び出す」を宣言するコンテクストオーバレイ136を示す。前記横位置を呼び出し、前記台の高さを調整するための特定のボタン及びノブは、これらの制御装置の上に拡張現実表示装置106上で円142a、142bを付けられる。
画像128は、モジュール132の下に生成され、「ステップ3:台のL/Rを調整することによりAP位置、アイソセンタを呼び出す」を宣言するコンテクストオーバレイ137を示す。画像128は、これらの特定のステップを実行するために前記ユーザにより操作されなくてはならない制御装置の周りに拡張現実表示装置106上に配置される円を有するコンテクストオーバレイ143a、143bをも示す。
画像129は、インタラクティブ表示装置134の下に生成され、「ステップ4:xperCTプロトコルを選択する」を宣言するコンテクストオーバレイ138を示す。円を有するコンテクストオーバレイ144は、xperCTプロトコルを選択するのに前記ユーザが押す又は他の形で操作する必要のあるインタラクティブ表示装置134の特定の領域の上に生成される。
画像130は、モジュール132の下に生成され、「ステップ5:終了位置を呼び出す」を宣言するコンテクストオーバレイ139を示す。画像130は、この特定のステップを実行するために前記ユーザにより押されなければならないボタンの周りに拡張現実表示装置106上に位置する円を有するコンテクストオーバレイ145をも示す。
画像131は、モジュール132の下に生成され、「ステップ6:開始位置を呼び出す」を宣言するコンテクストオーバレイ140を示す。画像131は、この特定のステップを実行するために前記ユーザにより押されなければならないボタンの周りに拡張現実表示装置106上に位置する円を有するコンテクストオーバレイ146をも示す。これらの特定の実施例が、前記ユーザが操作しなければならない制御装置を識別するのに円の形状のコンテクストオーバレイ141を示しているが、点滅、色符号化輪郭、矢印等のような、いかなる他の標示も、前記コンテクストオーバレイに対して使用されてもよい。一実施例において、グラフィック処理モジュール110は、操作されるべき制御装置を識別するためのオーバレイの特定の構成に関して前記ユーザからの入力を受け取るように構成されてもよい。前記ユーザが、正しいパネル又はスクリーンを見ていない場合、前記ユーザに頭部位置を変更させる及び/又は正しいパネル又はスクリーンを見るように凝視させる視覚的指示であることもできる。
前記ユーザは、インタラクティブ表示装置134及びモジュール132を使用して前記画像取得プロセスを実行してもよく、拡張現実表示装置106上で生成されたコンテクストオーバレイ116は、いずれのステップが実行されるべきか及びどのようにして実行されるべきかに関する明確な命令を提供することにより、前記処置のワークフローを単純化し、誤りを低減する。特定の実施例において、決定モジュール124は、フィードバック装置112からのフィードバック及び/又は実行される必要のある適切なステップを決定するように前記ユーザによりインタラクティブ医療装置102に入力された前記制御装置からの信号を受け取ってもよい。決定モジュール124は、この場合、前記決定するステップに対するコンテクストオーバレイを生成するためにグラフィック処理モジュール110に信号を送信するように構成される。これは、システム100が、生成されたコンテクストオーバレイ116によって前記ユーザに適応ガイダンスを提供することを可能にする。
グラフィック処理モジュール110により生成されたコンテクストオーバレイ116は、画像取得プロセスに関して論じられているが、前記コンテクストオーバレイは、いかなる他の処置を通してユーザ101をガイドするように生成されてもよい。例えば、一実施例において、オーバレイは、グラフィック処理モジュール110により生成され、撮像装置のCアームを特定の位置又は向きに移動するために幾何学モジュールを操作するように前記ユーザをガイドする。しかしながら、グラフィック処理モジュール110により生成されたオーバレイ116は、多くの他のインターベンション処置に対して及び多くの異なるタイプのインタラクティブ装置に関して使用されうる。押されるべきであることを示すようにトリガされる特定のボタンの近くに配置される点滅するLED光のような、コンテクストオーバレイ116は、既存の装置と比較して、実行されるべき処置のステップを識別する、より明確な、より包括的な、よりカスタマイズ可能な情報を識別及び提供する。
更に、グラフィック処理モジュール110により生成されたオーバレイ116は、インタラクティブ医療装置102と関連付けられた新しい技術、プロトコル又は装置に対する命令を提供するのに使用されてもよい。例えば、データベース122は、インタラクティブ医療装置102に組み込まれる又は前記インタラクティブ医療装置により実行されうる新しい技術、プロトコル又は装置に関する更新された情報を受け取るように構成されてもよい。コンテクストオーバレイ116は、この場合、前記装置の使用を通して又は前記新しいプロトコルの実行時に前記ユーザをガイドするようにグラフィック処理モジュール110により生成される。
他の実施例において、グラフィック処理モジュール110は、前記環境における(複数の)特定の領域を識別するコンテクストオーバレイを生成するように構成される。例えば、図4は、拡張現実表示装置106上にCアーム154を持つ撮像装置の画像147を示す。図4に示されるように、前記Cアームをアイソセンタに配置する際に前記ユーザを支援するために、グラフィック処理モジュール110は、Cアームの現在の中心及び前記Cアームの目標アイソセンタを識別するコンテクストオーバレイ116を提供するように構成されてもよい。図4において、グラフィック処理モジュール110は、前記Cアームの現在のアイソセンタを識別する拡張現実表示装置106上の十字線148を生成するように構成される。グラフィック処理モジュール110は、前記目標アイソセンタを識別する十字線150を生成するようにも構成される。
一実施例において、システム100は、現在の及び目標アイソセンタを決定し、この情報をグラフィック処理モジュール110に送信して十字線148、150のような前記コンテクストオーバレイを生成するように構成される位置モジュール152を含む。ユーザ101は、この場合、Cアーム154並びに現在の及び目標十字線アイソセンタ148、150を見て、前記十字線が並び、前記現在のアイソセンタが前記目標アイソセンタを識別するオーバレイ上に位置するまで前記台を調整してもよい。グラフィック処理モジュール110により生成されたコンテクストオーバレイ116は、アイソセンタに配置するステップの容易さ及び精度を増大させる。コンテクストオーバレイ116は、対象111の追加の撮像を要求し、前記対象に対する増大された放射線被ばくを生じる、不正確なアイソセンタ配置を低減する。前記十字線は、代替的には、前記アイソセンタを表す球又は他のオブジェクトであってもよい。前記十字線は、ライブ撮像又はレビュースクリーンに表示された蛍光透視画像上に重ねられてもよい。
他の実施例において、グラフィック処理モジュール110は、処置を実行するために障害があってはならない前記環境における領域を識別するコンテクストオーバレイ116を生成するように構成される。例えば、図5は、拡張現実表示装置106上にCアーム154を持つ撮像装置の画像153を示す。グラフィック処理モジュール110は、Cアーム154がいかなる物体にもぶつかることなしに自由に移動しうるように、画像取得プロセス中に整理する必要のある領域を表すコンテクストオーバレイ156を生成するように構成される。前記ユーザは、前記拡張現実表示装置上のコンテクストオーバレイ156を見る場合、整理を必要とする物体が前記領域内にあるかどうか及び前記領域から前記物体を取り除きうるかを容易に決定することができる。
一実施例において、システム100は、整理を必要とする領域を調査又はモニタし、当該領域内に物体が存在するかどうかを決定するように構成される場所モジュール160を含む。場所モジュール160は、整理を必要とする領域内であると決定された任意の物体に関して信号をグラフィック処理モジュール110に送信するように構成される。グラフィック処理モジュール110は、前記物体が取り除かれなければならないことを示すように拡張現実表示装置106内の当該物体上にコンテクストオーバレイ116を生成するように構成されうる。例えば、図5において、長方形形状オブジェクト162を有するコンテクストオーバレイは、台164の一部の上に位置し、前記台が整理を必要とする領域の外まで再配置されなければならないことを示す。
グラフィック処理モジュール110により生成されたコンテクストオーバレイ116は、前記インターベンション処置が実行される間にCアーム領域内の妨害を防止する。これらの妨害は、典型的には、前記Cアームが自由に回転しうるように前記物体を移動するために前記ユーザが大幅な時間をかけることを要求する。現在のCアーム位置を正確に表す領域を重ねることは、重要である。前記現在のCアーム位置は、カメラベースの検出、追跡マーカ、追跡技術、Cアーム符号化により自動的に、又は前記ユーザにより手動で計算されうる。
コンテクストオーバレイ116は、整理を必要とする領域内の物体を識別する又はアイソセンタを識別するものとして図示されているが、前記コンテクストオーバレイは、任意のインターベンション処置に対して及び環境108において他の物体又は領域を識別するように構成されてもよい。
他の実施例において、場所モジュール160は、稼働装置の経路内の物体を決定し、前記稼働装置に対する更新された経路を決定してもよい。グラフィック処理モジュール110は、前記新しい経路を識別し、及び/又は前記経路に沿って前記稼働装置を移動するように前記ユーザをガイドするコンテクストオーバレイ116を生成するように構成される。
他の実施例において、システム100は、対象111の放射線からの被ばくを低減するコンテクストオーバレイ116を生成するようにグラフィック処理モジュール110を構成することにより前記処置のユーザの実行を強化する。例えば、一実施例において、コンテクストオーバレイ116は、蛍光透視特色(fluoro flavor)を確認する前記ユーザに対するプロンプトを含む。グラフィック処理モジュール110は、前記蛍光透視特色を確認するように前記ユーザに指示するための好適な時間期間を決定するようにデータベース122から又はユーザ入力からの命令を受け取るように構成されてもよい。
他の実施例において、システム100は、リアルタイム線量モニタ装置を含んでもよく、グラフィック処理モジュール110は、前記リアルタイム線量モニタ装置からの測定結果に基づいて高線量の放射線を受けた個人を識別するコンテクストオーバレイ116を生成するように構成されてもよい。システム100は、データベース122からの命令に基づいて、ユーザ入力から又は前記線量モニタ装置により検出された放射線に応答して、いつウェッジを使用するか推薦し、放射線検出器を移動する等のコンテクストオーバレイ116を生成してもよい。
他の実施例において、グラフィック処理モジュール110は、環境108内の様々な物体に対する最適な場所を提供するコンテクストオーバレイ116を生成するように構成されてもよい。例えば、一実施例において、コンテクストオーバレイ116は、手術室のような環境108が施術者の到着の前に最適な状態にセットアップされうるように、前記インターベンション処置の実行前にインタラクティブ医療装置102、コンポーネント104及び対象111の所望のセットアップを提供しうる。部屋の最適な向きは、データベース122内の命令に含まれてもよく、又は前記インターベンション処置の前に前記ユーザにより入力されてもよい。
図6を参照すると、インタラクティブ医療装置を使用して環境におけるインターベンション処置のユーザの実行を支援又は強化する方法200は、本原理によって図示される。ブロック210において、前記拡張現実表示装置上に生成されるべきコンテクストオーバレイが、決定される。ブロック220において、前記コンテクストオーバレイは、前記インターベンション処置の前記ユーザの実行を支援又は強化するように前記拡張現実表示装置上に生成される。
システム100の実施例に関して以前に記載されたように、前記方法は、カスタマイズされたコンテクストオーバレイを生成するために前記コンテクストオーバレイに関して前記ユーザからの入力を受け取るステップを含んでもよい。代わりに、前記インターベンション処置中の前記ユーザ、物体及び/又は前記インタラクティブ医療装置からのフィードバックは、前記拡張現実表示装置上に生成される前記コンテクストオーバレイを決定するのに使用されてもよい。
以前に記載されたように、方法は、前記インタラクティブ医療装置の少なくとも1つのコンポーネントを識別するコンテクストオーバレイを生成するステップを含んでもよい。前記コンテクストオーバレイは、前記ユーザにより実行されるべき前記インターベンション処置の少なくとも1つのステップを識別してもよい。前記コンテクストオーバレイは、目標又は現在のアイソセンタのような前記環境内の特定の領域、妨害がないようにすることを必要とされる領域、Cアームの所望の位置等を識別してもよい。
一実施例において、前記インターベンション処置中に前記ユーザ、対象及び/又は前記インタラクティブ医療装置からフィードバックを受け取るように構成されたフィードバック装置、前記複数のコンポーネントの1以上からの信号の履歴又はデータベースの少なくとも1つからのフィードバックは、前記ユーザにより実行されるべき前記インターベンション処置の少なくとも1つのステップを決定するのに使用される。前記方法は、装置の最適な経路を識別する、放射線を低減する等のためにコンテクストオーバレイを前記ユーザに適応的に提供してもよい。
添付の請求項を解釈する際に、
a)単語「有する」は、所定の請求項に記載されたもの以外の要素又は動作の存在を除外しない、
b)要素に先行する単語「a」又は「an」は、複数のこのような要素の存在を除外しない、
c)請求項内のいかなる参照符号も、その範囲を限定しない、
d)複数の「手段」が、同じアイテム又はハードウェア又はソフトウェア実装構造若しくは機能により表されてもよい、
e)動作の特定の順番は、特定的に示されない限り必要とされないと意図される。
コンテクストオーバレイを提供する拡張現実インターベンションシステム及びそれに対する方法の好適な実施例(限定的ではなく、実例的であると意図される)が記載されているが、修正及び変形が、上記の教示に照らして当業者によりなされることができることに注意されたい。したがって、添付の請求項により概説されるここに開示された実施例の範囲内である開示された本開示の特定の実施例において、変更が、なされてもよい。したがって、詳細に記載され、特許法により要求されているが、何が請求され、専売特許証により保護されることが望まれるかは、添付の請求項に記載される。

Claims (15)

  1. 医療インターベンションシステムにおいて、
    複数の制御装置を含み、前記複数の制御装置によって制御されるインタラクティブ医療装置と、
    ユーザにより着用され、前記インタラクティブ医療装置を使用する環境におけるインターベンション処置中に前記ユーザにより見られるように構成される拡張現実表示装置と、
    前記インタラクティブ医療装置を使用する前記インターベンション処置を実行する前記ユーザを支援するように前記拡張現実表示装置上に示される、前記複数の制御装置のうちの1以上に対するコンテクストオーバレイを生成するように構成されるグラフィック処理モジュールと、
    を有するシステム。
  2. 前記システムが、
    前記インターベンション処置中に前記ユーザ、対象及び/又は前記インタラクティブ医療装置からフィードバックを受け取るように構成されるフィードバック装置、
    を有し、
    前記グラフィック処理モジュールが、前記フィードバックを受け取り、前記フィードバックに基づいて前記コンテクストオーバレイを提供するように更に構成される、
    請求項1に記載のシステム。
  3. 前記グラフィック処理モジュールが、少なくとも1つの制御装置を識別するために前記コンテクストオーバレイを生成するように更に構成される、請求項1に記載のシステム。
  4. 前記グラフィック処理モジュールが、生成される前記コンテクストオーバレイを決定するのに前記ユーザからの入力を受け取るように更に構成される、請求項1に記載のシステム。
  5. 前記グラフィック処理モジュールが、前記ユーザにより実行されるべき前記インターベンション処置のステップを識別するために前記コンテクストオーバレイを生成するように更に構成される、請求項1に記載のシステム。
  6. 前記インターベンション処置のステップを識別することが、前記ユーザにより操作されるべき1以上の特定の制御装置を識別し、前記制御装置の操作を記述することを有する、請求項5に記載のシステム。
  7. 前記インターベンション処置中に前記ユーザ、対象及び/又は前記インタラクティブ医療装置からフィードバックを受け取るように構成されるフィードバック装置、前記複数のコンポーネントの前記少なくとも1つのコンポーネントからの信号の履歴又はデータベースの少なくとも1つからフィードバックを受け取り、
    前記フィードバックに基づいて前記インターベンション処置に対して前記ユーザが実行するステップを決定し、
    前記ステップに対して生成されるべき前記コンテクストオーバレイに関して信号を前記グラフィック処理モジュールに送信する、
    ように構成された決定モジュール、
    を有する、請求項5に記載のシステム。
  8. 前記グラフィック処理モジュールが、前記環境における特定の領域を識別するために前記コンテクストオーバレイを生成するように更に構成される、請求項1に記載のシステム。
  9. 前記グラフィック処理モジュールが、前記インタラクティブ医療装置のCアームに対する所望の位置を識別するために前記コンテクストオーバレイを生成するように更に構成される、請求項8に記載のシステム。
  10. 前記システムが、
    前記インタラクティブ医療装置のCアームに対する目標アイソセンタ及び前記Cアームに対する現在のアイソセンタの位置を決定するように構成される位置モジュール、
    を有し、
    前記グラフィック処理モジュールが、前記位置モジュールから前記目標アイソセンタ及び現在のアイソセンタの位置を受け取り、前記環境における前記目標アイソセンタを識別するための前記コンテクストオーバレイ及び前記現在のアイソセンタを識別するための他のコンテクストオーバレイを生成するように更に構成される、
    請求項1に記載のシステム。
  11. 前記グラフィック処理モジュールが、前記インターベンション処置を実行するために物理的な障害があってはならない少なくとも1つの領域を識別するために前記コンテクストオーバレイを生成するように更に構成される、請求項1に記載のシステム。
  12. 前記システムが、
    前記環境における前記物理的な障害となりうる物体の位置を決定し、前記物体の位置を前記物理的な障害があってはならない少なくとも1つの領域と比較するように構成される場所モジュール、
    を有し、
    前記グラフィック処理モジュールが、取り除かれなければならない、前記物理的な障害があってはならない少なくとも1つの領域内の物体を識別するために前記コンテクストオーバレイを生成するように更に構成される、
    請求項11に記載のシステム。
  13. インタラクティブ医療装置と、ユーザにより着用され、前記インタラクティブ医療装置を使用してインターベンション処置を実行しながら前記ユーザにより見られるように構成される拡張現実表示装置と、グラフィック処理モジュールと有する医療インターベンションシステムの作動方法において、
    前記グラフィック処理モジュールが、前記拡張現実表示装置上に生成される、前記インタラクティブ医療装置の制御装置に対するコンテクストオーバレイを決定するステップと、
    前記グラフィック処理モジュールが、前記インターベンション処置の前記ユーザの実行を支援するように前記拡張現実表示装置上に前記コンテクストオーバレイを生成するステップと、
    を有する方法。
  14. 前記インターベンション処置中に少なくとも1つのフィードバック装置により取得された前記ユーザ、対象及び/又は前記インタラクティブ医療装置からのフィードバックに基づいて前記コンテクストオーバレイを決定するステップを更に有する、請求項13に記載の方法
  15. 前記コンテクストオーバレイが、前記ユーザにより操作されるべき1以上の特定の制御装置を識別し、前記制御装置の操作を記述することにより前記ユーザにより実行されるべき前記インターベンション処置の少なくとも1つのステップを識別するように構成される、請求項13に記載の方法
JP2019537767A 2017-01-17 2018-01-15 コンテクストオーバレイを提供する拡張現実インターベンションシステム Active JP7146772B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762447069P 2017-01-17 2017-01-17
US62/447,069 2017-01-17
PCT/EP2018/050806 WO2018134140A1 (en) 2017-01-17 2018-01-15 Augmented reality interventional system providing contextual overlays

Publications (3)

Publication Number Publication Date
JP2020510461A JP2020510461A (ja) 2020-04-09
JP2020510461A5 JP2020510461A5 (ja) 2021-02-04
JP7146772B2 true JP7146772B2 (ja) 2022-10-04

Family

ID=61163661

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019537767A Active JP7146772B2 (ja) 2017-01-17 2018-01-15 コンテクストオーバレイを提供する拡張現実インターベンションシステム

Country Status (5)

Country Link
US (2) US11551380B2 (ja)
EP (1) EP3571698A1 (ja)
JP (1) JP7146772B2 (ja)
CN (1) CN110199357B (ja)
WO (1) WO2018134140A1 (ja)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9566414B2 (en) 2013-03-13 2017-02-14 Hansen Medical, Inc. Integrated catheter and guide wire controller
US9283046B2 (en) 2013-03-15 2016-03-15 Hansen Medical, Inc. User interface for active drive apparatus with finite range of motion
US11020016B2 (en) 2013-05-30 2021-06-01 Auris Health, Inc. System and method for displaying anatomy and devices on a movable display
EP2923669B1 (en) 2014-03-24 2017-06-28 Hansen Medical, Inc. Systems and devices for catheter driving instinctiveness
US11037464B2 (en) 2016-07-21 2021-06-15 Auris Health, Inc. System with emulator movement tracking for controlling medical devices
CN110831534B (zh) * 2017-12-08 2023-04-28 奥瑞斯健康公司 用于医疗仪器导航和瞄准的系统和方法
US10573023B2 (en) * 2018-04-09 2020-02-25 Globus Medical, Inc. Predictive visualization of medical imaging scanner component movement
US11367526B2 (en) * 2018-05-07 2022-06-21 Medtronic Minimed, Inc. Proactive patient guidance using augmented reality
EP3793465A4 (en) 2018-05-18 2022-03-02 Auris Health, Inc. CONTROL DEVICES FOR ROBOTIC ACTIVATION REMOTE CONTROL SYSTEMS
US11923084B2 (en) 2018-09-07 2024-03-05 Cilag Gmbh International First and second communication protocol arrangement for driving primary and secondary devices through a single port
US11804679B2 (en) 2018-09-07 2023-10-31 Cilag Gmbh International Flexible hand-switch circuit
US11696790B2 (en) 2018-09-07 2023-07-11 Cilag Gmbh International Adaptably connectable and reassignable system accessories for modular energy system
EP3850636B1 (en) * 2018-10-12 2024-04-03 Sony Group Corporation An operating room control system, method, and program
US11287874B2 (en) 2018-11-17 2022-03-29 Novarad Corporation Using optical codes with augmented reality displays
US11872007B2 (en) 2019-06-28 2024-01-16 Auris Health, Inc. Console overlay and methods of using same
USD939545S1 (en) 2019-09-05 2021-12-28 Cilag Gmbh International Display panel or portion thereof with graphical user interface for energy module
US11237627B2 (en) 2020-01-16 2022-02-01 Novarad Corporation Alignment of medical images in augmented reality displays
US20230074481A1 (en) 2020-02-18 2023-03-09 Koninklijke Philips N.V. Medical imaging systems, devices, and methods for visualizing a deployment state of an intracorporeal therapeutic device
US12016633B2 (en) 2020-12-30 2024-06-25 Novarad Corporation Alignment of medical images in augmented reality displays
US11978554B2 (en) 2021-03-30 2024-05-07 Cilag Gmbh International Radio frequency identification token for wireless surgical instruments
US12004824B2 (en) 2021-03-30 2024-06-11 Cilag Gmbh International Architecture for modular energy system
US11963727B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for system architecture for modular energy system
US11950860B2 (en) 2021-03-30 2024-04-09 Cilag Gmbh International User interface mitigation techniques for modular energy systems
US11968776B2 (en) 2021-03-30 2024-04-23 Cilag Gmbh International Method for mechanical packaging for modular energy system
US11980411B2 (en) 2021-03-30 2024-05-14 Cilag Gmbh International Header for modular energy system
US11857252B2 (en) 2021-03-30 2024-01-02 Cilag Gmbh International Bezel with light blocking features for modular energy system
US20220335604A1 (en) * 2021-04-14 2022-10-20 Cilag Gmbh International Anticipation of interactive utilization of common data overlays by different users
US11948265B2 (en) 2021-11-27 2024-04-02 Novarad Corporation Image data set alignment for an AR headset using anatomic structures and data fitting

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120006A (ja) 2012-12-17 2014-06-30 Haruyuki Iwata 携帯型移動支援装置
JP2014155207A (ja) 2013-02-14 2014-08-25 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20150363979A1 (en) 2013-02-14 2015-12-17 Seiko Epson Corporation Head mounted display and control method for head mounted display

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9035568B2 (en) * 2011-12-05 2015-05-19 Qualcomm Incorporated Telehealth wireless communication hub device and service platform system
US10610172B2 (en) * 2012-07-17 2020-04-07 Koninklijke Philips N.V. Imaging system and method for enabling instrument guidance
US10354049B2 (en) * 2012-08-22 2019-07-16 Koninklijke Philips N.V. Automatic detection and retrieval of prior annotations relevant for an imaging study for efficient viewing and reporting
KR20140112207A (ko) * 2013-03-13 2014-09-23 삼성전자주식회사 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템
DE102014206004A1 (de) * 2014-03-31 2015-10-01 Siemens Aktiengesellschaft Triangulationsbasierte Tiefen- und Oberflächen-Visualisierung
EP2982415A1 (en) * 2014-08-04 2016-02-10 Université de Strasbourg Method for estimating the spatial distribution of the hazardousness of radiation doses
US10154239B2 (en) 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
KR101647467B1 (ko) * 2015-06-05 2016-08-11 주식회사 메드릭스 증강현실을 이용한 외과 수술용 3d 안경 시스템
US10706626B1 (en) * 2015-12-09 2020-07-07 Roger Brent Augmented reality procedural system
DE102015226669B4 (de) * 2015-12-23 2022-07-28 Siemens Healthcare Gmbh Verfahren und System zum Ausgeben einer Erweiterte-Realität-Information

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120006A (ja) 2012-12-17 2014-06-30 Haruyuki Iwata 携帯型移動支援装置
JP2014155207A (ja) 2013-02-14 2014-08-25 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
US20150363979A1 (en) 2013-02-14 2015-12-17 Seiko Epson Corporation Head mounted display and control method for head mounted display

Also Published As

Publication number Publication date
US20190371012A1 (en) 2019-12-05
JP2020510461A (ja) 2020-04-09
EP3571698A1 (en) 2019-11-27
WO2018134140A1 (en) 2018-07-26
CN110199357B (zh) 2023-07-14
CN110199357A (zh) 2019-09-03
US11551380B2 (en) 2023-01-10
US20230086592A1 (en) 2023-03-23

Similar Documents

Publication Publication Date Title
JP7146772B2 (ja) コンテクストオーバレイを提供する拡張現実インターベンションシステム
JP7004729B2 (ja) 手術室における予測ワークフローのための拡張現実
US10403402B2 (en) Methods and systems for accessing and manipulating images comprising medically relevant information with 3D gestures
EP2866667B1 (en) C-arm trajectory planning for optimal image acquisition in endoscopic surgery
EP3570771B1 (en) Augmented reality for radiation dose monitoring
US20200105068A1 (en) Augmented reality for collaborative interventions
US11740757B2 (en) Virtual cover for user interaction in augmented reality
EP2830506B1 (en) Direct control of x-ray focal spot movement
US10269453B2 (en) Method and apparatus for providing medical information
US9968320B2 (en) X-ray diagnostic apparatus
US20070182729A1 (en) Apparatus for interventional therapy
CN115804652A (zh) 手术操作系统及方法
US12026837B2 (en) Adapting an augmented and/or virtual reality
US20210358220A1 (en) Adapting an augmented and/or virtual reality
CN112397189A (zh) 一种医用导引装置及其使用方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201221

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201221

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220921

R150 Certificate of patent or registration of utility model

Ref document number: 7146772

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150