JP2021501939A - オブジェクトの拡張現実ドラッグ及びドロップ - Google Patents

オブジェクトの拡張現実ドラッグ及びドロップ Download PDF

Info

Publication number
JP2021501939A
JP2021501939A JP2020524241A JP2020524241A JP2021501939A JP 2021501939 A JP2021501939 A JP 2021501939A JP 2020524241 A JP2020524241 A JP 2020524241A JP 2020524241 A JP2020524241 A JP 2020524241A JP 2021501939 A JP2021501939 A JP 2021501939A
Authority
JP
Japan
Prior art keywords
drag
drop
physical
augmented reality
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020524241A
Other languages
English (en)
Other versions
JP2021501939A5 (ja
Inventor
モリー ララ フレックスマン
モリー ララ フレックスマン
ジャール ジョン ポール ブレイド
ジャール ジョン ポール ブレイド
アトゥル グプタ
アトゥル グプタ
アシシュ パンセ
アシシュ パンセ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2021501939A publication Critical patent/JP2021501939A/ja
Publication of JP2021501939A5 publication Critical patent/JP2021501939A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

拡張現実ディスプレイ41と、拡張現実ドラッグ及びドロップコントローラとを備える、拡張現実ドラッグ及びドロップデバイス40である。動作時、拡張現実ディスプレイ41は、仮想オブジェクト(例えば仮想コンテンツ又は仮想アイテム)を、物理世界の中の物理オブジェクトのビュー(例えば物理コンテンツ又は物理アイテム)に対して表示し、拡張現実ドラッグ及びドロップコントローラ43は、仮想オブジェクト及び物理オブジェクトを伴うドラッグ及びドロップ動作を制御する。ドラッグ及びドロップ動作は、物理オブジェクトへの仮想オブジェクトのドラッグ、及び/又は仮想オブジェクトへの物理オブジェクトのドラッグを伴う。

Description

本開示は、全般に、特に医療環境における拡張現実の利用に関する。本開示は、具体的には、仮想世界からコンテンツをドラッグしてそのコンテンツを物理世界の中にドロップすること、及び物理世界からコンテンツをドラッグしてそのコンテンツを仮想世界の中にドロップすることに関する。
医療手順中に医療従事者が利用することができ、医療従事者によって必要とされる情報の度合いがかつてなく増大している。当該情報は、処置室の中で利用可能な物理画面上の限られた空間を競合している。処置室の拡張現実ビューを提供する装着可能眼鏡は、処置室内のどこにでも配置することが可能で、眼鏡のユーザによって動的に構成される、より柔軟性の高い画面の可能性を生み出す。
仮想画面の将来性にも関わらず、依然として物理画面及びそのインターフェースを処置室に備えておく主要な理由がいくつかある。
第1に、物理画面の画像品質は、仮想画面の画像品質よりも良好であり得る。
第2に、安全性の理由から、特定の画像を常に物理画面に提示しておくことが必要であり得る(例えばライブX線画像)。
第3に、物理画面は、処置室内の全員が拡張現実眼鏡を装着しているのではない場合に、情報と医療従事者間の対話の主要な供給源となる。
その結果、処置室内の物理画面、仮想画面、及び他のオブジェクト間で情報のシームレスな流れ、特に、医療手順のワークフローを複雑化せず、ワークフローの負担になることがない流れを作り出す必要性が存在する。
拡張現実(AR)は、一般に、デバイスが、追加的なコンピュータ生成の情報で補われたライブ画像ストリームを表示することを言う。より詳細には、ライブ画像ストリームは、目、カメラ、スマートフォン、タブレット等を介して行われ、眼鏡、コンタクトレンズ、投影、又はライブ画像ストリームデバイス自体(例えばスマートフォン、タブレット等)を介して、ARユーザに対するディスプレイを介して増強される。本開示の発明は、仮想世界からコンテンツをドラッグして、そのコンテンツを物理世界の中にドロップすること、及び物理世界からコンテンツをドラッグしてそのコンテンツを仮想世界の中にドロップすることを前提とし、それにより、手順、特に医療手順のワークフローへの中断を最小にする。
本開示の発明の一実施形態は、拡張現実ディスプレイと、拡張現実ドラッグ及びドロップコントローラとを備えた、拡張現実ドラッグ及びドロップデバイスである。動作時、拡張現実ディスプレイは、物理世界の中の物理オブジェクトのビューに対して仮想オブジェクトを表示し、拡張現実ドラッグ及びドロップコントローラは、仮想オブジェクト及び物理オブジェクトを伴うドラッグ及びドロップ動作を制御するように構成される。
本開示の発明の第2の実施形態は、仮想オブジェクトの表示の中の物理オブジェクトを、物理世界の中での物理オブジェクトのビューに対して輪郭付けするオブジェクト輪郭付けモジュールを備えた、拡張現実ドラッグ及びドロップコントローラである。拡張現実ドラッグ及びドロップコントローラは、仮想オブジェクト及び物理オブジェクトを伴うドラッグ及びドロップ動作を制御するように構成されたオブジェクトマネジャを備える。
本開示の発明の第3の実施形態は、物理世界の中の物理オブジェクトのビューに対する仮想オブジェクトの表示と、仮想オブジェクト及び物理オブジェクトを伴うドラッグ及びドロップ動作の制御とを有する、拡張現実ドラッグ及びドロップ方法である。
本開示の発明を説明し、特許請求する目的で、
(1)これらに限定されないが、「仮想オブジェクト」、「仮想画面」、「仮想コンテンツ」、「仮想アイテム」、「物理オブジェクト」、「物理画面」、「物理コンテンツ」、「物理アイテム」、並びに「ドラッグ及びドロップ」を含む当技術分野の用語は、本開示の技術分野において知られるように、かつ本開示に例示的に記載されるように、解釈されるものとする。
(2)用語「拡張現実デバイス」は、本開示の技術分野において知られるように、また以後に着想されるように、物理世界のカメラ画像に基づく物理世界のビュー上に仮想オブジェクトを重畳する拡張現実を実施するすべてのデバイスを広く包含する。拡張現実デバイスの例には、これらに限定されないが、拡張現実頭部装着ディスプレイ(例えば、GOOGLE GLASS(商標)、HOLOLENS(商標)、MAGIC LEAP(商標)、VUSIX(商標)、及びMETA(商標))が含まれる。
(3)用語「拡張現実ドラッグ及びドロップデバイス」は、本開示に例示的に記載されるように、仮想オブジェクト及び物理オブジェクトを伴うドラッグ及びドロップ動作を対象とする本開示の発明原理を実施する、任意のすべての拡張現実デバイスを広く包含する。
(4)用語「物理デバイス」は、本開示の技術分野において知られるような、また以後に着想されるような、拡張現実デバイス以外のすべてのデバイスを広く包含する。医療手順に関連する物理デバイスの例には、これらに限定されないが、医療撮像モダリティ(例えば、X線、超音波、コンピュータ断層撮影、磁気共鳴撮像等)、医療ロボット、医療診断/監視デバイス(例えば心電図モニタ)、及び医療ワークステーションが含まれる。医療ワークステーションの例には、これらに限定されないが、スタンドアロン・コンピューティング・システム、サーバシステムのクライアントコンピュータ、デスクトップ、ラップトップ、又はタブレットの形態である、1つ又は複数のコンピューティングデバイスと、ディスプレイ/モニタと、1つ又は複数の入力装置(例えば、キーボード、ジョイスティック、及びマウス)との組立体が含まれる。
(5)用語「物理ドラッグ及びドロップデバイス」は、本開示に例示的に記載されるように、仮想オブジェクト及び物理オブジェクトを伴うドラッグ及びドロップ動作を対象とする本開示の発明原理を実施する、すべての任意の物理デバイスを広く包含する。
(6)用語「コントローラ」は、本開示の技術分野において理解されるように、また本開示に例示的に記載されるように、本開示の様々な発明原理の適用を制御するための、特定用途向け主基板又は特定用途向け集積回路のすべての構造的構成を広く包含する。コントローラの構造的構成は、これらに限定されないが、プロセッサ、コンピュータ使用可能/コンピュータ可読記憶媒体、オペレーティングシステム、アプリケーションモジュール、周辺デバイスコントローラ、スロット、及びポートを含む。コントローラは、拡張現実ドラッグ及びドロップデバイス又は物理ドラッグ及びドロップデバイスの中に収容されるか、又はそれに通信的に接続される。
(7)本明細書に記載され、特許請求されるコントローラに関する記述ラベルは、用語「コントローラ」に対する追加的な制限を指定又は示唆することなく、本明細書に記載され、特許請求されるコントローラ同士の区別を容易にする。
(8)用語「アプリケーションモジュール」は、特定のアプリケーションを実行するための電子回路(例えば電子部品及び/若しくはハードウェア)、並びに/又は実行可能プログラム(例えば、非一時的コンピュータ可読媒体に記憶された実行可能ソフトウェア及び/若しくはファームウェア)からなるコントローラの内部に組み込まれた、又はコントローラによりアクセス可能な、アプリケーションを広く包含する。
(9)本明細書に記載され、特許請求されるアプリケーションモジュールに関する記述ラベルは、用語「アプリケーションモジュール」に対する追加的な制限を指定又は示唆することなく、本明細書に記載され、特許請求されるアプリケーションモジュール同士の区別を容易にする。
(10)用語「信号」、「データ」、及び「コマンド」は、本開示の以後に記載されるような本開示の様々な発明原理の適用を支援する情報及び/又は命令を送信するための、本開示の技術分野において知られ、本開示に例示的に記載されるような、あらゆる形態の検出可能な物理的数量又はインパルス(例えば、電圧、電流、又は磁場強度)を広く包含する。本開示の信号/データ/コマンド通信の様々な構成要素は、本開示の技術分野において知られるような任意の通信方法を伴ってよく、それらには、これらに限定されないが、任意種類の有線又は無線のデータリンクを介した信号/データ/コマンド送信/受信と、コンピュータ使用可能/コンピュータ可読記憶媒体にアップロードされた信号/データ/コマンドの読み出しとが含まれる。
(11)本明細書に記載され、特許請求される信号/データ/コマンドに関する記述ラベルは、用語「信号」、「データ」及び「コマンド」に対する追加的な制限を指定又は示唆することなく、本明細書に記載され、特許請求される信号/データ/コマンド同士の区別を容易にする。
本開示の発明の上述した実施形態及び他の実施形態、並びに本開示の発明の様々な構造及び利点は、添付図面と併せて読まれる、以下の本開示の発明の様々な実施形態の詳細な説明からさらに明らかになろう。図面の詳細な説明は、本開示の発明を制限するのではなく、単に例示するものであり、本開示の発明の範囲は、添付の特許請求の範囲及びその均等物によって定義される。
本開示の発明原理による拡張現実ドラッグ及びドロップ方法の例示的実施形態を説明する図である。 図1の拡張現実ドラッグ及びドロップ方法による、仮想世界からの仮想オブジェクトのドラッグ、及び物理世界の物理画面への仮想オブジェクトのドロップの例示的実施形態を説明する図である。 図1の拡張現実ドラッグ及びドロップ方法による、仮想世界からの仮想オブジェクトのドラッグ、及び物理世界の物理アイテムへの仮想オブジェクトのドロップの例示的実施形態を説明する図である。 図1の拡張現実ドラッグ及びドロップ方法による、物理世界からの物理オブジェクトのドラッグ、及び仮想世界の仮想画面への物理オブジェクトのドロップの例示的実施形態を説明する図である。 図1の拡張現実ドラッグ及びドロップ方法による、物理世界からの物理オブジェクトのドラッグ、及び仮想世界の仮想アイテムへの物理オブジェクトのドロップの例示的実施形態を説明する図である。 図1の拡張現実ドラッグ及びドロップ方法による、混合型ドラッグ及びドロップ動作の例示的実施形態を説明する図である。 図1の拡張現実ドラッグ及びドロップ方法による、混合型ドラッグ及びドロップ動作の追加的な例示的実施形態を説明する図である。 本開示の発明原理による、拡張現実ドラッグ及びドロップデバイス並びに物理ドラッグ及びドロップデバイスの例示的実施形態を説明する図である。 患者の解剖学的構造のX線撮像のコンテキストにおける、本開示の拡張現実ドラッグ及びドロップデバイスの例示的実装形態を説明する図である。
本開示の様々な発明の理解を容易にするために、以下の図1の説明は、本開示の拡張現実ドラッグ及びドロップ方法の基本的な発明原理を教示する。この説明から、当分野における通常の技術を有する者は、本開示の拡張現実ドラッグ及びドロップ方法の追加的な実施形態を作成し、使用するために、どのように本開示の発明原理を適用するかを認識されよう。
概して、本開示の拡張現実ドラッグ及びドロップ方法は、一般に、仮想コンテンツ/コンテンツへのリンク(例えば、画像、テキスト、グラフィック、ビデオ、サムネイル、プロトコル/レシピ、プログラム/スクリプト等)、及び/又は仮想アイテム(例えば、2D画面、ホログラム、及び仮想世界における物理オブジェクトの仮想表現)の形態の、表示された仮想オブジェクトとして具現化される情報で増強される、目、カメラ、スマートフォン、タブレット等を介した物理世界内の物理オブジェクトのライブビューを伴う。
より詳細には、物理世界のライブビデオフィードは、物理世界への仮想世界のマッピングを容易にし、それにより、仮想世界のコンピュータ生成の仮想オブジェクトが、物理世界の中で物理オブジェクトのライブビューの上に位置的に重畳される。本開示の拡張現実ドラッグ及びドロップ方法は、コンピュータビジョン、空間マッピング、及び物体認識のような高度な技術、並びに、対話型ツール/機構(例えば、ジェスチャ認識(トーテムを含む)、音声コマンド、頭部追跡、視線追跡、及びトーテム(マウスなど))を介した物理世界と仮想世界との間のオブジェクトのドラッグ及びドロップ動作を容易にするための手動の輪郭付けのような、カスタマイズされる技術を利用する。
より詳細には、図1を参照すると、本開示の拡張現実ドラッグ及びドロップ方法は、拡張現実ディスプレイ10によって仮想画面に表示された仮想世界の仮想オブジェクトが物理世界にプッシュされるドラッグ及びドロップ動作11と、物理オブジェクトが物理世界から、拡張現実ディスプレイ10によって仮想画面に表示された仮想世界にプルされるドラッグ及びドロップ動作12と、を提供する。
実践において、本開示の拡張現実ドラッグ及びドロップ方法に関して、仮想オブジェクトは、拡張現実ディスプレイ10を介した情報の任意のコンピュータ生成表示であり、これは、仮想コンテンツ/コンテンツへのリンク(例えば、画像、テキスト、グラフィック、ビデオ、サムネイル、プロトコル/レシピ、プログラム/スクリプト等)、並びに/又は仮想アイテム(例えば、ホログラム、及び仮想世界における物理オブジェクトの仮想表現)の形態である。例えば、医療手順のコンテキストでは、仮想オブジェクトは、これらに限定されないが以下を含む。
(1)医療撮像装置の設定の表示テキスト;
(2)患者の解剖学的構造を通る計画経路の表示グラフィック;
(3)医療手順のライブビューの以前の録画の表示ビデオ;
(4)テキスト、グラフィック、又はビデオにリンクされた表示サムネイル;
(5)患者の解剖学的構造の一部又は全体のホログラム;
(6)手術ロボットの仮想表現;
(7)医療イメージャ(超音波、介入的x線等)からのライブ画像フィード;
(8)監視機器(例えばECGモニタ)からのライブデータトレース;
(9)任意の画面ディスプレイのライブ画像;
(10)第三者(例えば、別の部屋にいる別の拡張現実デバイス着用者、ウェブカメラを介して自身のオフィスにいる医療従事者、及び機器の遠隔サポート)への表示ビデオ(又は聴覚)接続;
(11)テキスト、アイコン、又はオブジェクトのホログラムのいずれかとして視覚化されたオブジェクトの、それが収納されている位置における呼び出された位置;
(12)所与の手順のために利用可能な、又は提案される医療デバイスの視覚的在庫。
また、ドラッグ可能な仮想オブジェクト20及びドロップ可能な仮想オブジェクト30は、本開示にさらに記載されるように、ドラッグ及びドロップ動作11及び12の実行のために拡張現実ディスプレイ10のユーザインターフェースを介して作動可能な仮想オブジェクトである。
さらに実践において、本開示の拡張現実ドラッグ及びドロップ方法に関して、物理オブジェクトは、物理ディスプレイ、掲示板等(図示せず)を介した情報の任意のビューであり、これは、コンテンツ/コンテンツへのリンク(例えばテキスト、グラフィック、ビデオ、サムネイル等)、及び/又は任意の物理アイテムの形態である。例えば、医療手順のコンテキストでは、仮想オブジェクトは、これらに限定されないが以下を含む。
(1)患者の解剖学的構造の表示画像を含む物理画面;
(2)患者の解剖学的構造を通るツール/器具の追跡経路の表示グラフィックを備えたテーブルサイドモニタ;
(3)医療手順の以前の実行の表示ビデオ;
(4)テキスト、グラフィック、又はビデオにリンクされた表示サムネイル;
(5)医療手順を行うための任意の医療デバイス及び/又は装置(例えば、x線システム、超音波システム、患者監視システム、テーブルサイド制御パネル、サウンドシステム、照明システム、ロボット、モニタ、タッチ画面、タブレット、電話機、医療機器/ツール/器具、追加的な拡張現実デバイス、及び画像処理、再構成、画像融合等のような医療ソフトウェアを実行するワークステーション)。
また、ドラッグ可能な物理オブジェクト21及びドロップ可能な物理オブジェクト34は、本開示にさらに記載されるように、ドラッグ及びドロップ動作11及び12の実行のためにユーザインターフェースを介して作動可能な物理オブジェクトである。
引き続き図1を参照すると、ドラッグ及びドロップ動作11は、ドロップ可能な物理オブジェクト21のライブビューへの、又は(例えばドロップ可能な物理オブジェクト21のコンピュータビジョンを介した)ドロップ可能な物理オブジェクト21の指定エリア22への、又はドロップ可能な物理オブジェクト21に関連付けられた物理的な/表示されたタグ23のオブジェクト輪郭付けへの、拡張現実ディスプレイ10を介して仮想画面に表示されているドラッグ可能な仮想オブジェクト20のドラッグ/ドロップ26を包含する。
代替として又は同時に、ドラッグ及びドロップ動作11は、物理世界の指定領域24のライブビュー(例えば指定領域24のコンピュータビジョン)への、又は指定領域24に関連付けられた物理的な/表示されたタグ25の物体認識への、拡張現実ディスプレイ10を介して仮想画面に表示されているドラッグ可能な仮想オブジェクト20のドラッグ/ドロップ27を包含する。
ドラッグ及びドロップ動作11の例として、図2Aは、タグ付けされた/タグ付けされていないドロップ可能な物理画面21aへの、ドラッグ可能な仮想コンテンツ20aのドラッグ/ドロップ26aを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図2Bは、タグ付けされた/タグ付けされていないドロップ可能な物理画面21aの指定エリア22への、ドラッグ可能な仮想コンテンツ20aのドラッグ/ドロップ26bを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図2Cは、タグ付けされた/タグ付けされていないドロップ可能な物理画面21aを取り囲む物理世界のタグ付けされた/タグ付けされていない指定領域24aへの、ドラッグ可能な仮想コンテンツ20aのドラッグ/ドロップ27aを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11のこれら3つの(3)例に関して、ドラッグ可能な仮想コンテンツ20aは、医療撮像モダリティ(例えば、X線撮像モダリティ又は超音波撮像モダリティ)の物理画面へと、又はX線撮像モダリティの物理画面の指定エリア(例えば物理画面の左上隅)へと、又は物理世界の指定領域(例えばX線撮像モダリティを取り囲む処置室の一領域)へと、表示のためにドラッグ及びドロップされる、患者の解剖学的構造を通る計画経路の仮想画面であってよい。
ドラッグ及びドロップ動作11のさらなる例として、図2Dは、タグ付けされた/タグ付けされていないドロップ可能な物理画面21aへの、ドラッグ可能な仮想アイテム20bのドラッグ/ドロップ26cを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図2Eは、タグ付けされた/タグ付けされていないドロップ可能な物理画面21aの指定エリア22への、ドラッグ可能な仮想アイテム20bのドラッグ/ドロップ26dを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図2Fは、タグ付けされた/タグ付けされていないドロップ可能な物理画面21aを取り囲む物理世界のタグ付けされた/タグ付けされていない指定領域24bへの、ドラッグ可能な仮想アイテム20bのドラッグ/ドロップ27bを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11のこれら3つの(3)例に関して、ドラッグ可能な仮想アイテム20bは、医療撮像モダリティ(例えば、X線撮像モダリティ又は超音波撮像モダリティ)の物理画面へと、又は物理画面の指定エリア(例えば物理画面の左上隅)へと、又は物理世界の指定領域(例えばX線撮像モダリティを取り囲む処置室の一領域)へと、表示のためにドラッグ及びドロップされる患者の解剖学的構造のホログラムであってよい。
ドラッグ及びドロップ動作11のさらなる例として、図3Aは、タグ付けされた/タグ付けされていないドロップ可能な物理アイテム21bへの、ドラッグ可能な仮想コンテンツ20aのドラッグ/ドロップ26eを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図3Bは、タグ付けされた/タグ付けされていないドロップ可能な物理アイテム21bの指定エリア22bへの、ドラッグ可能な仮想コンテンツ20aのドラッグ/ドロップ26fを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図3Cは、タグ付けされた/タグ付けされていないドロップ可能な物理アイテム21bを取り囲む物理世界のタグ付けされた/タグ付けされていない指定領域24cへの、ドラッグ可能な仮想コンテンツ20aのドラッグ/ドロップ27cを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11のこれら3つの(3)例に関して、ドラッグ可能な仮想コンテンツ20aは、医療撮像機器を設定するために(獲得設定、位置決め情報等)、医療撮像モダリティ(例えば、X線撮像モダリティ又は超音波撮像モダリティ)へと、又はX線撮像モダリティの物理画面の指定エリア(例えば物理画面の左上隅)へと、又は物理世界の指定領域(例えばX線撮像モダリティを取り囲む処置室の一領域)へと、ドラッグ及びドロップされる、拡張現実ディスプレイ10に表示される仮想手順カード上で輪郭付けされるデバイス構成であってよい。
また、ドラッグ可能な仮想コンテンツ20aは、追加的なタグ付けされた/タグ付けされていない拡張現実デバイス(すなわち、拡張現実ディスプレイ10のライブビュー内の追加的物理オブジェクト)へとドラッグ及びドロップされる、コンテンツの仮想画面又はコンテンツの仮想画面の合成であってもよく、そこで、コンテンツは、拡張現実デバイスのユーザによって共有される場合も共有されない場合もある。コンテンツの共有は、本開示の技術分野において知られるように拡張現実デバイスのディスプレイすべてを仮想的に結合することにより、又は仮想画面の間欠的又は連続的ドラッグ及びドロップを伴う拡張現実デバイスごとの共通の画面レイアウトにより、実現される。
ドラッグ及びドロップ動作11のさらなる例として、図3Dは、タグ付けされた/タグ付けされていないドロップ可能な物理アイテム21bへの、ドラッグ可能な仮想アイテム20bのドラッグ/ドロップ26gを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図3Eは、タグ付けされた/タグ付けされていないドロップ可能な物理アイテム21bの指定エリア22bへの、ドラッグ可能な仮想アイテム20bのドラッグ/ドロップ26gを例示している。
ドラッグ及びドロップ動作11のさらなる例として、図3Fは、タグ付けされた/タグ付けされていないドロップ可能な物理アイテム21bを取り囲む物理世界のタグ付けされた/タグ付けされていない指定領域24cへの、ドラッグ可能な仮想アイテム20dのドラッグ/ドロップ27bを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11のこれら3つの(3)例に関して、ドラッグ可能な仮想アイテム20bは、これから行われるガイドワイヤの撮像の医療撮像モダリティを通知するために、医療撮像モダリティ(例えば、X線撮像モダリティ又は超音波撮像モダリティ)へと、又は医療撮像モダリティの指定エリア(例えば物理画面の左上隅)へと、又は医療撮像モダリティの指定領域(例えばX線撮像モダリティを取り囲む処置室の一領域)へと、ドラッグ及びドロップされる医療ツール(例えばガイドワイヤ)の仮想表現であってよい。
再度図1を参照すると、ドラッグ及びドロップ動作12は、ドロップ可能な仮想オブジェクト30の表示への、又はドロップ可能な仮想オブジェクト30の指定エリア31への、拡張現実ディスプレイ10上でライブで閲覧されているドラッグ可能な物理オブジェクト34のドラッグ/ドロップ36を包含してよい(例えば、ドロップ可能な仮想オブジェクト30のコンピュータビジョンを介する)。
代替として又は同時に、物理世界の表示指定領域32への、又は物理的な/表示されたタグ33のオブジェクト輪郭付けへの、拡張現実ディスプレイ10上でライブで閲覧されているドラッグ可能な物理オブジェクト34のドラッグ/ドロップ37もある。
ドラッグ及びドロップ動作12の例として、図4Aは、ドロップ可能な仮想画面30aへの、ドラッグ可能な物理コンテンツ34aのドラッグ/ドロップ36aを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図4Bは、ドロップ可能な仮想画面30aの指定エリア31aへの、ドラッグ可能な物理コンテンツ34aのドラッグ/ドロップ36bを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図4Cは、物理世界のタグ付けされた/タグ付けされていない指定領域32a(例えばドロップボックス)への、ドラッグ可能な物理コンテンツ34aのドラッグ/ドロップ37aを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作12のこれら3つの(3)例に関して、ドラッグ可能な物理コンテンツ34aは、拡張現実ディスプレイ10の仮想画面へと、又は拡張現実ディスプレイ10の仮想画面の指定エリアへと、又は物理世界のタグ付けされた/タグ付けされていない指定領域32aへと、表示のためにドラッグ及びドロップされる、物理画面に表示された患者の解剖学的構造の画像であってよい。
ドラッグ及びドロップ動作12のさらなる例として、図4Dは、ドロップ可能な仮想画面30aへの、ドラッグ可能な物理アイテム34bのドラッグ/ドロップ36cを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図4Eは、ドロップ可能な仮想画面30aの指定エリアへの、ドラッグ可能な物理アイテム34bのドラッグ/ドロップ36dを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図4Fは、物理世界のタグ付けされた/タグ付けされていない指定領域32b(例えばドロップボックス)への、ドラッグ可能な物理アイテム34bのドラッグ/ドロップ37bを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作12のこれら3つの(3)例に関して、ドラッグ可能な物理アイテム34bは、解剖学的モデルのホログラムの生成のために、拡張現実ディスプレイ10の仮想画面へと、又は拡張現実ディスプレイ10の仮想画面の指定エリアへと、又は物理世界のタグ付けされた/タグ付けされていない指定領域32aへと、ドラッグ及びドロップされる解剖学的モデルであってよい。
ドラッグ及びドロップ動作12のさらなる例として、図5Aは、ドロップ可能な仮想アイテム30bへの、ドラッグ可能な物理コンテンツ34aのドラッグ/ドロップ36eを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図5Bは、ドロップ可能な仮想アイテム30bの指定エリア31bへの、ドラッグ可能な物理コンテンツ34aのドラッグ/ドロップ36fを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図5Cは、物理世界のタグ付けされた/タグ付けされていない指定領域32b(例えばドロップボックス)への、ドラッグ可能な物理コンテンツ34aのドラッグ/ドロップ37cを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作12のこれら3つの(3)例に関して、ドラッグ可能な物理コンテンツ34aは、患者の解剖学的構造の画像を解剖学的モデルのホログラム上に重畳するために、解剖学的モデルのホログラムへと、又は解剖学的モデルのホログラムの指定エリアへと、又は物理世界のタグ付けされた/タグ付けされていない指定領域32aへと、ドラッグ及びドロップされる患者の解剖学的構造の画像であってよい。
ドラッグ及びドロップ動作12のさらなる例として、図5Dは、ドロップ可能な仮想アイテム30bへの、ドラッグ可能な物理アイテム34bのドラッグ/ドロップ36gを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図5Eは、ドロップ可能な仮想アイテム30bの指定エリア31bへの、ドラッグ可能な物理アイテム34bのドラッグ/ドロップ36hを例示している。
ドラッグ及びドロップ動作12のさらなる例として、図5Fは、物理世界のタグ付けされた/タグ付けされていない指定領域32b(例えばドロップボックス)への、ドラッグ可能な物理コンテンツ34bのドラッグ/ドロップ37dを例示している。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作12のこれら3つの(3)例に関して、ドラッグ可能な物理アイテム34bは、針の仮想表現の生成のために、解剖学的モデルのホログラムへと、又は解剖学的モデルのホログラムの指定エリアへと、又は物理世界のタグ付けされた/タグ付けされていない指定領域32aへと、ドラッグ及びドロップされる医療ツール(例えば針)であってよい。
再度図1を参照すると、本開示の拡張現実ドラッグ及びドロップ方法の追加的実施形態は、ドラッグ及びドロップ動作11及び12の組み合わせ/合併を伴う。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11及び12の組み合わせ/合併の例として、本開示の拡張現実ドラッグ及びドロップ方法は、術前撮像ワークステーションと術中撮像ワークステーションとの間にワイヤレス接続を確立するために拡張現実デバイスが操作されることを伴ってよい。医療手順中に、医師が術中画像を術前画像と比較したい場合、医師は、術中画像を、拡張現実ディスプレイ10上でライブで閲覧されている術中撮像ワークステーションから、画像融合のために指定された仮想画面エリア又は物理世界領域へとドラッグ及びドロップし、その後、画像融合のために仮想術中画像を術前撮像ワークステーションにドラッグ及びドロップする。拡張現実デバイスは、このように、術前撮像ワークステーションと術中撮像ワークステーションとの間の仲介役として働く。画像融合の結果は、拡張現実デバイスにドラッグ及びドロップされ、ユーザの決定に従って仮想画面又は物理画面に表示される。
この例として、図6A〜図6Cは、術前撮像ワークステーションに表示されているドラッグ可能な物理コンテンツ33aを例示し、これは、ドロップ可能な仮想画面30a(図6A)へと、又は仮想画面30aの指定エリア31a(図6B)へと、又は物理世界の指定領域32a(図6C)へと、ドラッグ及びドロップされる。ドラッグ可能な物理コンテンツ33aは、拡張現実ディスプレイに表示されるドラッグ可能な仮想コンテンツ20aに変換可能であり、それにより、ドラッグ可能な仮想コンテンツ20aは、術中撮像ワークステーションのドロップ可能な物理画面21a(図6A〜図6C)へとドラッグ及びドロップされ得る。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11及び12の組み合わせ/合併のさらなる例として、本開示の拡張現実ドラッグ及びドロップ方法は、物理世界の中で物理オブジェクトを移動させるために拡張現実デバイスが操作されることを伴う。より詳細には、拡張現実ディスプレイ10上で閲覧されているドラッグ可能な物理オブジェクトは、物理世界の中の物理オブジェクトのライブビューにおける現在の位置で掴まれ、それにより、ドラッグ可能な仮想表現又はホログラムが生成され、物理世界の中の新しい位置へとドロップされる。新しい位置は、物理オブジェクトを現在の位置から新しい位置に移動するために別の医療従事者に通信され、又は、機械装置(例えばロボット)が、物理オブジェクトを現在の位置から新しい位置に移動するように指令される。
医療手順(例えば、患者の解剖学的構造の撮像、診断、及び/又は治療)のコンテキストにおけるドラッグ及びドロップ動作11及び12の組み合わせ/合併のさらなる例として、本開示の拡張現実ドラッグ及びドロップ方法は、1つの物理オブジェクトの動作を別の物理オブジェクトに基づいて制御するために拡張現実デバイスが操作されることを伴う。より詳細には、拡張現実ディスプレイ10上で閲覧されている物理オブジェクト(例えば超音波トランスデューサ)が、物理世界の中の物理オブジェクトのライブビューにおける現在の位置で掴まれ、それにより、ドラッグ可能な仮想表現が生成され、ドロップ可能な物理オブジェクト(例えばFlexVision(商標)モニタ)へとドロップされる。これにより、2つの物理オブジェクト間の正確な対話(例えば、その特定の超音波トランスデューサによって生成された超音波画像の、モニタによる正確な表示)が容易になる。
ドラッグ及びドロップ動作11及び12の組み合わせ/合併のこれら2つの(2)例に関して、図7は、物理世界の中で拡張現実ディスプレイ10を介してライブで閲覧されているドラッグ可能な物理コンテンツ33aを例示し、これは、拡張現実ディスプレイ10の仮想画面に表示されるドラッグ可能な仮想コンテンツ20aに変換可能であり、それにより、ドラッグ可能な仮想コンテンツ20aを、ドロップ可能な物理画面21aへとドラッグ及びドロップすることができる。
本開示の様々な発明のさらなる理解を助けるために、以下の図8の説明は、本開示の拡張現実ドラッグ及びドロップデバイス、並びに本開示の物理現実ドラッグ及びドロップデバイスの基本的な発明原理を教示する。この説明から、当分野における通常の技術を有する者は、本開示の拡張現実ドラッグ及びドロップデバイス並びに本開示の物理現実ドラッグ及びドロップデバイスの追加的な実施形態を作成し、使用するために、どのように本開示の発明原理を適用するかを認識されよう。
図8を参照すると、本開示の拡張現実ドラッグ及びドロップデバイス40は、本開示の技術分野において知られるように、物理オブジェクトを含んでいる物理世界のライブビューに対して仮想オブジェクトを生成し、それを表示することによって物理世界のライブビューを増強するために、拡張現実ディスプレイ41、拡張現実カメラ42、拡張現実コントローラ43、並びに対話型ツール/機構(図示せず)(例えば、ジェスチャ認識(トーテムを含む)、音声コマンド、頭部追跡、視線追跡、及びトーテム(マウスなど))を用いる。
拡張現実ドラッグ及びドロップデバイス40はさらに、対話型ツール/機構を介して本開示で先述したように本開示の1つ又は複数の拡張現実ドラッグ及びドロップ方法を実施するために、本開示のドラッグ及びドロップコントローラ44を用いる。
実践において、コントローラ43及び44は、図示されるように分割されるか、又は部分的に若しくは全体が一体化される。
引き続き図8を参照すると、物理ドラッグ及びドロップデバイス50は、本開示の技術分野において知られるように1つ又は複数のアプリケーションを実施するために、物理ディスプレイ51及びアプリケーションコントローラ52を用いる。
物理ドラッグ及びドロップデバイス50はさらに、本開示で先述したように本開示の1つ又は複数の拡張現実ドラッグ及びドロップ方法を実施するために、本開示のドラッグ及びドロップコントローラ53を用いる。
実践において、コントローラ52及び53は、図示されるように分割されるか、又は部分的に若しくは全体が一体化される。同じく実践において、コントローラ53は、デバイス50にリモート接続されてよい。
引き続き図8を参照すると、各コントローラは、1つ又は複数のシステムバスを介して相互接続された、プロセッサ、メモリ、ユーザインターフェース、ネットワークインターフェース、及びストレージを含む。
各プロセッサは、メモリ又はストレージに記憶された命令を記憶する、又はその他の形でデータを処理することが可能な、本開示の技術分野において知られる、又は以後に着想されるような、任意のハードウェアデバイスである。非制限的な例において、プロセッサは、マイクロプロセッサ、フィールドプログラム可能ゲートアレイ(FPGA)、特定用途集積回路(ASIC)、又は他の同様のデバイスを含む。
メモリは、これらに限定されないが、L1、L2、若しくはL3キャッシュ又はシステムメモリを含む、本開示の技術分野において知られる、又は以後に着想されるような、様々なメモリを含む。非制限的な例において、メモリは、静的ランダムアクセスメモリ(SRAM)、動的RAM(DRAM)、フラッシュメモリ、読出し専用メモリ(ROM)、又は他の同様のメモリデバイスを含む。
ユーザインターフェースは、管理者などのユーザとの通信を可能にする、本開示の技術分野において知られる、又は以後に着想されるような、1つ又は複数のデバイスを含む。非制限的な例において、ユーザインターフェースは、ネットワークインターフェースを介してリモート端末に提示され得る、コマンドラインインターフェース又はグラフィカルユーザインターフェースを含む。
ネットワークインターフェースは、他のハードウェアデバイスとの通信を可能にする、本開示の技術分野において知られる、又は以後に着想されるような、1つ又は複数のデバイスを含む。非制限的な例において、ネットワークインターフェースは、イーサネットプロトコルに従って通信するように構成されたネットワークインターフェースカード(NIC)を含む。また、ネットワークインターフェースは、TCP/IPプロトコルに従った通信のためにTCP/IPスタックを実施してもよい。ネットワークインターフェースの様々な代替の又は追加的なハードウェア又は構成が明らかであろう。
ストレージは、これらに限定されないが、読出し専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気記憶媒体、光学記憶媒体、フラッシュメモリデバイス、又は同様の記憶媒体を含む、本開示の技術分野において知られる、又は以後に着想されるような、1つ又は複数の機械可読記憶媒体を含む。様々な非制限的実施形態において、ストレージは、プロセッサにより実行される命令、又はプロセッサが作用するデータを記憶する。例えば、ストレージは、ハードウェアの様々な基本的動作を制御する基本オペレーティングシステムを記憶する。ストレージは、本開示にさらに記載されるようなコントローラの様々な機能を実施するための、実行可能ソフトウェア/ファームウェアの形態のアプリケーションモジュールも記憶する。
引き続き図8を参照すると、ドラッグ及びドロップコントローラ43は、拡張現実デバイスディスプレイ41によって表示される仮想画面内で物理オブジェクトを輪郭付けするオブジェクト輪郭付けモジュール45を用いる。
実践において、オブジェクト輪郭付けモジュール45は、拡張現実デバイスディスプレイ41によって表示される仮想画面内の物理オブジェクトを輪郭付けするために、本開示の技術分野において知られる任意の技術を実施する。そのような技術の非制限的な例には、本開示の技術分野において知られるように、コンピュータビジョン、空間マッピング、及び物体認識技術、並びに本開示にさらに記載されるように本開示の手動輪郭付けが含まれる。
ドラッグ及びドロップコントローラ43はさらに、1つ又は複数のオブジェクトマネジャを用い、それらには、本開示で例示的に先述したように、物理オブジェクトへの仮想オブジェクトのプッシュを伴う本開示のドラッグ及びドロップ動作(例えば図1のドラッグ及びドロップ動作11)を制御するためのオブジェクト・プッシュ・マネジャ46と、本開示で例示的に先述したように、仮想オブジェクトへの物理オブジェクトのプルを伴うドラッグ及びドロップ動作(例えば図1のドラッグ及びドロップ動作12)を制御するためのオブジェクト・プル・マネジャ47と、が含まれる。
同様に、ドラッグ及びドロップコントローラ53は、1つ又は複数のオブジェクトマネジャを用い、それらには、本開示で例示的に先述したように、物理オブジェクトへの仮想オブジェクトのプッシュを伴う本開示のドラッグ及びドロップ動作(例えば図1のドラッグ及びドロップ動作11)を制御するためのオブジェクト・プッシュ・マネジャ54と、本開示で例示的に先述したように、仮想オブジェクトへの物理オブジェクトのプルを伴うドラッグ及びドロップ動作(例えば図1のドラッグ及びドロップ動作12)を制御するためのオブジェクト・プル・マネジャ55と、が含まれる。
ドラッグ及びドロップコントローラ44はさらに通信モジュール48を用い、ドラッグ及びドロップコントローラ53はさらに通信モジュール56を用い、これらは、本開示で例示的に先述したように、物理オブジェクトへの仮想オブジェクトのプッシュを伴う、オブジェクト・プッシュ・マネジャ46とオブジェクト・プッシュ・マネジャ54との間の通信(例えば図1のドラッグ及びドロップ動作11)を協働して確立し、その通信を支援し、及び、本開示で例示的に先述したように、仮想オブジェクトへの物理オブジェクトのプルを伴う、オブジェクト・プル・マネジャ47とオブジェクト・プル・マネジャ55との間の通信(例えば図1のドラッグ及びドロップ動作12)を協働して確立し、その通信を支援する。
実践において、通信モジュール48及び56は、そのような通信を確立し、支援するために、本開示の技術分野において知られる任意の通信技術を実施する。そのような通信技術の非制限的な例には、インターネット・プロトコル・スイート/リアルタイム・マルチメディア転送プロトコル(例えばユーザ・データグラム・プロトコル(UDP))が含まれる。
引き続き図8を参照すると、オブジェクト・プッシュ・マネジャ46及びオブジェクト・プッシュ・マネジャ54による物理オブジェクトへの仮想オブジェクトのプッシュは、オブジェクト・プッシュ・マネジャ46が、拡張現実ディスプレイ41の仮想画面及び対話型ツール/機構を介した仮想オブジェクトのドラッグ態様を容易にするためのユーザインターフェースを提供することを伴う。このために、オブジェクト・プッシュ・マネジャ46は、拡張現実ディスプレイ41に合わせてカスタマイズされたドラッグ技術を実施するハードウェア/回路及び/又は実行可能ソフトウェア/ファームウェアを含む。
オブジェクト・プッシュ・マネジャ46及びオブジェクト・プッシュ・マネジャ54による物理オブジェクトへの仮想オブジェクトのプッシュはさらに、オブジェクト・プッシュ・マネジャ46が、仮想オブジェクトをオブジェクト・プッシュ・マネジャ54に通信することを伴い、そのような通信は、オブジェクト・プッシュ・マネジャ54による物理オブジェクトへの仮想オブジェクトのドロップを容易にするための仮想オブジェクトのメタデータを含み、それは、物理ディスプレイ51及び/又はアプリケーションコントローラ53に合わせてカスタマイズされたドロップ技術を実施する、ハードウェア/回路及び/又は実行可能ソフトウェア/ファームウェアを含む。
例えば、拡張現実ドラッグ及びドロップ方法は、オブジェクト・プッシュ・マネジャ46が、通信モジュール49及び56を介してオブジェクト・プッシュ・マネジャ54との通信を確立することを伴い、それにより、図9Aに示すように、オブジェクト・プッシュ・マネジャ46は、拡張現実ディスプレイ41を介したX線医療手順70のライブビュー41a及び物理ディスプレイ51に基づいて、物理ディスプレイ51のドロップ可能な物理画面21aに、ドラッグ可能な仮想コンテンツ20aを表示するように、オブジェクト・プッシュ・マネジャ54に指令することができる。
再度図8を参照すると、同様に、オブジェクト・プル・マネジャ47及びオブジェクト・プル・マネジャ55による仮想オブジェクトへの物理オブジェクトのプルは、オブジェクト・プル・マネジャ47が、拡張現実ディスプレイ41の仮想画面及び対話型ツール/機構を介した物理オブジェクトのドラッグ態様を容易にするためのユーザインターフェースを提供することを含む。このために、オブジェクト・プル・マネジャ47は、拡張現実ディスプレイ41に合わせてカスタマイズされたドラッグ技術を実施するハードウェア/回路及び/又は実行可能ソフトウェア/ファームウェアを含む。
オブジェクト・プル・マネジャ47及びオブジェクト・プル・マネジャ55による仮想オブジェクトへの物理オブジェクトのプルはさらに、オブジェクト・プル・マネジャ47が、物理オブジェクトについての要求をオブジェクト・プル・マネジャ55に通信することを伴い、それにより、オブジェクト・プル・マネジャ55は、物理コンテンツと、それに関連付けられた、オブジェクト・プル・マネジャ47による仮想オブジェクトへの物理オブジェクトへのドロップを容易にするメタデータとをもって応答し、これはさらに、拡張現実ディスプレイ41に合わせてスタマイズされたドロップ技術を実施するハードウェア/回路及び/又は実行可能ソフトウェア/ファームウェアを含む。
例えば、拡張現実ドラッグ及びドロップ方法は、オブジェクト・プル・マネジャ47が、通信モジュール49及び56を介して物理ドラッグ及びドロップデバイス50のオブジェクト・プル・マネジャ55との通信を確立することを伴い、それにより、図9Bに示すように、オブジェクト・プル・マネジャ47及びオブジェクト・プル・マネジャ55は、ハンドシェークプロトコルを実行して、ここでも拡張現実ディスプレイ41を介したX線医療手順70のライブビュー41a及び物理ディスプレイ51に基づいて、拡張現実ディスプレイ41のドロップ可能な仮想画面エリア20aに、ドラッグ可能な物理画面21aを表示する。
再度図8を参照すると、実践において、マネジャ47、48、54、及び55は、ユーザインターフェースを多くの形態で取り込む。
例えば、その最も自然な形態において、ユーザインターフェースはジェスチャに基づくものであり、その場合、ユーザは、仮想オブジェクトを手でつまむか又は掴み、次いで物理オブジェクトの上のそれを持って行きたい場所にドラッグする。1つの実施形態では、オブジェクトは、何らかの種類の初期化コマンドでのみドラッグ及びドロップを「ロック解除」することができる。より詳細には、オブジェクトは、必ずしも室内のどのオブジェクトにもドラッグ及びドロップできる訳ではなく、そのため、ドラッグ及びドロップが初期化されると、ユーザが見ることができ、ドラッグ及びドロップの「対象となる」オブジェクトは、その表示においてユーザに対して標識され得る(強調表示、及びオーラ、又はユーザが仮想オブジェクトを「ドロップ」すべき目標オブジェクトの近くに現れるターゲットを通じて)。ドラッグ及びドロップのために手のジェスチャを使用する代わりに、先述したように、拡張現実ドラッグ及びドロップ方法は、音声、頭部追跡、視線追跡、トーテム、又はスタイラスなどの、他のユーザ対話ツールを介して実施されてもよい。物理世界から仮想世界の中へのオブジェクトのドラッグは、ドラッグ可能なオブジェクトに一致する該当領域上でのタップ又は他の同様のジェスチャによって実現することができる。
引き続き、図8、より詳細には手動輪郭付けの設定段階を参照すると、オブジェクト輪郭付けモジュール45は「devモード」を有し、これにより、ARドラッグ及びドロップデバイス40のユーザは、ARディスプレイ41を介して、「ドラッグ可能な領域」及び/又は「ドロップ可能な領域」の2次元又は3次元表現を見る。オブジェクト輪郭付けモジュール45のdevモードは、ユーザが、ドラッグ可能な領域表現(例えば立方体)及び/又はドロップ可能な領域表現(例えば立方体)を、物理世界に対して任意の位置及び/又は向きに位置付けることを可能にする。実践において、領域の位置付けは、物理世界内の任意の物理オブジェクトに固有であっても、又は物理世界内の物理オブジェクトに関係して任意であってもよく、また任意の度合いだけ重なっても、そうでなくてもよい。
例えば、ドラッグ可能な表現は、物理世界内の1つの物理ドラッグ及びドロップデバイス50(例えばテーブルサイドモニタ)と位置合わせされ、ドロップ可能な領域は、物理世界内の異なる物理ドラッグ及びドロップデバイス50(例えば医療撮像モダリティのディスプレイ)と位置合わせされる。さらなる例として、ドラッグ可能な表現は、物理世界のよく使われる領域と位置合わせされ、ドロップ可能な領域は、物理世界のあまり使用されない領域と位置合わせされる。
手動輪郭付けの適用段階は、輪郭付けされたドロップ可能領域に重なっているARディスプレイ41の仮想オブジェクト(例えば仮想コンテンツ又はコンテンツの仮想画面)のドラッグを伴い、それによりオブジェクト・プッシュ・マネジャ46がトリガされて、通信モジュール48を介して、WiFiを通じて(UDPプロトコルを介して)、オブジェクト・プッシュ・マネジャ54にコマンドを送信する。コマンドは、どの仮想オブジェクトが輪郭付けされたドロップ可能領域にドロップされたかを示すフラグを含む。オブジェクト・プッシュ・マネジャ54は、次いで、仮想オブジェクトに従ってデバイス50を動作させるように変更するアクションを取る(例えば、マネジャ54が、物理ディスプレイ50に表示されているものを変更する、又はデバイス50によって制御されているロボットの姿勢を変更する)。先述したように、ドラッグ及びドロップコントローラ53は、物理ドラッグ及びドロップデバイス50から遠隔にあっても(例えば、コントローラ53が、室内で動作している別個のワークステーション上で動作する)、又は、物理ドラッグ及びドロップデバイス50の中に収容されてもよい(例えば、デバイス50が、コントローラ53を内部に収納したタブレットである)。
引き続き図8を参照すると、手動輪郭付けの適用段階は、オブジェクト・プル・マネジャ47が、ドラッグ可能な領域をタップしてドロップ可能な領域内の物理オブジェクトを仮想世界の中へと表示することを可能にすることを伴う。より詳細には、ドラッグ可能な領域がタップされると、オブジェクト・プル・マネジャ47は、どのコンテンツが物理ディスプレイ51に表示されているか(例えばコンテンツ又はホログラム)を確認するように、通信モジュール48を介してオブジェクト・プル・マネジャ55にクエリを送信し、オブジェクト・プル・マネジャ55は、その情報を、通信モジュール56を介して送り返す。その通信から、オブジェクト・プル・マネジャ47は、どの画面又はホログラムをARディスプレイ41に表示すべきかを知る。
代替として、オブジェクト・プル・マネジャ47は、物理ディスプレイ51によって表示されている物理オブジェクトを、本開示の物体認識技術を介して実際に認識するように構成され、それにより、オブジェクト・プル・マネジャ47は、どの物理オブジェクトをARディスプレイ41に表示するかを自動的に決定する。
図1〜図9を参照すると、本開示の分野における通常の技術を有する者は、これらに限定されないが、仮想世界の中の仮想オブジェクトと物理世界の中の物理オブジェクトとの間の情報のシームレスな流れを含む、本開示の発明の多数の利益を認識されよう。
例えば、医療手順時の増大した情報は、追加的なデータ処理を行う必要性を要し、これは主として、術前段階と術中段階との間の医療手順の計画段階中に実現される。しばしば、計画段階は、医療従事者が、術前段階の終わりに消毒洗浄して、計画段階を実行するために処置室を離れ、術中段階を行うために再度消毒洗浄することを必要とする。本開示の発明は、医療手順の段階間のワークフローを簡素化し、また医療手順の段階間のワークフローを複雑化することなく医療手順の遂行を助ける新しい処理方法を導入するための、拡張現実ドラッグ及びドロップ方法、コントローラ、及びデバイスを提供する。
さらに、本開示の分野における通常の技術を有する者が、本明細書に提供される教示に照らして認識するように、本開示/明細書に記載される、及び/又は図に描かれる、構造、要素、構成要素等は、ハードウェアとソフトウェアの様々な組み合わせで実施され、単一の要素又は複数の要素として組み合わせられる機能を提供する。例えば、図に示される/例示される/描かれる様々な構造、要素、構成要素等の機能は、専用ハードウェア、並びに付加された機能性に関する適切なソフトウェアとの関連でソフトウェアを実行することが可能なハードウェアの使用を通じて提供され得る。プロセッサによって提供される場合、機能は、単一の専用プロセッサ、単一の共有プロセッサ、又は複数の個々のプロセッサによって提供され得、それらの一部は共有及び/又は多重化され得る。さらに、用語「プロセッサ」又は「コントローラ」の明示的な使用は、ソフトウェアを実行することが可能なハードウェアを排他的に指すものと解釈すべきではなく、デジタル信号プロセッサ(「DSP」)ハードウェア、ソフトウェアを記憶するためのメモリ(例えば、読出し専用メモリ(「ROM」)、ランダムアクセスメモリ(「RAM」)、不揮発性ストレージ等)、並びに、プロセスを実行及び/又は制御することが可能な(及び/又はそのように構成可能な)実質的に任意の手段及び/又は機械(ハードウェア、ソフトウェア、ファームウェア、それらの組み合わせ等を含む)を制限なしに暗黙的に含み得る。
さらに、本発明の原理、態様、及び実施形態並びにその具体例を述べる本明細書におけるすべての著述は、その構造的及び機能的両方の均等物を包含することが意図される。加えて、そのような均等物は、現在知られている均等物と、将来開発される均等物(例えば、構造に関係なく、同一の又は実質的に同様の機能を行うことができる、開発される任意の要素)の両方を含むことが意図される。よって、例えば、当分野における通常の技術を有する者には、本明細書に提供される教示に照らして、本明細書に提示される任意のブロック図は、本発明の原理を具現化する、例示的なシステム構成要素及び/又は回路の概念図を表し得ることが認識されよう。同様に、当分野における通常の技術を有する者は、本明細書に提供される教示に照らして、フローチャート、流れ図等は、コンピュータ可読記憶媒体の中に実質的に表され、そのようなコンピュータ又はプロセッサが明示的に示されるか否かに関わらず、処理能力を有するコンピュータ、プロセッサ又は他のデバイスによってそのように実行され得る様々なプロセスを表し得ることを認識するはずである。
本開示の様々な多数の発明の好適及び例示的な実施形態を説明してきたが(それらの実施形態は、例示的なものであり制限的ではないことが意図される)、図を含む本明細書に提供される教示に照らして、変更形態及び変形形態が当業者により作成され得ることが留意される。したがって、本開示の好適な及び例示的な実施形態の中で/それに対して、本明細書に開示される実施の範囲内にある変更を加え得ることを理解すべきである。
さらに、デバイス/システム等を組み込む/実施する、対応する及び/又は関係するシステムが、本開示に係るデバイスと共に使用される/その中で実施されてよく、また、本開示の範囲内にあることが企図され、そのように見なされることが企図される。さらに、本開示に係るデバイス及び/又はシステムを製造する及び/又は使用するための、対応する及び/又は関係する方法も、本開示の範囲内にあることが企図され、そのように見なされる。

Claims (20)

  1. 物理世界の中の物理オブジェクトのビューに対して仮想オブジェクトを表示するように動作可能な拡張現実ディスプレイと、
    前記仮想オブジェクト及び前記物理オブジェクトを伴うドラッグ及びドロップ動作を制御する、拡張現実ドラッグ及びドロップコントローラと、
    を備える、拡張現実ドラッグ及びドロップデバイス。
  2. 前記拡張現実ドラッグ及びドロップコントローラがさらに、前記物理オブジェクトの前記ビューへの、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトのドラッグ及びドロップを制御する、請求項1に記載の拡張現実ドラッグ及びドロップデバイス。
  3. 前記拡張現実ドラッグ及びドロップコントローラがさらに、前記物理オブジェクトの指定エリアのビューへの、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトのドラッグ及びドロップを制御する、請求項1に記載の拡張現実ドラッグ及びドロップデバイス。
  4. 前記拡張現実ドラッグ及びドロップコントローラがさらに、前記物理世界の指定領域のビューへの、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトのドラッグ及びドロップを制御する、請求項1に記載の拡張現実ドラッグ及びドロップデバイス。
  5. 前記拡張現実ドラッグ及びドロップコントローラがさらに、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトへの、前記物理オブジェクトのドラッグ及びドロップを制御する、請求項1に記載の拡張現実ドラッグ及びドロップデバイス。
  6. 前記拡張現実ドラッグ及びドロップコントローラがさらに、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトの指定エリアへの、前記物理オブジェクトのドラッグ及びドロップを制御する、請求項1に記載の拡張現実ドラッグ及びドロップデバイス。
  7. 前記拡張現実ドラッグ及びドロップコントローラがさらに、前記物理世界の指定領域への、前記物理オブジェクトのドラッグ及びドロップを制御する、請求項1に記載の拡張現実ドラッグ及びドロップデバイス。
  8. 拡張現実デバイスディスプレイによる仮想オブジェクトの表示の中の物理オブジェクトを、物理世界の中での前記物理オブジェクトのビューに対して輪郭付けするオブジェクト輪郭付けモジュールと、
    前記オブジェクト輪郭付けモジュールによって輪郭付けされた前記仮想オブジェクト及び前記物理オブジェクトを伴うドラッグ及びドロップ動作を制御するオブジェクトマネジャと、
    を備える、拡張現実ドラッグ及びドロップコントローラ。
  9. 前記オブジェクトマネジャがさらに、前記物理オブジェクトの前記ビューへの、前記仮想オブジェクトのドラッグ及びドロップを制御する、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  10. 前記オブジェクトマネジャがさらに、前記物理オブジェクトの指定エリアのビューへの、前記仮想オブジェクトのドラッグ及びドロップを制御する、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  11. 前記オブジェクトマネジャがさらに、前記物理世界の指定領域のビューへの、前記仮想オブジェクトのドラッグ及びドロップを制御する、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  12. 前記オブジェクトマネジャがさらに、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトへの、前記物理オブジェクトのドラッグ及びドロップを制御する、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  13. 前記オブジェクトマネジャがさらに、前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトの指定エリアへの、前記物理オブジェクトのドラッグ及びドロップを制御する、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  14. 前記オブジェクトマネジャがさらに、前記物理世界の指定領域への、前記物理オブジェクトのドラッグ及びドロップを制御する、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  15. 前記オブジェクトマネジャが、
    前記物理オブジェクトに対する前記仮想オブジェクトのドラッグ及びドロップを制御するオブジェクト・プッシュ・マネジャと、
    前記仮想オブジェクトに対する前記物理オブジェクトのドラッグ及びドロップを制御するオブジェクト・プッシュ・マネジャと、
    のうちの一方である、請求項8に記載の拡張現実ドラッグ及びドロップコントローラ。
  16. 物理世界の中の物理オブジェクトのビューに対して仮想オブジェクトを表示するステップと、
    前記仮想オブジェクト及び前記物理オブジェクトを伴うドラッグ及びドロップ動作を制御するステップと、
    を有する、拡張現実ドラッグ及びドロップ方法。
  17. 前記ドラッグ及びドロップ動作を制御する前記ステップが、
    前記物理オブジェクトの前記ビューへの、前記仮想オブジェクトのドラッグ及びドロップの制御、
    前記物理オブジェクトの指定エリアへの、仮想オブジェクトのドラッグ及びドロップの制御、及び
    前記物理世界の指定領域への、前記仮想オブジェクトのドラッグ及びドロップの制御
    のうちの少なくとも1つを含む、請求項16に記載の拡張現実ドラッグ及びドロップ方法。
  18. 前記ドラッグ及びドロップ動作を制御する前記ステップが、
    拡張現実ディスプレイによって表示されている前記仮想オブジェクトへの、前記物理オブジェクトのドラッグ及びドロップの制御、
    前記拡張現実ディスプレイによって表示されている前記仮想オブジェクトの指定エリアへの、前記物理オブジェクトの前記ビューのドラッグ及びドロップの制御、及び
    前記物理世界の指定領域への、前記物理オブジェクトの前記ビューのドラッグ及びドロップの制御
    のうちの少なくとも1つを含む、請求項16に記載の拡張現実ドラッグ及びドロップ方法。
  19. 前記仮想オブジェクトが、仮想コンテンツ及び仮想アイテムの一方を含む、請求項16に記載の拡張現実ドラッグ及びドロップ方法。
  20. 前記物理オブジェクトが、物理コンテンツ及び物理アイテムの一方を含む、請求項16に記載の拡張現実ドラッグ及びドロップ方法。
JP2020524241A 2017-11-07 2018-11-06 オブジェクトの拡張現実ドラッグ及びドロップ Pending JP2021501939A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762582484P 2017-11-07 2017-11-07
US62/582,484 2017-11-07
PCT/EP2018/080238 WO2019091943A1 (en) 2017-11-07 2018-11-06 Augmented reality drag and drop of objects

Publications (2)

Publication Number Publication Date
JP2021501939A true JP2021501939A (ja) 2021-01-21
JP2021501939A5 JP2021501939A5 (ja) 2021-12-16

Family

ID=64184068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020524241A Pending JP2021501939A (ja) 2017-11-07 2018-11-06 オブジェクトの拡張現実ドラッグ及びドロップ

Country Status (5)

Country Link
US (1) US20200363924A1 (ja)
EP (1) EP3707581A1 (ja)
JP (1) JP2021501939A (ja)
CN (1) CN111448535A (ja)
WO (1) WO2019091943A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3336805A1 (en) * 2016-12-15 2018-06-20 Thomson Licensing Method and device for a placement of a virtual object of an augmented or mixed reality application in a real-world 3d environment
US20200143354A1 (en) * 2018-11-05 2020-05-07 Arknet, Inc. Exploitation of augmented reality and cryptotoken economics in an information-centric network of smartphone users and other imaging cyborgs
US11227445B1 (en) 2020-08-31 2022-01-18 Facebook Technologies, Llc Artificial reality augments and surfaces
US11176755B1 (en) 2020-08-31 2021-11-16 Facebook Technologies, Llc Artificial reality augments and surfaces
US11113893B1 (en) 2020-11-17 2021-09-07 Facebook Technologies, Llc Artificial reality environment with glints displayed by an extra reality device
US11409405B1 (en) 2020-12-22 2022-08-09 Facebook Technologies, Llc Augment orchestration in an artificial reality environment
US11402964B1 (en) * 2021-02-08 2022-08-02 Facebook Technologies, Llc Integrating artificial reality and other computing devices
US11762952B2 (en) 2021-06-28 2023-09-19 Meta Platforms Technologies, Llc Artificial reality application lifecycle
US11748944B2 (en) 2021-10-27 2023-09-05 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US11798247B2 (en) 2021-10-27 2023-10-24 Meta Platforms Technologies, Llc Virtual object structures and interrelationships
US20230161544A1 (en) * 2021-11-23 2023-05-25 Lenovo (United States) Inc. Virtual content transfer
US11947862B1 (en) 2022-12-30 2024-04-02 Meta Platforms Technologies, Llc Streaming native application content to artificial reality devices

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030020707A1 (en) * 2001-06-27 2003-01-30 Kangas Kari J. User interface
US20140282162A1 (en) * 2013-03-15 2014-09-18 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
JP2016027468A (ja) * 2014-06-27 2016-02-18 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110306986A1 (en) * 2009-03-24 2011-12-15 Min Kyu Lee Surgical robot system using augmented reality, and method for controlling same
US20130296682A1 (en) * 2012-05-04 2013-11-07 Microsoft Corporation Integrating pre-surgical and surgical images
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
US20140272863A1 (en) * 2013-03-15 2014-09-18 Peter Kim User Interface For Virtual Reality Surgical Training Simulator
US20150277699A1 (en) * 2013-04-02 2015-10-01 Cherif Atia Algreatly Interaction method for optical head-mounted display
US9696549B2 (en) * 2014-12-22 2017-07-04 International Business Machines Corporation Selectively pairing an application presented in virtual space with a physical display
US10154239B2 (en) * 2014-12-30 2018-12-11 Onpoint Medical, Inc. Image-guided surgery with surface reconstruction and augmented reality visualization
US9685005B2 (en) * 2015-01-02 2017-06-20 Eon Reality, Inc. Virtual lasers for interacting with augmented reality environments
EP3258876B1 (en) * 2015-02-20 2023-10-18 Covidien LP Operating room and surgical site awareness
KR102471977B1 (ko) * 2015-11-06 2022-11-30 삼성전자 주식회사 복수의 전자장치 사이에서 가상 객체를 표시하는 방법 및 이를 지원하는 전자 장치
KR20170089662A (ko) * 2016-01-27 2017-08-04 엘지전자 주식회사 증강현실을 제공하는 웨어러블 디바이스
CN111329552B (zh) * 2016-03-12 2021-06-22 P·K·朗 包括机器人的用于引导骨切除的增强现实可视化
WO2018032083A1 (en) * 2016-08-17 2018-02-22 Synaptive Medical (Barbados) Inc. Methods and systems for registration of virtual space with real space in an augmented reality system
US20180082480A1 (en) * 2016-09-16 2018-03-22 John R. White Augmented reality surgical technique guidance
US20180098813A1 (en) * 2016-10-07 2018-04-12 Simbionix Ltd. Method and system for rendering a medical simulation in an operating room in virtual reality or augmented reality environment
JP6950707B2 (ja) * 2016-11-28 2021-10-13 ソニーグループ株式会社 情報処理装置および方法、並びにプログラム
CN108885533B (zh) * 2016-12-21 2021-05-07 杰创科科技有限公司 组合虚拟现实和增强现实
US11270601B2 (en) * 2017-06-29 2022-03-08 Verb Surgical Inc. Virtual reality system for simulating a robotic surgical environment

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030020707A1 (en) * 2001-06-27 2003-01-30 Kangas Kari J. User interface
US20140282162A1 (en) * 2013-03-15 2014-09-18 Elwha Llc Cross-reality select, drag, and drop for augmented reality systems
JP2016027468A (ja) * 2014-06-27 2016-02-18 キヤノンマーケティングジャパン株式会社 情報処理装置、情報処理システム、その制御方法及びプログラム

Also Published As

Publication number Publication date
EP3707581A1 (en) 2020-09-16
CN111448535A (zh) 2020-07-24
US20200363924A1 (en) 2020-11-19
WO2019091943A1 (en) 2019-05-16

Similar Documents

Publication Publication Date Title
JP2021501939A (ja) オブジェクトの拡張現実ドラッグ及びドロップ
US10592067B2 (en) Distributed interactive medical visualization system with primary/secondary interaction features
Silva et al. Emerging applications of virtual reality in cardiovascular medicine
US9959629B2 (en) System and method for managing spatiotemporal uncertainty
US11069146B2 (en) Augmented reality for collaborative interventions
JP2021512440A (ja) 患者エンゲージメントのシステムおよび方法
US20220387128A1 (en) Surgical virtual reality user interface
Gallo et al. A user interface for VR-ready 3D medical imaging by off-the-shelf input devices
JP2022540898A (ja) 外科手術を遠隔監督するための拡張現実システムおよび方法
EP3497600B1 (en) Distributed interactive medical visualization system with user interface features
Karim et al. Telepointer technology in telemedicine: a review
JP2021078104A (ja) コンテキスト及びコンテンツを意識した3D手ジェスチャ視覚化を伴うWebベースリモートアシスタンスシステムに関するプログラム
CN115297314B (zh) 用于调试程序执行和内容回放的方法和设备
JP2009521985A (ja) 3Dデータセットのネットワーク(”DextroNet”)上での、協同的でインタラクティブな可視化のためシステムおよび方法
US20230186574A1 (en) Systems and methods for region-based presentation of augmented content
Black et al. Mixed reality human teleoperation with device-agnostic remote ultrasound: Communication and user interaction
US20200205905A1 (en) Distributed interactive medical visualization system with user interface and primary/secondary interaction features
JP2022547450A (ja) 仮想マルチユーザコラボレーションにおいて医用画像データを分析するための方法、コンピュータプログラム、ユーザインターフェース、およびシステム
Aspin et al. Augmenting the CAVE: An initial study into close focused, inward looking, exploration in IPT systems
Kunii et al. System to check organs, malignant tumors, blood vessel groups, and scalpel paths in DICOM with a 3D stereo immersive sensory HMD
Febretti et al. The OmegaDesk: towards a hybrid 2D and 3D work desk
US20230341932A1 (en) Two-way communication between head-mounted display and electroanatomic system
Sutherland et al. Augmented and Virtual Reality in Medicine
Pucer et al. Augmented Reality in Healthcare
JP2023540127A (ja) 複合現実アプリケーションにおける2d画面インタフェースアプリケーションの制御

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211104

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221212

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230308

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230808