JP7353982B2 - 拡張現実におけるユーザインタラクションのための仮想カバー - Google Patents

拡張現実におけるユーザインタラクションのための仮想カバー Download PDF

Info

Publication number
JP7353982B2
JP7353982B2 JP2019563626A JP2019563626A JP7353982B2 JP 7353982 B2 JP7353982 B2 JP 7353982B2 JP 2019563626 A JP2019563626 A JP 2019563626A JP 2019563626 A JP2019563626 A JP 2019563626A JP 7353982 B2 JP7353982 B2 JP 7353982B2
Authority
JP
Japan
Prior art keywords
virtual
space
user
augmented reality
control device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019563626A
Other languages
English (en)
Other versions
JP2020520522A5 (ja
JP2020520522A (ja
Inventor
アシシュ パンセ
モリー ララ フレックスマン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV filed Critical Koninklijke Philips NV
Publication of JP2020520522A publication Critical patent/JP2020520522A/ja
Publication of JP2020520522A5 publication Critical patent/JP2020520522A5/ja
Application granted granted Critical
Publication of JP7353982B2 publication Critical patent/JP7353982B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance
    • G16H20/40ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance relating to mechanical, radiation or invasive therapies, e.g. surgery, laser therapy, dialysis or acupuncture
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Computer Graphics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Urology & Nephrology (AREA)
  • Optics & Photonics (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Description

[001] 介入処置などの医療処置は、物理的操作部材、例えば、ボタン、ダイヤル、レバー、ハンドル、並びに、機器のオンオフを切り替えるため及び設定を変更するための同様のメカニズムを使用して制御される物理的機器を使用する。
[002] 拡張現実とは、一般に、ライブ画像ストリームに追加のコンピュータ生成情報が補足されたときを表す。ライブ画像ストリームは、目、カメラ、又はスマートフォンやタブレットなどの通信デバイスを介するものでよい。ライブ画像ストリームは、眼鏡、コンタクトレンズ、若しくは投影を介した、又は通信デバイス上でのユーザへの表示によって増強される。現在の拡張現実システムは、ジェスチャ認識、頭部追跡、視線追跡、及び音声認識を含む様々なユーザアクションを感知し、それらに応答することができる。
[003] 拡張現実が医療現場で実施されるとき、物理的な機器を制御するために仮想操作部材が使用される可能性が高い。物理的操作部材の誤った操作が危険であるのと同様に、仮想操作部材の誤った操作も危険である。
[004] 本開示の一態様によれば、3次元(3D)空間における拡張現実のための制御装置が、命令を格納するメモリと、命令を実行するプロセッサと、を備える。制御装置は、3D空間内で仮想オブジェクトを提示するように構成されたディスプレイシステムを制御する。プロセッサによって実行されるときに、命令は、制御装置にプロセスを実施させる。プロセスは、3D空間内のオブジェクト又は仮想オブジェクトに対するユーザによる第1のアクションを検出することを含む。また、このプロセスは、ユーザと3D空間内のオブジェクト又は仮想オブジェクトとの間の第1のアクションの検出に基づいて、仮想操作部材を選択的に有効化又は無効化することを含む。仮想操作部材は、操作されるときに、3D空間内の機械の動作を制御するように構成される。
[005] 本開示の別の態様によれば、拡張現実を用いて3D空間内の機能を制御するための方法が、3D空間内に仮想オブジェクトを提示するように構成されたディスプレイシステムを制御するステップを有する。また、この方法は、3D空間内のオブジェクト又は仮想オブジェクトに対するユーザによる第1のアクションを検出するステップを有する。さらに、この方法は、ユーザと3D空間内のオブジェクト又は仮想オブジェクトとの間の第1のアクションの検出に基づいて、仮想操作部材を選択的に有効化又は無効化するステップを有する。仮想操作部材は、操作されるときに、3D空間内の機械の動作を制御するように構成される。
[006] 例示的実施形態は、以下の詳細な説明を添付図面の各図と共に読めば最も良く理解される。様々な機能が必ずしも縮尺通りに描かれていないことを強調しておく。実際、論述を明確にするために、寸法が任意に増加又は減少される。適用可能であり実用的である場合は常に、同様の参照番号が同様の要素を表す。
[007] 代表的な実施形態による、拡張現実におけるユーザインタラクションのための仮想カバーに関するプロセスを示す図である。 [008] 代表的な実施形態による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のプロセスを示す図である。 [009] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスの正面図である。 [010] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスの側面図である。 [011] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスの上面図である。 [012] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスを装着している対象者を含む3D空間を示す図である。 [013] 本開示の一態様による、図3Aでの3D空間の別の図である。ここで、医療機器は、拡張現実インターフェースと、拡張現実におけるユーザインタラクションのための仮想操作部材及び仮想カバーとを設けられている。 [014] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーを使用したデバイスの操作制御を示す論理的配置を示す図である。 [015] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のヘッドマウント可能デバイスの上面図である。 [016] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のヘッドマウント可能デバイスの上面図である。 [017] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関する1つの命令セットを含む例示的な一般的なコンピュータシステムを示す図である。 [018] 本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のプロセスを示す図である。 [019] 代表的な実施形態による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のプロセスを示す図である。 [020] 代表的な実施形態による、ユーザインタラクションのための仮想カバーを使用して仮想操作部材を有効化する一実施形態を示す図である。 [021] 代表的な実施形態による、3D空間内の機械の動作を制御するために仮想操作部材を有効化する別の実施形態を示す図である。
[022] 以下の詳細な説明では、限定ではなく説明の目的で、本教示による実施形態を完全に理解できるように、具体的な詳細を開示する代表的な実施形態を記載する。代表的な実施形態の説明を曖昧にしないように、既知のシステム、デバイス、材料、操作方法、及び製造方法の説明は省略することがある。それにもかかわらず、当業者の想定内にあるシステム、デバイス、材料、及び方法は、本教示の範囲内にあり、代表的な実施形態に従って使用され得る。本明細書で使用される専門用語は、具体的な実施形態を述べることのみを目的としており、限定を意図してはいないことを理解されたい。定義される用語は、本教示の技術分野で一般に理解されて受け入れられるように、定義される用語の技術的及び科学的な意味に加えて用いられる。
[023] 本明細書では、様々な要素又は構成要素を述べるために第1、第2、第3などの用語を使用することがあるが、これらの要素又は構成要素はこれらの用語によって限定されるべきではないことを理解されたい。これらの用語は、ある要素又は構成要素を別の要素又は構成要素と区別するためにのみ使用される。したがって、以下で論じる第1の要素又は構成要素は、本発明の概念の教示から逸脱することなく、第2の要素又は構成要素と呼ぶこともできる。
[024] 本明細書で使用される専門用語は、実施形態を述べることのみを目的としており、限定を意図してはいない。本明細書及び添付の特許請求の範囲で使用されるとき、用語の単数形は、コンテキスト上、特に明確に断りのない限り、単数形及び複数形の両方を含むことを意図されている。さらに、本明細書で使用するときの用語「備える」、「備えている」、及び/又は同様の用語は、挙げられた特徴、要素、及び/又は構成要素の存在を指定するが、1つ又は複数の他の特徴、要素、構成要素、及び/又はそれらの群の存在又は追加を除外しない。本明細書で使用するとき、「及び/又は」という用語は、関連する列挙されたアイテムのうちの1つ又は複数のあらゆる組合せを含む。
[025] 特に断りのない限り、ある要素又は構成要素が別の要素又は構成要素に「接続される」、「結合される」、又は「隣接する」と言うとき、その要素又は構成要素は、別の要素又は構成要素に直接接続又は結合していても、介在する要素又は構成要素が存在していてもよいことを理解されたい。すなわち、これらの用語及び同様の用語は、2つの要素又は構成要素を接続するために1つ又は複数の中間要素又は構成要素が採用され得る場合を包含する。しかし、ある要素又は構成要素が別の要素又は構成要素に「直接接続される」と言われるとき、これは、中間の又は介在する要素又は構成要素をなんら有さずに2つの要素又は構成要素が互いに接続されている場合のみを包含する。
[026] 上記のことに鑑みて、本開示は、その様々な態様、実施形態、及び/若しくは具体的な特徴若しくは下位構成要素のうちの1つ又は複数によって、以下に具体的に述べる利点の1つ又は複数をもたらすことを意図されている。限定ではなく説明の目的で、本教示による実施形態を完全に理解できるように、具体的な詳細を開示する例示的実施形態を記載する。しかし、本明細書で開示する具体的な詳細から逸脱するが本開示と整合性のある他の実施形態も、添付の特許請求の範囲内にある。さらに、例示的実施形態の説明を曖昧にしないように、よく知られている装置及び方法の説明は省略することがある。そのような方法及び装置は、本開示の範囲内にある。
[027] 図1Aは、代表的な実施形態による、拡張現実におけるユーザインタラクションのための仮想カバーに関するプロセスを示す。図1Aに示すプロセスは、検出されたユーザアクション又はコマンドに基づく仮想操作部材の選択的な有効化又は無効化をもたらす全体的なプロセスの代表例となり得る。本明細書で述べるように、仮想操作部材は、仮想ボタン、仮想ダイヤル、仮想レバー、仮想ハンドル、又は、3D空間内に拡張現実として仮想部材を生成するソフトウェアを使用して目に見える他の仮想部材でよい。仮想操作部材は、特に、医療機器などの機械の動作に相関させることができる。言い換えると、仮想操作部材とインタラクションするユーザが機械装置を操作することができる。
[028] 本明細書で述べる制御は、いかなる特定のタイプの機械にも限定されず、さらには機械に全く限定されない。むしろ仮想操作部材を介した制御は、機械、設定、情報、並びにオンオフの切替えなどによって制御することができる他の形態のアイテム及び情報の制御でよい。例として、スクリーン上の画像、ポインタ、音楽再生などの機能などが挙げられる。制御可能なアイテム及び情報の様々な例を、図1A及び図1Bの記載に従って以下に述べる。
[029] さらに、制御は、個々の制御可能なアイテム及び情報、又はすべての制御可能なアイテム及び情報のすべてのグループ、若しくはすべての制御可能なアイテム及び情報のサブセットのグループの有効化と無効化との両方を含む。例えば、仮想操作部材は、患者のバイタルサインが急速に悪化したときに、患者を監視する1組の電子ソースから、指定された1組の情報を即座に表示するための緊急制御機能でよい。緊急制御機能は、例えば符号化されたコマンド又はコマンドシーケンスを使用して、迅速に有効化及び作動することができる。当然、すべての制御可能なアイテム及び情報のすべて又はそれらのサブセットに関するマスタ制御は、緊急事態に限定されず、例えばセッション後又は他の時点で3D空間がシャットダウンしているときに適用されてもよい。
[030] 図1Aでのプロセスは、ステップS111で3D空間を事前マッピング/事前登録することから始まる。3D空間は、例えば、拡張現実セッション中に使用される手術室又は他の囲まれた空間でよい。本明細書で述べる仮想操作部材は、3D空間の一部を占有する。3D空間は、拡張現実が提供されるセッションの前にマッピングされ、したがって、ステップS111でのマッピングは、ある意味、事前マッピングである。マッピングは、3D空間のすべての物理的パラメータと、3D空間内の任意の物理的アイテム(例えば家具や機器)を視覚的に捕捉することによって実施される。3D空間は、拡張現実が提供されるセッションの前に登録されることもあり、したがって、ステップS111での登録も、ある意味、事前登録である。登録は、3D空間の各物理的パラメータと、3D空間内の各物理的アイテムとにラベル付けすることによって実施される。
[031] 3D空間のマッピング及び登録のために使用されるコンピュータプログラムは、物理的パラメータと物理的アイテムとの特性のライブラリにリンクされている。特性のライブラリを使用して、マッピングで識別された任意の物理的パラメータ又は物理的アイテムを所定の説明とリンクすることによって、登録を容易にすることができる。マッピング及び登録は、仮想オブジェクトを配置することができる3D空間内のすべての領域を識別することができるように実施される。
[032] マッピング及び登録は、ARセッションの時点でも実施することができる。例えば、ステップS111でのマッピングを事前マッピングとして上述したが、拡張現実セッションが始まった後も、例えば、拡張現実デバイスのセンサを用いて3D空間のパラメータを収集し、次いで画像認識を使用して物理的パラメータ及び3D空間内の物理的アイテムを登録することによって、3D空間を動的にマッピングすることができる。
[033] ステップS122で、3D空間内に仮想操作部材が設定される。上記のように、仮想操作部材は、機械を制御するために使用される物理的な操作部材を表すことができる。例えば、ボタン、ダイヤル、レバー、ハンドル、及び同様の形態の機械的又は電気機械的入力手段の様々なタイプや外観を指定するライブラリから、仮想操作部材のタイプを検索することができる。例えば、ジェスチャによって仮想操作部材をバーチャルで移動させて、マッピングされた3D空間内の特定の位置に仮想操作部材を配置することによって、仮想操作部材の位置を3D空間内で設定することもできる。当然、仮想操作部材の位置は、例えばマウス、ジョイスティック、タッチスクリーン、ロールパッド、又は、コンピュータ及び電子デバイスに関して知られている他の形態の入力手段を使用して取り扱うこともできる。
[034] ステップS133で、仮想操作部材が、3D空間内での機械の特定の動作に相関される。例えば、仮想操作部材は、X線機械のオン若しくはオフへの切替え、又は機械を使用した画像の捕捉若しくは読取りに相関される。仮想操作部材の操作は、仮想操作部材に対するユーザアクション又はコマンドを捕捉して解釈するソフトウェア、並びに機械の動作を制御するソフトウェアを含む、いくつかのレベルで相関される。
[035] ステップS144で、仮想操作部材のためのカバーが3D空間内に設定される。カバーは、ライブラリから選択されたカバーのタイプに対応する。カバーには、タッチパッドのボタンを非表示にして取り扱うことができないようにするタッチパッド用のカバーなど物理的なカバーの外観を与えることができる。同様に、ステップS144で設定されたカバーを使用して、拡張現実において仮想操作部材を非表示にしてもよい。例えば、ジェスチャによってカバーをバーチャルで移動させて、マッピングされた3D空間内の特定の位置にカバーを配置することによって、カバーの位置を3D空間内で設定することができる。仮想操作部材の位置は、例えばマウス、ジョイスティック、タッチスクリーン、ロールパッド、又は、コンピュータ及び電子デバイスに関して知られている他の形態の入力手段を使用して取り扱うこともできる。
[036] ステップS155で、カバーは、仮想操作部材と、機械の動作とに相関される。すなわち、カバーは、取り扱われるときに拡張現実において仮想操作部材を非表示又は再表示するように拡張現実ソフトウェアで論理的に相関させることができる。また、カバーの操作は、例えばカバーが仮想操作部材を「覆っている」時に機械の動作を無効化することによって、機械の動作を制御するソフトウェアで相関されることもある。このようにすると、仮想操作部材は、その仮想操作部材及びカバーを含む拡張現実空間内で目に見えなくなるので、意図せずに取り扱われることはあり得ない。
[037] ステップS166で、カバーは、事前定義されたユーザアクション及びコマンドに相関される。事前定義されたユーザアクション及びコマンドは、例えば仮想操作部材に被さるようにカバーを移動させることによって、カバーを作動又は作動停止させるための命令として解釈される特定のアクション及びコマンドである。例えば、カバーの上又はすぐ周りでの左から右へのスワイプアクションは、閉じているときにカバーを「開く」と解釈され、右から左へのスワイプアクションは、開いているときにカバーを「閉じる」と解釈される。また、拡張現実ソフトウェアは、カバーに対して行うべき特定のアクションに対応するために、「カバーを開く」又は「カバーを閉じる」などの口頭での命令を解釈することもある。
[038] ステップS177で、拡張現実セッションが開始される。拡張現実セッションは、ヘッドマウント可能デバイスを装着した第1の対象者が3D空間に入った時点で始まるとみなすことができる。さらに、複数の拡張現実セッションが同時に行われてもよく、ヘッドマウント可能デバイスを装着した複数の異なる対象者がそれぞれ個別に3D空間に入る。ヘッドマウント可能デバイスは、仮想操作部材及びカバーによって占有されている3D空間の部分にアクセスするように事前プログラム又は事前認可されていてもよい。例えば、拡張現実セッションは、3D空間として機能する事前マッピングされた手術室内で行われる医療介入に対応してもよく、仮想現実オブジェクトへのアクセスを認可された各対象者は、医療介入中、仮想現実を介して表示される情報にアクセスすることができる。
[039] ステップS188で、ステップS166からの事前定義されたユーザアクション又はコマンドの1つが検出され、ステップS199で、検出されたユーザアクション又はコマンドに基づいて仮想操作部材が選択的に有効化又は無効化される。すなわち、仮想カバーを開くための事前定義されたアクションがステップS188で検出され、次いで、拡張現実ソフトウェアと、機械を操作するために使用されるソフトウェアとの両方が、仮想操作部材を使用して機械を操作するためのコマンドを受け入れる。
[040] 仮想操作部材及びカバーは、ヘッドマウント可能デバイスを使用して拡張現実を介して目に見える。しかし、拡張現実は、ヘッドマウント可能デバイスだけに制限されない。むしろヘッドマウント可能デバイスは、手術室などの3D空間の文脈で容易に説明され、本明細書では便宜上、例として使用する。拡張現実として3D空間の一部を占有する仮想操作部材及びカバーは、仮想操作部材及びカバーを含む3D空間の視野を有する任意の認可された対象者に表示される。或いは、仮想操作部材及びカバーは、仮想操作部材及びカバーに相関された機械装置の手動操作を認可された特定のユーザの1人又はサブセットだけに目に見えてもよい。例えば、カメラを介して3D空間を見ているリモートユーザであっても、認可されている場合には、仮想操作部材へのアクセス権を有する。ヘッドマウント可能デバイスに加えて、仮想操作部材及びカバーへのアクセス権を有するユーザは、投影画像、透過型ヘッドアップディスプレイ、及び他の形態の拡張現実デバイスを使用してもよい。
[041] 図1Bは、代表的な実施形態による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のプロセスを示す。ここでも、図1Bに示すプロセスは、検出されたユーザアクション又はコマンドに基づく仮想操作部材の選択的な有効化又は無効化をもたらす全体的なプロセスの代表例となり得る。図1Bに示すアクティビティのいくつかは、図1Aについて示したものと同じであり、したがって、詳細な説明は繰り返さない。
[042] 図1Bにおけるプロセスは、ステップS111で3D空間を事前マッピング/事前登録することから始まり、ステップS122で3D空間内に仮想操作部材を設定し、ステップS133で仮想操作部材を3D空間内での機械の動作に相関させることを含む。
[043] ステップS145で、物理的な有効化/無効化オブジェクトが、3D空間内の仮想操作部材に関して設定される。例えば、3D空間内のベッドの横又は下にあるフットペダルを、仮想操作部材の有効化又は無効化に相関させることができる。このようにすると、一例として、ユーザは、拡張現実で仮想操作部材を閲覧し、次いで拡張現実空間内の仮想操作部材とインタラクションして3D空間内の機械装置を操作するために、フットペダルを踏むことを必要とされる。予防措置を提供するためにこれを使用することができるやり方の一例は、X線機器に関するものであり、ここでユーザは、物理的アクションと拡張現実でのインタラクションとを組み合わせて、「オン」ボタンをカバー解除し、次いで「オン」ボタンとバーチャルでインタラクションしてX線機器を操作しなければならない。
[044] ステップS156で、物理的な有効化/無効化オブジェクトが、仮想操作部材と、機械の動作とに相関される。すなわち、物理的な有効化/無効化オブジェクトは、取り扱われるときに拡張現実において仮想操作部材を非表示又は再表示するように拡張現実ソフトウェアで論理的に相関させることができる。また、物理的な有効化/無効化オブジェクトの操作は、例えば物理的な有効化/無効化部材が押されていないときに機械の動作を無効化することによって、機械の動作を制御するソフトウェアで相関されてもよい。このようにすると、仮想操作部材は、その仮想操作部材を含む拡張現実空間内で目に見えなくなるので、意図せずに取り扱われることはあり得ない。
[045] ステップS167で、物理的な有効化/無効化オブジェクトは、事前定義されたユーザアクション及びコマンドに相関される。事前定義されたユーザアクション及びコマンドは、物理的な有効化/無効化を作動させるための命令として解釈される特定のアクション及びコマンドであり、ここでは、図1Aで使用される仮想カバーに比べて制限されている。例えば、フットペダルは、オンとオフの2つの又は可能な読取値しか有さない。
[046] ステップS177で、拡張現実セッションが開始され、ステップS188で、拡張現実セッション中、事前定義されたユーザアクション又はコマンドが検出される。ステップS199で、仮想操作部材は、検出されたユーザアクション又はコマンドに基づいて選択的に有効化又は無効化される。例えば、上記のように、ユーザがフットペダルを踏むことで、機械を操作するために使用される仮想操作部材を作動又は作動停止することができる。
[047] 本明細書における実施形態では、制御は、特定のタイプの機械の動作に限定されず、さらには機械に全く限定されない。むしろ制御は、例として、X線機械、超音波機械、ロボット(例えば手術用ロボット)、室内用の電気機械的環境制御、及び様々なタイプの医療機器の操作を含む。しかし、制御は、仮想情報の制御、及び機械の特定の定義を満たさない他のタイプのデバイスの制御でもよい。制御することができる機械及び他のメカニズムの例としては、以下のものが挙げられる。
X線機械:
・cアーム、テーブルの物理的な位置決め
・照射レベル、ウェッジ、コリメーションなどのX線構成
・レビュー用の様々な画像の提供、画像のマスキング、注釈付けなどの画像表示
超音波機械:
・焦点、深度、ゲインなどの画像獲得パラメータ
・画像の回転などの表示パラメータ
カテーテルロボットや手術用ロボットなどのロボット
電気機械的環境又は室内制御
・ライトのオン/オフ
・音楽や、制御室への音声通信などのサウンド
・タイマーのオン/オフ
・注釈のオン/オフ
・録音又は録画のオン/オフ
IVUS、FFR、患者のバイタル、麻酔機器などの他の機器
仮想情報:
・どの画面を表示するか、どこに表示するかなど、表示内容の制御
・標識の配置、特定のオブジェクトの選択、画像/モデルへの注釈付けなど、仮想情報のためのポインタ又はセレクタ
・モデルとのインタラクション(モデルを回転させる、拡大/縮小させるなど)
[048] 図2Aは、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスの正面図を示す。図2Aでは、ヘッドマウント可能デバイス200は、右レンズ210aと左レンズ210bとが個別に囲まれているフレーム201を含む。センサ250、カメラ260は、フレーム201内及び/又はフレーム201上に一体化された電子構成要素の代表例である。
[049] 本明細書で説明するように、左レンズ210b及び右レンズ210aはそれぞれ、透過型光学ディスプレイの前又は後ろに設けられる。透過型光学ディスプレイは、画像プロセッサによって制御されて、ヘッドマウント可能デバイス200を装着している対象者の視界と重畳される仮想オブジェクトを生成することができる。或いは、左レンズ210b及び右レンズ210aはそれぞれ、ヘッドマウント可能デバイス200を装着している対象者の目にプロジェクタからの光を反射するミラーの前に設けられる。ミラーの効果は、ヘッドマウント可能デバイス200を装着している対象者の視界に仮想オブジェクトが重畳されると言う点で、透過型光学ディスプレイを使用する効果と同じである。
[050] カメラ260は、前方を向いており、ヘッドマウント可能デバイス200を装着している対象者の視点からの前方視野を提供している。カメラ260は、様々なタイプのカメラ(RBG、グレースケール、奥行き感知カメラ、IRカメラ、スペクトルカメラ)を含む複数のカメラの代表例でよい。センサ250は、ヘッドマウント可能デバイス200の周りの環境の側面を感知する。
[051] センサ250は、例えば、加速度計、ジャイロスコープ、抵抗センサ、電流センサ、圧電センサ、電圧センサ、容量センサ、全地球測位衛星受信機、コンパス、高度計、カメラ、距離計、マイクロフォン、温度計、化学センサ、水分センサなどを含む。センサ250は、対象者が頭を傾ける又は回す時及び度合いなど、ヘッドマウント可能デバイス200を装着している対象者の動きを感知する。また、センサ250は、温度及び湿度や照明条件など、ヘッドマウント可能デバイス200の周りの環境の環境条件を感知する。図2に関して以下で説明するように、カメラ270a、270bは、操作者の目の動きを追跡するためのセンサとして設けられてもよい。
[052] 図2Bは、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスの側面図を示す。図2Bでは、右テンプル202aは、フレーム201に囲まれたレンズ群210から延在して図示されている。レンズ群210は、図2Aに示すような右レンズ210a及び左レンズ210bを含む。
[053] 右テンプル202aは、ヘッドマウント可能デバイス200を装着している対象者の頭の右側用である。図2Cに関して以下で説明するように、左テンプル202bは、ヘッドマウント可能デバイス200を装着している対象者の頭の左側用に提供される。右テンプル202aを使用して、ヘッドマウント可能デバイス200を装着する対象者の耳に掛けてヘッドマウント可能デバイス200を保持する。図2Aに示すように、ヘッドマウント可能デバイス200の前部の中央部分は、ヘッドマウント可能デバイス200を装着する対象者の鼻に乗せてバランスを取ることもできる。
[054] 図2Cは、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスの上面図を示す。図2Cでは、様々な電子要素が、右テンプル202a及び左テンプル202bに沿って配設されて示されている。これらの要素は、右テンプル202aに沿ったカメラ270a、及び左テンプル202bに沿ったカメラ270bを含む。左テンプル202bは、プロセッサ280b及びメモリ281bも含み、右テンプル202aは、プロセッサ280a及びメモリ281aも含む。プロセッサ280a、280b及びメモリ281a、281bは、一般的なコンピュータシステムの要素の代表例であり、ヘッドマウント可能デバイス200に完全に又は部分的に含まれる。
[055] カメラ270a、270bは、後方を向いており、ヘッドマウント可能デバイス200を装着している対象者の目の動きを捕捉するために使用される。カメラ270a、270bは、図2Aのセンサ250とは別個に示されているが、カメラ270a、270bは、ヘッドマウント可能デバイス200を装着している対象者の目の動きを感知するという点で、センサ250のタイプと一致している。
[056] メモリ281a、281bは、ヘッドマウント可能デバイス200に関する命令及びデータを格納し、プロセッサ280a、280bは、ヘッドマウント可能デバイス200に関する命令を実行する。メモリ281a、281bに格納され、プロセッサ280、280bによって実行される命令は、ヘッドマウント可能デバイス200を装着している対象者の視界と重畳されるように特定の仮想オブジェクトを生成するための命令を含む。メモリ281aとプロセッサ280との組合せを、本明細書で述べる制御装置とみなしてよい。同様に、メモリ281bとプロセッサ280bとの組合せを、本明細書で述べる制御装置とみなしてもよい。当然、ヘッドマウント可能デバイス200全体を、本明細書で述べる制御装置とみなしてもよい。
[057] 図3Aは、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関するヘッドマウント可能デバイスを装着している対象者を含む空間を示す。図3Aでは、5人の対象者381~385が、3D空間300内でテーブル399の周りに配備されて示されている。また、図3Aには、集中型コンピュータ390が、無線インターフェース393、プロセッサ391、及びメモリ392と共に示されている。
[058] 図3Aの実施形態は、人が密集した囲まれた空間内で仮想操作部材を提供することの危険性を示す。図3Aの実施形態では、5人の対象者381~385がそれぞれ、拡張現実用のヘッドマウント可能デバイス200a~200eを装着する。5人の対象者381~385それぞれがアクセスする共有拡張現実空間内に仮想操作部材が示されている場合、5人の対象者の誰かが誤って仮想操作部材を作動するおそれがある。したがって、非使用時には仮想操作部材を無効化するために、仮想操作部材のためのカバー又は他の有効化/無効化機能が設けられる。さらに、仮想操作部材を有効化するための権限は制限され、すべてのユーザには与えられないことがあり、例えばパスワードによる認証が必要になることがある。
[059] 集中型コンピュータ390を使用して、例えば、各仮想操作部材と、各仮想操作部材を無効化及び有効化するために使用することができる3D空間300内のオブジェクト及び/又は仮想オブジェクトとに関する設定を入力することによって、拡張現実を最初に制御することができる。ヘッドマウント可能デバイス200a~200eが作動されるとき、3D空間の制御が、5人の対象者381~385のうちの1人に受け渡される。制御の受け渡しは、メモリ392に格納され、プロセッサ391によって実行される所定の命令に従っている。3D空間300を制御するための所定の命令は、5人の対象者381~385のうちの1人、又は3D空間300内若しくは3D空間300外にいる別の対象者が3D空間の制御を変更できるようにし得る。
[060] 5人の対象者381~385は、第1の対象者381、第2の対象者382、第3の対象者383、第4の対象者384、及び第5の対象者を含む。第1の対象者381は、第1のヘッドマウント可能デバイス200aを装着し、第2の対象者382は、第2のヘッドマウント可能デバイス200bを装着し、第3の対象者383は、第3のヘッドマウント可能デバイス200cを装着し、第4の対象者384は、第4のヘッドマウント可能デバイス200dを装着し、第5の対象者385は、第5のヘッドマウント可能デバイス200eを装着している。本明細書で述べる第1のヘッドマウント可能デバイス200a、第2のヘッドマウント可能デバイス200b、第3のヘッドマウント可能デバイス200c、第4のヘッドマウント可能デバイス200d、及び第5のヘッドマウント可能デバイス200eはそれぞれ、図2A~図2Cに示すヘッドマウント可能デバイス200に関して具体的に述べた任意の特徴を含んでいる。さらに、各ヘッドマウント可能デバイス200a~200eは、他の各ヘッドマウント可能デバイス200a~200e及び集中型コンピュータ390に無線で接続される。また、各ヘッドマウント可能デバイス200a~200eは、集中型コンピュータ390と有線で繋がれてもよい。
[061] 3D空間300は、病院の手術室などの部屋でよく、5人の対象者381~385は、テーブル399に乗せられた患者に対する医療介入に関与する医療従事者などの従事者でよい。本開示の教示は、手術室又は医療従事者に限定されないが、便宜上、本明細書での教示のためのこの設定を繰り返し参照することがある。
[062] 手術室の例では、5人の対象者381~385がそれぞれ、異なる任務を有し、異なるタイプの情報を提供する異なる情報源に依拠する。また、5人の対象者381~385は、同じ情報源に依拠する任務を有することもある。図3Aで見られるように、5人の対象者381~385がテーブル399の周りに配備されているため、単一のモニタを介して共通の情報源を5人の対象者381~385に提供することは難しく、これは特に、テーブル399上の患者を視覚的に直接監視する必要がある従事者にとっては難しい。
[063] 3D空間300は、手術室などのエンクロージャであり、事前マッピングされており、したがって、3D空間300内のあらゆる物理的オブジェクトは、本明細書で述べる拡張現実におけるユーザインタラクションのための仮想カバーの準備時にマッピングされる。したがって、3D空間に関する事前マッピングを使用して、5人の対象者381~385それぞれに拡張現実を提供することができる。すなわち、事前マッピングは、変更不可能な物理的制約を提供するのに対し、仮想オブジェクトは、事前マッピングされた物理的制約に抵触しない位置で3D空間内に提供することができる。
[064] 図3Aでは、ヘッドマウント可能デバイス200a~200eを使用して、拡張現実におけるユーザインタラクションのための仮想カバーを提供する。各ヘッドマウント可能デバイス200は、ヘッドマウント可能デバイス200を装着している対象者のための透過型インターフェースを提供するように構成されており、したがって、現実が拡張されていないとき、対象者は、ヘッドマウント可能デバイス200を通して見たときに物理的世界そのままの視野を与えられる。本明細書で述べるように現実が拡張されているとき、ヘッドマウント可能デバイス200を使用して、物理的世界の視野に重畳された仮想オブジェクトによって物理的世界の視野を拡張する。
[065] 各対象者281~285は、ヘッドマウント可能デバイス200a~200eによって3D空間の専用の非共有部分を提供される。言い換えると、各ヘッドマウント可能デバイス200a~200eは、別のヘッドマウント可能デバイス200a~200eに関する3D空間の視野には現れない3D空間の専用部分を、対応する対象者に一意に提供する。本明細書では、5人の対象者381~385のうちの1人だけの視野に示されるこれらの専用部分を非共有部分と呼ぶ。
[066] また、対象者281~285全員又は対象者281~285のサブセットに、ヘッドマウント可能デバイス200a~200eによる3D空間の専用共有部分へのアクセス権が提供されてもよい。仮想操作部材は、3D空間の非共有部分内で、X線技師などのユーザに個別に提供される、又は3D空間の共有部分内で、複数の看護師などのユーザの群に提供される。
[067] 図3Bは、本開示の一態様による、図3Aでの3D空間の別の図である。ここで、医療機器は、拡張現実におけるユーザインタラクションのための仮想カバーに関する拡張現実インターフェースを設けられている。図3Bでは、複数の異なる電子デバイスを使用して、テーブル399上の患者に関する医療情報を監視及び/又は表示する。
[068] ビデオカメラ#1 383を使用して、医療介入中に患者のビデオフィードを提供する。拡張現実インターフェース383Aを使用して、拡張現実を介してビデオカメラ#1 383から従事者にビデオフィードを選択的に提供する。
[069] 医療機器コンピュータ#1 381を使用して、患者に付けた又は患者の周囲のセンサから医療情報を取得して表示する。拡張現実インターフェース381Aを使用して、拡張現実を介して従事者に医療情報を選択的に提供する。さらに、医療機器コンピュータ#1 381のために、3つの仮想操作部材384、385、及び386が提供される。3つの仮想操作部材384、385、及び386はそれぞれ、対応する仮想カバー384A、385A、及び386Aで覆われている。
[070] また、医療機器コンピュータ#2 382を使用して、患者に付けた又は患者の周囲のセンサから医療情報を取得して表示する。拡張現実インターフェース382Aを使用して、拡張現実を介して従事者に医療情報を選択的に提供する。さらに、医療機器コンピュータ#1 381のために、3つの仮想操作部材387、388、及び389が提供される。3つの仮想操作部材387、388、及び389はそれぞれ、仮想カバー387A、388A、及び389Aで覆われている。
[071] 図3A及び図3Bの実施形態では、仮想操作部材384~389及び仮想カバー394~399は、仮想操作部材384~389及び仮想カバー394~399を表示するように構成された拡張現実デバイスを介してのみ目に見える。そのような拡張現実デバイス用のソフトウェアは、仮想操作部材384~389及び仮想カバー394~399を表示し、任意のユーザと仮想操作部材384~389及び仮想カバー394~399との(仮想)インタラクションを検出し、任意の検出された仮想インタラクションを使用して医療機器コンピュータ#1 381又は医療機器コンピュータ#2 382のいずれかを制御するために認可されなければならない。言い換えると、ユーザは、仮想操作部材384~389及び仮想カバー394~399のいずれを見ることさえも制限される。不要なユーザが拡張現実機能へアクセスするのを制限することは、医療機器コンピュータ#1 381又は医療機器コンピュータ#2 382の誤った作動又は制御を避けるための別のメカニズムである。
[072] 集中型コンピュータ390が図3Bに示されており、少なくとも最初は、3D空間300の共有部分を介して提供される拡張現実を制御するために使用される。上記のように、集中型コンピュータ390は、プロセッサ391、メモリ392、及び無線インターフェース393を含む。集中型コンピュータ390は、共有部分を閲覧できる機能を制限し、共有部分を介して提供されるフィードを変更できる機能を制限し、共有部分内でインタラクションできる機能を制限することによって、3D空間の共有部分と非共有部分との両方を制御することができる。さらに、医療機器コンピュータ#1 381若しくは医療機器コンピュータ#2 382、又は非共有若しくは共有の拡張現実画面を介して提供される他の機器からの任意のデータフィードは、集中型コンピュータ390又は別の集中型デバイスを通るように経路指定され、したがって、集中型コンピュータ390又は他の集中型デバイスを用いずに追加の制御が実施される場合でさえ、3D空間300内の拡張現実を介して提供される情報の制御は、共通して単一の点で実施される。集中型コンピュータ390によって提供される制御は、例えば、認可されたユーザが、例えばヘッドマウント可能デバイス200を使用して、集中型コンピュータ390から認可された別のユーザに共有部分の制御を切り替えるときに変わる。
[073] 図3Bの一例として、3D空間300は、複雑な低侵襲性の構造的心疾患処置に使用される手術室に関するサンプルルームレイアウトでよい。この処置では、室内の複数の人々が、患者を治療するために働く必要がある。これらの人々には、例えば以下の者が含まれる。
・麻酔を投与し、患者を監視する麻酔科医
・TEEプローブを位置決めし、超音波画像獲得を制御する心エコー図技師
・カテーテル、ガイドワイヤ、及び他のデバイスを操作して、患者に療法を送達するインターベンション医師#1
・インターベンション医師#1を補助するインターベンション医師#2~3
・適切なツール及びデバイスをインターベンション医師へ渡す看護師
・介入型X線システムの操作を補佐するX線技師
[074] 上記の例における人々が必要とする情報の例としては、以下のものを挙げることができる。
・術中X線(ライブイメージ、ロードマップ、参照画像)
・術中超音波(TEE、ICE、IVUSなど)
・術前イメージング(超音波、CT、MRI)
・患者の病歴
・患者のバイタル、血行力学的状態
・線量情報(スタッフ向け-DoseAware、又は患者用)
・様々な人々が見ている映像のライブビュー
・ライブイメージング上のオーバーレイ
・ターゲット/マーカ
[075] 上記の例では、各人が、拡張現実を使用することができ、拡張現実によって占有されている3D空間の非共有部分及び共有部分を提供される。拡張現実インターフェース381A、拡張現実インターフェース382A、及び拡張現実インターフェース383Aを使用して、拡張現実を使用して目に見える3D空間の共有部分に情報を提供することができる。拡張現実の使用は、3D空間全体にわたって複数のモニタを位置決めしないようにする助けとなり得て、共有する拡張現実を使用している各認可された者に、患者、モニタ、及び互いを観察するための共通の視点を提供し、同時にまた、非共有の拡張現実を使用している各認可された者に、各人の役割に特有の情報を提供する助けとなる。
[076] さらに、上記の例では、ある人が3D空間300から離れるときでさえ、その人は、拡張現実を使用してアクセス権を有する。例えば、ヘッドマウント可能デバイスを装着している看護師が、部屋を出て機器を回収し、拡張現実を介して目に見える3D空間の第1の共有部分への通信及びアクセスを維持することができる。第1の共有部分への同じアクセスを、外部制御室に座っているスタッフメンバー、又は隣室での診察のために席を外している下級スタッフメンバーを監督する上級スタッフメンバーに提供することができる。
[077] 図4は、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーを使用するデバイスの動作制御を示す論理的構成を示す。図4では、左側の欄は、拡張現実コマンドを使用して制御される機器を表す。中央のレベルは、左側に表されている機器の個々の動作を制御するために使用される仮想操作部材を表す。右側の欄は、中央に表されている仮想操作部材の誤った操作を避けるために設けられる仮想カバーを表す。
[078] 図4では、左側の欄には、2つのデバイス、すなわちデバイス#1及びデバイス#2が含まれる。各デバイスは、仮想操作部材に関連/相関された3つの動作を有する。デバイス#1、動作#1 411は、操作#1 451と相関している。デバイス#1、動作#2 412は、操作#2 452と相関している。デバイス#1、動作#3 413は、操作#3 453と相関している。デバイス#2、動作#1 414は、操作#4 454と相関している。デバイス#2、動作#2 415は、操作#5 455と相関している。デバイス#2、動作#3 416は、操作#6 456と相関している。図4での様々な操作は、例えば、オン/オフ、フォーカス及び捕捉(例えば画像捕捉デバイス用)、リフレッシュ及び更新、又は様々なデバイスに入力することができる他の形式のコマンドなどの操作でよい。また、これらの操作は、例えば、拡張現実において表示される仮想ダイヤル又は仮想キーパッドの使用によって、値を入力することをも含む。
[079] 図4では、カバーはそれぞれ、有効化/無効化ボックス461~466として示されている。各仮想カバーは、異なる仮想操作部材、及び異なる仮想操作部材によって実施される異なる操作に対応する。制御装置431は、カバー及び仮想操作部材にアクセスしてそれらとインタラクションすることを特別に認可された任意の拡張現実デバイスによって実現される。例えば、3D空間300内の監督者には、3D空間300内のチームの残りの者のための様々なカバーを制御するように設計されたヘッドセットが提供され、したがって、保護された操作を作動させることを望む任意のチームメンバーは、対応する仮想操作部材を管理者にカバー解除してもらう必要がある。
[080] すなわち、上述したように、仮想操作部材を使用して機器を操作するために少なくとも2つのレベルの制御が必要とされる。第1のレベルは、例えば、カバーを取り除くことによって仮想操作部材を目に見えるようにすることによって、仮想操作部材の制御を有効化することである。第2のレベルは、仮想操作部材とインタラクションして、機器による所望の動作を作動させることである。
[081] 図5Aは、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のヘッドマウント可能デバイスの上面図を示す。図5Aでは、プロジェクタ283bと左ミラー212bとの組合せが、ディスプレイシステムの全体又は一部を形成する。同様に、プロジェクタ283aと右ミラー212aとの組合せが、ディスプレイシステムの全体又は一部を形成する。ディスプレイシステムは、プロジェクタ283a、283bが、ミラー212a、212bによって反射された光を、ヘッドマウント可能デバイス200を装着している対象者の目に投影することによって動作する。プロジェクタ283a、283bは、図2Cのプロセッサ280a、280bと一緒に動作して、ヘッドマウント可能デバイス200を装着している対象者の視野に重畳される仮想オブジェクトを生成することができる。プロセッサ280a、280bは、ヘッドマウント可能デバイス200に関する各仮想オブジェクトごとの画像データを提供し、プロジェクタ283a、283bは、左ミラー212b及び右ミラー212aが反射する光を投影して、各仮想オブジェクトごとの画像を表示することができる。
[082] ミラー212a、212bは、デジタル光処理(DLP)プロジェクタ用のデジタルマイクロミラーデバイスDMDとして配置された小さいミラーのマトリックスでよい。いずれにせよ、図5Aでは、左ミラー212b及び右ミラー212aは透過型であり、したがって、左ミラー212b及び右ミラー212aによって光が反射されないとき、ヘッドマウント可能デバイス200を装着している対象者は、そのままの物理的世界の視野を有する。しかし、プロジェクタ283a、283bは、動作中、左ミラー212b及び右ミラー212aと共に動作して、ヘッドマウント可能デバイス200を装着している対象者の視界と重畳される仮想オブジェクトを生成することができる。
[083] 図5Bは、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のヘッドマウント可能デバイスの上面図を示す。図5では、透過型光学ディスプレイ211bは、左レンズ210bの後ろに設けられ、透過型光学ディスプレイ211aは、右レンズ210aの後ろに設けられる。画像プロセッサ281dは、透過型光学ディスプレイ211bの要素を制御し、画像プロセッサ281cは、透過型光学ディスプレイ211aの要素を制御する。
[084] 図5Bでは、画像プロセッサ281dと透過型光学ディスプレイ211bとの組合せが、ディスプレイシステムの全体又は一部を形成する。画像プロセッサ281cと透過型光学ディスプレイ211aとの組合せが、ディスプレイシステムの全体又は一部を形成する。画像プロセッサ281c、281dは、図2のプロセッサ280a、280bと一緒に動作して、ヘッドマウント可能デバイス200を装着している対象者の視野に重畳される仮想オブジェクトを生成することができる。すなわち、プロセッサ280a、280bは、ヘッドマウント可能デバイス200に関する各仮想オブジェクトごとの画像データを提供し、画像プロセッサ281c、281dは、透過型光学ディスプレイ211a、211bの個々の要素を制御して、各仮想オブジェクトごとの画像を表示することができる。
[085] 例えば、透過型光学ディスプレイ211a、211bは、対象者が物理的世界と人工的に生成された仮想オブジェクトとを同時に閲覧することを可能にすることができる。透過型光学ディスプレイ211a、211bは、例えば、透過型及び偏光型のOLED、導光光学素子、並びに個別に及び論理的に、すなわち図5Aのような投影ビームを用いずに制御することができるマトリックス状に配置された同様の材料を含む。透過型光学ディスプレイ211a、211bに使用することができる要素及び材料の例としては、エレクトロルミネセントディスプレイ要素、液晶ディスプレイ(LCD)要素、及び導波管、反射コーティングが挙げられる。
[086] 図5A及び図5Bは、拡張現実のための仮想オブジェクトの表示を生成するために使用することができる特定のディスプレイシステムの2つの例を示す。他のタイプのディスプレイシステムを使用して、本開示の教示と整合性のある仮想オブジェクトの表示を生成することができること、及びこれらの2つの例示的な図が、本明細書での教示を実施することができるメカニズムの単なる代表例であることは明らかであろう。
[087] 図6は、一般的なコンピュータシステム600の例示的実施形態であり、コンピュータシステム600に、拡張現実におけるユーザインタラクションのための仮想カバーの方法を実装することができる。コンピュータシステム600は、本明細書に開示される方法又はコンピュータベースの機能の任意の1つ又は複数をコンピュータシステム600に実施させるために実行することができる命令のセットを含むことができる。コンピュータシステム600は、独立型デバイスとして動作する、又は例えばネットワーク603を使用して他のコンピュータシステム若しくは周辺デバイスに接続される。
[088] ネットワーク化された展開では、コンピュータシステム600は、サーバの容量内で、又はサーバ-クライアントユーザネットワーク環境でのクライアントユーザコンピュータとして、若しくはピアツーピア(又は分散)ネットワーク環境でのピアコンピュータシステムとして動作する。また、コンピュータシステム600は、ヘッドマウント可能デバイス、据置き型コンピュータ、モバイルコンピュータ、パーソナルコンピュータ(PC)、ラップトップコンピュータ、タブレットコンピュータ、ワイヤレススマートフォン、個人用携帯情報端末(PDA)、通信デバイス、又は、機械が取るべきアクションを指定する(順次又はその他の)命令セットの実行が可能な任意の他の機械など、様々なデバイスとして実装する、又は様々なデバイスに組み込むこともできる。コンピュータシステム600は、そしてまたさらなるデバイスを含む一体型システム内にあるデバイスとして又はデバイス内に組み込むことができる。一実施形態では、コンピュータシステム600は、音声、ビデオ、又はデータ通信を提供する電子デバイスを使用して実装することができる。さらに、コンピュータシステム600が個別に示されているが、「システム」という用語は、1つ又は複数のコンピュータ機能を実施するために1つ又は複数の命令セットを個別に又は共同で実行するシステム又はサブシステムの任意の集合も含むものと解釈されるものとする。
[089] 図6に示すように、コンピュータシステム600は、プロセッサ610を含む。コンピュータシステム600用のプロセッサは、有形であり、非一時的である。本明細書で使用するとき、「非一時的」という用語は、状態の不変の特性としてではなく、ある期間続く状態の特性と解釈されるべきである。特に、「非一時的」という用語は、搬送波若しくは信号の特性、又は時と場所を問わず一時的にだけ存在する他の形態の特性など、一過性の特性を含まない。プロセッサは、製造物品及び/又は機械部品である。コンピュータシステム600用のプロセッサは、本明細書において様々な実施形態で述べるような機能を実施するためにソフトウェア命令を実行するように構成される。コンピュータシステム600用のプロセッサは、汎用プロセッサでも、特定用途向け集積回路(ASIC)の一部でもよい。また、コンピュータシステム600用のプロセッサは、マイクロプロセッサ、マイクロコンピュータ、プロセッサチップ、制御装置、マイクロコントローラ、デジタル信号処理装置(DSP)、状態機械、又はプログラマブルロジックデバイスでもよい。また、コンピュータシステム600用のプロセッサは、フィールドプログラマブルゲートアレイ(FPGA)などのプログラマブルゲートアレイ(PGA)を含む論理回路、又は個別のゲート及び/又はトランジスタの論理を含む別のタイプの回路でもよい。コンピュータシステム600用のプロセッサは、中央処理装置(CPU)、グラフィックスプロセッシングユニット(GPU)、又はその両方でよい。さらに、本明細書で述べる任意のプロセッサは、複数のプロセッサ、並列プロセッサ、又はその両方を含んでよい。複数のプロセッサが、単一のデバイス又は複数のデバイスに含まれる又はデバイスに結合される。
[090] さらに、コンピュータシステム600は、バス608を介して互いに通信することができるメインメモリ620及びスタティックメモリ630を含む。本明細書で述べるメモリは、データ及び実行可能な命令を格納することができる有形の記憶媒体であり、命令がそこに格納されている時間中は非一時的である。本明細書で使用するとき、「非一時的」という用語は、状態の不変の特性としてではなく、ある期間続く状態の特性と解釈されるべきである。特に、「非一時的」という用語は、搬送波若しくは信号の特性、又は時と場所を問わず一時的にだけ存在する他の形態の特性など、一過性の特性を含まない。本明細書で述べるメモリは、製造品及び/又は機械部品である。本明細書で述べるメモリは、コンピュータ可読媒体であり、そこから、データ及び実行可能な命令をコンピュータが読み取ることができる。本明細書で述べるメモリは、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、フラッシュメモリ、電気的にプログラム可能な読み出し専用メモリ(EPROM)、電気的に消去可能なプログラマブル読み出し専用メモリ(EEPROM(登録商標))、レジスタ、ハードディスク、リムーバブルディスク、テープ、コンパクトディスク読み出し専用メモリ(CD-ROM)、デジタルバーサタイルディスク(DVD)、フロッピーディスク、ブルーレイディスク、又は当技術分野で知られている他の形態の記憶媒体でよい。メモリは、揮発性又は不揮発性、秘匿化及び/又は暗号化、非秘匿化及び/又は非暗号化でよい。
[091] 図示のように、コンピュータシステム600は、液晶ディスプレイ(LCD)、有機発光ダイオード(OLED)、フラットパネルディスプレイ、ソリッドステートディスプレイ、又は陰極線管(CRT)などのビデオディスプレイユニット650をさらに含む。さらに、コンピュータシステム600は、キーボード/仮想キーボード、又はタッチセンサ式の入力画面、又は会話及び音声認識を用いた会話及び音声入力などの入力デバイス660と、マウス又はタッチセンサ式の入力画面若しくはパッドなどのカーソル制御デバイス670とを含む。また、コンピュータシステム600は、ディスクドライブユニット680と、スピーカ又はリモートコントローラなどの信号生成デバイス690と、ネットワークインターフェースデバイス640とを含むこともできる。また、コンピュータシステム600は、コンピュータシステム600の周りの環境にいる1人又は数人のユーザのポーズ(例えば、腕の動き、目の動き、頭の動き)を追跡するセンサなどの追加の入力手段(図示せず)も含むこともある。
[092] 一実施形態では、図6に示すように、ディスクドライブユニット680は、コンピュータ可読媒体682を含み、コンピュータ可読媒体682に、1つ又は複数の命令セット684、例えばソフトウェアを埋め込むことができる。命令セット684は、コンピュータ可読媒体682から読み取ることができる。さらに、命令684は、プロセッサによって実行されるとき、本明細書で述べる方法及びプロセスの1つ又は複数を実施するために使用することができる。一実施形態では、命令684は、コンピュータシステム600による実行中、メインメモリ620内、スタティックメモリ630内、及び/又はプロセッサ610内に完全に又は少なくとも部分的に常駐している。
[093] 代替実施形態では、特定用途向け集積回路(ASIC)、プログラマブルロジックアレイ、及び他のハードウェア構成要素などの専用ハードウェア実装を構築して、本明細書で述べる方法の1つ又は複数を実装することができる。本明細書で述べる1つ又は複数の実施形態は、モジュール間で及びモジュールを介して通信することができる関連の制御及びデータ信号を用いて、2つ以上の特定の相互接続されたハードウェアのモジュール又はデバイスを使用して機能を実装することができる。したがって、本開示は、ソフトウェア、ファームウェア、及びハードウェアの実装を包含する。本出願におけるいかなるものも、有形であり非一時的なプロセッサ及び/又はメモリなどのハードウェアではなくソフトウェアのみで実装される又は実装可能であると解釈されるべきではない。
[094] 本開示の様々な実施形態によれば、本明細書で述べる方法は、ソフトウェアプログラムを実行するハードウェアコンピュータシステムを使用して実施される。さらに、例示的な非限定的な実施形態では、実施は、分散処理、コンポーネント/オブジェクト分散処理、及び並列処理を含むことができる。仮想コンピュータシステム処理は、本明細書で述べる方法又は機能の1つ又は複数を実施するように構築することができ、本明細書で述べるプロセッサを使用して仮想処理環境をサポートすることができる。
[095] 本開示は、命令684を含む、又は伝搬信号に応答して命令684を受信して実行するコンピュータ可読媒体682を企図している。したがって、ネットワーク601に接続されたデバイスは、ネットワーク601を介して音声、ビデオ、又はデータを通信することができる。さらに、命令684は、ネットワークインターフェースデバイス640によってネットワーク601を介して送信又は受信することができる。
[096] 図7は、本開示の一態様による、拡張現実におけるユーザインタラクションのための仮想カバーの別のプロセスを示す。図7において、プロセスは、ステップS702でデフォルトの無効化状態から始まる。ステップS704で、有効化要求が検出される。有効化要求は、拡張現実デバイスにあるセンサによって認識される仮想カバーの近位の方向へのスワイプでよい。拡張現実デバイスでの論理は、ジェスチャを、カバーを取り除く要求として、又は下にある仮想操作部材を有効化する要求として解釈することができる。
[097] ステップS706で、仮想操作部材が有効化される。ステップS708で、操作入力が受信される。操作入力は、例えば仮想ボタンを押すこと又は仮想ダイヤルを回すことによって、仮想操作部材の近位でのインタラクション式の動きとして再び検出されてもよい。ステップS710で、操作入力が、仮想操作部材から制御対象の機械に提供される。操作入力は、無線インターフェースを介して機械制御装置に提供され、機械制御装置は、拡張現実デバイスから受信されたコマンドを使用して機械を制御する。
[098] ステップS712で、コマンドに従って機械が操作され、同時に、ステップS714で、仮想操作部材は、例えば仮想カバーを閉じて仮想操作部材を視野から取り除くことによって、デフォルトの無効化状態に戻る。前述したように、本明細書で述べるプロセスは、拡張現実デバイスを別個の機械と調整することを含む。
[099] 図8は、代表的な実施形態による、拡張現実におけるユーザインタラクションのための仮想カバーに関する別のプロセスを示す。図8では、仮想ボタンは、特定のジェスチャが仮想ボタンの表示及び機能を有効化するまで、仮想ボタンとのインタラクションをマスクする仮想カバーを有する。ジェスチャを実施するためのユーザの手の動きは、拡張現実デバイスにあるセンサを使用して検出され、8個のボタンと1本のバーを有する下にある仮想操作部材が露呈され、それによりインタラクションが有効化される。
[0100] 拡張現実におけるユーザインタラクションのための仮想カバーに関する使用の一例は、ヘッドマウント型拡張現実ディスプレイデバイスを用いた介入X線システム制御に関するものである。ユーザは、ヘッドマウント型拡張現実ディスプレイデバイスを装着する。X線システムを制御するための仮想ボタンは、物理的オブジェクトが既に存在する場所を除き、3D空間内のどこにでもユーザが配置することができる。図8の左側で、仮想ボタンは、ヘッドマウント型拡張現実ディスプレイデバイスによって認識される特定のジェスチャによってロック解除/マスク解除されるまでマスクされている。この時点で、図8の右側におけるように、ユーザは、仮想ボタンと自由にインタラクションして介入X線システムを制御することができる(図1、右)。一例として、仮想ボタンを使用して、cアームを新たな角度に移動させることができる。仮想カバーが自動的に無効化状態に戻らない場合でさえ、ユーザは、ヘッドマウント型拡張現実ディスプレイデバイスによって認識される別のジェスチャで仮想ボタンをマスクすることが可能である。
[0101] 拡張現実におけるユーザインタラクションのための仮想カバーに関する使用の別の例は、投影を用いた介入X線システム制御に関するものである。この例では、仮想ボタンをX線検出器に投影することができる。仮想ボタンは、X線システムのフットペダルが踏まれるまでマスクされており、フットペダルが踏まれることにより、仮想ボタンがマスク解除されて有効化される。次いで、ユーザは、拡張現実において仮想ボタンとインタラクションして、介入X線システムを制御することができる。例えば、ユーザは、仮想ボタンとインタラクションして、X線検出器を上下に移動させることができる。ユーザがボタンを再度マスクしたいときには、フットペダルが解放される。この例では、有効化/無効化機能は、物理的構成要素(フットペダル)を使用して実施され、仮想操作部材(仮想ボタン)の使用を有効化し、そしてまた仮想操作部材を使用して、物理的システム(介入X線システム)を制御する。したがって、ユーザによって使用される拡張現実システムは、フットペダル及びX線システムの物理的構成要素と連携しなければならない。
[0102] 拡張現実におけるユーザインタラクションのための仮想カバーに関する使用のさらに別の例として、ヘッドマウント型拡張現実ディスプレイデバイスによってロボットシステム(例えば、外科用ロボットシステム)が制御されてもよい。この例では、ユーザは、ヘッドマウント型拡張現実ディスプレイデバイスを装着する。仮想ボタンは、拡張現実においてユーザが動かすことができる仮想オブジェクトの形である。例えば、拡張現実において仮想ボタンを動かして、椎弓根スクリュ配置用のドリルの挿入点を指定することができる。この例では、ユーザが頭を使用して、すなわちターゲットにカーソルを移動させるように頭を位置決めすることによって、ツール上のターゲットにカーソルを位置決めするまで、仮想ボタンを動かすことはできない。これは、位置変更のために仮想オブジェクトをマスク解除する。ツールが位置変更されると、ロボットはその動きに従う。位置変更を無効化するために、ユーザは、自分の頭を再び位置変更することによって、ターゲットから外れるようにカーソルを移動させる。拡張現実と物理的現実とのそのような統合された使用の例は、図9及び図9Bに示されている。
[0103] 図9Aは、代表的な実施形態による、ユーザインタラクションのための仮想カバーを使用して仮想操作部材を有効化する一実施形態を示す。図9Aでは、拡張現実デバイス#1 910は、仮想操作部材921、922、923をバーチャルでカバーする仮想カバー921A、922A、923Aを表示する。拡張現実デバイス#1 910によって実現される表示は、拡張現実デバイス#1 910の視点に基づいて動的に変化し、様々なカバーや操作部材などの仮想オブジェクトは、マッピングされた3D空間内の特定の位置及び空間に対応する。すなわち、様々なカバー及び操作部材は、3D空間内の特定の空間への視野を有する拡張現実デバイスにのみ現れる。
[0104] 図9Aにおいて、ロボット930は、仮想操作部材921、922、923、及び拡張現実インターフェース931Aを介して制御可能である。ロボット930は、患者の手術を行うために使用される市販の外科用ロボットなどの外科用ロボットでよい。拡張現実インターフェース931Aは、特にロボット930に対応しても、ロボット930などの1組の機械に対応してもよい。操作ステップ#1Aで、拡張現実デバイス#1 910は、仮想カバー921Aを取り除き、仮想操作部材921とインタラクションする。例えば、操作ステップ#1Aでは、仮想操作部材921は、ロボット930をオン又はオフに切り替えることに対応し得る。操作ステップ#1Bで、仮想操作部材921とのインタラクションが検出され、それにより、ロボットをオン又はオフに切り替えるために、命令が拡張現実インターフェース931Aに送信される。操作ステップ#2Aで、拡張現実デバイス#1 910は、仮想カバー922Aを取り除き、仮想操作部材922とインタラクションする。例えば、操作ステップ#2Aで、仮想操作部材922は、ロボット930を左又は右に回すことに対応し得る。操作ステップ#2Bで、仮想操作部材922とのインタラクションが検出され、それにより、左又は右に動かすために、命令が拡張現実インターフェース931Aに送信される。操作ステップ#3Aで、拡張現実デバイス#1 910は、仮想カバー923Aを取り除き、仮想操作部材923とインタラクションする。例えば、操作ステップ#3Aで、仮想操作部材923は、ロボット930がアームを上下に動かすことに対応し得る。操作ステップ#3Bで、仮想操作部材923とのインタラクションが検出され、それにより、ロボットのアームを上下に動かすために、命令が拡張現実インターフェース931Aに送信される。一実施形態では、ロボット930は、ロボット930を含む3D空間内の拡張現実へのアクセス権を有するリモートソースから、通信ネットワークを介して制御されてもよい。
[0105] 図9Bは、代表的な実施形態による、3D空間内の機械の動作を制御するために仮想操作部材を有効化する別の実施形態を示す。図9Aでは、拡張現実デバイス#1 910は、ここでも、仮想操作部材921、922、923をバーチャルでカバーする仮想カバー921A、922A、923Aを表示する。ここでも、拡張現実デバイス#1 910によって実現される表示は、拡張現実デバイス#1 910の視点に基づいて動的に変化し、様々なカバーや操作部材などの仮想オブジェクトは、マッピングされる3D空間内の特定の位置及び空間に対応する。すなわち、様々なカバー及び操作部材は、3D空間内の特定の空間への視野を有する拡張現実デバイスにのみ現れる。
[0106] 図9Bにおいて、モニタ940は、仮想操作部材921、922、923、及び拡張現実インターフェース932Aを介して制御可能である。拡張現実インターフェース932Aは、特にモニタ940に対応しても、モニタ940及びロボット930などの1組の機械に対応してもよい。操作ステップ#1Aで、拡張現実デバイス#1 910は、仮想カバー921Aを取り除き、仮想操作部材921とインタラクションする。例えば、操作ステップ#1Aでは、仮想操作部材921は、モニタ940をオン又はオフに切り替えることに対応し得る。操作ステップ#1Bで、仮想操作部材921とのインタラクションが検出され、それにより、モニタをオン又はオフに切り替えるために、命令が拡張現実インターフェース931Aに送信される。操作ステップ#2Aで、拡張現実デバイス#1 910は、仮想カバー922Aを取り除き、仮想操作部材922とインタラクションする。例えば、操作ステップ#2Aで、仮想操作部材922は、モニタ940が特定のソースからの表示を生成することに対応し得る。操作ステップ#2Bで、仮想操作部材921とのインタラクションが検出され、それにより、特定のソースに同調するために、命令が拡張現実インターフェース931Aに送信される。操作ステップ#3Aで、拡張現実デバイス#1 910は、仮想カバー923Aを取り除き、仮想操作部材923とインタラクションする。例えば、操作ステップ#3Aでは、仮想操作部材923は、モニタ940が特定のソースからの音量を上げ下げすることに対応し得る。操作ステップ#3Bで、仮想操作部材923とのインタラクションが検出され、それにより、モニタ940での音量を上げ下げするために、命令が拡張現実インターフェース931Aに送信される。
[0107] 代替の例では、最終位置が実現されるまで、ツールはバーチャルで位置変更される。その後、ユーザは、再び頭を位置決めすることで、仮想ツール(又はロボット、又は部屋の他の場所)にあるターゲットにカーソルを移動することによって、ロボットをその位置に移動させることができる。
[0108] 上述したように、拡張現実デバイス又は物理的デバイスによって様々な形式の入力を検出し、拡張現実を介して提供される仮想操作部材を有効化するために使用することができる。仮想操作部材は、仮想操作部材を表示するためのデータ/情報を受信することが可能であってそれを認可されているデバイスを使用してのみ目に見える。したがって、仮想操作部材は、認可されている拡張現実デバイス以外のすべてのデバイスからは制約される。さらに、仮想操作部材は、医療介入を監視或いは支援するために使用される医療機械などの物理的デバイスを操作するために使用される。したがって、仮想操作部材への入力は、認可された拡張現実デバイスによって検出され、次いで、物理的デバイスを制御するために物理的デバイスに提供される。仮想操作部材と物理的デバイスとの調整は、メモリに格納され、異なるプロセッサによって個別に実行される個別のソフトウェアプログラムを介して提供される。
[0109] したがって、仮想カバーを制御するための制御装置は、命令を格納するメモリと、命令を実行したプロセッサとの組合せとみなすことができ、仮想操作部材を有効化するためのユーザ命令を検出し、次いで使用のために仮想操作部材をカバー解除して有効化する。有効化/無効化機能がフットペダルなどの物理的オブジェクトによって提供されるとき、仮想カバーを制御するための制御装置は、メモリとプロセッサとの組合せでよく、命令を実行して、仮想操作部材を有効化するための(フットペダルによる)ユーザ命令を受信し、次いで使用のために仮想操作部材をカバー解除して有効化することができる。いずれの場合にも、仮想操作部材の取扱いを検出する制御装置は、制御装置によって解釈された命令を制御対象の機械に提供することによって、制御対象の機械と連携する。
[0110] したがって、拡張現実におけるユーザインタラクションのための仮想カバーは、仮想操作部材が機械を制御するために使用されるとき、複数の異なるレベルの保護を可能にする。制御装置は、ユーザ命令を検出し、仮想操作部材を有効化又は無効化し、さらには、特定のユーザインタラクション又は命令が検出されない限り仮想操作部材を非表示にする又はぼかすことができる。
[0111] 本明細書では拡張現実ヘッドセットを使用して様々な実施形態を示すが、3D空間の共有部分のための拡張現実制御装置を、3D空間内の集中コンピュータ390又はさらにはリモートコンピュータに提供することもできる。典型的には、制御装置は、最低限、命令を格納するメモリと、命令を実行するプロセッサとを含むが、他の構成要素又は下位構成要素を含むこともある。
[0112] さらに、拡張現実セッションのために事前に計画されているものとして制御の態様を述べるが、制御は、拡張現実セッション中に動的に開始又は変更されてもよい。例えば、認可されているユーザは、誤ったインタラクションを避けるために、仮想操作部材を非表示にするか、又は隅(右上、左上、右下、左下)に移動させることを単に指示することができる。一実施形態では、認可されているユーザからのそのような動的な命令は、拡張現実デバイスによって検出される、受け入れられる、従われ、次いで、同じ仮想操作部材及び同じ共有空間へのアクセス権を共有するすべての他の拡張現実デバイスにフィードバックすることができる。このようにして、共有環境内での1人のユーザの表示の変更は、中央制御装置を介して、又はローカル無線信号などによる他の拡張現実デバイスとの直接の通信によって、他のすべてのユーザの表示に対して即座に行うことができる。
[0113] いくつかの例示的実施形態を参照して、拡張現実におけるユーザインタラクションのための仮想カバーを述べてきたが、使用してきた単語は、限定のための単語ではなく、説明及び例示のための単語であることを理解されたい。現在記載されている及び修正される添付の特許請求の範囲の範疇で、その態様での拡張現実におけるユーザインタラクションのための仮想カバーの範囲及び精神から逸脱することなく、変更を行うことができる。拡張現実におけるユーザインタラクションのための仮想カバーを、特定の手段、材料、及び実施形態を参照して述べてきたが、拡張現実におけるユーザインタラクションのための仮想カバーは、開示した詳細に限定されることを意図されていない。むしろ拡張現実におけるユーザインタラクションのための仮想カバーは、添付の特許請求の範囲の範囲内にあるすべての機能的に等価な構造、方法、及び用途を網羅する。
[0114] 本明細書で述べる実施形態の例示は、様々な実施形態の構造の全般的な理解を提供することを意図されている。これらの例示は、本明細書で述べる開示のすべての要素及び特徴の完全な説明となるようには意図されていない。他の多くの実施形態は、本開示を検討すれば当業者には明らかとなり得る。本開示から、他の実施形態を利用及び導出することができ、本開示の範囲から逸脱することなく、構造的及び論理的な置換及び変更を行うことができる。さらに、例示は、代表例にすぎず、縮尺通りには描かれていないことがある。例示における比率の中には誇張されているものも、最小化されているものもあり得る。したがって、本開示及び図は、限定ではなく例示とみなされるべきである。
[0115] 本開示の一態様によれば、3D空間における拡張現実のための制御装置が、命令を格納するメモリと、命令を実行するプロセッサと、を含む。制御装置は、3D空間内で仮想オブジェクトを提示するように構成されたディスプレイシステムを制御する。プロセッサによって実行されるときに、命令は、制御装置にプロセスを実施させ、プロセスは、3D空間内のオブジェクト又は仮想オブジェクトに対するユーザによる第1のアクションを検出すること、及びユーザと3D空間内のオブジェクト又は仮想オブジェクトとの間の第1のアクションの検出に基づいて、仮想操作部材を選択的に有効化又は無効化すること、を含む。仮想操作部材は、操作されるときに、3D空間内の機械の動作を制御するように構成される。
[0116] 本開示の別の態様によれば、3D空間内の仮想オブジェクトは、仮想操作部材のための仮想カバーを備える。第1のアクションは、ユーザが仮想操作部材に被せて仮想カバーを閉じるときの第1のインタラクションを備える。
[0117] 本開示のさらに別の態様によれば、3D空間内のオブジェクトは、物理的オブジェクトを備える。第1のアクションは、ユーザが3D空間内の物理的オブジェクトを押すときの第1のインタラクションを備える。
[0118] 本開示のさらに別の態様によれば、第1のアクションは、ユーザからの音声コマンドを備える。
[0119] 本開示の別の態様によれば、第1のアクションは、ユーザが3D空間内でジェスチャを行うときの第1のインタラクションを備える。
[0120] 本開示のさらに別の態様によれば、第1のアクションは、3D空間内でのユーザの頭の位置決めを備える。
[0121] 本開示のさらに別の態様によれば、アクションは、3D空間内でのユーザの目の位置決めを備える。
[0122] 本開示の別の態様によれば、仮想操作部材は、3D空間内の位置に選択的に配置される。
[0123] 本開示のさらに別の態様によれば、仮想操作部材は、仮想ボタンを備える。
[0124] 本開示のさらに別の態様によれば、仮想操作部材は、3D空間内のオブジェクトの動きの方向を制御するように構成された方向性制御装置を備える。
[0125] 本開示の別の態様によれば、仮想操作部材は、3D空間内のオブジェクトの上に投影される。
[0126] 本開示のさらに別の態様によれば、仮想操作部材が第1のアクションによって選択的に無効化されるとき、ユーザと3D空間内のオブジェクト又は仮想オブジェクトとの間の第2のインタラクションを制御装置が検出したのに基づいて、仮想操作部材が選択的に有効化されるように構成される。仮想操作部材が第1のアクションによって選択的に有効化されるとき、ユーザと3D空間内のオブジェクト又は仮想オブジェクトとの間の第2のインタラクションを制御装置が検出したのに基づいて、仮想操作部材が選択的に無効化されるように構成される。
[0127] 本開示のさらに別の態様によれば、ディスプレイシステムは、制御装置から3D空間内に仮想カーソルを投影するように構成され、第1のアクションは、ユーザが仮想カーソルをターゲット上に移動させることを備える。
[0128] 本開示の別の態様によれば、仮想操作部材は、物理的操作部材に対応し、プロセッサが第1のアクションを検出したことに基づいて、物理的操作部材は仮想操作部材の位置に移動される。
[0129] 本開示のさらに別の態様によれば、機械は、ディスプレイデバイスを備え、制御は、コンテンツを表示するように又は表示しないようにディスプレイデバイスを制御することを含む。
[0130] 本開示のさらに別の態様によれば、3D空間は、ディスプレイシステムによって仮想オブジェクトが重畳される事前定義された物理的環境に基づく。
[0132] 本開示のさらに別の態様によれば、制御装置は、ヘッドマウント可能ディスプレイを備え、3D空間は、ユーザがヘッドマウント可能ディスプレイを装着している空間である。
[0133] 本開示の一態様によれば、拡張現実を用いて3D空間内の機能を制御するための方法が、3D空間内に仮想オブジェクトを提示するように構成されたディスプレイシステムを制御するステップを有する。また、この方法は、3D空間内のオブジェクト又は仮想オブジェクトに対するユーザによる第1のアクションを検出するステップを有する。さらに、この方法は、ユーザと3D空間内のオブジェクト又は仮想オブジェクトとの間の第1のアクションの検出に基づいて、仮想操作部材を選択的に有効化又は無効化するステップを有する。仮想操作部材は、操作されるときに、3D空間内の制御可能なアイテムを選択的に制御するように構成される。
[0134] 本開示の別の態様によれば、方法は、ユーザによる第2のアクションを検出するステップと、ユーザによる第2のアクションに基づいて仮想操作部材を動かすステップとを有する。
[0135] 本開示の別の態様によれば、方法は、ユーザによる第1のアクションの検出に基づいて、仮想操作部材を、3D空間内の仮想オブジェクトで覆うステップを有する。
[0136] 本開示の1つ又は複数の実施形態を、「発明」という用語によって個々に及び/又は集合的に本明細書で言及するが、これは、単に便宜上であり、本出願の範囲を任意の特定の発明又は発明概念に自発的に限定することを意図していない。さらに、本明細書では特定の実施形態を図示して説明したが、同じ又は同様の目的を達成するように設計された任意の派生構成を、図示した特定の実施形態に置き換えてもよいことを理解されたい。本開示は、様々な実施形態のあらゆる派生適応形態又は変形形態を網羅することを意図している。上記の実施形態の組合せ、及び本明細書に具体的に述べていない他の実施形態は、本明細書を検討すれば当業者には明らかであろう。
[0137] 本開示の要約書は、37 C.F.R.§1.72(b)に準拠するように提供されており、特許請求の範囲の範囲又は意味を解釈又は限定するために使用されないという理解のもとに提出されている。さらに、前述の詳細な説明では、本開示を簡素化するために、様々な特徴をまとめる、又は単一の実施形態で述べる。本開示は、特許請求される実施形態が各請求項に明示的に記載されるよりも多くの特徴を必要とするという意図を表すものとして解釈すべきではない。むしろ添付の特許請求の範囲が表すように、本発明の主題は、開示した実施形態のいずれかのすべての特徴を対象とするわけではないことがある。したがって、添付の特許請求の範囲は、詳細な説明に組み込まれ、各請求項は、個別に特許請求される主題を定義するものとして自立している。
[0138] 開示した実施形態の前述の説明は、本開示で述べた概念を当業者が実践できるように提供したものである。したがって、上で開示した主題は、限定ではなく例示とみなされるべきであり、添付の特許請求の範囲は、本開示の真の精神及び範囲内にあるすべてのそのような修正形態、強化形態、及び他の実施形態を網羅することが意図されている。したがって、法律で許される最大限の範囲で、本開示の範囲は、添付の特許請求の範囲及びその均等物の最も広い許容可能な解釈によって決定されるものであり、前述の詳細な説明によって制限又は限定されないものとする。

Claims (18)

  1. 医療現場の3次元(3D)空間における拡張現実のための制御装置であって、前記制御装置は、
    命令を格納するメモリと、
    前記命令を実行するプロセッサと、を備え、
    前記制御装置が、前記3D空間内で仮想オブジェクト及び仮想操作部材をディスプレイシステムのユーザに提示して拡張現実を実現するように前記ディスプレイシステムを制御し、
    前記プロセッサによって実行されるときに、前記命令が、前記制御装置にプロセスを実施させ、前記プロセスが、
    前記3D空間内の第1の物理的オブジェクト又は前記仮想オブジェクトに対するユーザによる第1のアクションを検出すること、及び
    前記ユーザと前記3D空間内の前記第1の物理的オブジェクト又は前記仮想オブジェクトとの間の前記第1のアクションの検出に基づいて、前記仮想操作部材を選択的に有効化又は無効化すること、を備え、
    前記仮想操作部材が、操作されるときに、前記医療現場の医療機械の動作の有効化又は無効化が前記第1のアクションの検出に基づくように、前記3D空間内の前記医療機械の動作を制御
    前記仮想操作部材及び前記仮想オブジェクトは、前記ディスプレイシステムの複数のユーザから選択されたユーザに対して可視化される、制御装置。
  2. 前記3D空間内の前記仮想オブジェクトが、前記仮想操作部材のための仮想カバーを備え、
    前記第1のアクションが、前記ユーザが前記仮想操作部材に被せて前記仮想カバーを閉じるときの第1のインタラクションを備える、
    請求項1に記載の制御装置。
  3. 前記第1のアクションが、前記ユーザが前記3D空間内の前記第1の物理的オブジェクトを押すときの第1のインタラクションを備える、
    請求項1に記載の制御装置。
  4. 前記第1のアクションが、前記ユーザからの音声コマンドを備える、
    請求項1に記載の制御装置。
  5. 前記第1のアクションが、前記ユーザが前記3D空間内でジェスチャを行うときの第1のインタラクションを備える、
    請求項1に記載の制御装置。
  6. 前記第1のアクションが、前記3D空間内での前記ユーザの頭の位置決めを備える、
    請求項1に記載の制御装置。
  7. 前記第1のアクションが、前記3D空間内での前記ユーザの目の位置決めを備える、
    請求項1に記載の制御装置。
  8. 前記仮想操作部材が、前記3D空間内の位置に選択的に配置される、
    請求項1に記載の制御装置。
  9. 前記仮想操作部材が、仮想ボタンを備える、
    請求項1に記載の制御装置。
  10. 前記仮想操作部材が、前記3D空間内の第2の物理的オブジェクトの動きの方向を制御する方向性制御装置を備える、
    請求項1に記載の制御装置。
  11. 前記仮想操作部材が、前記3D空間内の第2の物理的オブジェクトの上に投影される、
    請求項1に記載の制御装置。
  12. 前記仮想操作部材が前記第1のアクションによって選択的に無効化されるとき、前記ユーザと前記3D空間内の前記第1の物理的オブジェクト又は前記仮想オブジェクトとの間の第2のインタラクションを前記制御装置が検出したのに基づいて、前記仮想操作部材が選択的に有効化され、
    前記仮想操作部材が前記第1のアクションによって選択的に有効化されるとき、前記ユーザと前記3D空間内の前記第1の物理的オブジェクト又は前記仮想オブジェクトとの間の第2のインタラクションを前記制御装置が検出したのに基づいて、前記仮想操作部材が選択的に無効化される、
    請求項1に記載の制御装置。
  13. 前記ディスプレイシステムが、前記制御装置により前記3D空間内に仮想カーソルを投影し、
    前記第1のアクションが、前記ユーザが前記仮想カーソルをターゲット上に移動させることを備える、
    請求項1に記載の制御装置。
  14. 前記3D空間が、前記ディスプレイシステムによって前記仮想オブジェクトが重畳される事前定義された物理的環境に基づく、
    請求項1に記載の制御装置。
  15. 前記制御装置が、ヘッドマウント可能ディスプレイを備え、
    前記3D空間が、前記ユーザが前記ヘッドマウント可能ディスプレイを装着している空間である、
    請求項1に記載の制御装置。
  16. 拡張現実を用いて医療現場の3次元(3D)空間内の機能を制御するための方法であって、前記方法は、
    前記3D空間内に仮想オブジェクト及び仮想操作部材をディスプレイシステムのユーザに提示して拡張現実を実現するように前記ディスプレイシステムを制御するステップと、
    前記3D空間内の物理的オブジェクト又は前記仮想オブジェクトに対するユーザによる第1のアクションを検出するステップと、
    前記ユーザと前記3D空間内の前記物理的オブジェクト又は前記仮想オブジェクトとの間の前記第1のアクションの検出に基づいて、前記仮想操作部材を選択的に有効化又は無効化するステップと、を有し、
    前記仮想操作部材が、操作されるときに、前記医療現場の医療機械の動作の有効化又は無効化が前記第1のアクションの検出に基づくように、前記3D空間内の前記医療機械を制御
    前記仮想操作部材及び前記仮想オブジェクトは、前記ディスプレイシステムの複数のユーザから選択されたユーザに対して可視化される、方法。
  17. 前記ユーザによる第2のアクションを検出するステップと、
    前記ユーザによる前記第2のアクションに基づいて前記仮想操作部材を動かすステップと、
    をさらに有する、請求項16に記載の方法。
  18. 前記ユーザによる前記第1のアクションの検出に基づいて、前記仮想操作部材を、前記3D空間内の前記仮想オブジェクトで覆うステップ、
    をさらに有する、請求項16に記載の方法。
JP2019563626A 2017-05-16 2018-05-09 拡張現実におけるユーザインタラクションのための仮想カバー Active JP7353982B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201762506895P 2017-05-16 2017-05-16
US62/506,895 2017-05-16
PCT/EP2018/061947 WO2018210645A1 (en) 2017-05-16 2018-05-09 Virtual cover for user interaction in augmented reality

Publications (3)

Publication Number Publication Date
JP2020520522A JP2020520522A (ja) 2020-07-09
JP2020520522A5 JP2020520522A5 (ja) 2021-07-26
JP7353982B2 true JP7353982B2 (ja) 2023-10-02

Family

ID=62244455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019563626A Active JP7353982B2 (ja) 2017-05-16 2018-05-09 拡張現実におけるユーザインタラクションのための仮想カバー

Country Status (5)

Country Link
US (2) US11334213B2 (ja)
EP (1) EP3635512A1 (ja)
JP (1) JP7353982B2 (ja)
CN (1) CN110914788A (ja)
WO (1) WO2018210645A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11571107B2 (en) * 2019-03-25 2023-02-07 Karl Storz Imaging, Inc. Automated endoscopic device control systems
US11612316B2 (en) * 2019-06-20 2023-03-28 Awss Zidan Medical system and method operable to control sensor-based wearable devices for examining eyes
EP4030219A1 (en) * 2021-01-13 2022-07-20 BHS Technologies GmbH Medical imaging system and method of controlling such imaging system
US11334215B1 (en) 2021-04-09 2022-05-17 Htc Corporation Method of generating user-interactive object, multimedia system, and non-transitory computer-readable medium
CN113343303A (zh) * 2021-06-29 2021-09-03 视伴科技(北京)有限公司 一种遮蔽目标房间的方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232062A (ja) 2012-04-27 2013-11-14 Mitsubishi Electric Corp タッチパネル誤操作防止入出力装置
WO2014045683A1 (ja) 2012-09-21 2014-03-27 ソニー株式会社 制御装置および記憶媒体
US20160054791A1 (en) 2014-08-25 2016-02-25 Daqri, Llc Navigating augmented reality content with a watch
US20160191887A1 (en) 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9152309B1 (en) * 2008-03-28 2015-10-06 Google Inc. Touch screen locking and unlocking
CA2727474A1 (en) * 2010-07-16 2012-01-16 Exopc Method for controlling interactions of a user with a given zone of a touch screen panel
KR20160084502A (ko) * 2011-03-29 2016-07-13 퀄컴 인코포레이티드 로컬 멀티-사용자 협업을 위한 모듈식 모바일 접속된 피코 프로젝터들
US20130050069A1 (en) * 2011-08-23 2013-02-28 Sony Corporation, A Japanese Corporation Method and system for use in providing three dimensional user interface
US9791921B2 (en) * 2013-02-19 2017-10-17 Microsoft Technology Licensing, Llc Context-aware augmented reality object commands
US10288881B2 (en) * 2013-03-14 2019-05-14 Fresenius Medical Care Holdings, Inc. Wearable interface for remote monitoring and control of a medical device
US10416760B2 (en) * 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9852546B2 (en) * 2015-01-28 2017-12-26 CCP hf. Method and system for receiving gesture input via virtual control objects
US10007413B2 (en) * 2015-04-27 2018-06-26 Microsoft Technology Licensing, Llc Mixed environment display of attached control elements
JP6684559B2 (ja) * 2015-09-16 2020-04-22 株式会社バンダイナムコエンターテインメント プログラムおよび画像生成装置
US10546109B2 (en) * 2017-02-14 2020-01-28 Qualcomm Incorporated Smart touchscreen display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232062A (ja) 2012-04-27 2013-11-14 Mitsubishi Electric Corp タッチパネル誤操作防止入出力装置
WO2014045683A1 (ja) 2012-09-21 2014-03-27 ソニー株式会社 制御装置および記憶媒体
US20160054791A1 (en) 2014-08-25 2016-02-25 Daqri, Llc Navigating augmented reality content with a watch
US20160191887A1 (en) 2014-12-30 2016-06-30 Carlos Quiles Casas Image-guided surgery with surface reconstruction and augmented reality visualization

Also Published As

Publication number Publication date
US20210165556A1 (en) 2021-06-03
US20220276764A1 (en) 2022-09-01
JP2020520522A (ja) 2020-07-09
WO2018210645A1 (en) 2018-11-22
US11334213B2 (en) 2022-05-17
CN110914788A (zh) 2020-03-24
US11740757B2 (en) 2023-08-29
EP3635512A1 (en) 2020-04-15

Similar Documents

Publication Publication Date Title
JP7353982B2 (ja) 拡張現実におけるユーザインタラクションのための仮想カバー
US11069146B2 (en) Augmented reality for collaborative interventions
JP7478795B2 (ja) 医療アシスタント
US11446098B2 (en) Surgical system with augmented reality display
CN109478346B (zh) 使用虚拟现实头戴式显示器增强的眼科手术体验
CN110099649B (zh) 具有用于工具致动的虚拟控制面板的机器人外科系统
JP2023500053A (ja) 外科手術仮想現実ユーザインターフェース
US9480539B2 (en) Viewing system and viewing method for assisting user in carrying out surgery by identifying a target image
JP7448551B2 (ja) コンピュータ支援手術システムのためのカメラ制御システム及び方法
US20230186574A1 (en) Systems and methods for region-based presentation of augmented content
US20210286701A1 (en) View-Based Breakpoints For A Display System
US11413111B2 (en) Augmented reality system for medical procedures
Yu et al. EyeRobot: enabling telemedicine using a robot arm and a head-mounted display
US20240104860A1 (en) Devices, Methods, and Graphical User Interfaces for Interacting with Three-Dimensional Environments
EP4345838A1 (en) Visualizing an indication of a location in a medical facility
US20240103677A1 (en) User interfaces for managing sharing of content in three-dimensional environments
US20240104871A1 (en) User interfaces for capturing media and manipulating virtual objects
Hatscher Touchless, direct input methods for human-computer interaction to support image-guided interventions
EP3825816A1 (en) Rendering a virtual object on a virtual user interface
WO2023014732A1 (en) Techniques for adjusting a field of view of an imaging device based on head motion of an operator
Baldari et al. New Robotic Platforms
WO2024064036A1 (en) User interfaces for managing sharing of content in three-dimensional environments
AU2022221706A1 (en) User interfaces and device settings based on user identification
Elle et al. Head tracking of a surgical robotic scopeholder-a user involvement test of the system
JPWO2021059357A1 (ja) アニメーション制作システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220428

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220720

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221020

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230201

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230525

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20230602

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230822

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230920

R150 Certificate of patent or registration of utility model

Ref document number: 7353982

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150