JP2021508109A - 頭部装着型ディスプレイデバイスおよびその方法 - Google Patents

頭部装着型ディスプレイデバイスおよびその方法 Download PDF

Info

Publication number
JP2021508109A
JP2021508109A JP2020533662A JP2020533662A JP2021508109A JP 2021508109 A JP2021508109 A JP 2021508109A JP 2020533662 A JP2020533662 A JP 2020533662A JP 2020533662 A JP2020533662 A JP 2020533662A JP 2021508109 A JP2021508109 A JP 2021508109A
Authority
JP
Japan
Prior art keywords
display
calibration
display device
image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020533662A
Other languages
English (en)
Other versions
JP7012163B2 (ja
Inventor
ホセ アラウーホ,
ホセ アラウーホ,
ソマ タヤモン,
ソマ タヤモン,
Original Assignee
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テレフオンアクチーボラゲット エルエム エリクソン(パブル), テレフオンアクチーボラゲット エルエム エリクソン(パブル) filed Critical テレフオンアクチーボラゲット エルエム エリクソン(パブル)
Publication of JP2021508109A publication Critical patent/JP2021508109A/ja
Application granted granted Critical
Publication of JP7012163B2 publication Critical patent/JP7012163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • G06T7/85Stereo camera calibration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0025Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 for optical correction, e.g. distorsion, aberration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Abstract

ユーザ(121)が着用するように設定された頭部装着型ディスプレイデバイス(HMD)(100)が提供される。HMDは、少なくとも部分的に透明なディスプレイ(101)と、実際のシーンの第1の画像を取り込むように機能する前向きのカメラ(102)と、1つもしくは複数の実際の物体またはこれらの一部分(130−135)から、第1の画像の中に見える較正物体を選択するように機能する処理手段(104)であって、ディスプレイ上の表示位置に表示される仮想オブジェクトが、ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、実際の位置に基づいて表示位置を計算するための較正変換を導出する処理手段(104)とを備える。【選択図】図1

Description

本発明は、頭部装着型ディスプレイデバイス、頭部装着型ディスプレイデバイスによって実施される方法、対応するコンピュータプログラム、および対応するコンピュータ可読記憶媒体に関するものである。
複合現実感(MR)は、ネットワーク社会における不可欠な技術になるとともに民生用電子機器市場を強力に混乱させることが予見される。複合現実感は拡張現実感(AR)および拡張仮想感(AV)を包含する。
ARは、スマートフォンおよびタブレットなどの携帯用デバイス、またはMicrosoft HoloLensなどの頭部装着型ディスプレイ(HMD)(頭部装着型ディスプレイデバイスとしても知られている)によって実施されることが多い。HMDによるARは、透明なディスプレイを介して、ユーザの実視野の上に、テキスト、画像、または映像などの層化情報を示唆するものである。
透明なディスプレイを有するHMDなどのディスプレイデバイスは、没入型のユーザ体感を提供するために較正を必要とする。較正の目的は、表示される仮想オブジェクトが、透明なディスプレイを通してユーザが見る実際の物体と正確に位置が合うように、HMDの透明なディスプレイ上にテキスト、画像、および映像などの仮想オブジェクトを表示できるようにすることである。実際には、ディスプレイの姿勢と、現実世界の画像を取り込み、かつ/または実際の物体を追跡するための前向きのカメラ(a front-facing camera)、ならびにユーザの目を追跡するための目に対向するカメラ(an eye-facing camera)など、HMDが備えるあらゆるカメラのそれぞれの姿勢とに加えて、ユーザの目の姿勢も知る必要がある。
HMDに関する既知の較正方法の概要は、J.Grubert、Y.Itoh、K.Moser、およびJ.e.Swan IIの(「A Survey of Calibration Methods for Optical See−Through Head−Mounted Displays」、arXiv:1709.04299v1、2017年9月13日)に示されている。そのような較正方法は、一般的にはHMDが使用されているときに手動で実施されるが、較正方法のうちいくつかが自動化され得る。いくつかの既知の較正方法に共通して、非実際的な較正装備および/または割高な較正機器に頼るものがある。
たとえば、WO2016/191043 A1には、ユーザの特定の目の特徴に合わせて較正された視野マトリクスを確立するための手動の較正手順が開示されている。
また、(A.Plopski、C.Nitschke、K.Kiyokawa、D.Schmalstieg、およびH.Takemuraによる「Hybrid Eye Tracking: Combining Iris Contour and Corneal Imaging」、International Conference on Artificial Reality and Telexistence Eurographics Symposium on Virtual Environments、The Eurographics Association、2015年)に説明されているように、ユーザの角膜による実際のシーンの反射を結像するために、目に対向するカメラに頼る、角膜の結像に基づく較正方法が知られている。
本発明は、上記の技法および従来技術に対する改善された代替形態を提供することを目的とするものである。
より具体的には、本発明は、透明な頭部装着型ディスプレイデバイスを較正するための改善された解決策を提供することを目的とする。詳細には、本発明の目的は、較正手順で使用するために較正物体を自動的に選択するための解決策を提供することである。
本発明のこれらおよび他の目的は、独立請求項によって規定されるような、本発明の異なる態様によって達成される。本発明の実施形態は従属請求項によって特徴づけられる。
本発明の第1の態様によれば、頭部装着型ディスプレイデバイスが提供される。このディスプレイデバイスはユーザによって着用されるように設定されており、少なくとも部分的に透明なディスプレイ、前向きのカメラ、および処理手段を備える。前向きのカメラは、実際のシーンの第1の画像を取り込むように機能する。一般的には、ユーザによって着用されたとき、取り込まれる実際のシーンはユーザの目の前のシーンである。処理手段は、第1の画像の中に見える1つまたは複数の実際の物体から、較正物体または較正物体の一部分を選択するように機能する。処理手段は、ディスプレイ上の表示位置に表示された仮想オブジェクトが、ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、実際の位置に基づいて表示位置を計算するための較正変換を導出するようにさらに機能する。較正変換は、たとえば、マトリクスまたは2つの座標系の間の変換を記述するのに適切な数学的表現の他の形態によって表現され得る。
本発明の第2の態様によれば、頭部装着型ディスプレイデバイスによって実施される方法が提供される。ディスプレイデバイスはユーザが着用するように設定されている。この方法は、実際のシーンの第1の画像の中に見られる1つもしくは複数の実際の物体またはこれらの一部分から較正物体を選択することを含む。第1の画像は、ディスプレイデバイスに備わっている前向きのカメラによって取り込まれる。この方法は、少なくとも部分的に透明なディスプレイ上の表示位置に表示された仮想オブジェクトが、ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、実際の位置に基づいて表示位置を計算するための較正変換を導出することをさらに含む。ディスプレイデバイスには、少なくとも部分的に透明なディスプレイが備わっている。
本発明の第3の態様によれば、コンピュータプログラムが提供される。コンピュータプログラムがコンピュータ実行可能命令を含み、コンピュータ実行可能命令は、ディスプレイデバイスに備わっている処理ユニット上で実行されたとき、頭部装着型ディスプレイデバイスに、本発明の第2の態様の一実施形態による方法を実施させるためのものである。
本発明の第4の態様によれば、コンピュータ可読記憶媒体が提供される。コンピュータ可読記憶媒体には、本発明の第3の態様によるコンピュータプログラムが記憶されている。
本発明は、透明な頭部装着型ディスプレイ(HMD)すなわちディスプレイデバイスに関する改善された較正手順が、たとえば当技術で既知の較正手順のうち任意の較正手順に用いる1つまたは複数の実際の物体から較正物体を自動的に選択することによって達成されるという理解を利用するものである。それによって、HMDのユーザは、専用の較正物体を保持する必要性または持ち運ぶ必要性が、多少なりとも緩和される。本発明の実施形態は、1つまたは複数の実際の物体、すなわち前向きのカメラによって取り込まれた第1の画像の中に見られるユーザの周囲の物理的物体から、適切な較正物体を選択するものである。これらは、前向きのカメラの視野にある、家具、家電製品、建物、ドア、窓、車両、道路標識、タブレット、スマートフォン、ラップトップコンピュータ、チェッカー盤などの実際の物体である。
本発明の一実施形態によれば、ディスプレイデバイスは、ユーザの角膜による実際のシーンの反射の第2の画像を取り込むように機能する、目に対向するカメラをさらに備える。この処理手段は、第1の画像と第2の画像の両方に見られる1つもしくは複数の実際の物体またはこれらの一部分から較正物体を選択し、第1の画像および第2の画像を使用して較正変換を導出するように機能する。本発明のこの実施形態は、角膜の結像に頼る較正方法に関するものである。任意選択で、較正物体は、目に対向するカメラの視野に対応する第1の画像の領域に見られる1つもしくは複数の実際の物体またはこれらの一部分から選択される。一般的には、目に対向するカメラの視野は前向きのカメラよりも小さい。角膜の結像に頼る較正手順の一部分として較正変換を導出するために、較正物体が第1の画像と第2の画像の両方において見える必要があるので、較正物体は、有利には、目に対向するカメラの視野に対応する第1の画像の一部分の中に見える実際の物体から選択される。実際には、これらは、目に対向するカメラによって取り込まれた第2の画像の中に見える物体でもある。有利には、角膜の不完全性のために、(前向きのカメラによって取り込まれた)第1の画像は(目に対向するカメラによって取り込まれた)第2の画像よりも一般的には優れているので、第2の画像と比較して、第1の画像の画像処理によって実際の物体を識別する方が、より簡単かつより確実で、リソース消費がより少ない。
本発明の一実施形態によれば、較正物体は、第2の画像の中の較正物体の、第1の画像と比較したときの歪みに基づいて選択されてよい。これは、角膜の結像に頼る較正方法が採用される場合のことである。望ましくは、歪みが最小の物体が選択される。較正変換が第1の画像と第2の画像によって取り込まれた同一の物体を比較することによって導出されるので、これは有利である。
本発明の一実施形態によれば、較正物体の外観に基づいて較正物体が選択される。たとえば、明瞭に見え、かつ/または高コントラストを有し、したがって画像処理または物体認識によって容易に検知され得る実際の物体が、望ましくは選択される。
本発明の一実施形態によれば、以前に1つまたは複数の実際の物体から選択された較正物体が、較正物体として選択される。これは、使用される較正物体のデータベースを維持することによって達成され得る。
本発明の一実施形態によれば、ディスプレイデバイスは、ディスプレイデバイスの運動を追跡するように機能する1つまたは複数の運動センサを備える。処理手段は、第1の画像の中に1つまたは複数の実際の物体が見えている期間を推定して、推定された、第1の画像の中に較正物体が見えている期間に基づいて、較正物体を選択するように機能する。第1の画像の中に1つまたは複数の実際の物体が見えている期間は、ディスプレイデバイスの追跡された運動に基づいて推定される。望ましくは、較正手順を実施するために十分に長い期間の間に、第1の画像と、任意選択で第2の画像との中に見える実際の物体が選択される。代替形態として、視野に対してゆっくり移動しているかまたは全く動かない実際の物体が選択されてよい。
本発明の一実施形態によれば、較正物体は、1つまたは複数の実際の物体の視覚的特徴を、データベースに記憶された実際の物体の視覚的特徴に関する情報と照合することにより、1つまたは複数の実際の物体を識別することと、データベースから得られた情報に基づいて較正物体を選択することとによって、選択される。データベースから得られる情報は、識別された実際の物体またはこれらの一部分のそれぞれの較正物体としての適合性を指示してよい。この情報は、たとえば、実際の物体の幾何形状に関する外観、寸法、構成等に関するものでよい。この点で、外観が、画像処理による検知が容易な高コントラストまたは幾何形状によって特徴づけられる場合、実際の物体は、較正物体としてより適切であると考えられる。たとえば、チェッカー盤は、簡単な幾何形状から成ることおよび高コントラストによって特徴づけられる。望ましくは、最も適切な較正物体が選択される。
本発明の一実施形態によれば、ディスプレイデバイスは無線通信インターフェースをさらに備える。処理手段は、無線通信インターフェースを使用して、1つまたは複数の実際の物体から、ディスプレイを備える通信デバイスを識別することと、通信デバイスのディスプレイと、これに表示されたグラフィカルコンテンツとのうち少なくとも1つを較正物体として選択することとによって、較正物体を選択するように機能する。ディスプレイを備える通信デバイスは、たとえば、近くの通信デバイスのタイプ、能力、または製造元/モデルを問い合わせることにより、近くの通信デバイスと無線通信を確立することによって識別され得る。有利には、前向きのカメラの視野の中にある近くの通信デバイスは、専用の較正パターンの形態のグラフィカルコンテンツを表示してよく、専用の較正パターンは、高コントラストであることを特徴とし、長方形、正方形、円などの簡単な幾何形状から成るものである。任意選択で、ディスプレイデバイスは、通信デバイスから、無線通信インターフェースを介して、表示されたグラフィカルコンテンツの表現を受信してよい。言い換えれば、通信デバイスは、ディスプレイデバイスが、表示されたグラフィカルコンテンツを較正物体として使用し得るように、現在どのようなグラフィカルコンテンツが表示されているのかを、ディスプレイデバイスに報告してよい。代替形態として、ディスプレイデバイスは、無線通信インターフェースを介して、通信デバイスに、通信デバイスのディスプレイにグラフィカルコンテンツを表示するようにとの命令を送信してよい。命令はメッセージまたは信号などの要求でよく、通信デバイスは命令に応答してグラフィカルコンテンツを表示する。任意選択で、ディスプレイデバイスは、無線通信インターフェースを介して、通信デバイスに、グラフィカルコンテンツの表現を送信してよい。
本発明の一実施形態によれば、ディスプレイデバイスは仮想オブジェクトを表示するようにとの命令を受信するようにさらに機能し、この命令は、ユーザに表示されているときの仮想オブジェクトの対応する実際の位置を含む。これは、出現する仮想オブジェクトが実際のシーンの中に配置される位置である。この命令は、たとえばARアプリケーションから受信されてよく、ARアプリケーションは、ディスプレイデバイスによって実行されるか、またはユーザに仮想オブジェクトを表示するためにディスプレイデバイスを利用する。ディスプレイデバイスは、受信された実際の位置に較正変換を適用することによって仮想オブジェクトの表示位置を計算し、ディスプレイ上の計算された表示位置に仮想オブジェクトを表示するようにさらに機能する。
本発明の利点が、一部の例では本発明の第1の態様の実施形態を参照しながら説明されてきたが、対応する理由付けは本発明の他の態様の実施形態に当てはまる。
以下の詳細な開示、図面、および添付の特許請求の範囲を検討すれば、本発明のさらなる目的、特徴、および利点が明らかになるはずである。以下で説明されるものとは別の実施形態を作り出すために、本発明の種々の特徴が組み合わされ得ることが、当業者には理解される。
本発明の上記の目的、特徴、および利点、ならびに、さらなる目的、特徴、および利点が、本発明の実施形態の、添付図面の参照を伴う、以下の例示的かつ非限定的な詳細説明によって、一層よく理解されるはずである。
本発明の実施形態による頭部装着型ディスプレイデバイスを示す図である。 本発明の実施形態による図1のディスプレイデバイスの少なくとも部分的に透明なディスプレイによる視野を示す図である。 図1のディスプレイデバイスが備える処理手段の一実施形態を示す図である。 図1のディスプレイデバイスが備える処理手段の別の実施形態を示す図である。 本発明の実施形態による頭部装着型ディスプレイデバイスによって実施される方法を図示する流れ図である。
すべての図は概略であって必ずしも原寸に比例するものではなく、全般的に、本発明を解明するために必要な部分のみを示し、他の部分は省略されるかまたは示唆されるのみであり得る。
以下では、本発明のある特定の実施形態を示す添付図面を参照しながら、本発明をより十分に説明する。しかしながら、本発明は異なる形態でも具現され得、本明細書で明らかにされた実施形態に限定されるものと解釈されるべきではない。むしろ、これらの実施形態は、本開示が十分かつ完結したものになるように例として提供されるものであり、当業者に対して本発明の範囲を十分に伝えるはずである。
以下では、ユーザが着用するように設定された頭部装着型ディスプレイデバイス(HMD)100を示す図1を参照しながら、HMDの実施形態を説明する。HMD100は、たとえばストラップ等を使用してユーザの頭部121に取り付けられ得る。HMD100が少なくとも部分的に透明なディスプレイ101を備え、ユーザは、少なくとも部分的に透明なディスプレイ101を通して、ユーザの前方の実際のシーンを目122で観察することができる。ディスプレイ101は、ユーザに対して、テキスト、画像、映像、または他のタイプのグラフィカルコンテンツなどの仮想オブジェクトを、実際のシーンの上に表示された仮想オブジェクトを重ね合わせるように表示するために使用され得る。HMD100は、実際のシーンの第1の画像を取り込むように機能する前向きのカメラ102と、本明細書で明らかにされた本発明の実施形態に従ってHMD100を動作させるように機能する処理手段104とをさらに備える。
より具体的には、HMD100は、前向きのカメラ102によって取り込まれた第1の画像の中に見える1つもしくは複数の実際の物体またはこれら一部分130−135から較正物体を選択するように機能する。第1の画像は、前向きのカメラ102の視野112の範囲内の実際のシーンの視野を表現する。現在の状況では、実際の物体は、1つの家具、家電製品、建物、ドア、窓、車両、道路標識、タブレット、スマートフォン、ラップトップコンピュータ、チェッカー盤などの、何らかの物理的物体でよい。図1では、少数の実際の物体が、タブレット130、ボックス133、および自動車134として例示されている。本発明の実施形態は、較正物体として、たとえばボックス133など実際の物体の全体を選択してよく、または、たとえばタブレット130のディスプレイ131、もしくはそこに表示されたグラフィカルコンテンツ132など、実際の物体の一部分を選択してよい。図1では、グラフィカルコンテンツ132はチェッカー盤として例示されており、これは、高コントラストかつ簡単な幾何形状の構成のためにフィールドにおいて一般に使用される較正パターンであり、画像処理および物体認識を容易にするものである。
HMD100は、実際の位置に基づいて表示位置を計算するための較正変換を導出するようにさらに機能する。表示位置は、ディスプレイ101を通してユーザの目122で実際のシーンを見たとき、ユーザに見られたとき、ディスプレイ101の座標系に関連した表示位置においてディスプレイ101上に表示された仮想オブジェクトが、前向きのカメラ102の座標系に関連して実際の位置にある対応する実際の物体と位置が合うように計算される。
HMD100などの透明なディスプレイに頼るARでは、重要なタスクは、別々の座標系の相対的な配向および位置すなわち姿勢を確立するためにHMDを較正することである。本発明を解明するために、いくつかの座標系がHMD100に関連づけられ得る。第1の座標系はディスプレイ101に関連づけられてよく、第2の座標系は前向きのカメラ102に関連づけられてよく、第3の座標系は目に対向する任意選択のカメラ103(以下でさらに説明される)に関連づけられてよく、第4の座標系はユーザの目122に関連づけられてよい。仮想オブジェクトが、実際のシーンの所望位置に見えるようにディスプレイ101上に表示され得て没入型ユーザ体感を可能にするのは、適切に較正された場合のみである。当面の問題はWO 2016/191043 A1に概説されており、手動の較正手順が提案されている。異なる較正手順の概要が、J.Grubert、Y.Itoh、K.Moser、およびJ.e.Swan IIによる「A Survey of Calibration Methods for Optical See−Through Head−Mounted Displays」(arXiv:1709.04299v1、2017年9月13日)に見いだされ得る。
図2には、実際のシーンの上に仮想オブジェクトを重ね合わせることが図示されており、これは、ディスプレイ101を通してユーザの目122に見える実際のシーンの視野を示すものである。図2では、実際の物体またはこれらの一部分130−135がディスプレイ101を通して見られるが、ここでチェッカー盤としてここに図示された仮想オブジェクト232は、タブレット130のディスプレイ131にグラフィカルコンテンツとして表示されたチェッカー盤132と同一であり、ディスプレイ101上に表示することによって実際のシーンの上に重ね合わされる。チェッカー盤232は、タブレット130のディスプレイ131上に表示されるチェッカー盤132の実際の位置に出現するような表示位置に表示されることになるという想定の下で、HMD100は、目122で見られたときのチェックボード232の表示位置を、タブレット130に表示されたチェックボード132へと変位させて合わせるように、すなわち重ね合わせるように補正する必要がある。較正手順の目的は、図2の矢印240によって図示されたチェッカー盤232の必要な変位である。
HMD100が任意選択で目に対向するカメラ103を備え得、目に対向するカメラ103は、ユーザの角膜123による実際のシーンの反射の第2の画像を取り込むように機能する。角膜の結像は、人の前方にあるものの情報を収集するために、また、見ている視野よりも可能性として広い視野における物体に関する情報を収集するために、人間の眼球の球状の性質により、人の角膜、詳細にはHMDのユーザの角膜を結像するようにカメラを利用する技法である。そのような物体は、可能性としてカメラの視野の外にあり、カメラの後ろにあることさえあり得る。この技法は、人間の角膜の高反射性の性質と、またHMDなどの消費者デバイスにおける高解像度カメラの利用可能性とのために可能になるものである。
較正手順が角膜の結像に頼る場合には、HMD100は、第1の画像と第2の画像の両方に見られる1つもしくは複数の実際の物体またはこれらの一部分130−135から較正物体を選択し、第1の画像および第2の画像を使用して較正変換を導出するように機能する。さらに任意選択で、HMD100は、目に対向するカメラ103の視野113に対応する第1の画像の領域の中に見える1つもしくは複数の実際の物体またはこれらの一部分130−135から較正物体を選択するように機能し得る。(前向きのカメラ102によって視野112に対して取り込まれた)第1の画像が、角膜123の不完全な表面からの反射のために、(目に対向するカメラ103によって視野113を用いて取り込まれた)第2の画像よりも一般的には優れているので、第1の画像を使用して、画像処理および物体認識によって実際の物体を識別することは、第2の画像を使用するのと比較して、より簡単かつより確実であり、リソース消費がより少ない。較正物体として適切な実際の物体を識別するために処理する必要のある第1の画像の領域を限定することにより、本発明の実施形態が必要とするコンピューティングリソースがより少なくなり、したがって必要な電力もより少なくなる。
較正手順自体、すなわちHMDに関連した異なる座標系の相対姿勢を確立することは本開示の範囲外である。たとえば2つの座標系の間の座標の変換を記述するためのマトリクスまたは適切な数学的表現の何らかの他の形態といった較正変換を導出するために、実際の較正物体が使用されると言うにとどめておく。HMDの設計に依拠して、座標系のうち1つまたは複数が、互いに対して、かつ/またはHMD100に対して、一定の姿勢を有し得ることが理解されよう。たとえば、これは、別々の構成要素が通常の使用中に互いに対して動くことがないように、ディスプレイ101、前向きのカメラ102、および任意選択の目に対向するカメラ103が、単一ユニットの中に含有されているHMDに関する事例である。
この技術で使用される較正物体は、一般的にはチェッカー盤または較正装置などの専用の較正物体である(たとえば、A.Plopski、C.Nitschke、K.Kiyokawa、D.Schmalstieg、およびH.Takemuraによる「Hybrid Eye Tracking: Combining Iris Contour and Corneal Imaging」、International Conference on Artificial Reality and Telexistence Eurographics Symposium on Virtual Environments、The Eurographics Association、2015年、を参照されたい)。本発明の実施形態は、HMD100のユーザが保持して場合によっては持ち運ぶ必要のある専用の較正物体を使用することなく、HMD100の較正が必要なとき、ユーザの近くの利用可能な実際の物体を利用することに頼るものである。HMDの設計およびHMDの使用法に依拠して、一般的には、目122の姿勢、すなわちHMD100に対する目122の配向および/または位置が変化した場合には、較正が必要である。その上に、ディスプレイ101、前向きのカメラ102、および目に対向するカメラ103のうち1つまたは複数が、互いに対して、かつ/またはHMD100に対して変位した場合には、較正が必要になり得る。
より具体的には、HMD100は、HMD100に電力を供給して較正手順を開始するようにとの命令をユーザから受信すること、表示された仮想オブジェクトの実際のシーンに対する位置合わせ不良を検知すること、ユーザがHMD100の前のユーザとは異なることを検知すること、HMD100がユーザの少なくとも1つの目122に対して変位したのを検知すること、ならびにディスプレイ101、前向きのカメラ102、および目に対向するカメラ103のうち1つまたは複数が、互いに対して、かつ/またはHMD100に対して変位したのを検知すること、のうちいずれか1つに応答して、較正手順を開始するかまたはトリガするように、すなわち較正物体を選択して較正変換を導出するように、機能し得る。
実際には、表示された仮想オブジェクトの実際のシーンに対する位置合わせ不良は、特定の実際の物体の実際の位置に対応する表示位置に、仮想オブジェクトを表示することによって検知され得る。詳細には、表示された仮想オブジェクトは、実際の物体と同一の形状を有し得、すなわち実際の物体の仮想表現(または仮想コピー)でよい。表示された仮想オブジェクトと実際の物体の位置合わせが不良であると、少なくともある程度まで較正手順がトリガされる。位置合わせ不良は、ユーザによって、または目に対向するカメラ103によって取り込まれた、実際の物体と重ね合わせられた仮想オブジェクトの両方が見られる第2の画像を画像処理することにより、角膜の結像によって、検知され得る。
ユーザの少なくとも1つの目122に対するHMD100の変位は、たとえば目に対向するカメラ103を使用して検知され得る。これは、ユーザの目122の位置を経時的に追跡することによって達成され得る。ユーザの目122の位置が、閾値を超えるほど履歴の平均値から離れると、較正手順がトリガされ得る。閾値は、ユーザ、HMD100の製造業者、またはユーザに仮想オブジェクトを表示するためにHMD100を利用しているARアプリケーションのいずれかによってセットされてよい。
ディスプレイ101、前向きのカメラ102、および目に対向するカメラ103のうち1つもしくは複数の互いに対する変位ならびに/またはHMD100に対する変位は、ディスプレイ101、前向きのカメラ102、および目に対向するカメラ103に備わっている運動センサを利用することによって検知され得る。
以下では、1つもしくは複数の実際の物体またはこれらの一部分130−135から較正物体を選択するための異なる代替形態が説明される。
たとえば、HMD100は、較正物体の外観に基づいて較正物体を選択するように機能し得る。望ましくは、優れた照明条件および/もしくは高コントラストで明瞭に見える実際の物体、ならびに/または簡単な幾何形状から成る実際の物体が選択される。そのような実際の物体は、たとえばスケール不変の特徴変換(SIFT)(たとえば米国特許第6,711,293 B1号を参照されたい)または当技術において既知の類似のアルゴリズムを使用すれば、一般的には画像処理および物体認識によって検知するのが容易である。
あるいは、HMD100は、1つもしくは複数の実際の物体またはこれら一部分130−135から以前に選択された較正物体を較正物体として選択するように機能し得る。この目的のために、HMD100は、HMD100が備える(図3に示された記憶装置303のような)記憶装置におけるデータベース、またはHMD100が(無線通信インターフェース105を介して)通信ネットワークを通じてアクセス可能なデータベース、たとえばクラウドベースのデータベースのいずれかを維持してよい。データベースには、たとえば1つまたは複数の実際の物体の、外観または視覚的特徴、写真に関する情報、あるいは形状、幾何形状の構成、および寸法に関する情報といった、1つまたは複数の実際の物体から較正物体を識別するために使用され得る情報が、記憶されてよい。
さらなる代替形態として、HMD100は、HMD100の運動を追跡するように機能する1つまたは複数の運動センサ106を付加的に備え得る。1つまたは複数の運動センサ106は、たとえば、通常のスマートフォンに備わっている、当技術で既知の、加速度計、ジャイロスコープ、全地球測位システム(GPS)のセンサ、磁力計、カメラなどに基づくものでよい。HMD100は、1つまたは複数の実際の物体が、第1の画像の中に見えている、すなわち前向きのカメラ102の視野112の範囲内に、とどまっている期間を、HMD100の追跡された運動に基づいて推定して、第1の画像の中にとどまっていると推定された期間に基づいて較正物体を選択するように機能する。これは、HMD100が、選択された較正物体を前向きのカメラ102で追跡することに頼る較正手順が採用される場合のことである。望ましくは、較正を実施するのに十分に長い期間にわたって第1の画像の中に見える実際の物体またはこれらの一部分130−135が、較正物体として選択される。代替形態として、視野102に対してゆっくり移動しているかまたは全く動かない実際の物体またはこれらの一部分130−135が、較正物体として選択されてよい。たとえば、HMD100がある程度静止している場合には、ボックス133などの静止している実際の物体が選択されてよい。他方では、たとえばユーザが頭部121を旋回しているためにHMD100が動いている場合には、自動車134などの同様に動いている実際の物体が選択されてよい。
較正物体が、目に対向するカメラ103の視野113に対応する第1の画像の領域の中に見える1つもしくは複数の実際の物体またはこれらの一部分130−135から選択される場合、較正物体が第2の画像の中に見えている、すなわち目に対向するカメラ103の視野113の範囲内に見えている、推定された期間に基づいて較正物体が選択され得ることも理解されよう。
さらなる代替形態では、HMD100は、1つまたは複数の実際の物体130−135の視覚的特徴を、データベースに記憶されている実際の物体の視覚的特徴に関する情報に対して照合することによって1つまたは複数の実際の物体130−135を識別することと、たとえばSIFTまたは類似のアルゴリズムを使用して、データベースから得られた情報に基づき、較正物体を選択することとによって、較正物体を選択するように機能し得る。得られた情報は、識別された実際の物体またはこれらの一部分130−135のそれぞれの較正物体としての適合性を指示し得る。たとえば、この情報は、較正変換を導出する際に利用される、外観、形状、幾何形状の構成、寸法等に関するものであり得る。望ましくは、最も適切な較正物体が選択される。
さらなる代替形態として、較正変換が、角膜の結像に頼ることにより、第1の画像と第2の画像の両方を使用して導出される場合には、HMD100は、第2の画像の中の較正物体の第1の画像と比較したときの歪みに基づいて較正物体を選択するように機能し得る。第2の画像の中の較正物体の歪みは、球形状の角膜123からの反射に由来し得、角膜123の外表面の不完全性と、角膜123の外表面における涙または汚れとに悩まされる。加えて、ユーザはHMD100の光学要素を介して実際のシーンを観察するが、この光学要素が第2の画像の歪みの一因となることがある。望ましくは、較正変換の導出を容易にするために、歪みが最小の物体が選択される。
本発明の実施形態は、1つまたは複数の実際の物体から、較正物体として、図1および図2に示されたタブレット130、スマートフォン、携帯電話、コンピュータディスプレイ、テレビ等の通信デバイスを選択してもよい。この目的のために、HMD100は、任意の既知の無線通信技術に基づく無線通信インターフェース105を備え得る。たとえば、無線通信インターフェース105は、無線ローカルエリアネットワーク(WLAN)/WiFiもしくはブルートゥースのような近距離無線技術、または汎欧州デジタル移動電話方式(GSM)、ユニバーサルモバイル通信システム(UMTS)、Long Term Evolution(LTE)、もしくはNR/NXに基づく5G技術のようなセル無線技術に基づくものでよい。通信、すなわちHMD100と、無線通信インターフェース105と互換性のある無線通信インターフェースを備える通信デバイスとの間のデータのやり取りは、たとえばハイパーテキスト転送プロトコル(HTTP)、制約アプリケーションプロトコル(CoAP)等の任意の適切なプロトコル使用して開始し得る。
より具体的には、HMD100は、無線通信インターフェース105を使用して、1つまたは複数の実際の物体から、タブレット130などの、ディスプレイを備える通信デバイスを識別することと、タブレット130のディスプレイ131と、これに表示されたグラフィカルコンテンツ132とのうち少なくとも1つを較正物体として選択することとによって、較正物体を選択するように機能する。1つまたは複数の実際の物体から無線通信デバイスを識別することは、たとえばブルートゥースおよび他の無線通信技術から知られているような発見手順に頼ることによって達成され得る。HMD100は、発見手順の一部分として、または発見手順の後に、識別された通信デバイスとの無線通信を確立し、かつ/または通信デバイスのタイプもしくは能力に関する情報、詳細には通信デバイスのディスプレイ131に関する情報を得るように機能し得る。タブレット130などの、ディスプレイを有する通信デバイスを較正物体として利用すると、ディスプレイは、十分に明るいものであれば、幾何形状が簡単でかつ高コントラストであるために、画像処理および物体認識によって識別するのが一般的には容易であるという点で有利である。
ディスプレイを備える通信デバイスを較正物体として使用することのさらなる利点には、較正手順中に、通信デバイスのディスプレイに表示されているグラフィカルコンテンツに関する情報が、HMD100と通信デバイスの間でやり取りされ得ることがある。表示されるグラフィカルコンテンツは、たとえば高コントラストであることを特徴とする専用の較正パターンでよく、図1および図2に示されたチェッカー盤132などの簡単な幾何形状(長方形、正方形、円)から成るものである。
より具体的には、HMD100は、タブレット130から、表示されたグラフィカルコンテンツ132の表現を、無線通信インターフェース105を通じて受信するように機能し得る。すなわち、タブレット130は、ディスプレイ131上に現在何が表示されているかを報告する。表示されたグラフィカルコンテンツは、タブレット130によって実行されている1つまたは複数のアプリ(アプリケーション)によって現在表示されている任意のグラフィカルコンテンツでよいが、有利には、チェッカー盤132などの専用の較正パターンであり得る。タブレット130は、たとえば、HMD100との通信を確立することに応答して、またはHMD100から較正が進行中であるという指示を受信することに応答して、専用の較正パターンを表示するように機能し得る。
代替形態として、HMD100は、無線通信インターフェース105を介して、タブレット130に、ディスプレイ131上にグラフィカルコンテンツ132を表示するようにとの命令を送信するように機能し得る。命令は、たとえば要求、メッセージ、または信号でよく、これに応答して、タブレット130はグラフィカルコンテンツ132を表示する。表示されるグラフィカルコンテンツは、専用の較正パターンなどのあらかじめ規定されたものでよい。任意選択で、HMD100は、無線通信インターフェース105を通じて、タブレット130に、グラフィカルコンテンツ132の表現を送信するように機能し得る。このようにして、HMD100は、タブレット132によって表示されるグラフィカルコンテンツの詳細を制御し得、タブレット132に対して専用の較正パターンを有利に送信し得る。グラフィカルコンテンツの表現は、たとえば既知のコンピュータグラフィックフォーマットまたは画像フォーマットの形態でよい。
HMD100は、較正物体を選択することに応答して、ユーザの目122で見たとき、選択された較正物体と重ね合わさる1つまたは複数の表示された仮想オブジェクトを適合させるようにさらに機能し得る。これは、たとえば(A.Plopski、C.Nitschke、K.Kiyokawa、D.Schmalstieg、およびH.Takemuraによる「Hybrid Eye Tracking: Combining Iris Contour and Corneal Imaging」、International Conference on Artificial Reality and Telexistence Eurographics Symposium on Virtual Environments、The Eurographics Association、2015年)に説明されているように、角膜の結像に基づく較正方法が採用される場合には特に有利である。それによって、表示された仮想オブジェクトによって較正物体が不明瞭になって較正手順が阻止されるのが回避される。
HMD100は、較正物体を選択することに応答して、較正が進行中であるとユーザに通知するようにさらに機能し得る。任意選択で、HMD100は、この場合はボックス133である選択された較正物体を識別するために、ユーザに対してディスプレイ101上にマーカ250を表示することによって、較正が進行中であることをユーザに通知するように機能し得る。それによって、ユーザは、較正手順を容易にするように、選択された較正物体の方向を見つめるか、または自分の運動を適合させるように要求され得る。あるいは、角膜の結像に頼る較正手順が使用されている場合には、ユーザは、第2の画像の中の選択された較正物体の歪みを最小化するように、頭部の姿勢を変化させるか、または選択された較正物体の近くへ移動するように要求され得る。
較正変換が導出されたとき、マトリクスまたは電子形式の他の適切な数学的表現などの導出された較正変換の表現は、HMD100の(図3に示された記憶装置303のような)記憶装置に記憶され、後に、没入型ユーザ体感を提供するやり方で仮想オブジェクトを表示すために使用され得る。この目的のために、HMD100は、仮想オブジェクトを表示するようにとの命令を受信するように機能し得る。この命令は、たとえばHMD100によって実行されるARアプリケーション、またはユーザに対して仮想オブジェクトを表示するためにHMD100を利用するARアプリケーションから受信されてよい。たとえば、HMD100は、たとえばHTTPまたはCoAPといった任意の適切なプロトコルを使用して、ARアプリケーションを実行するコンピュータ、ラップトップコンピュータ、スマートフォン、タブレット、またはゲームコンソールなどのコンピューティングデバイスに対して、有線または無線で接続され得る。受信される命令は、仮想オブジェクトがユーザに対して表示されるときの対応する実際の位置、すなわち、仮想オブジェクトがユーザに対してディスプレイ101に表示されるときに出現する(目122に見える)現実世界における位置を含む。HMD100は、受信された実際の位置に較正変換を適用することによって仮想オブジェクトの表示位置を計算し、ディスプレイ101上の計算された表示位置に仮想オブジェクトを表示するようにさらに機能する。
以下では、HMD100に備わっている処理手段104の実施形態が、図3および図4を参照しながら説明される。
処理手段104の一実施形態300が図3に示されている。処理手段300は、汎用プロセッサまたは処理回路などの処理ユニット302と、ランダムアクセスメモリ(RAM)、フラッシュメモリなどのコンピュータ可読記憶媒体303とを備える。加えて、処理手段300は、ディスプレイ101、前向きのカメラ102、目に対向するカメラ103、無線通信インターフェース105、および1つまたは複数の運動センサ106(これらのうちいくつかは任意選択であり得る)など、HMD100に備わっている他の構成要素からの情報を制御し、かつ/または受信するための1つまたは複数のインターフェース301(図3における「I/O」)を備える。記憶装置303がコンピュータ実行可能命令304を含有し、コンピュータ実行可能命令304すなわちコンピュータプログラムまたはソフトウェアが処理ユニット302上で実行されると、HMD100は、本明細書で説明されたような本発明の実施形態に従って機能するようになる。
処理手段104の代替実施形態400が図4に図示されている。処理手段400は、処理手段300と同様に、ディスプレイ101、前向きのカメラ102、目に対向するカメラ103、無線通信インターフェース105、および1つまたは複数の運動センサ106(これらのうちいくつかは任意選択であり得る)など、HMD100に備わっている他の構成要素からの情報を制御し、かつ/または受信するための1つまたは複数のインターフェース401(図4における「I/O」)を備える。処理手段400は、選択モジュール402、較正モジュール403、任意選択のトリガモジュール404、および任意選択の表示モジュール405をさらに備え、選択モジュール402、較正モジュール403、任意選択のトリガモジュール404、および任意選択の表示モジュール405は、HMD100を、本明細書で説明されたような本発明の実施形態に従って機能させるように設定されている。
詳細には、選択モジュール402は、ディスプレイデバイスに備わっている前向きのカメラによって取り込まれた実際のシーンの第1の画像の中に見える1つもしくは複数の実際の物体またはこれらの一部分から較正物体を選択するように設定されている。較正モジュール403は、ディスプレイデバイスに備わっている少なくとも部分的に透明なディスプレイ上の表示位置に表示された仮想オブジェクトが、ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、実際の位置に基づいて表示位置を計算するための較正変換を導出するように設定されている。
たとえば、選択モジュール402は、較正物体を、第1の画像と、ユーザの角膜による実際のシーンの反射である第2の画像との両方に見られる1つもしくは複数の実際の物体またはこれらの一部分から選択するように設定されてよく、第2の画像は、ディスプレイデバイスに備わっている、目に対向するカメラによって取り込まれる。較正モジュール403は、第1の画像および第2の画像を使用して較正変換を導出するように設定され得る。
あるいは、選択モジュール402は、目に対向するカメラの視野に対応する第1の画像の領域の中に見える1つもしくは複数の実際の物体またはこれらの一部分から較正物体を選択するように設定され得る。
別の代替形態として、選択モジュール402は、第2の画像の中の較正物体の、第1の画像と比較したときの歪みに基づいて、較正物体を選択するように設定され得る。
さらなる代替形態として、選択モジュール402は、較正物体の外観に基づいて較正物体を選択するように設定され得る。
さらなる代替形態として、選択モジュール402は、1つまたは複数の実際の物体から以前に選択された較正物体を較正物体として選択するように設定され得る。
さらなる代替形態として、選択モジュール402は、ディスプレイデバイスに備わっている1つまたは複数の運動センサを使用してディスプレイデバイスの運動を追跡し、ディスプレイデバイスの追跡された運動に基づいて、1つまたは複数の実際の物体が第1の画像の中に見えている期間を推定して、推定された、較正物体が第1の画像の中に見えている期間に基づいて較正物体を選択するようにさらに設定され得る。
さらなる代替形態として、選択モジュール402は、1つまたは複数の実際の物体の視覚的特徴を、データベースに記憶されている実際の物体の視覚的特徴に関する情報に対して照合することにより、1つまたは複数の実際の物体を識別することと、データベースから得られた、識別された実際の物体またはこれらの一部分のそれぞれの較正物体としての適合性を指示する情報に基づいて、較正物体を選択することによって、較正物体を選択するように設定され得る。
さらなる代替形態として、選択モジュール402は、ディスプレイデバイスに備わっている無線通信インターフェースを使用して、1つまたは複数の実際の物体から、ディスプレイを備える通信デバイスを識別することと、通信デバイスのディスプレイと、そこに表示されたグラフィカルコンテンツとのうち少なくとも1つを、較正物体として選択することとによって、較正物体を選択するように設定され得る。任意選択で、選択モジュール402は、通信デバイスから、無線通信インターフェースを介して、表示されたグラフィカルコンテンツの表現を受信するようにさらに設定され得る。あるいは、選択モジュール402は、無線通信インターフェースを介して、通信デバイスに、通信デバイスのディスプレイにグラフィカルコンテンツを表示するようにとの命令を送信するようにさらに設定され得る。任意選択で、選択モジュール402は、通信デバイスに、無線通信インターフェースを介して、グラフィカルコンテンツの表現を送信するようにさらに設定され得る。
任意選択のトリガモジュール404は、ユーザから、較正手順を開始するようにとの命令を受信すること、ディスプレイデバイスに電力を供給すること、表示された仮想オブジェクトの実際のシーンに対する位置合わせ不良を検知すること、ユーザがディスプレイデバイスの前のユーザとは異なることを検知すること、ディスプレイデバイスがユーザの少なくとも1つの目に対して変位したのを検知すること、ならびにディスプレイ101、前向きのカメラ102、および目に対向するカメラ102のうちいずれか1つがディスプレイデバイスに対して変位したのを検知すること、のうちいずれか1つに応答して、選択モジュール402による較正物体の選択をトリガし、較正モジュール403によって較正変換を導出するように設定され得る。
任意選択の表示モジュール405は、選択モジュール402による較正物体の選択に応答して、ユーザに見られたとき、選択された較正物体に重ね合わさる1つまたは複数の表示される仮想オブジェクトを適合させるように設定されてよい。
任意選択で、選択モジュール402は、較正物体を選択することに応答して、較正が進行中であるとユーザに通知するようにさらに設定されてよい。任意選択で、ユーザは、ユーザに、選択した較正物体を識別するために、ディスプレイ上にマーカを表示することによって較正が進行中であることを通知される。
任意選択の表示モジュール405は、ユーザに対して表示されるときの仮想オブジェクトの対応する実際の位置を含む命令であって、仮想オブジェクトを表示するようにとの命令を受信し、受信した実際の位置に対して、較正モジュール403によって導出された較正変換を適用することにより、仮想オブジェクトの表示位置を計算し、ディスプレイ上の計算された表示位置に仮想オブジェクトを表示するようにさらに設定され得る。
処理手段400に備わっているモジュール402−405は、本明細書で説明されたような本発明の実施形態に従って追加動作または代替動作を実施するようにさらに設定され得る。
インターフェース301および401、モジュール402−405、ならびに、処理手段400に備わっている任意の追加モジュールは、たとえばアナログ電子回路、デジタル電子回路、および適切なコンピュータプログラムすなわちソフトウェアを実行する処理手段のいずれか1つ、または組合せといった、任意の種類の電子回路によって実施され得る。
以下では、ユーザが着用するように設定された頭部装着型ディスプレイデバイスによって実施される方法500の実施形態が、図5を参照しながら説明される。
方法500は、ディスプレイデバイスに備わっている前向きのカメラによって取り込まれた実際のシーンの第1の画像の中に見える1つもしくは複数の実際の物体またはこれらの一部分から較正物体を選択すること504と、ディスプレイデバイスに備わっている少なくとも部分的に透明なディスプレイ上の表示位置に表示された仮想オブジェクトが、ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、実際の位置に基づいて表示位置を計算するための較正変換を導出すること507とを含む。
たとえば、較正物体は、504で、第1の画像と、ユーザの角膜による実際のシーンの反射である第2の画像との両方に見られる1つもしくは複数の実際の物体またはこれらの一部分から選択されてよく、第2の画像は、ディスプレイデバイスに備わっている、目に対向するカメラによって取り込まれ、較正変換は、507で、第1の画像および第2の画像を使用して導出され得る。
あるいは、504で、目に対向するカメラの視野に対応する第1の画像の領域に見られる1つもしくは複数の実際の物体またはこれらの一部分から較正物体が選択され得る。
別の代替形態として、504で、第2の画像の中の較正物体の、第1の画像と比較したときの歪みに基づいて、較正物体が選択され得る。
さらなる代替形態として、504で、較正物体の外観に基づいて較正物体が選択されてよい。
さらなる代替形態として、1つまたは複数の実際の物体から以前に選択された較正物体が、504で較正物体として選択され得る。
さらなる代替形態として、方法500は、ディスプレイデバイスに備わっている1つまたは複数の運動センサを使用してディスプレイデバイスの運動を追跡すること502と、ディスプレイデバイスの追跡された運動に基づいて、1つまたは複数の実際の物体が第1の画像の中に見えている期間を推定すること503とをさらに含み得る。推定された、第1の画像の中に較正物体が見えている期間に基づいて、504で、較正物体が選択される。
さらなる代替形態として、較正物体を選択すること504は、1つまたは複数の実際の物体の視覚的特徴を、データベースに記憶されている実際の物体の視覚的特徴に関する情報に対して照合することにより、1つまたは複数の実際の物体を識別することと、データベースから得られた、識別された実際の物体またはこれらの一部分のそれぞれの較正物体としての適合性を指示する情報に基づいて、較正物体を選択することとを含み得る。
さらなる代替形態として、較正物体を選択すること504は、ディスプレイデバイスに備わっている無線通信インターフェースを使用して、1つまたは複数の実際の物体から、ディスプレイを備える通信デバイスを識別することと、通信デバイスのディスプレイと、そこに表示されたグラフィカルコンテンツとのうち少なくとも1つを較正物体として選択することとを含み得る。任意選択で、較正物体を選択すること504は、通信デバイスから、無線通信インターフェースを介して、表示されたグラフィカルコンテンツの表現を受信することをさらに含み得る。あるいは、較正物体を選択すること504は、無線通信インターフェースを介して、通信デバイスに、通信デバイスのディスプレイにグラフィカルコンテンツを表示するようにとの命令を送信することをさらに含み得る。任意選択で、較正物体を選択すること504は、通信デバイスから、無線通信インターフェースを介して、グラフィカルコンテンツの表現を送信することをさらに含み得る。
任意選択で、504で較正物体が選択され、ユーザから、較正手順を開始するようにとの命令を受信すること、ディスプレイデバイスに電力を供給すること、表示された仮想オブジェクトの実際のシーンに対する位置合わせ不良を検知すること、ユーザがディスプレイデバイスの前のユーザとは異なることを検知すること、ディスプレイデバイスがユーザの少なくとも1つの目に対して変位したのを検知すること、ならびにディスプレイ101、前向きのカメラ102、および目に対向するカメラ103のうちいずれか1つがディスプレイデバイスに対して変位したのを検知すること、のうちいずれか1つによって較正がトリガされること501に応答して、507で較正変換が導出される。
任意選択で、方法500は、較正物体を選択すること504に応答して、ユーザに見られたとき、選択された較正物体に重ね合わさる1つまたは複数の表示される仮想オブジェクトを適合させること505をさらに含み得る。
任意選択で、方法500は、較正物体を選択すること504に応答して、較正が進行中であるとユーザに通知すること506をさらに含み得る。任意選択で、506で、ユーザは、ユーザに、選択した較正物体を識別するために、ディスプレイ上にマーカを表示することによって較正が進行中であることを通知される。
任意選択で、方法500は、ユーザに対して表示されるときの仮想オブジェクトの対応する実際の位置を含む命令であって、仮想オブジェクトを表示するようにとの命令を受信すること508と、受信した実際の位置に対して較正変換を適用することにより、仮想オブジェクトの表示位置を計算すること509と、ディスプレイ上の計算された表示位置に仮想オブジェクトを表示すること510とをさらに含み得る。
方法500は、本開示の全体にわたって説明されたことに応じて、追加のステップまたは変更されたステップを含み得ることが理解されよう。方法500の一実施形態は、頭部装着型ディスプレイデバイスに備わっている処理ユニットによって実行されるように、コンピュータプログラム304などのソフトウェアとして実施されてよく、それによって、ディスプレイデバイスは、本明細書で説明された本発明の実施形態に従って機能するようになる。コンピュータプログラム304は、記憶装置303、コンパクトディスク(CD)、デジタル多用途ディスク(DVD)、メモリスティックなどのコンピュータ可読記憶媒体に記憶され得る。コンピュータプログラム304はデータ搬送信号によって搬送されてもよい。たとえば、コンピュータプログラム304は、無線通信インターフェース105を介して、インターネットなどの通信ネットワークを通じて、記憶装置303に転送され得る。
本発明は前述の実施形態に限定されないことが、当業者には理解される。むしろ、添付の特許請求の範囲の範囲内で、多くの修正形態および変形形態が可能である。

Claims (36)

  1. ユーザ(121)が着用するように設定された頭部装着型ディスプレイデバイス(100)であって、
    少なくとも部分的に透明なディスプレイ(101)と、
    実際のシーンの第1の画像を取り込むように機能する前向きのカメラ(102)と、
    処理手段(104)であって、
    前記第1の画像の中に見える1つもしくは複数の実際の物体またはこれらの一部分(130−135)から、較正物体を選択して、
    前記ディスプレイ上の表示位置に表示された仮想オブジェクトが、前記ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、前記実際の位置に基づいて前記表示位置を計算するための較正変換を導出するように機能する処理手段(104)と
    を備えるディスプレイデバイス。
  2. 前記ユーザの角膜(123)による前記実際のシーンの反射である第2の画像を取り込むように機能する、目に対向するカメラ(103)をさらに備え、
    前記処理手段が、
    前記第1の画像と前記第2の画像の両方の中に見える1つもしくは複数の実際の物体またはこれら一部分から、較正物体を選択して、
    前記第1の画像および前記第2の画像を使用して前記較正変換を導出するように機能する、請求項1に記載のディスプレイデバイス。
  3. 前記処理手段が、前記目に対向するカメラ(103)の視野(113)に対応する前記第1の画像の領域の中に見える1つもしくは複数の実際の物体またはこれらの一部分から前記較正物体を選択するように機能する、請求項2に記載のディスプレイデバイス。
  4. 前記処理手段が、前記第2の画像の中の前記較正物体の、前記第1の画像と比較したときの歪みに基づいて、前記較正物体を選択するように機能する、請求項2または3に記載のディスプレイデバイス。
  5. 前記処理手段が、前記較正物体の外観に基づいて前記較正物体を選択するように機能する、請求項1から3のいずれか一項に記載のディスプレイデバイス。
  6. 前記処理手段が、前記1つまたは複数の実際の物体から以前に選択された較正物体を前記較正物体として選択するように機能する、請求項1から3のいずれか一項に記載のディスプレイデバイス。
  7. 前記ディスプレイデバイスの運動を追跡するように機能する1つまたは複数の運動センサ(106)をさらに備え、
    前記処理手段が、
    前記ディスプレイデバイスの前記追跡された運動に基づいて、前記1つまたは複数の実際の物体が前記第1の画像の中に見えている期間を推定し、
    前記推定された、前記第1の画像の中に前記較正物体が見えている期間に基づいて、前記較正物体を選択するように機能する、請求項1から3のいずれか一項に記載のディスプレイデバイス。
  8. 前記処理手段が、
    1つまたは複数の実際の物体の視覚的特徴を、データベースに記憶されている実際の物体の視覚的特徴に関する情報に対して照合することにより、前記1つまたは複数の実際の物体を識別することと、
    前記データベースから得られた、前記識別された実際の物体またはこれらの一部分のそれぞれの較正物体としての適合性を指示する情報に基づいて、前記較正物体を選択することと
    によって、前記較正物体を選択するように機能する、請求項1から3のいずれか一項に記載のディスプレイデバイス。
  9. 無線通信インターフェース(105)をさらに備え、
    前記処理手段が、
    前記無線通信インターフェースを使用して、前記1つまたは複数の実際の物体から、ディスプレイ(131)を備える通信デバイス(130)を識別することと、
    前記通信デバイスの前記ディスプレイ(131)と、そこに表示されたグラフィカルコンテンツ(132)と
    のうち少なくとも1つを前記較正物体として選択することとによって、前記較正物体を選択するように機能する、請求項1から3のいずれか一項に記載のディスプレイデバイス。
  10. 前記処理手段が、前記通信デバイス(130)から、前記無線通信インターフェースを介して、前記表示されたグラフィカルコンテンツ(132)の表現を受信するようにさらに機能する、請求項9に記載のディスプレイデバイス。
  11. 前記処理手段が、前記無線通信インターフェースを介して、前記通信デバイス(130)に、前記通信デバイスの前記ディスプレイ(131)に前記グラフィカルコンテンツ(132)を表示するようにとの命令を送信するようにさらに機能する、請求項9に記載のディスプレイデバイス。
  12. 前記処理手段が、前記無線通信インターフェースを介して、前記通信デバイス(130)に、前記グラフィカルコンテンツ(132)の表現を送信するようにさらに機能する、請求項11に記載のディスプレイデバイス。
  13. 前記処理手段が、
    前記ユーザから、較正手順を開始するようにとの命令を受信すること、
    前記ディスプレイデバイスに電力を供給すること、
    表示された仮想オブジェクトの前記実際のシーンに対する位置合わせ不良を検知すること、
    前記ユーザが、前記ディスプレイデバイスの前のユーザとは異なることを検知すること、
    前記ディスプレイデバイスが前記ユーザの少なくとも1つの目(122)に対して変位したのを検知すること、ならびに
    前記ディスプレイ(101)および前記前向きのカメラ(102)のうちいずれか1つが前記ディスプレイデバイスに対して変位したのを検知すること
    のうちいずれか1つに応答して前記較正物体を選択して、前記較正変換を導出するように機能する、請求項1から12のいずれか一項に記載のディスプレイデバイス。
  14. 前記処理手段が、前記較正物体を選択することに応答して、前記ユーザに見られたとき、前記選択された較正物体と重ね合わさる1つまたは複数の表示された仮想オブジェクトを適合させるようにさらに機能する、請求項1から13のいずれか一項に記載のディスプレイデバイス。
  15. 前記処理手段が、前記較正物体を選択することに応答して、較正が進行中であると前記ユーザに通知するようにさらに機能する、請求項1から14のいずれか一項に記載のディスプレイデバイス。
  16. 前記処理手段が、前記選択された較正物体を識別するために、前記ユーザに対して前記ディスプレイ上にマーカ(250)を表示することにより、前記較正が進行中であることを前記ユーザに通知するように機能する、請求項15に記載のディスプレイデバイス。
  17. 前記処理手段が、
    前記ユーザに対して表示されるときの仮想オブジェクトの対応する実際の位置を含む命令であって、前記仮想オブジェクトを表示するようにとの命令を受信し、
    前記受信した実際の位置に対して、前記較正変換を適用することにより、前記仮想オブジェクトの表示位置を計算し、
    前記ディスプレイ上の前記計算された表示位置に前記仮想オブジェクトを表示するようにさらに機能する、請求項1から16のいずれか一項に記載のディスプレイデバイス。
  18. ユーザが着用するように設定された頭部装着型ディスプレイデバイスによって実施される方法(500)であって、
    前記ディスプレイデバイスに備わっている前向きのカメラによって取り込まれた実際のシーンの第1の画像の中に見える1つもしくは複数の実際の物体またはこれらの一部分から較正物体を選択すること(504)と、
    前記ディスプレイデバイスに備わっている少なくとも部分的に透明なディスプレイ上の表示位置に表示される仮想オブジェクトが、前記ユーザに見られたとき、実際の位置にある対応する実際の物体と位置が合うように、前記実際の位置に基づいて前記表示位置を計算するための較正変換を導出すること(507)と
    を含む方法。
  19. 前記較正物体が、前記第1の画像と、前記ユーザの角膜による前記実際のシーンの反射である第2の画像との両方に見られる1つもしくは複数の実際の物体またはこれらの一部分から選択され(504)、前記第2の画像が、前記ディスプレイデバイスに備わっている、目に対向するカメラによって取り込まれ、前記較正変換が、前記第1の画像および前記第2の画像を使用して導出される(507)、請求項18に記載の方法。
  20. 前記較正物体が、前記目に対向するカメラの視野に対応する前記第1の画像の領域に見られる1つもしくは複数の実際の物体またはこれらの一部分から選択される(504)、請求項19に記載の方法。
  21. 前記較正物体が、前記第2の画像の中の前記較正物体の、前記第1の画像と比較したときの歪みに基づいて選択される(504)、請求項19または20に記載の方法。
  22. 前記較正物体が前記較正物体の外観に基づいて選択される(504)、請求項18から20のいずれか一項に記載の方法。
  23. 前記1つまたは複数の実際の物体から以前に選択された較正物体が前記較正物体としての選択される(504)、請求項18から20のいずれか一項に記載の方法。
  24. 前記ディスプレイデバイスに備わっている1つまたは複数の運動センサを使用して前記ディスプレイデバイスの運動を追跡すること(502)と、
    前記ディスプレイデバイスの前記追跡された運動に基づいて、前記1つまたは複数の実際の物体が前記第1の画像の中に見えている期間を推定すること(503)と
    をさらに含む方法であって、
    前記推定された、前記第1の画像の中に前記較正物体が見えている期間に基づいて、前記較正物体が選択される(504)、請求項18から20のいずれか一項に記載の方法。
  25. 前記較正物体を前記選択すること(504)が、
    1つまたは複数の実際の物体の視覚的特徴を、データベースに記憶されている実際の物体の視覚的特徴に関する情報に対して照合することにより、前記1つまたは複数の実際の物体を識別することと、
    前記データベースから得られた、前記識別された実際の物体またはこれらの一部分のそれぞれの較正物体としての適合性を指示する情報に基づいて、前記較正物体を選択することと
    を含む、請求項18から20のいずれか一項に記載の方法。
  26. 前記較正物体を前記選択すること(504)が、
    前記ディスプレイデバイスに備わっている無線通信インターフェースを使用して、前記1つまたは複数の実際の物体から、ディスプレイを備える通信デバイスを識別することと、
    前記通信デバイスの前記ディスプレイと、そこに表示されたグラフィカルコンテンツとのうち少なくとも1つを前記較正物体として選択することと
    を含む、請求項18から20のいずれか一項に記載の方法。
  27. 前記較正物体を前記選択すること(504)が、前記通信デバイスから、前記無線通信インターフェースを介して、前記表示されたグラフィカルコンテンツの表現を受信することをさらに含む、請求項26に記載の方法。
  28. 前記較正物体を前記選択すること(504)が、前記無線通信インターフェースを介して、前記通信デバイスに、前記通信デバイスの前記ディスプレイに前記グラフィカルコンテンツを表示するようにとの命令を送信することをさらに含む、請求項26に記載の方法。
  29. 前記較正物体を前記選択すること(504)が、前記無線通信インターフェースを介して、前記通信デバイスに、前記グラフィカルコンテンツの表現を送信することをさらに含む、請求項28に記載の方法。
  30. 前記ユーザから、較正手順を開始するようにとの命令を受信すること、
    前記ディスプレイデバイスに電力を供給すること、
    表示された仮想オブジェクトの前記実際のシーンに対する位置合わせ不良を検知すること、
    前記ユーザが、前記ディスプレイデバイスの前のユーザとは異なることを検知すること、
    前記ディスプレイデバイスが前記ユーザの少なくとも1つの目(122)に対して変位したのを検知すること、ならびに
    前記ディスプレイ(101)および前記前向きのカメラ(102)のうちいずれか1つが前記ディスプレイデバイスに対して変位したのを検知すること
    のうちいずれか1つに応答して、前記較正物体が選択され(504)、前記較正変換が導出される(507)、請求項18から29のいずれか一項に記載の方法。
  31. 前記較正物体を選択すること(504)に応答して、前記ユーザに見られたとき、前記選択された較正物体に重ね合わさる1つまたは複数の表示される仮想オブジェクトを適合させること(505)をさらに含む、請求項18から30のいずれか一項に記載の方法。
  32. 前記較正物体を選択すること(504)に応答して、前記ユーザに、較正が進行中であると通知すること(506)をさらに含む、請求項18から31のいずれか一項に記載の方法。
  33. 前記ユーザに、前記選択された較正物体を識別するために、前記ディスプレイ上にマーカを表示することによって、較正が進行中であることを前記ユーザが通知される(506)、請求項32に記載の方法。
  34. 前記ユーザに対して表示されるときの仮想オブジェクトの対応する実際の位置を含む命令であって、前記仮想オブジェクトを表示するようにとの命令を受信すること(508)と、
    前記受信した実際の位置に対して、前記較正変換を適用することにより、前記仮想オブジェクトの表示位置を計算すること(509)と、
    前記ディスプレイ上の前記計算された表示位置に前記仮想オブジェクトを表示すること(510)と
    をさらに含む、請求項18から33のいずれか一項に記載の方法。
  35. コンピュータ実行可能命令を含むコンピュータプログラム(304)であって、前記コンピュータ実行可能命令は、頭部装着型ディスプレイデバイスに備わっている処理ユニット(302)上で実行されたとき、前記ディスプレイデバイスに、請求項18から34のいずれか一項に記載の方法を実施させるためのものである、コンピュータプログラム(304)。
  36. 請求項35に記載のコンピュータプログラム(304)を記憶しているコンピュータ可読記憶媒体(303)。
JP2020533662A 2017-12-19 2017-12-19 頭部装着型ディスプレイデバイスおよびその方法 Active JP7012163B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2017/083600 WO2019120488A1 (en) 2017-12-19 2017-12-19 Head-mounted display device and method thereof

Publications (2)

Publication Number Publication Date
JP2021508109A true JP2021508109A (ja) 2021-02-25
JP7012163B2 JP7012163B2 (ja) 2022-01-27

Family

ID=60957276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020533662A Active JP7012163B2 (ja) 2017-12-19 2017-12-19 頭部装着型ディスプレイデバイスおよびその方法

Country Status (15)

Country Link
US (2) US11380018B2 (ja)
EP (2) EP3729378B1 (ja)
JP (1) JP7012163B2 (ja)
KR (1) KR102465654B1 (ja)
CN (1) CN111492405B (ja)
BR (1) BR112020012291A8 (ja)
CA (1) CA3084686C (ja)
DK (1) DK3729378T3 (ja)
ES (1) ES2890428T3 (ja)
IL (1) IL275047B2 (ja)
MA (1) MA54342B1 (ja)
MX (1) MX2020006407A (ja)
PL (1) PL3729378T3 (ja)
RU (1) RU2749643C1 (ja)
WO (1) WO2019120488A1 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145645A1 (ja) * 2016-02-25 2017-08-31 富士フイルム株式会社 運転支援装置、運転支援方法、及び、運転支援プログラム
WO2021011420A1 (en) * 2019-07-12 2021-01-21 Magic Leap, Inc. Eyeball camera system and methods for display system calibration
CN110766094B (zh) * 2019-10-31 2022-07-26 联想(北京)有限公司 用于评估增强现实设备标定准确性的方法和装置
CN113253840B (zh) * 2021-05-06 2023-03-10 青岛小鸟看看科技有限公司 多参与模式的人工现实系统
GB2609009B (en) * 2021-07-16 2024-01-03 Sony Interactive Entertainment Inc Head-mountable display systems and methods
CN113566847B (zh) * 2021-07-22 2022-10-11 北京百度网讯科技有限公司 导航校准方法和装置、电子设备、计算机可读介质
CN114366330A (zh) * 2022-01-13 2022-04-19 北京歌锐科技有限公司 一种混合现实系统及基于混合现实的标识物配准方法
US20230245345A1 (en) * 2022-02-02 2023-08-03 Varjo Technologies Oy Object-based camera calibration

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203823A (ja) * 2011-03-28 2012-10-22 Kddi Corp 画像認識装置
WO2013021458A1 (ja) * 2011-08-09 2013-02-14 パイオニア株式会社 複合現実感装置
US20130120224A1 (en) * 2011-11-11 2013-05-16 Elmer S. Cajigas Recalibration of a flexible mixed reality device
WO2013179427A1 (ja) * 2012-05-30 2013-12-05 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
WO2016013634A1 (ja) * 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム
US20170099481A1 (en) * 2015-10-02 2017-04-06 Robert Thomas Held Calibrating a near-eye display
JP2017187667A (ja) * 2016-04-07 2017-10-12 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2130980A1 (en) 1994-08-26 1996-02-27 Carl Treftlin Control apparatus for a video display or virtual reality system
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
DE10103922A1 (de) 2001-01-30 2002-08-01 Physoptics Opto Electronic Gmb Interaktives Datensicht- und Bediensystem
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
US9239460B2 (en) 2013-05-10 2016-01-19 Microsoft Technology Licensing, Llc Calibration of eye location
TWI505260B (zh) 2013-07-30 2015-10-21 Univ Nat Chiao Tung 頭戴式人眼追蹤系統
US20150193980A1 (en) 2014-01-06 2015-07-09 Qualcomm Incorporated Calibration of augmented reality (ar) optical see-through display using shape-based alignment
IL232853A (en) * 2014-05-28 2015-11-30 Elbit Systems Land & C4I Ltd Imaging Georegistration System and Method
US9622654B2 (en) 2014-12-10 2017-04-18 Telefonaktiebolaget Lm Ericsson (Publ) Device for and method of corneal imaging
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
US9746675B2 (en) 2015-05-28 2017-08-29 Microsoft Technology Licensing, Llc Alignment based view matrix tuning
EP3380883B1 (en) 2015-11-25 2020-10-28 Google LLC Prism-based eye tracking
IL252582A0 (en) 2017-05-29 2017-08-31 Eyeway Vision Ltd A method and system for registration between the outside world and a virtual image
GB201709199D0 (en) 2017-06-09 2017-07-26 Delamont Dean Lindsay IR mixed reality and augmented reality gaming system
US11650426B2 (en) * 2019-05-09 2023-05-16 Meta Platforms Technologies, Llc Holographic optical elements for eye-tracking illumination
CN111147834A (zh) 2019-12-31 2020-05-12 深圳疆程技术有限公司 一种基于增强现实抬头显示的虚拟图像标定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012203823A (ja) * 2011-03-28 2012-10-22 Kddi Corp 画像認識装置
WO2013021458A1 (ja) * 2011-08-09 2013-02-14 パイオニア株式会社 複合現実感装置
US20130120224A1 (en) * 2011-11-11 2013-05-16 Elmer S. Cajigas Recalibration of a flexible mixed reality device
WO2013179427A1 (ja) * 2012-05-30 2013-12-05 パイオニア株式会社 表示装置、ヘッドマウントディスプレイ、校正方法及び校正プログラム、並びに記録媒体
WO2016013634A1 (ja) * 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム
US20170099481A1 (en) * 2015-10-02 2017-04-06 Robert Thomas Held Calibrating a near-eye display
JP2017187667A (ja) * 2016-04-07 2017-10-12 セイコーエプソン株式会社 頭部装着型表示装置およびコンピュータープログラム

Also Published As

Publication number Publication date
IL275047B1 (en) 2023-12-01
IL275047A (en) 2020-07-30
MA54342A (fr) 2020-10-28
US20200388054A1 (en) 2020-12-10
US11935267B2 (en) 2024-03-19
EP3729378B1 (en) 2021-07-21
EP3729378A1 (en) 2020-10-28
EP3901915A2 (en) 2021-10-27
ES2890428T3 (es) 2022-01-19
CN111492405B (zh) 2023-09-05
CA3084686A1 (en) 2019-06-27
KR102465654B1 (ko) 2022-11-09
RU2749643C1 (ru) 2021-06-16
MA54342B1 (fr) 2021-09-30
WO2019120488A1 (en) 2019-06-27
US11380018B2 (en) 2022-07-05
US20220301226A1 (en) 2022-09-22
CA3084686C (en) 2024-01-02
CN111492405A (zh) 2020-08-04
KR20200094767A (ko) 2020-08-07
JP7012163B2 (ja) 2022-01-27
MX2020006407A (es) 2020-09-07
EP3901915A3 (en) 2022-01-26
BR112020012291A8 (pt) 2023-04-04
IL275047B2 (en) 2024-04-01
BR112020012291A2 (pt) 2020-11-24
PL3729378T3 (pl) 2022-01-10
DK3729378T3 (da) 2021-09-20

Similar Documents

Publication Publication Date Title
JP7012163B2 (ja) 頭部装着型ディスプレイデバイスおよびその方法
US11886633B2 (en) Virtual object display interface between a wearable device and a mobile device
US11263469B2 (en) Electronic device for processing image and method for controlling the same
US9401050B2 (en) Recalibration of a flexible mixed reality device
WO2019205850A1 (zh) 位姿确定方法、装置、智能设备及存储介质
US20180075620A1 (en) Method and system for determining a pose of camera
EP3813014B1 (en) Camera localization method, terminal and storage medium
US20140300634A1 (en) Apparatus and method for implementing augmented reality by using transparent display
US20170116479A1 (en) Information display method and information display terminal
US20130314413A1 (en) Systems and methods for scaling a three-dimensional model
WO2015093130A1 (ja) 情報処理装置、情報処理方法およびプログラム
US20220084303A1 (en) Augmented reality eyewear with 3d costumes
WO2020149270A1 (ja) 拡張現実空間に配置される3dオブジェクトを生成する方法
US20210406542A1 (en) Augmented reality eyewear with mood sharing
US20170193633A1 (en) Information processing device, information processing method, and program
US11663793B2 (en) Geospatial image surfacing and selection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200820

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211029

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220111

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7012163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150