JPWO2018008232A1 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JPWO2018008232A1
JPWO2018008232A1 JP2018525947A JP2018525947A JPWO2018008232A1 JP WO2018008232 A1 JPWO2018008232 A1 JP WO2018008232A1 JP 2018525947 A JP2018525947 A JP 2018525947A JP 2018525947 A JP2018525947 A JP 2018525947A JP WO2018008232 A1 JPWO2018008232 A1 JP WO2018008232A1
Authority
JP
Japan
Prior art keywords
image
display
information processing
processing apparatus
real space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018525947A
Other languages
English (en)
Other versions
JP6717377B2 (ja
Inventor
満 西部
満 西部
裕司 草野
裕司 草野
広幸 安賀
広幸 安賀
浩一 川崎
浩一 川崎
敦 石原
敦 石原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018008232A1 publication Critical patent/JPWO2018008232A1/ja
Application granted granted Critical
Publication of JP6717377B2 publication Critical patent/JP6717377B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/38Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory with means for controlling the display position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/64Constructional details of receivers, e.g. cabinets or dust covers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/12Overlay of images, i.e. displayed pixel being the result of switching between the corresponding input pixels

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

本技術の一形態に係る情報処理装置は、取得部と、表示制御部とを具備する。前記取得部は、ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得可能である。前記表示制御部は、前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御する。

Description

本技術は、情報処理装置、情報処理方法、及びプログラムに関する。
従来から光学的に透過可能な表示装置が広く用いられている。例えば透過式のヘッドマウントディスプレイ(HMD)等の表示装置では、透過型ディスプレイに文字やグラフィックイメージ等の付加情報を表示させ、現実環境と一緒に視認させることが可能である。これにより「拡張現実(AR:Augment Reality)技術」を実現することも可能である。
例えば特許文献1記載のHMDでは、ユーザが視認する現実環境に応じた付加情報が、透過型ディスプレイ上の既定の座標系に合わせて表示される。ユーザは付加情報と一緒に現実環境を視認することで、ARを体感する。付加情報の表示位置は、現実環境の画像とそこに含まれる自然特徴点に誘導されたユーザの視線方向とに基づいて決定される(特許文献1の明細書段落[0047][0048])。
国際公開第2013/179427号
特許文献1に記載のHMDでは、付加情報の表示位置は既定の座標系に合わせて調整される。従って、視点と座標系との相対的な位置関係が変動すると、付加情報の表示位置がずれてしまい、透過型ディスプレイの表示精度が低下してしまう可能性が高い。
以上のような事情に鑑み、本技術の目的は、AR画像等の表示を高精度に制御することを可能とする情報処理装置、情報処理方法、及びプログラムを提供することにある。
上記目的を達成するため、本技術の一形態に係る情報処理装置は、取得部と、表示制御部とを具備する。
前記取得部は、ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得可能である。
前記表示制御部は、前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御する。
この情報処理装置では、眼球に映る実空間を撮影した第1の画像と、所定の表示部に表示された画像が眼球に映っている第2の画像とが取得される。これらの第1及び第2の画像をもとに、所定の表示部による画像表示が制御される。これにより表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記取得部は、前記ユーザの視野に含まれる前記実空間に関する実空間情報を取得してもよい。この場合、前記表示制御部は、前記実空間情報に基づいて、前記実空間に関連する画像を前記所定の表示部に表示してもよい。
これにより表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記表示制御部は、前記実空間に含まれる1以上の基準要素の位置情報を取得し、当該1以上の基準要素の位置を基準として、前記実空間に関連する画像を生成する画像生成部を有してもよい。
これにより表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記画像生成部は、前記実空間情報に含まれる実空間座標を前記所定の表示部における表示座標へ変換する変換操作により前記実空間に関連する画像を生成してもよい。この場合、前記表示制御部は、前記第1の画像に含まれる前記1以上の基準要素と前記第2の画像に含まれる前記実空間に関連する画像との位置関係に基づいて、前記変換操作を補正する補正部を有してもよい。
これにより表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記画像生成部は、前記1以上の基準要素の各々に対応する1以上のマーカを含む画像を生成してもよい。この場合、前記補正部は、前記第1の画像に含まれる前記1以上の基準要素と、前記第2の画像に含まれる前記1以上のマーカとの位置関係に基づいて、前記変換操作を補正してもよい。
これにより表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記画像生成部は、前記マーカの形状、サイズ、表示密度、表示色、及び輝度の少なくとも1つを調節可能であってもよい。
これによりマーカの検出効率を向上させることが可能となり、表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記画像生成部は、前記実空間に対応するAR画像を生成してもよい。この場合、前記補正部は、前記第1の画像に含まれる前記1以上の基準要素と、前記第2の画像に含まれる前記AR画像との位置関係に基づいて、前記変換操作を補正してもよい。
これにより表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記補正部は、前記実空間座標から前記表示座標への射影変換を補正してもよい。
これによりAR画像の位置、形状、角度及びサイズ等を含む補正が可能となり、表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記所定の表示部は、前記眼球に対向して配置される透過型ディスプレイであってもよい。
これにより高品質なAR環境を提供することができる。
前記表示制御部は、前記透過型ディスプレイを透過する光量を調整可能な調光部を有してもよい。
これにより眼球への実空間の映り込みを制御することが可能となり、表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記調光部は、前記第2の画像の撮影時に前記透過する光量を規制してもよい。
これによりマーカ等の検出効率が向上し、表示部によるAR画像等の表示を高精度に制御することが可能となる。
前記表示制御部は、前記ユーザの状態を検出可能なセンサ部の検出結果に基づいて、前記1以上の基準要素の位置情報、又は前記実空間に関連する画像を補正してもよい。
これにより例えばユーザの挙動に伴うAR画像等の表示のずれ等を補正することが可能となる。
前記表示制御部は、前記変換操作を補正するか否かを判定する判定部を有してもよい。この場合、前記画像生成部及び前記補正部は、前記判定部の結果に基づいて動作してもよい。
これにより補正のタイミングを自動的に判定することが可能となり、適切な状況でAR画像等の表示を補正することが可能となる。
前記判定部は、前記実空間に含まれる前記1以上の基準要素の数及び分布に基づいて、前記変換操作の補正を実行するか否かを判定してもよい。
これによりAR画像等の表示を高精度に補正することが可能となる。
前記判定部は、前記眼球の視線方向及び位置を含む前記ユーザの状態の情報、及び前記1以上の基準要素の位置の変動を含む変動情報の少なくとも一方に基づいて、前記変換操作の補正を実行するか否かを判定してもよい。
これによりAR画像等の表示を高精度に補正することが可能となる。
前記表示制御部は、前記所定の表示部内の前記眼球が注視している注視領域を避けて、前記1以上の基準要素の各々に対応する1以上のマーカを表示してもよい。
これによりユーザへの負担を低減し、使用感を向上させることが可能となる。
前記表示制御部は、前記変換操作を補正することが必要か否かを判定し、必要であると判定した場合には、自動的に前記変換操作の補正を実行してもよい。
これにより自動補正が実現可能となり高い操作性が発揮される。
前記表示制御部は、前記第1の画像及び前記第2の画像の前記眼球の表面形状に由来する歪みを補正してもよい。
これにより表示部によるAR画像等の表示を精度よく制御することが可能となる。
本技術の一形態に係る情報処理方法は、コンピュータシステムにより実行される情報処理方法であって、ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得することを含む。
前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示が制御される。
本技術の一形態に係るプログラムは、コンピュータシステムに以下のステップを実行させる。
ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得するステップ。
前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御するステップ。
以上のように、本技術によれば、AR画像等の表示を高精度に制御することが可能となる。なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術の第1の実施形態に係るヘッドマウントディスプレイ(HMD)の構成例を示す概略図である。 本実施形態に係るHMDの機能的な構成例を示すブロック図である。 本実施形態に係るHMDにおける透過型ディスプレイでの画像表示の制御例を示すフローチャートである。 画像表示の制御におけるデータフローを示すブロック図である。 第1の眼球画像の一例を示す模式図である。 マーカ画像の一例を示す模式図である。 第2の眼球画像の一例を示す模式図である。 AR画像を用いた画像表示の制御例を説明するための模式図である。 他の実施形態に係るマーカ画像の一例を示す模式図である。
以下、本技術に係る実施形態を、図面を参照しながら説明する。
<第1の実施形態>
[ヘッドマウントディスプレイ]
図1は、本技術の第1の実施形態に係るヘッドマウントディスプレイ(HMD)の構成例を示す概略図である。図1Aは、HMD100の外観を示す斜視図である。図1Bは、HMD100の構成を説明するための側面図である。HMD100は、透過型ディスプレイを備えたメガネ型の装置であり、ユーザの頭部に装着されて使用される。
HMD100は、フレーム11、レンズ12、透過型ディスプレイ13、及び調光素子14を有する。またHMD100は、フレーム11に支持された視界センサ15及び内向きカメラ16を有する。
フレーム11は、メガネ型の形状でなり、リム部110及びテンプル部111を有する。リム部110は、左右の眼球10a及び10bの前方に配置される部分であり、左右のレンズ12a及12bをそれぞれ支持する。テンプル部111は、リム部110の両端からユーザの両耳に向けて後方に延在し、先端が両耳に装着される。リム部110及びテンプル部111は、例えば合成樹脂、金属等の材料で形成される。
レンズ12a及び12bは、ユーザの視野の少なくとも一部を覆うように、眼球10a及び10bの前方にそれぞれ配置される。典型的には、レンズ12は、ユーザの視力を矯正するように設計される。もちろんこれに限定されず、いわゆる度無しレンズが用いられてもよい。
透過型ディスプレイ13は、リム部110により支持され、左右の眼球10a及び10bの各々に対向するように、2つ配置される。すなわち左右のレンズ12a及び12bの外側に、透過型ディスプレイ13a及び13bがそれぞれ配置される。本実施形態では、各透過型ディスプレイ13は、各レンズ12と略等しいサイズを有する。これに限定されず、レンズ12の一部の領域を覆うように、透過型ディスプレイ13が配置されてもよい。
HMD100を装着するユーザは、例えば現実の世界に透過型ディスプレイ13に表示された画像が重畳された景色を見ることが可能となる。また透過型ディスプレイ13にAR画像を表示することで、様々なARを体験することも可能である。
透過型ディスプレイ13の具体的な構成は限定されず、有機ELディスプレイやLCD(Liquid Crystal Display、液晶表示素子)ディスプレイ等が用いられる。本実施形態において、透過型ディスプレイ13は、所定の表示部に相当する。
調光素子14は、リム部110により支持され、透過型ディスプレイ13の外側にそれぞれ配置される(調光素子14a及び14b)。調光素子14は、透過する光の量を調節することが可能である。従って調光素子14の透過率を制御することで、透過型ディスプレイ13を透過する光量を調整することが可能となる。調光素子14の具体的な構成は限定されず、例えば透過率を電気的に制御可能な、液晶等を用いた調光ガラスや調光シートが用いられる。あるいは、調光素子14として、機械的に動作するシャッター等が用いられてもよい。
透過率の制御範囲等も限定されず、例えば透過率0%〜100%の間で、任意の透過率が実現されてもよい。あるいはこれらの範囲の中の所定の値が設定可能であってもよい。例えば透過率0%、20%、40%、60%、80%、及び100%のいずれかを選択可能等である。さらに、透過率約0%及び約100%等の、2つの透過率の切替えのみが可能な場合もあり得る。
視界センサ15は、リム部110の略中央に、外側に向けて設置される。図1Bに示すように、眼球10の視線方向17と視界センサ15のセンシング方向18とは略同様である。従って視界センサ15のセンシング領域は、ユーザの視野領域と略同様となる。
視界センサ15は、外向きカメラ150と距離センサ151とを有する(図2参照)。外向きカメラ150は、ユーザの視野領域(センシング領域)を所定のフレームレートで撮影する。すなわちユーザの視野に含まれる実空間の画像を撮影可能である。外向きカメラ150としては、例えばCMOS(Complementary Metal-Oxide Semiconductor)センサやCCD(Charge Coupled Device)センサ等のイメージセンサを備えるデジタルカメラが用いられる。
距離センサ151は、視野領域に存在する実空間の物体との距離に関する情報を検出し、奥行情報を出力する。距離センサ151は、例えばミリ波レーダや赤外線レーザ等を用いた種々のセンサで構成される。
外向きカメラ150により撮影された実空間画像と奥行情報とを用いて、視野領域の深度マップ(Depth Map)を生成可能である。また視野領域内の物体の各点について、3次元座標を設定することが可能となる。視界センサ15の具体的な構成、及び深度マップを生成する方法は限定されない。例えばステレオカメラ等を用いて撮影した画像に基づいて、深度マップが生成されてもよい。本実施形態において、深度マップ及び3次元座標は実空間に関する実空間情報及び実空間座標にそれぞれ相当する。
内向きカメラ16は、リム部110により支持される。左右の眼球10a及び10bの各々に対して内向きカメラ16a及び16bが設けられる。図1Bに示すように、内向きカメラ16の撮影方向19は眼球10に向けられており、眼球10に映る像を撮影することが可能である。内向きカメラ16として、例えばCMOSやCCD等のイメージセンサを備えるデジタルカメラが用いられる。
図2は、本実施形態に係るHMD100の機能的な構成例を示すブロック図である。HMD100は、さらに、操作ボタン20、通信部21、記憶部22、センサ部23、及びコントローラ24を有する。
操作ボタン20は、フレーム11の所定の位置に設けられる(図示は省略)。操作ボタン20により、電源のON/OFFの操作や、透過型ディスプレイ13での表示の切り替えやネットワーク通信機能等の、HMD100が有する種々の機能に関する操作を実行することができる。
通信部21は、他のデバイスとの間で、ネットワーク通信や近距離無線通信等を実行するためのモジュールである。例えばWiFi等の無線LANモジュールや、Bluetooth(登録商標)等の通信モジュールが設けられる。
記憶部22は、不揮発性の記憶デバイスであり、例えばSSD(Solid State Drive)等が用いられる。記憶部22には、HMD100の全体の動作を制御するための制御プログラム220が記憶される。また記憶部22には、条件テーブル221が記憶される。条件テーブル221には、透過型ディスプレイ13の表示を補正するための条件が記録されている。制御プログラム220及び条件テーブル221を、HMD100にインストールする方法は限定されない。
センサ部23は、9軸センサ230、及びGPSセンサ231を含む。9軸センサ230は、HMD100本体の角度、移動、及び向きの変化を出力する。GPSセンサ231は、HMD100本体の位置情報を出力する。これらの情報をもとに、ユーザの姿勢や動き等を含むユーザの状態情報を検出することも可能である。
また本実施形態では、視界センサ15及び内向きカメラ16もセンサ部23の一部として機能する。例えば内向きカメラ16により撮影される画像等により、眼球10の視線方向17及び位置を含む眼球情報を、ユーザの状態情報として検出することが可能である。
センサ部23として設けられるセンサの種類は限定されず、任意のセンサが設けられてもよい。例えばユーザの体温及び脈拍数等を検出可能な生体センサ等が設けられてもよい。
センサ部23により検出されるユーザの状態情報も限定されず、例えば眼球の充血状態、瞬きの回数等(上記の眼球情報に含まれる)や、歩行中、走行中、電車にて移動中、運転中等の運動情報が取得される。運動しているスポーツの種類等の情報も取得可能である。またユーザの現在地の情報、さらに詳しく屋内であるか、屋外であるか、会議中であるか等の情報も取得可能である。
コントローラ24は、HMD100が有する各ブロックの動作を制御する。コントローラ24は、例えばCPUやメモリ(RAM、ROM)等のコンピュータに必要なハードウェア構成を有する。CPUが記憶部22に記憶されている制御プログラム220をRAMにロードして実行することにより、種々の処理が実行される。
コントローラ24として、例えばFPGA(Field Programmable Gate Array)等のPLD(Programmable Logic Device)、その他ASIC(Application Specific Integrated Circuit)等のデバイスが用いられてもよい。
本実施形態では、コントローラ24のCPUが本実施形態に係るプログラムを実行することで、機能ブロックとして取得部25及び表示制御部26が実現される。取得部25は、内向きカメラ16から出力される眼球10の眼球画像を取得する。表示制御部26は、取得部25によって取得された眼球画像に基づいて、透過型ディスプレイ13での表示を制御する。
従って本実施形態ではコントローラ24により、本実施形態に係る情報処理方法が実行される。なお取得部25及び表示制御部26を実現するために、専用のハードウェアが適宜用いられてもよい。
表示制御部26は、機能ブロックとして画像生成部260、補正部261、調光部262、判定部263、及び同期部264を有する。
画像生成部260は、透過型ディスプレイ13の座標である表示座標に合わせて画像を生成する。本実施形態では、画像生成部260は、射影変換を用いた画像生成を行う。例えば画像生成部260は、射影変換を用いて3次元座標を2次元の表示座標へ変換する。表示座標に合わせて画像を生成する方法や、射影変換を規定するモデルは限定されない。射影変換として、例えば眼球を視点とした透視投影モデルに基づく射影変換が用いられる。本実施形態において、射影変換は変換操作に相当する。
本実施形態では、画像生成部260により、実空間に含まれる1以上の基準要素の位置情報が取得され、当該1以上の基準要素の位置を基準として、実空間に関連する画像が生成される。この点については、後に詳しく説明する。
補正部261は、内向きカメラ16が撮影した眼球10の眼球画像に基づいて射影変換の補正を行う。補正部261により補正された射影変換は、生成部260での画像生成に新たに用いられる。
調光部262は、調光素子14の透過率を制御し、透過型ディスプレイ13を透過する透過光の量を調節する。従って調光部262により、透過型ディスプレイ13を透過する透過光の量を規制することが可能である。調光部262により、眼球10に映る像の撮影条件を変更することが可能である。なお、調光素子14の透過率の制御は、外光強度に応じて行われてよい。具体的には、外光強度が相対的に大きいときは、外光強度が相対的に小さいときよりも、透過型ディスプレイ13を透過する透過光の量を、調光素子の14の透過率を制御することで少なくしても良い。これにより、屋外において外光に起因するAR画像の視認性低下を抑制することができる。
判定部263は、補正部261による射影変換の補正を実行するか否かを判定する。判定部263の判定は、記憶部22に記憶された条件テーブル221に基づいて行われる。表示制御部26は、判定部263の判定した結果に基づいて、射影変換を補正するための制御プログラム220を実行する。
同期部264は、記憶部22に保存された制御プログラム220に基づき、視界センサ15、内向きカメラ16及び調光素子14の動作タイミングを制御する。
図3は、本実施形態に係るHMD100における透過型ディスプレイ13での画像表示の制御例を示すフローチャートである。図4は、その画像表示の制御におけるデータフローを示すブロック図である。
本実施形態では、画像表示の制御として、図3に示すフローチャートにより射影行列の補正が実行される。具体的には、ステップ101からステップ114までの補正ルーチンが繰り返される。射影行列を補正することにより、透過型ディスプレイ13での画像表示が制御され、AR画像等を高精度に表示することが可能となる。
まず、調光部262により調光素子14の透過率が上げられる(ステップ101)。眼球10には、調光素子14、透過型ディスプレイ13及びレンズ12を通して、実空間の景色が投影される。すなわちHMD100を通してユーザが見ている現実の世界の像が投影される。
内向きカメラ16により、実空間の景色が映った眼球10が撮影され、第1の眼球画像が生成される。生成された第1の眼球画像は、取得部25により取得される(ステップ102)。このとき第1の眼球画像の、レンズ12及び眼球10の表面に起因した歪みが補正される(ステップ201)。これにより精度の高い画像表示の制御が可能となる。
図5は、第1の眼球画像の一例を示す模式図である。本実施形態では、ユーザが見ている実空間の景色内に、直方体51が存在するとする。従って第1の眼球画像50には、眼球10に映り込んだ直方体51の画像が含まれる。
画像生成部260は、第1の眼球画像50に含まれる基準要素F2を抽出する(ステップ103、ステップ202)。ここで基準要素とは、後に説明する第2の眼球画像との比較の際に基準となる要素であり、典型的には、画像内のエッジ部分等の特徴的な部分が該当する。例えば画像内の物体の角(コーナ)、縁(線・輪郭)及び表面(領域)といった要素が相当する。基準要素F2の検出方法及び検出される要素の種類や数は限定されない。例えば、コーナ検出の方法としてHarris法やKLT法といった画像処理の手法が用いられてよい。
基準要素F2は、典型的には、複数抽出される。本実施形態では、直方体51のそれぞれの頂点が、複数の基準要素F2として抽出される。図5では、その位置座標データが同じ符号F2で図示されている。図4に示すように、抽出された各基準要素F2の2次元上の位置座標は、スイッチ処理を通して記憶部23に保存される(ステップ203)。
スイッチ処理では、内向きカメラ16による撮像動作に同期して、出力される基準要素に関するデータ処理が適宜選択される。具体的には、内向きカメラ16により第1の眼球画像50が撮影された場合には、生成された基準要素F2が記憶部23へ保存される。一方、内向きカメラ16により、後に説明する第2の眼球画像が撮影された場合は、生成された基準要素G2は、次のステップ204へ出力される。
視界センサ15により、実空間画像及び深度マップが生成され、取得部25により取得される(ステップ104)。取得された実空間画像及び深度マップに対して、視界センサ15に起因する歪みが補正される(ステップ301)。
補正された実空間画像及び深度マップから基準要素F3が抽出される(ステップ105、ステップ302)。本実施形態では、実空間内の直方体51の頂点が、複数の基準要素F3として抽出され、各々の3次元座標が算出される。
なお本実施形態では、図4に示すように、同期部264により、視界センサ15と内向きカメラ16とが同期制御される。すなわち第1の眼球画像50の撮影と、視界センサ15のセンシングとが同じタイミングとなるように制御される。これにより互いに対応する複数の基準要素F2及びF3を高精度に抽出することが可能となる。
また図4に示すように、センサ部23による検出結果に基づいて、移動量補正が実行される(ステップ303)。例えば同期制御にタイムラグが生じた場合等において、第1の眼球画像50の撮影から視界センサ15のセンシングまでの間に、ユーザが移動したり顔の向きを変えたりしたとする。この場合、視界センサ15のセンシング領域が変位する。従ってセンサ部23によりユーザの移動等が検出された場合には、その検出結果に基づいて基準要素F3の位置情報が補正される。これにより各基準要素F2の位置情報と、各基準要素F3の3次元座標との対応を高精度に判定することが可能となる。
移動量を検出するための方法は限定されない。例えば、SLAM(Simultaneous Localization and Mapping)技術を用いてユーザを取り囲む空間の情報を生成し、当該空間の中でのユーザの移動及び姿勢の変化等が検出されてもよい。これにより、周囲にある物体等を基準としてユーザの挙動を検出することが可能となり、移動量を高精度に判定することが可能となる。
画像生成部260は、射影行列Pを用いて各基準要素F3の3次元座標を表示座標に射影する(ステップ106、ステップ304)。本実施形態では、以下の式に示すように、射影行列Pは、基準行列P0と補正行列ΔPの和として表される。
P=P0+ΔP
ここで射影行列Pは、基準行列P0を基準として、補正行列P0の分だけ変化させた行列に相当する。なお基準行列P0と補正行列ΔPの和に限定されず、積や商等の他の演算により射影行列Pが定義されてもよい。本実施形態では、1度のルーチンで、基準行列P0及び補正行列ΔPが更新され、次回使用する基準行列P0'及び補正行列ΔP'がそれぞれ算出される。これにより、次回使用する射影行列P'が新たに生成される(P'=P0'+ΔP')。
画像生成部260により、射影された1以上の基準要素F3の各々に対応する1以上のマーカを含むマーカ画像が生成される(ステップ305)。生成されたマーカ画像は、透過型ディスプレイ13に表示される。
図6は、マーカ画像の一例を示す模式図である。なお基準要素F3に対応するマーカM2の形状及びその生成方法等は限定されない。例えば画像生成部260は、マーカM2の形状、サイズ、表示密度、表示色、及び輝度等を調節可能である。これによりマーカの抽出精度を向上させることが可能である。
また基準要素F3の空間分布等に基づいて、使用する基準要素F3が適宜選択されてもよい。例えば、基準要素F3の分布密度が濃い場合には、使用する基準要素F3を適宜選択することで、抽出に適した密度でマーカを表示することができる。これにより個々のマーカの抽出精度を向上させることが可能である。また、深度マップにおける奥行情報の誤差が大きい基準要素F3を排除することが可能である。これにより、信頼性の高い基準要素F3を選択することが可能となり、射影行列Pの補正精度を向上させることが可能である。なお、本実施形態において、マーカ画像52は実空間に関連する画像に相当する。
画像生成部260により、予め取得された透過型ディスプレイ13の形状及びレンズ12による像の変形等の情報に基づいて、マーカ画像52の歪みが補正される(ステップ306)。これにより精度の高い表示制御が可能となる。そして表示制御部26により、補正されたマーカ画像52が透過型ディスプレイ13に表示される(ステップ107、ステップ307)。
調光部262により、調光素子14の透過率が下げられる(ステップ108)。これにより眼球10への実空間の景色の投影が規制され、眼球10には主に透過型ディスプレイ13に表示されたマーカ画像52が投影される。これにより、マーカM2の抽出精度が向上する。調光素子14の透過率を下げるタイミングは、図4に示すデータフローでのスイッチ処理のタイミングと共に同期部264によって同期制御される。
なお、調光部262による調光素子14の透過率の制御方法は限定されない。例えば、屋内と屋外とでは外光の影響により眼球10に対するマーカ画像52の映り込みが変化する。調光素子14の透過率は、眼球10へのマーカ画像52の映り込み具合に基づいて、適宜設定されてもよい。これにより状況に応じてマーカM2の抽出に最適な透過率が設定可能であり、高い精度でマーカM2を抽出することが可能となる。
内向きカメラ16により、マーカ画像52が映った眼球10が撮影され、第2の眼球画像が生成される。生成された第2の眼球画像は、取得部25により取得される(ステップ109)。そしてステップ102と同様に第2の眼球画像の歪みが補正される(ステップ201)。
図7は、第2の眼球画像の一例を示す模式図である。画像生成部260は、第2の眼球画像53に含まれる複数の基準要素G2を抽出する(ステップ110、ステップ202)。本実施形態では、第2の眼球画像53に映った1以上のマーカM2が1以上の基準要素G2として抽出される。抽出された基準要素G2の位置座標は、スイッチ処理により、ステップ204に出力される(ステップ203)。
補正部261により、記憶部23に保存された基準要素F2と基準要素G2とが比較される。本実施形態において、基準要素F2及び基準要素G2は、ともに直方体51の各頂点に対応している。補正部261は、まず同じ頂点に対応した基準要素F2及び基準要素G2のペアを算出する。ペアの算出方法は限定されず、例えば、RANSAC(Random Sample Consensus)や最少メジアン法といったマッチング手法が用いられてもよい。
透過型ディスプレイ13を通して見える直方体51の上に、透過型ディスプレイ13に表示された直方体51が重畳される場合には、以下に示す関係式が満たされる。
F2i=G2i=Q(P(F3i))
ここで添え字のiは、各ペアを示す符号である。またQは透過型ディスプレイ13から眼球10への射影行列である。本技術では、内向きカメラ16により撮影された眼球画像に基づいて基準要素F2及び基準要素G2が抽出される。このため射影行列Qを算出することなく、射影行列Pを算出可能である。
補正部261により、基準要素F2と基準要素G2との重なり具合を示す指標である二乗誤差δが算出される。具体的には各ペアについて、位置情報の二乗誤差δが以下のように算出される(ステップ111、ステップ204)。
δ=Σ(F2i−G2i)2
=Σ(F2i−Q(P(F3i)))2
ここで総和Σはすべてのペアについて計算される。一般的に、二乗誤差δが小さい場合には両者は全体的によく重なり、大きい場合には全体的にずれが見られる傾向がある。
なお、基準要素F2と基準要素G2との重なり具合を示す指標は限定されない。例えば、方向別の誤差や遠さ別の誤差等が指標として用いられてもよい。すなわち座標方向に分けて二乗誤差δが算出されてもよい。これにより平行移動等に伴う全体的なずれが容易に検出され、射影行列Pを高精度に補正可能である。このように補正精度が向上することで、必要な補正ルーチンの回数を抑制可能である。
補正部261により、二乗誤差δをもとに射影行列Pの射影誤差が前回と比べ改善したか改悪したかが判定される。具体的には、前回及び今回の二乗誤差δが比較される。二乗誤差δの値が前回より減少した場合は射影誤差が改善したと判定され、増加した場合は射影誤差が改悪したと判定される。
補正部261により、射影誤差の判定結果に基づいて射影行列Pが更新される(ステップ112)。射影誤差が改善したと判定された場合、次回使用する基準行列P0'として、今回の射影行列Pが設定される。具体的には次回使用する基準行列P0'が以下のように算出される。
P0'=P=P0+ΔP
なお補正行列ΔPは、このタイミングでは更新されない。
射影誤差が改悪したと判定された場合、次回使用する基準行列P0'として、今回と同じ基準行列P0を用いることが設定され、更新は行われない。
補正部261により、射影行列Pが一定の値に収束したか否かが判定される(ステップ113)。本実施形態では、ステップ112において射影誤差が改善したと判定された場合、その改善幅に応じて係数αが設定され、係数αの絶対値をもとに射影行列Pの収束が判定される。係数αは、次回使用する補正行列ΔP'を算出するための係数であり(ステップ114参照)、例えば改善幅の値に相関したパラメータである。係数αの絶対値が所定の閾値以下となる場合、すなわち改善幅が所定の範囲に収まる場合に、射影行列Pが一定の値に収束したと判定される。なお係数αの具体的な算出方法は限定されない。
あるいはこれまでの係数αの二乗平均を算出し、これが連続して所定の閾値以下となる状態が既定回数だけ続いた場合に、射影行列Pは収束したと判定されてもよい。あるいは基準行列P0の更新がなされない状態が既定回数だけ続いた場合に、射影行列Pは収束したと判定されてもよい。射影行列Pの収束を判定する方法は限定されない。
補正部261により、ステップ113での判定結果に基づいて、ルーチンを終了するか否かが判定される。射影行列Pが一定の値に収束したと判定された場合(ステップ113のYSE)、補正ルーチンは終了される。また射影行列Pが一定の値に収束していないと判定された場合(ステップ113のNO)、補正ルーチンは継続される。
補正ルーチンが継続される場合、補正部261により、次回使用する射影行列P'が生成される(ステップ114、ステップ205)。ここでは次回使用する補正行列ΔP'が算出される。なお明細書中には、次回使用する行列についてダッシュを付しているが、図3ではフローチャートのルーチンを表現するためにダッシュは付していない。
ステップ112において射影誤差が改善したと判定された場合、上記した改善幅に応じた係数αをもとに補正行列ΔP'が以下のように算出される。
ΔP'=αΔP
射影誤差が改悪したと判定された場合は、次回使用する補正行列ΔP'は、所定の候補の中からランダムに選択される。係数αの設定及び次回使用する補正行列ΔP'の選択の方法は限定されない。
次回使用する基準行列P0'及び補正行列ΔP'の和が、次回使用する射影行列P'として生成される(P'=P0'+ΔP')。そしてステップ101からの処理が繰り返される。このように本実施形態に係る補正部261は、第1の眼球画像50に含まれる1以上の基準要素F2と第2の眼球画像53に含まれるマーカ画像52との位置関係に基づいて、射影行列Pを補正する。
なお本実施形態では、射影行列Pを基準行列P0及び補正行列ΔPにより定義し、勾配法を用いて射影行列Pが補正された。もちろん射影行列Pを補正するための方法は限定されず、他の方法が用いられてもよい。
以上、本実施形態に係るHMD100では、眼球10に映る実空間を撮影した第1の眼球画像50と、透過型ディスプレイ13に表示されたマーカ画像52が眼球に映っている第2の眼球画像53とが取得される。これらの第1の眼球画像50及び第2の眼球画像53をもとに、透過型ディスプレイ13による画像表示が制御される。これにより透過型ディスプレイ13によるAR画像等の表示を高精度に制御することが可能となる。
実空間を撮影する観測カメラ等のみを用いてディスプレイによる画像表示のキャリブレーションを行うことが考えられる。この場合観測カメラ等が撮影した実空間の画像を基準として、AR画像等の画像表示のキャリブレーションが実行される。しかしながら、ユーザの目と観測カメラとでは視点、焦点距離、及び画角等の光学特性が異なる可能性があり、撮影された実空間の画像とユーザの視野とが等しくなるとは限らない。このため、ユーザの網膜上での現実(実空間)と仮想物(AR画像)との位置合わせが保証できない。
また個人によって眼球の位置、眼球の形状、及び鼻の高さ等が異なるので、個人ごとにディスプレイの見え方が異なってくる。またHMDの掛けずれ等により、ディスプレイの見え方が変化する。観測カメラ等のみを用いたキャリブレーションでは、こうしたディスプレイと眼球との位置関係の個人ごとの相違や変化に対応することが難しい。
またディスプレイと観測カメラ等との位置関係が機械的にずれた場合、改めてキャリブレーションが必要になる。その際にキャリブレーション用装置の特定のマーカが必要な場合等では、ユーザ自身で修正することができず、当該キャリブレーション用装置のある場所に移動して修正作業を行う必要がある。
これに対して本技術に係る本HMD100では、内向きカメラ16により第1及び第2の眼球画像50及び53が撮影される。第1及び第2の眼球画像50及び53には、HMD100を通してユーザが見ている景色が映っている。従って第1及び第2の眼球画像50及び53を比較することで、ユーザの視野内において、透過型ディスプレイ13に表示されるマーカ画像52が実空間(直方体51)に対してどのように重畳されているかを高精度に検出することが可能となる。すなわちユーザの網膜上での現実(実空間)と仮想物(AR画像)との位置合わせが可能となる。この結果、射影行列Pを高精度に補正することが可能となり、AR画像等を高精度に表示することが可能となる。
また第1及び第2の眼球画像50及び53に基づいて眼球10の網膜上での位置合わせが可能となるので、透過型ディスプレイ13と眼球10との位置関係の個人的な相違や変化に関係なく、高精度にキャリブレーションを実行することが可能となる。すなわち眼球の位置、眼球の形状、及び鼻の高さ等のユーザの個人差を吸収した上で、透過型ディスプレイ13によるAR画像等の表示を高精度に制御することが可能となる。またHMD100の掛けずれ等による画像表示のずれ等も解消可能である。
本HMD100において、視界センサ15と透過型ディスプレイ13とが機械的にずれた場合、実空間情報に基づいた透過型ディスプレイ13への画像表示がずれてしまう可能性がある。しかしながら第1及び第2の眼球画像50及び53に基づいて射影行列Pを高精度に補正可能であるので、当該機械的なずれによる画像表示のずれも十分に修正される。従ってHMD100に機械的なずれが発生した場合にもキャリブレーションの継続が可能となり、HMD100の信頼性が向上する。
また本HMD100では、実空間に含まれる基準要素を用いて画像表示のキャリブレーションが実行される。このため、キャリブレーション用装置の特定のマーカ等を必要としない。従ってキャリブレーション環境の準備等のユーザの負担を軽減し、HMD100の使用感を向上させることが可能である。
また本実施形態では、ユーザの視野に含まれる基準要素の数及び基準要素の空間的な分布に基づいて、画像表示のキャリブレーションを行うタイミングを自動的に制御することが可能である。例えば図2に示す判定部263により、1以上の基準要素の数及び分布に基づいて、変換操作の補正を実行するか否かが判定される。基準要素が一定数以上存在する場合には、射影行列P等の変換操作を高精度に補正することができる。また基準要素が遠近上下左右に万遍なく分布している場合、全方位にわたって高精度な補正が可能である。例えばこれらの条件が、補正実行の条件として採用可能である。
一方で基準要素の数が少ない場合または基準要素が空間的に偏って存在する場合には、補正精度が低下してしまう可能性がある。従ってこの場合は、補正を実行するタイミングではないと判定される。変換操作の補正を行うタイミングが適宜制御されることで、キャリブレーションの精度を向上させることが可能となる。なお判定部263による判定は、例えば条件テーブル221に記録された条件に基づいて実行される。また判定の基準となる条件は限定されず、適宜設定されてよい。
視線方向17が変化する頻度、及び基準要素の変動の度合い等を調べることで、キャリブレーションを行うタイミングが制御されてもよい。例えば、内向きカメラ16及びセンサ部23を用いて、ユーザの状態情報として、ユーザの瞬きの回数、視線方向17(眼球10)の移動頻度、及びユーザの運動状態等が検出可能である。また視界センサ15等を用いて、基準要素の変動情報として、基準要素の振動及び移動、基準要素の明滅及び色彩変化等が検出可能である。
例えば判定部263により、眼球10の視線方向17及び位置を含むユーザの状態情報、及び1以上の基準要素の位置の変動を含む変動情報の少なくとも一方に基づいて、変換操作の補正を実行するか否かが判定されてもよい。視線方向や基準要素の変動が少なく安定している場合を補正の実行タイミングとすることで、キャリブレーションの精度を向上することが可能である。
<第2の実施形態>
本技術に係る第2の実施形態のHMDについて説明する。これ以降の説明では、上記の実施形態で説明したHMD100における構成及び作用と同様な部分については、その説明を省略又は簡略化する。
第1の実施形態では、透過型ディスプレイ13に表示されたマーカ画像52を用いて、画像表示の制御が実行された。本実施形態では、マーカ画像に代えて、実空間に重畳されるAR画像を用いて、画像表示の制御が実行される。
図8は、AR画像を用いた画像表示の制御例を説明するための模式図である。ここでは、映画のスクリーンに対して、AR画像として字幕を重畳する場合を例にして説明を行う。
図8Aは、第1の眼球画像60の一例を示す模式図である。第1の眼球画像60には、ユーザの視野内にあるスクリーン61が表示されている。第1の眼球画像60から、スクリーン61の4つの頂点が基準要素Hとして抽出される(図3のステップ103に相当)。
図8Bは、透過型ディスプレイ13による字幕(AR画像62)の表示例を示す図である。本実施形態では、第1の眼球画像60内の基準要素Hの位置をもとに、字幕Nの表示位置が算出される。例えば各頂点の基準要素Hの位置をもとに、透過型ディスプレイ13上のスクリーン61の位置が推定され(波線の枠63)、当該スクリーンの位置に対して字幕Nの好ましい配置情報(表示位置)が算出される。なお第1の眼球情報60に基づいた字幕Nの表示位置の算出方法として、他の方法が用いられてもよい。
第1の実施形態で説明したマーカの位置情報(波線のバツ印H')が算出され、字幕Nの表示位置が算出に用いられてもよい。例えば視界センサ15の出力である深度マップを用いて、実空間上のスクリーン61の各頂点(基準要素)の実空間座標が算出される。当該実空間座標を表示座標に変換することで、マーカの位置情報を算出することが可能となる。これによりスクリーン61の形状、サイズ、位置等の情報を高精度に取得可能であり、字幕Nの表示位置を高精度に算出することが可能となる。
なお図8Bには、説明をわかりやすくするために、上記したスクリーンの推定位置(波線の枠63)やマーカの位置H'が波線で図示されているが、透過型ディスプレイ13に表示されるのは、AR画像である字幕Nのみである。
透過型ディスプレイ13に字幕Nが表示される際には、調光素子14の透過率が調節され、眼球10へのスクリーン61の映り込みが規制される。そして内向きカメラ16により第2の眼球画像が撮影される(図3のステップ107からステップ109に相当)。
図8Cは、字幕Nが映った第2の眼球画像64の一例を示す模式図である。第2の眼球画像64内の字幕Nの位置と、スクリーンの位置(波線の枠65)とが比較され、字幕Nの位置ずれや歪み等が検出される。なおスクリーンの位置は、第1の眼球画像60の4つの基準要素Hの位置をもとに算出可能である。
補正部により、字幕Nのずれ及び歪みが補正される。ここで字幕Nの補正の方法は限定されない。例えば、透過型ディスプレイ13上で、字幕Nに対して回転及び併進処理等を実行し、字幕Nを補正することが可能である。当該回転及び併進処理が、以降のAR画像等の表示に用いられてもよい。
また実空間座標から表示座標に変換されたマーカの位置情報(波線のバツ印H')をもとに、透過型ディスプレイ13上の字幕Nの表示位置が算出される場合には、第2の眼球画像64をもとに、射影行列Pが補正されてもよい。その他、AR画像等の表示を制御する方法は限定されない。
第2の眼球画像64内の字幕Nの位置が、所定の範囲に収束するまで、補正ルーチンが適宜繰り返される。
このように画像生成部は、実空間に対応するAR画像を生成し、補正部は、第1の眼球画像60に含まれる1以上の基準要素Hと、第2の眼球画像64に含まれるAR画像との位置関係に基づいて、射影行列Pの補正等を含む画像表示の制御を行う。これにより透過型ディスプレイ13によるAR画像等の表示を高精度に制御することが可能となる。
マーカ画像に代えてAR画像を用いてキャリブレーションすることで、処理時間の短縮や処理速度を向上させることが可能となる。またユーザのAR体験を中断させることなく、キャリブレーションを実行することも可能となる。
透過型ディスプレイ13に字幕Nを表示する際に、字幕Nとともに1以上のマーカが表示されてもよい。そして第2の眼球画像に含まれるマーカ及び字幕Nと基準要素Hとの位置関係に基づいて、キャリブレーションが実行されてもよい。すなわちマーカ画像によるキャリブレーションと、AR画像によりキャリブレーションが組み合わされてもよい。これにより高精度に射影行列P等の補正を実行することが可能となる。なおマーカとAR画像とをともに含む画像は、マーカを含むマーカ画像といえる。
また図8Cに示す第2の眼球画像64を撮影する際に、透過率の規制が行われなくてもよい。この場合、第2の眼球画像には、透過型ディスプレイ13に表示される字幕Nと、実空間内のスクリーンとが重畳されて表示される。これらの位置関係をもとに、キャリブレーションを実行することで、高精度に画像表示を制御することが可能となる。
透過型ディスプレイ13に表示される字幕Nと、実空間内のスクリーンとがともに表示された第2の眼球画像に基づいてキャリブレーションが実行される場合には、第1の眼球画像60を用いることなくキャリブレーションを実行することも可能である。この場合、例えば適当な位置に字幕Nが表示され、第2の眼球画像が撮影され、キャリブレーションが実行される。
<その他の実施形態>
本技術は、以上説明した実施形態に限定されず、他の種々の実施形態を実現することができる。
第1の実施形態では、図4に示すように基準要素F3に対して移動量補正が実行された。これに限定されず、例えば透過型ディスプレイ13に表示されるマーカ画像52等の実空間に関連する画像に対して、移動量補正が実行されてもよい。この場合でも、第1の眼球画像50と第2の眼球画像53との撮影の間に生じた、ユーザの挙動等に伴う視野のずれを補正することが可能である。この結果、高精度にAR画像等の表示を制御可能である。
図3に示したフローチャートでは、ステップ108において調光素子14の透過率が調整され、第2の眼球画像53が撮影された。調光素子14の透過率を調節せずに、すなわち透過率を下げることなく、第2の眼球画像が撮影されてもよい。これにより第1の眼球画像と第2の眼球画像との撮影の時間差を短縮できるので、その間のユーザの挙動に伴うキャリブレーションの誤差を抑制することが可能である。また処理時間の短縮や処理速度を向上させることが可能となり、ユーザの負荷を低減することが可能である。
図6では、マーカM2の抽出精度を向上させるため、マーカM2の形状等が調節された。これに限定されず、第2の眼球画像内の1以上のマーカの映りかたに基づいて、マーカの形状等が調節されてもよい。例えば、第2の眼球画像においてマーカの映りが悪く抽出精度が低い場合、各マーカを大きく表示する代わりに、表示密度を下げたり、輝度を上げたり、色等を変化させることで、補正精度を向上可能である。反対にマーカの抽出精度が十分に高い場合、各マーカのサイズを小さくし表示密度を上げることで、十分高精度にキャリブレーションを実行可能である。このように1以上のマーカの映りかたに基づいて表示を調節することで、AR画像等の表示を高精度に補正することが可能である。
図5では、視界センサ15の出力に基づいて、ユーザの視野に見えている実オブジェクト(直方体51)についての深度マップが生成された。実オブジェクトに関する位置、形状等の実空間情報を生成する方法は限定されず、他の方法が用いられてもよい。例えば、通信部21を介してネットワークシステムからユーザの周辺環境の情報を取得可能である。ここからユーザの視野にある実オブジェクトの情報(実空間情報)を生成可能である。ここでユーザの周辺環境を特定するために、ユーザの視線方向17及び現在位置等を含むユーザの状態情報が利用される。またSLAM技術による、ユーザの自己位置推定及び周辺地図作成が利用されてもよい。
例えば、ユーザが屋外にいる場合、実オブジェクトの情報として、建物の高さ、建物の幅、及び建物までの距離等の情報が生成される。またユーザが屋内にいる場合、映画館のスクリーンのサイズや、ホワイトボードのサイズ等の情報が生成される。これにより、実オブジェクトの詳細な情報に基づいて画像表示を補正可能であり、透過型ディスプレイ13によるAR画像等の表示を高精度に制御することが可能である。
例えば第2の実施形態で実空間のスクリーン61の頂点の実空間座標が用いられる場合に、当該情報を、視界センサ15を用いることなく取得することも可能である。具体的には、ユーザの位置(座席)に基づいて、その座席から見えるスクリーンの形状やサイズ等の情報(頂点の座標も含む)が、通信部等を介して取得されてもよい。あるいは予め座席とスクリーンの情報とが関連付けられて記憶されていてもよい。なお透過型ディスプレイ13に字幕Nを表示する際に、座席等に応じたスクリーンの情報が用いられてもよい。
実空間情報が提供される場所は映画館等に限定されない。例えば飛行機の機内や、電車の車内といった場所で、ユーザの位置(座席)から見える窓枠やテーブルといった実オブジェクトに関する実空間情報が提供されてもよい。これにより多様な種類のAR体験を実現可能である。
AR環境の実現のために透過型ディスプレイに仮想オブジェクト(AR画像)が表示される。この際に、キャリブレーション用のマーカがともに表示されてもよい。あるいは透過型ディスプレイ13に表示されているAR画像の一部が、キャリブレーション用に用いられてもよい。これによりユーザはHMD100の使用中に並行してAR画像の表示を修正することが可能である。これによりユーザの負担を低減し、HMD100の使用感を向上させることが可能である。
透過型ディスプレイに表示されるマーカ画像は、静止画像に限定されず、マーカの動きを表現するアニメーション画像(動画像)が表示されてもよい。当該アニメーション画像が映り込んだ眼球を撮影した動画像又は連続的な複数の静止画像が、第2の眼球画像(群)として取得される。これにより第2の眼球画像(群)に映ったマーカ(基準要素)の検出効率が向上し、AR画像等の表示を高精度に補正することが可能である。
図9は、他の実施形態に係るマーカ画像の一例を示す模式図である。マーカ画像70を生成する際に、マーカ72が表示される領域が適宜設定されてもよい。例えばマーカ72の表示が許可される表示許可領域と、マーカの表示が不可となる表示不可領域とが設定されてもよい。
図9に示す例では、透過型ディスプレイ13内での眼球が注視している注視領域71が算出される。当該注視領域71が表示不可領域として設定され、注視領域71の外側の周辺領域73が表示許可領域として設定される。1以上の基準要素の各々に対応する1以上のマーカ72は、注視領域71を避けて、周辺領域73に目立たないように表示される。これによりユーザの注視対象に重なるようにマーカ72を表示することを回避可能であり、ユーザの作業を阻害することなくマーカ表示を実現可能である。これによりユーザの負担を低減し、HMD100の使用感を向上させることが可能である。
注視領域71の算出としては、例えば内向きカメラ16の出力に基づいて眼球10の視線方向17が検出される。この視線方向17に基づいて注視領域を算出することが可能である。その他、注視領域の算出方法は限定されず、例えば第1及び第2の眼球画像の少なくとも一方に基づいて注視領域が算出されてもよい。
表示許可領域及び表示不可領域の設定方法は限定されず、任意の領域が設定されてもよい。例えば上記した注視領域71が表示許可領域に設定され、周辺領域73が表示不可領域として設定されてもよい。これによりユーザが注視する領域での表示位置の補正等を高精度に実行することが可能となる。
本技術では、内向きカメラの出力に基づいて、ユーザの視野におけるAR画像等のずれを検出可能である。HMDは、この検出結果に基づいてキャリブレーションが必要か否かを判定することが可能である。これにより変換操作の自動補正が実現可能である。自動補正を実行する条件及び方法は限定されない。例えば、変換操作を補正することが必要か否かを判定し、必要であると判定した場合には、自動的に変換操作の補正が実行されてもよい。これにより、AR画像等のずれが生じた場合に、自動的に当該ずれを補正可能であり、高い操作性が発揮される。
例えばHMDが使用されている間、目立たない形状のマーカをユーザの周辺視野に表示させて、AR画像のずれを継続的に観測することも可能である。AR画像のずれが一定の基準を超えた場合に、自動的に補正ルーチンが実効される。これによりHMDの使用中に自然にキャリブレーションを実行することが可能であり、高い操作性が発揮されるとともに使用感を向上させることが可能である。
自動補正を実行する条件として、図2に示す判定部263による補正の実行タイミングに関する判定結果が用いられてもよい。すなわち、ユーザの視野に含まれる基準要素の数、分布並びに変動情報、及びユーザの状態情報等の条件に基づいて自動補正が実行されてもよい。AR画像のずれが一定の基準を超え、かつ判定部263による判定結果が所定の条件を満たした場合に、自動補正が実行される、といった処理も可能である。あるいは、AR画像の視認性を向上するために調光素子14の制御により透過光の量を減少させる際に、あわせて画像表示のキャリブレーションが実行されてもよい。言い換えれば、外光強度に基づいて調光素子14の透過率が低下されていることを条件として画像表示のキャリブレーションが実行されても良い。上記の通り、調光素子14がAR画像の視認性の向上を目的として制御されることをユーザが認識しているのであれば、外光強度に基づく調光素子14の透過率の制御はユーザにとって違和感を与えにくい制御と見做され得る。したがって、当該制御によれば、調光素子14の透過率の制御に対するユーザの違和感を抑制しつつ、画像表示のキャリブレーションを行うことができる。
また自動補正を禁止するモードがユーザにより選択されてもよい。ユーザは操作ボタン20等を介して自動補正を禁止するか否かを選択する。例えば、車の運転及び機械の操作等の作業中に自動補正を禁止することで、ユーザは作業に集中することが可能となる。またユーザの状態の応じたキャリブレーションが実行されてもよい。例えば走行中である場合には、人体の周期的な動きを考慮にいれてキャリブレーションが実行されてもよい。あるいは、AR画像の視認性を向上するために調光素子14の制御により透過光の量を減少させる必要が無い場合、すなわち、外光強度が調光素子14を制御するための条件を満たしていない場合、画像表示のキャリブレーションを禁止しても良い。外光強度が相対的に小さいときに調光素子14を制御して透過光の量を減少させると、ユーザが違和感を覚えやすい。したがって。外光強度に基づくキャリブレーションの禁止は、ユーザの違和感を抑制することができる。
上記では、透過型ディスプレイ13によるAR画像等の表示の制御として、位置、角度、サイズ及び形状等の表示座標に関連したずれについての補正を説明した。これに限定されず、AR画像等の色、輝度、明度、彩度等の色彩に関連した情報が制御されてもよい。例えば、美術館の展示のように照明光による明暗が顕著な場合に、ユーザの視野領域における明るさの分布に対応したAR画像等の表示を行うことが可能である。すなわち、明るい領域には輝度の高いAR画像(例えば文字情報)を表示し、暗い領域には輝度の低いAR画像を表示することで、ユーザにとって認識しやすいAR画像の表示が可能となる。このようにAR画像等の表示を高精度に制御することで、高品質なAR環境を提供することが可能である。
上記では本技術に係る情報処理装置の一実施形態としてHMDを例に挙げて説明を行った。しかしながら他の任意のコンピュータが用いられる場合にも、本技術に適用可能である。
また上記では、ユーザにより操作されるコンピュータ(HMD)により、本技術に係る情報処理方法が実行される場合を説明した。しかしながらユーザが操作するコンピュータとネットワーク等を介して通信可能な他のコンピュータにより、本技術に係る情報処理方法、及びプログラムが実行されてもよい。またユーザが操作するコンピュータと、他のコンピュータとが連動して、本技術に係る画像表示システムが構築されてもよい。
すなわち本技術に係る情報処理方法、及びプログラムは、単体のコンピュータにより構成されたコンピュータシステムのみならず、複数のコンピュータが連動して動作するコンピュータシステムにおいても実行可能である。なお本開示において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれもシステムである。
コンピュータシステムによる本技術に係る情報処理方法、及びプログラムの実行は、例えば第1及び第2の画像の取得、変換操作の補正等が、単体のコンピュータにより実行される場合、及び各処理が異なるコンピュータにより実行される場合の両方を含む。また所定のコンピュータによる各処理の実行は、当該処理の一部または全部を他のコンピュータに実行させその結果を取得することを含む。
すなわち本技術に係る情報処理方法及びプログラムは、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成にも適用することが可能である。
以上説明した本技術に係る特徴部分のうち、少なくとも2つの特徴部分を組み合わせることも可能である。すなわち各実施形態で説明した種々の特徴部分は、各実施形態の区別なく、任意に組み合わされてもよい。また上記で記載した種々の効果は、あくまで例示であって限定されるものではなく、また他の効果が発揮されてもよい。
なお、本技術は以下のような構成も採ることができる。
(1)ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得可能な取得部と、
前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御する表示制御部と
を具備する情報処理装置。
(2)(1)に記載の情報処理装置であって、
前記取得部は、前記ユーザの視野に含まれる前記実空間に関する実空間情報を取得し、
前記表示制御部は、前記実空間情報に基づいて、前記実空間に関連する画像を前記所定の表示部に表示する
情報処理装置。
(3)(2)に記載の情報処理装置であって、
前記表示制御部は、前記実空間に含まれる1以上の基準要素の位置情報を取得し、当該1以上の基準要素の位置を基準として、前記実空間に関連する画像を生成する画像生成部を有する
情報処理装置。
(4)(3)に記載の情報処理装置であって、
前記画像生成部は、前記実空間情報に含まれる実空間座標を前記所定の表示部における表示座標へ変換する変換操作により前記実空間に関連する画像を生成し、
前記表示制御部は、前記第1の画像に含まれる前記1以上の基準要素と前記第2の画像に含まれる前記実空間に関連する画像との位置関係に基づいて、前記変換操作を補正する補正部を有する
情報処理装置。
(5)(4)に記載の情報処理装置であって、
前記画像生成部は、前記1以上の基準要素の各々に対応する1以上のマーカを含む画像を生成し、
前記補正部は、前記第1の画像に含まれる前記1以上の基準要素と、前記第2の画像に含まれる前記1以上のマーカとの位置関係に基づいて、前記変換操作を補正する
情報処理装置。
(6)(5)に記載の情報処理装置であって、
前記画像生成部は、前記マーカの形状、サイズ、表示密度、表示色、及び輝度の少なくとも1つを調節可能である
情報処理装置。
(7)(4)に記載の情報処理装置であって、
前記画像生成部は、前記実空間に対応するAR画像を生成し、
前記補正部は、前記第1の画像に含まれる前記1以上の基準要素と、前記第2の画像に含まれる前記AR画像との位置関係に基づいて、前記変換操作を補正する
情報処理装置。
(8)(4)から(7)のうちいずれか1つに記載の情報処理装置であって、
前記補正部は、前記実空間座標から前記表示座標への射影変換を補正する
情報処理装置。
(9)(1)から(8)のうちいずれか1つに記載の情報処理装置であって、
前記所定の表示部は、前記眼球に対向して配置される透過型ディスプレイである
情報処理装置。
(10)(9)に記載の情報処理装置であって、
前記表示制御部は、前記透過型ディスプレイを透過する光量を調整可能な調光部を有する
情報処理装置。
(11)(10)に記載の情報処理装置であって、
前記調光部は、前記第2の画像の撮影時に前記透過する光量を規制する
情報処理装置。
(12)(3)から(11)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記ユーザの状態を検出可能なセンサ部の検出結果に基づいて、前記1以上の基準要素の位置情報、又は前記実空間に関連する画像を補正する
情報処理装置。
(13)(4)から(12)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記変換操作を補正するか否かを判定する判定部を有し、
前記画像生成部及び前記補正部は、前記判定部の結果に基づいて動作する
情報処理装置。
(14)(13)に記載の情報処理装置であって、
前記判定部は、前記実空間に含まれる前記1以上の基準要素の数及び分布に基づいて、前記変換操作の補正を実行するか否かを判定する
情報処理装置。
(15)(13)または(14)に記載の情報処理装置であって、
前記判定部は、前記眼球の視線方向及び位置を含む前記ユーザの状態の情報、及び前記1以上の基準要素の位置の変動を含む変動情報の少なくとも一方に基づいて、前記変換操作の補正を実行するか否かを判定する
情報処理装置。
(16)(5)から(15)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記所定の表示部内の前記眼球が注視している注視領域を避けて、前記1以上の基準要素の各々に対応する1以上のマーカを表示する
情報処理装置。
(17)(4)から(16)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記変換操作を補正することが必要か否かを判定し、必要であると判定した場合には、自動的に前記変換操作の補正を実行する
情報処理装置。
(18)(1)から(17)のうちいずれか1つに記載の情報処理装置であって、
前記表示制御部は、前記第1の画像及び前記第2の画像の前記眼球の表面形状に由来する歪みを補正する
情報処理装置。
F2、H…基準要素
F3…基準要素
G2…基準要素
10…眼球
13…透過型ディスプレイ
14…調光素子
15…視界センサ
16…内向きカメラ
23…センサ部
24…コントローラ
25…取得部
26…表示制御部
50、60…第1の眼球画像
53、64…第2の眼球画像
72、M2…マーカ
62…AR画像
100…HMD
260…画像生成部
261…補正部
262…調光部
263…判定部

Claims (20)

  1. ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得可能な取得部と、
    前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御する表示制御部と
    を具備する情報処理装置。
  2. 請求項1に記載の情報処理装置であって、
    前記取得部は、前記ユーザの視野に含まれる前記実空間に関する実空間情報を取得し、
    前記表示制御部は、前記実空間情報に基づいて、前記実空間に関連する画像を前記所定の表示部に表示する
    情報処理装置。
  3. 請求項2に記載の情報処理装置であって、
    前記表示制御部は、前記実空間に含まれる1以上の基準要素の位置情報を取得し、当該1以上の基準要素の位置を基準として、前記実空間に関連する画像を生成する画像生成部を有する
    情報処理装置。
  4. 請求項3に記載の情報処理装置であって、
    前記画像生成部は、前記実空間情報に含まれる実空間座標を前記所定の表示部における表示座標へ変換する変換操作により前記実空間に関連する画像を生成し、
    前記表示制御部は、前記第1の画像に含まれる前記1以上の基準要素と前記第2の画像に含まれる前記実空間に関連する画像との位置関係に基づいて、前記変換操作を補正する補正部を有する
    情報処理装置。
  5. 請求項4に記載の情報処理装置であって、
    前記画像生成部は、前記1以上の基準要素の各々に対応する1以上のマーカを含む画像を生成し、
    前記補正部は、前記第1の画像に含まれる前記1以上の基準要素と、前記第2の画像に含まれる前記1以上のマーカとの位置関係に基づいて、前記変換操作を補正する
    情報処理装置。
  6. 請求項5に記載の情報処理装置であって、
    前記画像生成部は、前記マーカの形状、サイズ、表示密度、表示色、及び輝度の少なくとも1つを調節可能である
    情報処理装置。
  7. 請求項4に記載の情報処理装置であって、
    前記画像生成部は、前記実空間に対応するAR画像を生成し、
    前記補正部は、前記第1の画像に含まれる前記1以上の基準要素と、前記第2の画像に含まれる前記AR画像との位置関係に基づいて、前記変換操作を補正する
    情報処理装置。
  8. 請求項4に記載の情報処理装置であって、
    前記補正部は、前記実空間座標から前記表示座標への射影変換を補正する
    情報処理装置。
  9. 請求項1に記載の情報処理装置であって、
    前記所定の表示部は、前記眼球に対向して配置される透過型ディスプレイである
    情報処理装置。
  10. 請求項9に記載の情報処理装置であって、
    前記表示制御部は、前記透過型ディスプレイを透過する光量を調整可能な調光部を有する
    情報処理装置。
  11. 請求項10に記載の情報処理装置であって、
    前記調光部は、前記第2の画像の撮影時に前記透過する光量を規制する
    情報処理装置。
  12. 請求項3に記載の情報処理装置であって、
    前記表示制御部は、前記ユーザの状態を検出可能なセンサ部の検出結果に基づいて、前記1以上の基準要素の位置情報、又は前記実空間に関連する画像を補正する
    情報処理装置。
  13. 請求項4に記載の情報処理装置であって、
    前記表示制御部は、前記変換操作を補正するか否かを判定する判定部を有し、
    前記画像生成部及び前記補正部は、前記判定部の結果に基づいて動作する
    情報処理装置。
  14. 請求項13に記載の情報処理装置であって、
    前記判定部は、前記実空間に含まれる前記1以上の基準要素の数及び分布に基づいて、前記変換操作の補正を実行するか否かを判定する
    情報処理装置。
  15. 請求項13に記載の情報処理装置であって、
    前記判定部は、前記眼球の視線方向及び位置を含む前記ユーザの状態の情報、及び前記1以上の基準要素の位置の変動を含む変動情報の少なくとも一方に基づいて、前記変換操作の補正を実行するか否かを判定する
    情報処理装置。
  16. 請求項5に記載の情報処理装置であって、
    前記表示制御部は、前記所定の表示部内の前記眼球が注視している注視領域を避けて、前記1以上の基準要素の各々に対応する1以上のマーカを表示する
    情報処理装置。
  17. 請求項4に記載の情報処理装置であって、
    前記表示制御部は、前記変換操作を補正することが必要か否かを判定し、必要であると判定した場合には、自動的に前記変換操作の補正を実行する
    情報処理装置。
  18. 請求項1に記載の情報処理装置であって、
    前記表示制御部は、前記第1の画像及び前記第2の画像の前記眼球の表面形状に由来する歪みを補正する
    情報処理装置。
  19. ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得し、
    前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御する
    ことをコンピュータシステムが実行する情報処理方法。
  20. ユーザの眼球に映る実空間を撮影した第1の画像と、前記眼球に映る所定の表示部に表示された前記実空間に関連する画像を撮影した第2の画像とをそれぞれ取得するステップと、
    前記取得された前記第1の画像及び前記第2の画像に基づいて、前記所定の表示部による画像表示を制御するステップと
    をコンピュータシステムに実行させるプログラム。
JP2018525947A 2016-07-04 2017-04-19 情報処理装置、情報処理方法、及びプログラム Active JP6717377B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016132389 2016-07-04
JP2016132389 2016-07-04
PCT/JP2017/015766 WO2018008232A1 (ja) 2016-07-04 2017-04-19 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2018008232A1 true JPWO2018008232A1 (ja) 2019-05-30
JP6717377B2 JP6717377B2 (ja) 2020-07-01

Family

ID=60912465

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018525947A Active JP6717377B2 (ja) 2016-07-04 2017-04-19 情報処理装置、情報処理方法、及びプログラム

Country Status (3)

Country Link
US (1) US11030975B2 (ja)
JP (1) JP6717377B2 (ja)
WO (1) WO2018008232A1 (ja)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3062142B1 (en) 2015-02-26 2018-10-03 Nokia Technologies OY Apparatus for a near-eye display
US20180144554A1 (en) 2016-11-18 2018-05-24 Eyedaptic, LLC Systems for augmented reality visual aids and tools
US10650552B2 (en) 2016-12-29 2020-05-12 Magic Leap, Inc. Systems and methods for augmented reality
EP4300160A3 (en) 2016-12-30 2024-05-29 Magic Leap, Inc. Polychromatic light out-coupling apparatus, near-eye displays comprising the same, and method of out-coupling polychromatic light
US20190012841A1 (en) 2017-07-09 2019-01-10 Eyedaptic, Inc. Artificial intelligence enhanced system for adaptive control driven ar/vr visual aids
US10578870B2 (en) 2017-07-26 2020-03-03 Magic Leap, Inc. Exit pupil expander
US10984508B2 (en) 2017-10-31 2021-04-20 Eyedaptic, Inc. Demonstration devices and methods for enhancement for low vision users and systems improvements
CN111448497B (zh) 2017-12-10 2023-08-04 奇跃公司 光波导上的抗反射涂层
KR20200100720A (ko) 2017-12-20 2020-08-26 매직 립, 인코포레이티드 증강 현실 뷰잉 디바이스용 인서트
US11563885B2 (en) 2018-03-06 2023-01-24 Eyedaptic, Inc. Adaptive system for autonomous machine learning and control in wearable augmented reality and virtual reality visual aids
CN110244459B (zh) 2018-03-09 2021-10-08 财团法人工业技术研究院 增强现实装置
TWI664438B (zh) * 2018-03-09 2019-07-01 Industrial Technology Research Institute 擴增實境裝置
US10755676B2 (en) 2018-03-15 2020-08-25 Magic Leap, Inc. Image correction due to deformation of components of a viewing device
US11187906B2 (en) 2018-05-29 2021-11-30 Eyedaptic, Inc. Hybrid see through augmented reality systems and methods for low vision users
WO2019231850A1 (en) * 2018-05-31 2019-12-05 Magic Leap, Inc. Radar head pose localization
US11579441B2 (en) 2018-07-02 2023-02-14 Magic Leap, Inc. Pixel intensity modulation using modifying gain values
US11856479B2 (en) 2018-07-03 2023-12-26 Magic Leap, Inc. Systems and methods for virtual and augmented reality along a route with markers
WO2020028191A1 (en) 2018-08-03 2020-02-06 Magic Leap, Inc. Unfused pose-based drift correction of a fused pose of a totem in a user interaction system
US12016719B2 (en) 2018-08-22 2024-06-25 Magic Leap, Inc. Patient viewing system
JP2022502798A (ja) 2018-09-24 2022-01-11 アイダプティック, インク.Eyedaptic, Inc. 電子視覚補助具における自律的ハンズフリー制御の改善
US11762623B2 (en) 2019-03-12 2023-09-19 Magic Leap, Inc. Registration of local content between first and second augmented reality viewers
JP7086273B2 (ja) * 2019-03-28 2022-06-17 三菱電機株式会社 空中映像表示装置
EP3799778A1 (en) 2019-10-03 2021-04-07 Nokia Technologies Oy Alerts based on corneal reflections
WO2021097323A1 (en) 2019-11-15 2021-05-20 Magic Leap, Inc. A viewing system for use in a surgical environment
US11204649B2 (en) * 2020-01-30 2021-12-21 SA Photonics, Inc. Head-mounted display with user-operated control
GB2613194A (en) * 2021-11-29 2023-05-31 Samsung Electronics Co Ltd Image processing

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5583795A (en) * 1995-03-17 1996-12-10 The United States Of America As Represented By The Secretary Of The Army Apparatus for measuring eye gaze and fixation duration, and method therefor
US20150103096A1 (en) 2012-05-30 2015-04-16 Pioneer Corporation Display device, head mount display, calibration method, calibration program and recording medium
JP6210447B2 (ja) 2013-02-18 2017-10-11 公立大学法人岩手県立大学 視線計測装置、注視点の表示方法、注視領域の表示方法および注視点のガウス分布の表示方法
JP6175945B2 (ja) * 2013-07-05 2017-08-09 ソニー株式会社 視線検出装置及び視線検出方法
RU2682798C2 (ru) * 2013-07-19 2019-03-21 Сони Корпорейшн Устройство обнаружения и способ
WO2015176163A1 (en) * 2014-05-21 2015-11-26 Millennium Three Technologies Inc Fiducial marker patterns, their automatic detection in images, and applications thereof
WO2016013634A1 (ja) 2014-07-24 2016-01-28 国立研究開発法人科学技術振興機構 画像位置合わせ装置、画像位置合わせ方法、および、画像位置合わせプログラム
US10210670B2 (en) * 2014-10-15 2019-02-19 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
US9622654B2 (en) 2014-12-10 2017-04-18 Telefonaktiebolaget Lm Ericsson (Publ) Device for and method of corneal imaging
WO2016157486A1 (ja) * 2015-04-01 2016-10-06 フォーブ インコーポレーテッド ヘッドマウントディスプレイ
US20160349509A1 (en) * 2015-05-26 2016-12-01 Microsoft Technology Licensing, Llc Mixed-reality headset
US10192361B2 (en) * 2015-07-06 2019-01-29 Seiko Epson Corporation Head-mounted display device and computer program
US10455214B2 (en) * 2016-03-03 2019-10-22 Disney Enterprises, Inc. Converting a monocular camera into a binocular stereo camera

Also Published As

Publication number Publication date
WO2018008232A1 (ja) 2018-01-11
US11030975B2 (en) 2021-06-08
US20200035205A1 (en) 2020-01-30
JP6717377B2 (ja) 2020-07-01

Similar Documents

Publication Publication Date Title
JP6717377B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US11989842B2 (en) Head-mounted display with pass-through imaging
US9711072B1 (en) Display apparatus and method of displaying using focus and context displays
US10670880B2 (en) Image display apparatus and image display method
US9711114B1 (en) Display apparatus and method of displaying using projectors
US8976086B2 (en) Apparatus and method for a bioptic real time video system
WO2016115872A1 (zh) 双目ar头戴显示设备及其信息显示方法
TWI633336B (zh) 頭戴式顯示器、其視野校正方法以及混合實境顯示系統
US20150103096A1 (en) Display device, head mount display, calibration method, calibration program and recording medium
EP3274985A1 (en) Combining video-based and optic-based augmented reality in a near eye display
EP3548955B1 (en) Display apparatus and method of displaying using image renderers and optical combiners
CA2875261C (en) Apparatus and method for a bioptic real time video system
WO2018100239A1 (en) Imaging system and method of producing images for display apparatus
WO2019187808A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20150304625A1 (en) Image processing device, method, and recording medium
CN108605120A (zh) 基于关于显示器的眼调节的观看设备调整
JP2019047911A (ja) ゴーグル型表示装置、視線検出方法及び視線検出システム
CN114008665A (zh) 显示设备及用于校正该显示设备的图像畸变的方法
TW201733351A (zh) 3d自動對焦顯示方法及其系統
KR101817436B1 (ko) 안구 전위 센서를 이용한 영상 표시 장치 및 제어 방법
US20140285484A1 (en) System of providing stereoscopic image to multiple users and method thereof
WO2017081915A1 (ja) 画像処理装置、画像処理方法およびプログラム
KR20170142896A (ko) 컨버전스 매칭을 이용한 개인용 3차원 영상 제공 방법 및 장치
WO2020137088A1 (ja) ヘッドマウントディスプレイ、表示方法、及び表示システム
US20230379594A1 (en) Image blending

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200309

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200512

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200525

R151 Written notification of patent or utility model registration

Ref document number: 6717377

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151