JP2017046233A - 表示装置及び情報処理装置及びその制御方法 - Google Patents

表示装置及び情報処理装置及びその制御方法 Download PDF

Info

Publication number
JP2017046233A
JP2017046233A JP2015168141A JP2015168141A JP2017046233A JP 2017046233 A JP2017046233 A JP 2017046233A JP 2015168141 A JP2015168141 A JP 2015168141A JP 2015168141 A JP2015168141 A JP 2015168141A JP 2017046233 A JP2017046233 A JP 2017046233A
Authority
JP
Japan
Prior art keywords
display device
image
image data
observer
orientation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015168141A
Other languages
English (en)
Other versions
JP6641122B2 (ja
JP2017046233A5 (ja
Inventor
俊樹 石野
Toshiki Ishino
俊樹 石野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015168141A priority Critical patent/JP6641122B2/ja
Priority to EP16001705.9A priority patent/EP3136724B1/en
Priority to US15/243,012 priority patent/US20170061695A1/en
Publication of JP2017046233A publication Critical patent/JP2017046233A/ja
Publication of JP2017046233A5 publication Critical patent/JP2017046233A5/ja
Application granted granted Critical
Publication of JP6641122B2 publication Critical patent/JP6641122B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0176Head mounted characterised by mechanical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/156Mixing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data

Abstract

【課題】 装着型の表示装置の位置姿勢を、これまでより少ない数のマーカーで検出が可能となる。
【解決手段】観察者に提示するための映像を表示するディスプレイを搭載した、装着型の表示装置であって、表示装置を装着した際の観察者の視線方向の画像であって、前記ディスプレイに表示するための画像を撮像するための主カメラ23,28と、主カメラの撮像視野を包含するために、当該主カメラよりも広い画角を有する副カメラ31,32とを備える。
【選択図】 図3

Description

本発明は、HMD(Head Mounted Display)に代表される装着型の表示装置、及び、それに接続される情報処理装置及びその制御方法に関するものである。
近年、観察者の頭部に装着し、該観察者の眼前に映像を表示する映像表示装置(ヘッドマウントディスプレイ=HMD)が、利用されるようになってきている。HMDは、手軽に映像を大画面で見ることが可能であること、立体視が容易であること等の理由から、人工現実感(バーチャルリアリティ=VR)、複合現実感(ミックスドリアリティ=MR)を体験可能な機器として使用されている。
MRを実現するためのHMDは、観察者の左右の眼に対応した被写体の画像を取り込むための撮像部を有することになる。また、該撮像部により撮影された画像とPC等により作成された3D−CGオブジェクトの画像と重畳し表示するための表示部、並びに、観察者に投影するための観察光学系も有することになる。
観察者に投影する映像は、観察者の左右の眼に対応した小型の液晶パネル等の表示素子に映像を表示し、この映像を観察者の左右それぞれの目に対応した前記観察光学系を介して拡大した後に,観察者の左右の眼球に投影するようになっている。
そして、撮影された被写体の画像は左右両眼に対応する視差を有した画像になっている。さらには3D−CGのオブジェクトを表す画像を観察者の左右両眼に対応した視差画像を作成し、前記撮像系で撮像された映像に重畳して表示する。この結果、観察者には、3D−CGのオブジェクトがあたかも現実空間内に存在するかのように視覚されることになる。かかる点で3D−CGのオブジェクトは仮想オブジェクトとも呼ばれる。
撮像系にて外界を撮影した画像に、3D−CGのオブジェクトを表す画像を重畳し、観察者に違和感なく表示させるためには、HMDの位置姿勢を検出し、検出された位置姿勢に応じた仮想オブジェクトを表す画像を作成する必要がある。
観察者が装着しているHMDの位置姿勢を検出する手法としては、HMDとは別個に外部のセンサを制御し、HMDの位置、姿勢を算出する方法が知られている。また、HMDの撮像部でマーカーと呼ばれる目印映像を撮影し、該マーカーの撮影画像からHMDの位置姿勢を検出する手法も知られている。
特許第3363861号公報 特開2011−205358号公報
特許文献1において、HMDの位置・姿勢を検出する手段として、センサを制御することが開示されているが、センサを別個に有することは、構成の増大であり、重量、構成部品の増加によるコスト増が懸念される。
また、マーカーと呼ばれる目印映像を撮影することでHMDの位置・姿勢を算出する方法は、検出の精度を高めるためには、様々な位置に多数のマーカーを配置する必要がある。それ故、観察者にとってみれば、視野内にたくさんのマーカーがあるように見えてしまい、興ざめの感をぬぐえない。
特許文献2において、HMDの撮像部は広画角の映像を取得し、歪補正を行った映像を観察者に提供する方法が開示されている。しかしながら、広画角の映像から一部分を表示する方法は、解像度の低下を招き、観察者に提供する映像の品位が下がってしまうという問題がある。
この課題を解決するため、例えば本発明の表示装置は以下の構成を備える。すなわち、
観察者に提示するための映像を表示するディスプレイを搭載した、装着型の表示装置であって、
前記表示装置を装着した際の観察者の視線方向の画像であって、前記ディスプレイに表示するための画像を撮像するための第1の撮像手段と、
前記第1の撮像手段の撮像視野を包含するために、当該第1の撮像手段よりも広い画角を有する第2の撮像手段とを備える。
また、本発明の情報処理装置は、上記の表示装置と接続し、当該表示装置が有するディスプレイに表示するための画像を生成する情報処理装置であって、
前記第2の撮像手段が撮像した画像データを解析し、所定のマーカーを検出することで前記表示装置の位置姿勢を検出する検出手段と、
検出した位置姿勢に基づき、合成することになる仮想オブジェクトを表す画像データを生成する生成手段と、
生成した画像データを、前記第1の撮像手段が撮像した画像データと合成する合成手段と、
合成した画像データを前記表示装置に出力する出力手段とを有する。
本発明によれば、装着型の表示装置の位置姿勢を、これまでより少ない数のマーカーで検出が可能となる。
実施形態におけるHMDの装着状態を示す図。 実施形態のHMDの他の例を示す図。 本発明におけるHMDの内部に配置される光学ユニットの斜視図 図3のおける光学ユニットの断面構成図。 実施形態におけるマーカの形態を示す図。 主カメラ、副カメラで撮影される画像の例を示す図。 情報処理装置の機能構成図を示す図。 情報処理装置の処理手順を示すフローチャート。
以下、添付図面に従って本発明に係る実施形態を詳細に説明する。
図1は実施形態における、観察者の頭部に装着する映像表示装置(以下HMDと略す)の側面図である。図中、参照符号10はHMD本体であり、内部には、後述する光学ユニット部11を内蔵している。参照符号30は、HMD10本体を観察者Hの前頭部に安定して密着するためのフレームである。参照符号32はフレーム30の両端から延出し、可撓性(たとえばポリプロピレンの薄板など)部材で構成され、観察者Hの側頭部、後頭部にかけて緊締するバンド部材である。参照符号20および40は、HMD本体10を観察者Hの頭部に安定的に、また快適に固定させるためのパッド部材である。パッド部材20,40を観察者Hの頭部に当接させた状態で、バンド部材32の全長を調整することで観察者Hの頭部への圧力が分散し、観察者に与える違和感を抑制し、かつ、HMD本体10を観察者H眼前に安定して固定されることが可能となる。そして、図示の構成により、観察者Hにとっては、両手がフリーになり、様々な操作を行うことができることになる。
なお、複数人が同一の機体を使用する場合は、装着、取り外し作業が頻繁に発生する点、並びに、そのために清潔面での問題が発生する可能性がある。そのため、HMD本体10を手持ち形態にすることが考えられる。
図2は、手持ち形態の装着型のHMDの形態を模式的に示した図である。HMD本体10を装着系から分離し、手持ちユニット200に接続する。観察者Hは手持ちユニット200を手で維持し、HMD本体10を観察者Hの眼前に装着した状態を維持することになる。手持ち形態にすることで、前述の取りまわり、装着によるデメリットは解消され、複数人が快適に使用できる環境を提供できる。ただし、両手もしくは片手がフリーにはならない。図1、図2の形態は、いずれもが本体10を、観察者の眼前に装着(密着)することには変わりはなく、手持ちユニット200の有無などの、物理的な構造の差は存在すれど、電子的、光学的な構成上の差はないと言える。
図3はHMD10の内部に配置されている光学ユニット部11の斜視図、図4は光学ユニット部11のうちの片眼側を観察者の光軸に垂直な面で切断した断面図である。
図3、4において、参照符号21は、PC等の機器で作成された2次元映像を表示するための表示素子であり、有機EL、あるいは液晶等の2次元マトリクスで映像を表示する素子で構成されている。但し、2次元マトリクスで表示する素子に限定されているものではなく、走査型で映像を表示する素子でも問題ないことは言うまでもない。参照符号22は表示素子21に表示された映像を拡大し、観察者の眼球に投影する観察光学系を構成する素子であるプリズムである。表示素子21、およびプリズム22は観察者の左右両眼の眼前に配置される。
表示素子21に表示された映像は、プリズム22を通ることで拡大され、観察者は左右の眼前に拡大された映像が表示され、高い没入感を得ることができる。なお、表示素子21、プリズム22は観察者に画像を提示する表示部として機能することになる。
参照符号23、28は、観察者の左右の視野に相当する画像を撮影するカメラである。カメラ23は、撮像素子24および撮像素子24に像を結像させるためのカメラレンズ25から構成されている。カメラ28も同様である。
なお、カメラ23,28は、上記の通り、観察者の視野に相当する画像を撮影するカメラであり、後述するもう一組のカメラ31,32と区別するため、以降、カメラ23、28を便宜的に「主カメラ」、カメラ31、32を「副カメラ」と呼び区別する。
また主カメラ23、28の撮影光軸は物体方向からみてミラー26で一回折り曲げられ、下方向に光軸を変化させた後、主カメラ23、28に入射される。1回光路を折り曲げることで装置全体を小型化している。もちろん目的は小型化であり、1回の折り曲げ、また折り曲げ方法がミラーに限定されるものではなく、プリズムで複数回光路を折り曲げる構成にしてもよい。主カメラ23、28の撮影光軸は観察者がプリズム22を観察する観察光軸と略一致しており、観察者の視線方向の映像を撮影するようになっている。また、主カメラ23,28の撮影画角(焦点距離)は、観察者が表示素子21の映像を観察する際の画角と略一致しているか若干広い画角を撮影するようになっている。主カメラ23、28で撮影された映像は、撮像素子24の基板に接続されたケーブルでPC等の外部の情報処理装置に接続される。(ケーブルは図示していない)。情報処理装置は、例えばCGによる仮想オブジェクトの画像を生成し、入力された撮影画像に、生成した仮想オブジェクトを重畳させ、表示素子21に表示させる。この際、情報処理装置は、左右の表示素子21に表示する、仮想オブジェクトを左右の視差に応じて作成する。この結果、観察者は、あたかも観察者の眼前の現実の空間内に、PCで作成されたCGによる仮想オブジェクトが存在するかのように観察することになる。
観察者Hにとって、仮想オブジェクトは観察者Hの位置姿勢とは無関係に存在するものでなければならない。例えば、観察者が右を向いた場合には、仮想オブジェクトは元の位置に留まるよう見せるために、観察者の視野内で左側に移動しなければならない。つまり、情報処理装置は、カメラ23,28で撮像した撮像画像内にて、仮想オブジェクトの位置が左側に移動するように重畳させる処理を行わなければならない。このためには、観察者Hの視点の位置姿勢を検出することである。観察者Hの視点の位置姿勢を検出するため、現実空間内に、位置姿勢検出用のマーカーを随所に配置する技術がある。これらのマーカーの位置や種類は、外部装置には既知である。そして、情報処理装置は、観察者Hのカメラで撮影した左右の画像内のマーカーを検出する処理を行い、画像内の位置やサイズなどから、観察者の視点の位置姿勢を検出する。かかる技術を実現するためには、観察者Hの視野となる主カメラ23,28の撮像視野範囲内に、必ず予め設定された数以上のマーカーが入る必要がある。観察者は、その観察する視点位置を自由に変更できる。それ故、最悪の視点位置であっても、位置姿勢が特定できる数のマーカーが撮像画像中に存在するためには、マーカーを予め設定された間隔内に配置しなければならない。この結果、場合によっては、観察者Hの視野範囲に多数のマーカーが存在することになり、興ざめの感を与えることになりかねない。そこで、本実施形態では、観察者Hの視野内に入るマーカーの数を減らしながらも、観察者の視点の位置姿勢を精度よく検出することを可能とする例を説明する。このため、実施形態におけるHMD本体10には、主カメラ23、28以外に、主カメラ23、28の更に外側に副カメラ31,32を配置させた。主カメラ23、28は、観察者Hの視野範囲の映像として撮像するものであり、観察者Hが実際に肉眼で直視するのと等価の映像を得るため、その画角(または焦点距離)には自ずと制約がある。これに対し、副カメラ31、32は、観察者Hの視点の位置姿勢を検出するためのカメラであり、画角の制限はない。また、副カメラ31、32間の距離は、観察者の左右の目の距離より大きくできるので、視差画像としての精度を高めることができる。
以下、外部機器における。副カメラ31,32で撮像された映像よりHMD本体10の視点の位置姿勢(=観察者の位置姿勢)を算出する方法について述べる。
外部機器は、事前に左右の主カメラ23、28と、左右の副カメラ31、32それぞれの相対位置関係、レンズの焦点距離等のカメラパラメータを取得し、記憶保持しているものとする。
副カメラ31,32は、HMD本体10の位置・姿勢を算出するために使用されており、その撮影画角は、主カメラ23、28よりも広画角な範囲を撮影できるようになっている。それ故、副カメラ31、32による視野範囲内に、HMD本体10の位置姿勢の検出するためのマーカーが存在すればよく、主カメラ23,28には極端にはマーカーが存在しなくても良い。つまり、同じ現実空間であれば、設置するマーカーの個数は、これまでより十分に少なくできることになる。
また、前述のカメラパラメータを所得するため副カメラ31,32の撮影する画角は、主カメラ23,28の画角を包含している。同一の物体を撮影した際に主カメラ23,28と、副カメラ31,32の映像を比較することで各カメラの位置、姿勢、焦点距離等を算出できる。
図5はHMD本体10の位置、姿勢を検出するために使用されるマーカー301の一例の形状である。マーカー301は平板様の形状をしており、表面上に特殊な幾何学模様が描画されている。マーカー301をHMD本体10で撮影すると図6(a)乃至(d)に示されるように2個の主カメラ23、28、2個の副カメラ31、32でそれぞれマーカー301の画像が取得される。実施形態の場合、副カメラ31,32で撮像した画像から、HMD本体の位置、姿勢等の相対関係、焦点距離を公知の手順に従い算出する。この結果を受けて、外部機器は、算出された位置・姿勢に応じてCGに基づく仮想オブジェクトを示す画像を作成し、主カメラ23,28で撮像した画像の、該当する位置に重畳する。この結果、観察者Hが空間内を動き回ってもその観察方向に応じたCGを作成することが可能となる。また観察者Hは、CGに基づく仮想オブジェクトが、現実空間内にあたかも固定され、その場に存在するかのように観察することが可能となる。
前述の通り、副カメラ31,32は、HMD本体10の位置・姿勢を算出するために使用されており、その撮影画角は、主カメラ23,28よりも広画角な範囲を撮影できるようになっている。副カメラ31、32は、主カメラ23,28よりも外側の離れた位置に配置される。この結果、副カメラ31,32による視差は、主カメラのそれよりも大きくなり、マーカー301の検出の精度を高めることが可能となる。
また、副カメラ31,32で撮影される映像は、主カメラ23,28により撮影される映像を包含し、より広画角の映像を撮影できるようになっている。
ここで、主カメラ23、28の画像が、副カメラ31,32の映像と関係なく独立になっている場合を考察する。この場合、主カメラでマーカー301が撮影されているにもかかわらず、副カメラ31,32でマーカー301が検出できない場合が起こり得る。この場合、HMD本体10の位置・姿勢算出ができず、仮想オブジェクトを示す画像が正しい位置に重畳できない。そのため観察者は装置の故障を疑い、HMD本体10の位置、姿勢検出に不満を持つことが考えられる。
かかる点、実施形態によれば、副カメラ31,32による撮影画像は、主カメラ23,28の映像を包含している。従って、観察者Hの視野を撮影する主カメラ23,28でマーカー301が撮影されているならば、副カメラ31,32でもマーカー301が検出されることが約束され、HMD本体10の位置・姿勢を検出を行うことができる。
また、副カメラ31,32は、主カメラ23,28の視野範囲を含み、上側、あるいは下側に傾けて配置されるようにしても良い。例えば天井や床にマーカー301を配置した場合、主カメラ23、28ではその方向にHMDを向けないとマーカー301が検出できないが、副カメラ31,32は、撮影光軸が傾いているため、マーカー301を検出可能である。それ故、副カメラ31,32からの映像を利用して、HMD本体10の位置・姿勢を検出(あるいは算出)することができる。
前述のようにマーカー301を天井、あるいは床に設置した場合、観察者Hの視線は多くの場合、水平方向を向く傾向があるので、マーカーそのものが観察者Hの視野に入りづらくなる。つまり、観察者はマーカーを意識しなくても良いことになる。また、マーカー301を壁面に設置すると他の人、物体に邪魔されてマーカーの検出でできない状態になり得る。かかる点、副カメラ31,32の画角を、主カメラ23,28の画角を包含し、かつ、所定角度だけ上側または下側に向けることで、他人によるマーカーの遮蔽の影響を少なくできる。
また、より好適に天井、あるいは床に配置されたマーカー301を検出するため、副カメラ31,32で撮影される映像は、縦長のアスペクト比の画像を撮影するように、撮像素子を90度回転させて設置している。縦長の撮影範囲とすることで、天井、あるいは床のより広い範囲が撮影可能となり、マーカー301の検出可能範囲を広げることができる。また、例えば観察者Hの真上、真下といったような通常視線を向ける方向ではない位置に設置されたマーカー301が検出可能となる。また、観察者Hにマーカー301の存在を意識させないような使用が可能となり、より快適な環境を提供可能となる。
マーカー301は平板上に幾何学図形が描画されているものとして説明したが、形状が四角形である必要はなく、様々な模様であってよい。また、平板である必要もなく立体的にマーカー301が配置されていてもよい。さらにはマーカーのような特殊な形状ではなく、撮影画像内からエッジ等の目印になるものを検出し、検出されたエッジを基にHMDの位置、姿勢を算出してもよい、
マーカーは、HMD本体10の位置姿勢を算出するために使用されるものであり、形状等に制約を受けるものではないことは言うまでもない。
図7は、実施形態におけるHMD本体10と情報処理装置700との接続関係、並びに、それぞれの構成図である。
HMD本体10についての構成については既に説明したので、以下では情報処理装置700の構成とその動作を、図8のフローチャートに従って説明する。
なお、情報処理装置700は、通常のPCと同様のハードウェアを有するものである。図7の構成は、HMD本体と通信するアプリケーションを起動した際の、ソフトウェアを主とする機能構成図であると理解されたい。それ故、図示の制御部701は、CPU並びにCPUが実行するアプリケーションを格納したRAMで構成される。記憶装置702は、現実空間におけるマーカー301の種類と配置位置を示す情報を記憶している。また、記憶装置702には、合成する仮想オブジェクトにかかる情報も格納されているものとする。記憶装置702は、各カメラの焦点距離などのパラメータも、この記憶装置702に格納されているものとする。記憶装置702は、典型的にはハードディスク装置である。また、HMD本体10と情報処理装置700とは、例えば、USB(Universal Serial Bus)インターフェースで接続されるものとする。ただし、デジタル画像データの像受信を行うための十分な転送帯域を有するものであればよく、通信形態も有線/無線のいずであってもよく、インターフェースの種類は問わない。
ステップS1にて、情報処理装置700は、HMD本体100が有する主カメラ23,28、並びに、副カメラ31,32が撮像した映像データを受信する。ここでは、説明を単純化するため、主カメラ23,28、並びに、副カメラ31,32ともに30フレーム/秒で撮像し、その撮像した映像を情報処理装置700に出力(送信)するものとする。従って、図8のフローチャートに基づく処理は、1/30秒ごとに実行されるものと理解されたい。
位置姿勢検出部703は、ステップS2にて、副カメラ31,32から受信した左右の映像データを解析する。そして、位置姿勢検出部703は、その映像データが示す映像中に存在する、予め設定された数のマーカー301の検出し、記憶装置702を参照して、マーカーの特定と、その向きや大きさなどから、HMD本体10の位置姿勢を検出(算出)する。かかる処理は公知であるので、その詳述は省略する。
CG生成部704は、ステップS3にて、位置姿勢検出部703で検出したHMD本体10の位置姿勢に基づき、観察者Hの左右の視点から見えることになる、仮想オブジェクトを表す画像データを生成する。そして、CG合成部705は、ステップS4にて、生成された仮想オブジェクトを表す左右の画像データを、主カメラ23,28で撮像した左右の画像内のそれぞれに該当する位置に合成する。情報処理装置700は、ステップS5にて、合成後の左右の画像データを、HMD本体10に向けて送信する。この結果、HMD本体10は、受信した合成後の左右の目用の画像データを表示素子21に表示処理を実行する。
以上説明したように本実施形態によれば、観察者の視野に相当する映像を取得する主カメラとは別個に、その主カメラの撮像視野を包含し、より撮像視野が広角な副カメラを搭載し、その副カメラによりHMD本体10の位置姿勢検出用のマーカーを検出する。この結果、これまでよりも少ないマーカーの数で、位置姿勢を検出することができる。
また、副カメラは、主カメラの外側に設けることで、HMD本体の位置、姿勢検出精度を向上させることが可能になる。また、副カメラは、天井、あるいは床をもその視野に入るようにし、天井や床にマーカーを設置するとで、安定してマーカーが検出できるようになる。また、副カメラの視野範囲の水平方向のサイズよりも垂直方向のサイズを大きくすることで、無理なく天井や床に設置したマーカーを検出することが可能になる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
10…HMD本体、21…表示素子、22…プリズム、23,28…主カメラ、31,32…副カメラ、700…情報処理装置、701…制御部、702…記憶装置、703…位置姿勢検出部、704…CG生成部、705…CG合成部

Claims (8)

  1. 観察者に提示するための映像を表示するディスプレイを搭載した、装着型の表示装置であって、
    前記表示装置を装着した際の観察者の視線方向の画像であって、前記ディスプレイに表示するための画像を撮像するための第1の撮像手段と、
    前記第1の撮像手段の撮像視野を包含するために、当該第1の撮像手段よりも広い画角を有する第2の撮像手段と、
    を備えることを特徴とする表示装置。
  2. 前記第2の撮像手段を構成する左右のカメラは、前記第1の撮像手段を構成する左右のカメラの外側に配置されることを特徴とする請求項1に記載の表示装置。
  3. 前記第2の撮像手段を構成する左右のカメラの視線方向は、前記第1の撮像手段を構成する左右のカメラの視線方向に対して、予め設定され角度だけ上または下方向を向いていることを特徴とする請求項1または2に記載の表示装置。
  4. 前記第2の撮像手段が撮像する撮像視野の範囲の垂直方向のサイズは、水平方向のサイズよりも大きいことを特徴とする請求項1乃至3のいずれか1項に記載の表示装置。
  5. 請求項1の表示装置と接続し、当該表示装置が有するディスプレイに表示するための画像を生成する情報処理装置であって、
    前記第2の撮像手段が撮像した画像データを解析し、所定のマーカーを検出することで前記表示装置の位置姿勢を検出する検出手段と、
    検出した位置姿勢に基づき、合成することになる仮想オブジェクトを表す画像データを生成する生成手段と、
    生成した画像データを、前記第1の撮像手段が撮像した画像データと合成する合成手段と、
    合成した画像データを前記表示装置に出力する出力手段と
    を有することを特徴とする情報処理装置。
  6. 請求項1の表示装置と接続し、当該表示装置が有するディスプレイに表示するための画像を生成する情報処理装置の制御方法であって、
    検出手段が、前記第2の撮像手段が撮像した画像データを解析し、所定のマーカーを検出することで前記表示装置の位置姿勢を検出する検出工程と、
    生成手段が、検出した位置姿勢に基づき、合成することになる仮想オブジェクトを表す画像データを生成する生成工程と、
    合成手段が、生成した画像データを、前記第1の撮像手段が撮像した画像データと合成する合成工程と、
    出力手段が、合成した画像データを前記表示装置に出力する出力工程と
    を有することを特徴とする情報処理装置の制御方法。
  7. コンピュータが読み込み実行することで、前記コンピュータを、請求項1の表示装置と接続し、当該表示装置が有するディスプレイに表示するための画像を生成する情報処理装置として機能させるためのプログラムであって、
    前記コンピュータを、
    前記第2の撮像手段が撮像した画像データを解析し、所定のマーカーを検出することで前記表示装置の位置姿勢を検出する検出手段、
    検出した位置姿勢に基づき、合成することになる仮想オブジェクトを表す画像データを生成する生成手段、
    生成した画像データを、前記第1の撮像手段が撮像した画像データと合成する合成手段、
    合成した画像データを前記表示装置に出力する出力手段
    として機能させるためのプログラム。
  8. 請求項7に記載のプログラムを格納した、コンピュータが読み取り可能な記憶媒体。
JP2015168141A 2015-08-27 2015-08-27 表示装置及び情報処理装置及びその制御方法 Active JP6641122B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2015168141A JP6641122B2 (ja) 2015-08-27 2015-08-27 表示装置及び情報処理装置及びその制御方法
EP16001705.9A EP3136724B1 (en) 2015-08-27 2016-08-02 Wearable display apparatus, information processing apparatus, and control method therefor
US15/243,012 US20170061695A1 (en) 2015-08-27 2016-08-22 Wearable display apparatus, information processing apparatus, and control method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015168141A JP6641122B2 (ja) 2015-08-27 2015-08-27 表示装置及び情報処理装置及びその制御方法

Publications (3)

Publication Number Publication Date
JP2017046233A true JP2017046233A (ja) 2017-03-02
JP2017046233A5 JP2017046233A5 (ja) 2018-10-04
JP6641122B2 JP6641122B2 (ja) 2020-02-05

Family

ID=56567344

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015168141A Active JP6641122B2 (ja) 2015-08-27 2015-08-27 表示装置及び情報処理装置及びその制御方法

Country Status (3)

Country Link
US (1) US20170061695A1 (ja)
EP (1) EP3136724B1 (ja)
JP (1) JP6641122B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10320437B2 (en) * 2014-10-24 2019-06-11 Usens, Inc. System and method for immersive and interactive multimedia generation
KR101930657B1 (ko) 2014-10-24 2018-12-18 유센스, 인코퍼레이티드 몰입식 및 대화식 멀티미디어 생성을 위한 시스템 및 방법
RU2686029C2 (ru) * 2017-07-19 2019-04-23 Автономная некоммерческая образовательная организация высшего образования "Сколковский институт науки и технологий" Система виртуальной реальности на основе смартфона и наклонного зеркала
US11431952B2 (en) * 2020-05-11 2022-08-30 Sony Interactive Entertainment Inc. User selection of virtual camera location to produce video using synthesized input from multiple cameras

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004205711A (ja) * 2002-12-24 2004-07-22 Canon Inc 表示装置
JP2004538538A (ja) * 2000-10-05 2004-12-24 シーメンス コーポレイト リサーチ インコーポレイテツド 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置
JP2007233971A (ja) * 2006-03-03 2007-09-13 Canon Inc 画像合成方法及び装置
JP2008146109A (ja) * 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
JP2013174729A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報表示装置、及び情報表示方法
US20140160248A1 (en) * 2012-12-06 2014-06-12 Sandisk Technologies Inc. Head mountable camera system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3387326B2 (ja) * 1996-08-30 2003-03-17 ミノルタ株式会社 映像観察システム
JP3363861B2 (ja) 2000-01-13 2003-01-08 キヤノン株式会社 複合現実感提示装置及び複合現実感提示方法並びに記憶媒体
US6891518B2 (en) * 2000-10-05 2005-05-10 Siemens Corporate Research, Inc. Augmented reality visualization device
US20030227542A1 (en) * 2001-12-20 2003-12-11 Xiang Zhang Single-computer real-time stereo augmented reality system
US7774044B2 (en) * 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US9323055B2 (en) * 2006-05-26 2016-04-26 Exelis, Inc. System and method to display maintenance and operational instructions of an apparatus using augmented reality
JP2011205358A (ja) 2010-03-25 2011-10-13 Fujifilm Corp ヘッドマウントディスプレイ装置
US8885877B2 (en) * 2011-05-20 2014-11-11 Eyefluence, Inc. Systems and methods for identifying gaze tracking scene reference locations
US10110805B2 (en) * 2012-12-06 2018-10-23 Sandisk Technologies Llc Head mountable camera system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004538538A (ja) * 2000-10-05 2004-12-24 シーメンス コーポレイト リサーチ インコーポレイテツド 強化現実可視化付きの、手術中にイメージガイドされる神経外科手術法及び手術用装置
JP2004205711A (ja) * 2002-12-24 2004-07-22 Canon Inc 表示装置
JP2007233971A (ja) * 2006-03-03 2007-09-13 Canon Inc 画像合成方法及び装置
JP2008146109A (ja) * 2006-12-05 2008-06-26 Canon Inc 画像処理方法、画像処理装置
JP2013174729A (ja) * 2012-02-24 2013-09-05 Nikon Corp 情報表示装置、及び情報表示方法
US20140160248A1 (en) * 2012-12-06 2014-06-12 Sandisk Technologies Inc. Head mountable camera system

Also Published As

Publication number Publication date
EP3136724A1 (en) 2017-03-01
JP6641122B2 (ja) 2020-02-05
EP3136724B1 (en) 2020-04-22
US20170061695A1 (en) 2017-03-02

Similar Documents

Publication Publication Date Title
CN106062826B (zh) 图像生成装置以及图像生成方法
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
JP2017204674A (ja) 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
JP2013258614A (ja) 画像生成装置および画像生成方法
JP5869712B1 (ja) 没入型仮想空間に実空間のユーザの周辺環境を提示するためのヘッドマウント・ディスプレイ・システムおよびコンピュータ・プログラム
JP2020004325A (ja) 画像処理装置、画像処理方法およびプログラム
JP6641122B2 (ja) 表示装置及び情報処理装置及びその制御方法
JP2011010126A (ja) 画像処理装置、画像処理方法
CN103517060A (zh) 一种终端设备的显示控制方法及装置
JP2019534493A (ja) 拡張現実感のための装置および方法
JP6419118B2 (ja) 画像表示システム
JP2005312605A (ja) 注視点位置表示装置
JP4708590B2 (ja) 複合現実感システム、ヘッドマウントディスプレイ装置、複合現実感実現方法及びプログラム
JP6649010B2 (ja) 情報処理装置
US20210014475A1 (en) System and method for corrected video-see-through for head mounted displays
JP2017046233A5 (ja)
JP2015007722A (ja) 画像表示装置
TW201823802A (zh) 信息處理系統、操作方法及操作程序
KR20200115631A (ko) 멀티뷰잉 가상 현실 사용자 인터페이스
JPH02291787A (ja) 広視野表示装置
JP2017049553A (ja) 頭部装着装置の製造方法および頭部装着装置
JP2018088604A (ja) 画像表示装置、画像表示方法、システム
JP2006197036A (ja) 立体画像表示装置および立体画像表示方法
JP2005128877A (ja) 複合現実感提示システム及び方法、情報処理装置及び方法、並びにコンピュータプログラム
JP6356928B1 (ja) 画像提供装置、画像提供方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180821

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190513

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190712

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191129

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191227

R151 Written notification of patent or utility model registration

Ref document number: 6641122

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151