JP2019113849A - 情報処理装置 - Google Patents
情報処理装置 Download PDFInfo
- Publication number
- JP2019113849A JP2019113849A JP2019018866A JP2019018866A JP2019113849A JP 2019113849 A JP2019113849 A JP 2019113849A JP 2019018866 A JP2019018866 A JP 2019018866A JP 2019018866 A JP2019018866 A JP 2019018866A JP 2019113849 A JP2019113849 A JP 2019113849A
- Authority
- JP
- Japan
- Prior art keywords
- video
- display
- image
- display device
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04815—Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/64—Constructional details of receivers, e.g. cabinets or dust covers
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/0138—Head-up displays characterised by optical features comprising image capture systems, e.g. camera
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/0101—Head-up displays characterised by optical features
- G02B2027/014—Head-up displays characterised by optical features comprising information/image processing systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N2013/40—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene
- H04N2013/405—Privacy aspects, i.e. devices showing different images to different viewers, the images not being viewpoints of the same scene the images being stereoscopic or three dimensional
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Optics & Photonics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Hardware Design (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】ユーザーが頭部に装着して使用する映像表示装置に平面映像を表示させる場合に、使用状況に適した態様で表示させることができる情報処理装置を提供する。【解決手段】ユーザーが頭部に装着して使用する映像表示装置と接続され、当該映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる表示モードで、当該平面映像を映像表示装置に表示させる情報処理装置であって、映像表示装置の向きの変化に応じて、平面映像の形状を変化させる情報処理装置である。【選択図】図4
Description
本発明は、ユーザーが頭部に装着して使用する映像表示装置に映像を表示させる情報処理装置、映像表示装置の制御方法、及びプログラムに関する。
ヘッドマウントディスプレイのように、ユーザーが頭部に装着して使用する映像表示装置がある。このタイプの映像表示装置は、ユーザーの目の前に画像を結像させることで、その画像をユーザーに閲覧させる。
さらに上述した映像表示装置の中には、ユーザーの頭の動きを検出し、その位置や向きの変化に連動して更新される画像を表示するものがある。このような映像表示装置は、臨場感のある映像をユーザーに閲覧させることができるため、バーチャルリアリティ技術などに利用されている。一例として、仮想空間に配置した仮想カメラの向きをユーザーの頭の動きに合わせて変化させながら、この仮想カメラから見た仮想空間の様子を示す映像を映像表示装置に表示させるプログラムが知られている。これにより、ユーザーにあたかも仮想空間内にいるかのような映像を閲覧させることができる。
上述した映像表示装置において、平面映像(従来の表示装置が表示するのと同じ2次元の映像)をどのように表示すべきかについては、十分に検討されていなかった。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、ユーザーが頭部に装着して使用する映像表示装置に平面映像を表示させる場合に、使用状況に適した態様で表示させることができる情報処理装置、映像表示装置の制御方法、及びプログラムを提供することにある。
本発明に係る情報処理装置は、ユーザーが頭部に装着して使用する映像表示装置と接続される情報処理装置であって、前記映像表示装置の位置及び/又は向きの変化によらずユーザーの正面方向に平面映像を表示させる第1表示モードで、当該平面映像を前記映像表示装置に表示させる第1表示制御部と、前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる第2表示モードで、当該平面映像を前記映像表示装置に表示させる第2表示制御部と、所与の条件に基づいて前記第1表示モードと前記第2表示モードとを切り替える切り替え制御部と、を含むことを特徴とする。
また、本発明に係る映像表示装置の制御方法は、ユーザーが頭部に装着して使用する映像表示装置の制御方法であって、前記映像表示装置の位置及び/又は向きの変化によらずユーザーの正面方向に平面映像を表示させる第1表示モードで、当該平面映像を前記映像表示装置に表示させるステップと、前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる第2表示モードで、当該平面映像を前記映像表示装置に表示させるステップと、所与の条件に基づいて前記第1表示モードと前記第2表示モードとを切り替える切り替えステップと、を含むことを特徴とする。
また、本発明に係るプログラムは、ユーザーが頭部に装着して使用する映像表示装置と接続されるコンピュータを、前記映像表示装置の位置及び/又は向きの変化によらずユーザーの正面方向に平面映像を表示させる第1表示モードで、当該平面映像を前記映像表示装置に表示させる第1表示制御手段、前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる第2表示モードで、当該平面映像を前記映像表示装置に表示させる第2表示制御手段、及び、所与の条件に基づいて前記第1表示モードと前記第2表示モードとを切り替える切り替え制御手段、として機能させるためのプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る情報処理装置10を含む映像表示システム1の構成を示す構成ブロック図である。同図に示されるように、映像表示システム1は、情報処理装置10と、操作デバイス20と、カメラ25と、中継装置30と、映像表示装置40と、を含んで構成されている。
情報処理装置10は、映像表示装置40が表示すべき映像を供給する装置であって、例えば家庭用ゲーム機、携帯型ゲーム機、パーソナルコンピューター、スマートフォン、タブレット等であってよい。図1に示されるように、情報処理装置10は、制御部11と、記憶部12と、インタフェース部13と、を含んで構成される。
制御部11は、CPU等のプロセッサーを少なくとも一つ含み、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。なお、本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。
インタフェース部13は、操作デバイス20、カメラ25、及び中継装置30との間のデータ通信のためのインタフェースである。情報処理装置10は、インタフェース部13を介して有線又は無線のいずれかで操作デバイス20、カメラ25及び中継装置30のそれぞれと接続される。具体的にインタフェース部13は、情報処理装置10が供給する映像や音声を中継装置30に送信するために、HDMI(High-Definition Multimedia Interface:登録商標)などのマルチメディアインタフェースを含んでよい。また、インタフェース部13は、Bluetooth(登録商標)やUSB等のデータ通信インタフェースを含んでいる。情報処理装置10は、このデータ通信インタフェースを介して、中継装置30経由で映像表示装置40から各種の情報を受信したり、制御信号等を送信したりする。また、このデータ通信インタフェースを介して、操作デバイス20に対するユーザーの操作入力の内容を示す信号や、カメラ25によって撮像された画像のデータを受信する。
操作デバイス20は、家庭用ゲーム機のコントローラ等であって、ユーザーが情報処理装置10に対して各種の指示操作を行うために使用される。操作デバイス20に対するユーザーの操作入力の内容は、有線又は無線のいずれかにより情報処理装置10に送信される。なお、操作デバイス20は情報処理装置10の筐体表面に配置された操作ボタンやタッチパネル等を含んでもよい。カメラ25は、本映像表示システム1を利用するユーザーの前方に設置され、ユーザーが装着する映像表示装置40を含んだ映像を撮像する。
中継装置30は、有線又は無線のいずれかにより映像表示装置40と接続されており、情報処理装置10から供給される映像のデータを受け付けて、受け付けたデータに応じた映像信号を映像表示装置40に対して出力する。このとき中継装置30は、必要に応じて、供給された映像データに対して、映像表示装置40の光学系によって生じる歪みを打ち消す補正処理などを実行し、補正された映像信号を出力してもよい。なお、中継装置30から映像表示装置40に供給される映像信号は、左目用映像、及び右目用映像の二つの映像を含んでいる。また、中継装置30は、映像データ以外にも、音声データや制御信号など、情報処理装置10と映像表示装置40との間で送受信される各種の情報を中継する。
映像表示装置40は、中継装置30から入力される映像信号に応じた映像を表示し、ユーザーに閲覧させる。映像表示装置40は、ユーザーが頭部に装着して使用する映像表示装置であって、両目での映像の閲覧に対応している。すなわち映像表示装置40は、ユーザーの右目及び左目それぞれの目の前に映像を結像させる。また、映像表示装置40は両眼視差を利用した立体映像を表示可能に構成される。図1に示すように、映像表示装置40は、映像表示素子41、光学素子42、発光素子43、モーションセンサー44、近接センサー45、及び通信インタフェース46を含んで構成される。また、図2及び図3は映像表示装置40の外観を示しており、図2が正面側から見た斜視図、図3が背面側から見た斜視図である。
映像表示素子41は、有機EL表示パネルや液晶表示パネルなどであって、中継装置30から供給される映像信号に応じた映像を表示する。映像表示素子41は、左目用映像、及び右目用映像の2つの映像を表示する。なお、映像表示素子41は、左目用映像及び右目用映像を並べて表示する1つの表示素子であってもよいし、それぞれの映像を独立に表示する2つの表示素子によって構成されてもよい。また、公知のスマートフォン等を映像表示素子41として用いてもよい。
光学素子42は、ホログラムやプリズム、ハーフミラーなどであって、ユーザーの目の前に配置され、映像表示素子41が表示する映像の光を透過又は屈折させて、ユーザーの左右それぞれの目に入射させる。具体的に、映像表示素子41が表示する左目用映像は、光学素子42を経由してユーザーの左目に入射し、右目用映像は光学素子42を経由してユーザーの右目に入射する。これによりユーザーは、映像表示装置40を頭部に装着した状態で、左目用映像を左目で、右目用映像を右目で、それぞれ閲覧することができる。なお、本実施形態において映像表示装置40は、ユーザーが外界の様子を視認することができない非透過型の映像表示装置であるものとする。
発光素子43は、LED等であって、映像表示装置40の前面に配置され、情報処理装置10からの指示に応じて発光する。この発光素子43の光をカメラ25で撮影することによって、情報処理装置10はカメラ25の視野内における映像表示装置40の位置を特定することができる。すなわち、情報処理装置10は発光素子43の光を利用して映像表示装置40の位置や傾きの変化をトラッキングすることができる。なお、図2に示すように、本実施形態では発光素子43は複数配置されている。
モーションセンサー44は、映像表示装置40の位置や向き、動きに関する各種の情報を測定する。例えばモーションセンサー44は、加速度センサー、ジャイロスコープ、又は地磁気センサーなどを含んでよい。モーションセンサー44の測定結果は、中継装置30を経由して情報処理装置10に送信される。情報処理装置10は、映像表示装置40の動きや向きの変化を特定するために、このモーションセンサー44の測定結果を用いることができる。具体的に情報処理装置10は、加速度センサーの測定結果を用いることで、映像表示装置40の鉛直方向に対する傾きや平行移動を検出できる。また、ジャイロスコープや地磁気センサーの測定結果を用いることで、映像表示装置40の回転運動を検出できる。
近接センサー45は、センサー近傍の検出対象範囲に物体が近づいた場合に、その存在を非接触で検知するセンサーである。近接センサー45は、例えば赤外線型など、各種の方式のものであってよい。図3に示すように、近接センサー45は映像表示装置40本体部分の背面側略中央に配置されている。これにより近接センサー45は、ユーザーが映像表示装置40を頭部に装着しようとした場合に、ユーザーの額が近づいたことを検出可能になっている。近接センサー45の検知結果を利用することで、情報処理装置10はユーザーが映像表示装置40を頭部に装着したり外したりしたことを検出できる。
通信インタフェース46は、中継装置30との間でデータ通信を行うためのインタフェースである。例えば映像表示装置40が中継装置30との間で無線LANやBluetoothなどの無線通信によりデータの送受信を行う場合、通信インタフェース46は通信用のアンテナ、及び通信モジュールを含む。また、通信インタフェース46は、中継装置30との間で有線によるデータ通信を行うためのHDMIやUSB等の通信インタフェースを含んでもよい。
次に、情報処理装置10が実現する機能について図4を用いて説明する。図4に示すように、情報処理装置10は、機能的に、映像供給部51と、第1表示制御部52と、第2表示制御部53と、切り替え制御部54と、を含む。これらの機能は、制御部11が記憶部12に記憶されたプログラムを実行することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して情報処理装置10に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。
映像供給部51は、映像表示装置40が表示すべき映像を供給する。本実施形態では、映像供給部51は、平面映像(2D映像)Mを表示対象の映像として供給することとする。ただし、映像供給部51は平面映像Mだけに限らず視差による立体視が可能な立体映像を映像表示装置40に供給してもよい。
具体的に、例えば映像供給部51は、制御部11がゲームのアプリケーションプログラムを実行することによって実現されてよい。この場合、映像供給部51はゲームの進行状況を示すゲーム画像を平面映像Mとして供給することになる。また、映像供給部51は、光ディスクやハードディスク等の情報記憶媒体に記憶された映画等の映像データを読み出してレンダリングするレンダリングエンジンであってもよい。
第1表示制御部52、及び第2表示制御部53は、いずれも映像供給部51が供給する平面映像Mを中継装置30に対して出力することによって、映像表示装置40に表示させる表示制御を実現する。ただし、第1表示制御部52と第2表示制御部53とでは、映像表示装置40に平面映像Mを表示させる方式が異なる。以下では、第1表示制御部52が実現する表示モードを第1表示モード、第2表示制御部53が実現する表示モードを第2表示モードという。また、第1表示制御部52及び第2表示制御部53のそれぞれが中継装置30に対して出力する、平面映像Mを含んだ映像を、表示用映像という。
第1表示モードは、映像表示装置40の位置及び/又は向きの変化によらずユーザーの正面方向に平面映像Mを表示させる表示モードである。この第1表示モードにおいては、映像表示装置40の位置や向きの変化にかかわらず、映像表示装置40の表示領域内に常に平面映像Mが表示される。具体的に第1表示制御部52は、映像供給部51が供給する映像を略中央の所定位置に配置した右目用映像、及び左目用映像を生成する。そして、生成した二つの映像を表示用映像として中継装置30に対して出力する。これにより、第1表示モードによる表示中は、映像表示装置40の表示領域内における平面映像Mの表示位置は変化せず、常にユーザーから見て正面方向に平面映像Mが表示されることになる。すなわち、第1表示モードによる表示中は、映像表示装置40の表示領域外に平面映像Mが移動してしまうことはない。映像表示装置40はユーザーの頭部に固定されているので、ユーザーが自分の頭を動かして顔の位置や向きを変化させると、ユーザーには自分の動きに合わせて平面映像Mを表示するスクリーンが動くように感じられる。
第2表示モードは、映像表示装置40の位置及び/又は向きの変化に応じて変化する態様で平面映像Mを表示させる表示モードである。この第2表示モードにおいては、映像表示装置40の動きに連動して映像表示装置40の表示領域内のおける平面映像Mの表示位置が変化する。具体的に第2表示制御部53は、平面映像Mの表示位置が仮想的な空間内において固定されるように平面映像Mの表示位置を制御する。そのため第2表示モードでは、ユーザーが頭を大きく動かすと、映像表示装置40の表示領域外まで平面映像Mが移動してしまい、平面映像Mが表示されなくなる場合がある。このような場合、第2表示制御部53は、平面映像Mを再び表示させるためにどの向きに顔を向ければよいかをユーザーに知らせるために、方向を示すマーカー画像等を表示用映像に含めてもよい。
図5は、第2表示モードにおける表示用映像の描画処理の具体例を説明する図である。この図は、仮想スクリーンVSと二つの視点カメラC1及びC2とが配置された仮想空間を上方から見た様子を示している。同図に示すように、第2表示制御部53は、仮想空間内に仮想スクリーンVSを配置し、この仮想スクリーンVSに相対する位置に二つの視点カメラC1及びC2を配置する。二つの視点カメラC1及びC2は、左右方向に沿って所定距離離れて並んでいる。そして、仮想スクリーンVSの表面に、映像供給部51が供給する平面映像Mをテクスチャーとして貼り付ける。この状態において第2表示制御部53は、視点カメラC1から仮想空間内を見た様子を示す画像を描画して左目用映像を生成する。また、視点カメラC2から仮想空間内を見た様子を示す画像を描画して右目用映像を生成する。このようにして生成された表示用映像を映像表示装置40が表示することで、ユーザーは、自分の前方の離れた位置に存在する仮想スクリーンVSに平面映像Mが映っている様子を閲覧することできる。
さらに第2表示制御部53は、映像表示装置40の向きの変化に応じて、二つの視点カメラC1及びC2の向き(視線方向)を変化させる。ここで映像表示装置40の向きは、例えば映像表示装置40の上下方向、左右方向、及び前後方向のそれぞれの方向に沿った回転軸を中心とした回転角(すなわち、ヨー角、ピッチ角、及びロール角)によって定義されてよい。また、第2表示制御部53は、映像表示装置40の平行移動に応じて、二つの視点カメラC1及びC2の位置を変化させる。前述したように、第2表示制御部53は、モーションセンサー44の測定結果を利用したり、カメラ25が撮像した撮像画像から発光素子43の光の位置を検出したりすることによって、映像表示装置40の位置及び向きの変化を特定することができる。第2表示制御部53は、このようにして特定される映像表示装置40の位置及び向きの変化に連動するように、視点カメラC1及びC2の位置及び向きを変化させる。
具体的に、第2表示制御部53は、映像表示装置40の向きが変化した場合、その回転と同じ回転方向、及び回転量だけ視点カメラC1及びC2を回転させる。このとき、視点カメラC1及びC2は、両者の中心位置を回転中心として、互いの距離を保ったまま仮想空間内で回転する。また、映像表示装置40が基準位置から平行移動した場合、第2表示制御部53は、その移動方向及び移動量に応じて視点カメラC1及びC2の双方を仮想空間内で移動させる。そして、位置及び向きの変化した視点カメラC1及びC2のそれぞれから仮想スクリーンVSを見た様子を描画することによって、左目用映像、及び右目用映像を生成する。このとき、視点カメラの位置や向きは変化するが、仮想スクリーンVSの仮想空間内における位置は変化しない。これによりユーザーは、あたかも平面映像Mを映すスクリーンが実際に空中に固定されているかのような感覚で、平面映像Mを閲覧することができる。さらにユーザーは、例えば平面映像Mの外周近傍が視界の中心に来るように顔の向きや位置を変化させることで、初期状態では視認しにくい外周近傍の表示内容に注目して平面映像Mを閲覧することができる。
なお、ここでは映像表示装置40の向き、及び位置の双方の変化に連動して表示用映像を更新することとしたが、第2表示制御部53は、映像表示装置40の向き、及び位置のいずれか一方のみに連動するように表示用映像を変化させてもよい。また、以上の説明では、仮想的な3次元空間内に配置された仮想スクリーンVSを二つの視点カメラから見た様子を描画することによって、平面的な表示用映像を生成することとした。しかしながら表示用映像の描画処理はこのような方法に限られず、第2表示制御部53は2次元的な画像処理によって表示用映像を生成してもよい。例えば第2表示制御部53は、映像表示装置40の位置の変化に応じて、表示用映像内における平面映像Mの配置位置を決定し、決定した位置に平面映像Mを配置した右目用映像、及び左目用映像をそれぞれ描画する。このとき第2表示制御部53は、映像表示装置40の移動方向と逆方向に移動するように平面映像Mの表示用映像内における位置を変化させる。これにより、ユーザーが顔を動かしても平面映像Mが元の位置にとどまり続けているようにユーザーに感じさせることができる。さらに第2表示制御部53は、映像表示装置40の向きの変化に応じて、平面映像Mの表示位置を変化させるとともに、射影変換等によって平面映像Mの形状を変化させてもよい。このような制御によれば、3次元的な画像処理を実行せずとも第2表示モードにより平面映像Mを表示することができる。
図6A〜図6Cは、第1表示モードと第2表示モードによる表示の相違を説明する図である。図6Aは、初期状態(平面映像Mの表示を開始した状態)における表示の一例を示しており、初期状態では第1表示モード、及び第2表示モードのいずれの場合であっても同様の表示となっている。これに対して図6B及び図6Cは、図6Aの状態からユーザーが顔を傾けた際の表示例を示しており、図6Bが第1表示モードにおける表示例を、図6Cが第2表示モードにおける表示例を、それぞれ示している。第1表示モードでは、ユーザーが顔を傾けたとしても映像表示装置40の表示領域内における平面映像Mの表示位置が変化しない。そのため、ユーザーが顔を傾けるとそれに合わせて平面映像Mも傾けられたように見える。これに対して第2表示モードでは、前述したように仮想的な空間内における平面映像Mの表示位置がユーザーの顔の動きにかかわらず変化しないように制御される。そのため図6Cに示すように、ユーザーが顔を傾けるとそれに合わせて映像表示装置40の表示領域内における平面映像Mの表示位置が回転し、ユーザーからは平面映像Mが図6Aと同じ向きを保っているように見える。
切り替え制御部54は、所与の条件に基づいて、これまで説明した第1表示モードと第2表示モードとを切り替える表示切り替え制御を行う。特に本実施形態において、切り替え制御部54は、ユーザーの直接の操作デバイス20に対する指示入力に応じて表示モードを切り替えてもよいが、それ以外の各種の条件に基づいて表示モードを切り替えてもよい。以下、切り替え制御部54が表示モードの切り替えを行う条件のいくつかの具体例について、説明する。
まず切り替え条件の第1の例として、平面映像Mの表示サイズに応じて表示モードを切り替える例について説明する。この例において、平面映像Mの表示サイズは、ユーザーの操作デバイス20に対する指示入力に応じて切り替えられてもよいし、平面映像Mを供給する映像供給部51からの制御命令によって切り替えられてもよい。また、デフォルトの表示サイズが予めユーザーによって指定されてもよい。
この例では、切り替え制御部54は、平面映像Mの表示を開始するタイミング、または平面映像Mの表示サイズが変更されたタイミングで、これから表示する平面映像Mの表示サイズに応じて、第1表示モード、及び第2表示モードのいずれで表示を行うか決定する。そして、第1表示制御部52または第2表示制御部53に対して、決定した表示モードで平面映像Mを表示するよう指示する。
より具体的に、切り替え制御部54は、所定の閾値以上の表示サイズで平面映像Mを表示すべき場合に、第2表示モードを選択する。逆に所定の閾値より小さな表示サイズで平面映像Mを表示すべき場合には、第1表示モードを選択する。表示サイズが大きくなると、映像表示装置40の表示領域内に平面映像Mが収まりきらなくなる場合がある。また、平面映像Mが表示領域以下のサイズであっても、表示領域の外周に近い位置では表示される画像に歪みが生じるなどして、ユーザーが外周近傍の画像を視認しづらくなる場合がある。そこで、表示サイズが所定の閾値以上の場合には、第2表示モードで平面映像Mを表示することとする。第2表示モードでは、ユーザーの頭の動きに応じて視点カメラの位置や向きが変化する。そのため、ユーザーは平面映像Mの外周近傍の部分を映像表示装置40の表示領域の中心近傍に移動させることで、外周近傍の部分を見やすい状態で平面映像Mを閲覧することができる。逆に平面映像Mの表示サイズが小さい場合、ユーザーは視点を移動させるまでもなく平面映像Mの全体を閲覧することができる。そのため、平面映像Mをユーザーの正面方向に表示する第1表示モードで表示を行うことで、ユーザーは常に平面映像Mの全体を閲覧することができる。
次に、切り替え条件の第2の例として、ユーザーが映像表示装置40の使用を開始する際の表示切り替え制御について説明する。この第2の例において情報処理装置10は、ユーザーが映像表示装置40の使用を開始しようとした場合に、そのことを近接センサー45の検出結果を用いて検知する。そして、ユーザーが映像表示装置40の使用を開始した際に、例えば起動メッセージやシステムメニューなどを含んだ平面映像Mを映像表示装置40に表示させる。
この例において、切り替え制御部54は、近接センサー45が最初に物体の存在を検出した時点では、第1表示モードで平面映像Mを表示するよう第1表示制御部52に指示する。そして、近接センサー45が最初に物体の存在を検出した時点から所定時間が経過したタイミングで、第2表示モードへの切り替えを第2表示制御部53に指示する。このような切り替え制御を行うのは、以下のような理由による。すなわち、近接センサー45が最初に物体の存在を検出した時点では、ユーザーはまだ正しい位置に映像表示装置40を装着できておらず、映像表示装置40を装着する途中の可能性が高い。そのため、近接センサー45が物体の存在を検出したタイミングで直ちに平面映像Mの表示位置を確定してしまうことは好ましくない。一方で、ユーザーが映像表示装置40を装着しようとしている間、何も表示しないこととすると、ユーザーが映像表示装置40を装着する際にその位置を調整することが難しくなる。そこでこの第2の例では、ユーザーが映像表示装置40を装着し始めた場合に、まず第1表示モードで平面映像Mを表示させる。第1表示モードでは映像表示装置40の表示領域の略中央に平面映像Mが常に表示された状態になるため、装着時にユーザーが頭を動かしても平面映像Mの表示領域内における表示位置が変化しない。そのため、ユーザーは容易に平面映像Mが見やすい位置になるよう映像表示装置40の位置を調整することができる。その後、ユーザーが映像表示装置40の装着を終えると想定されるタイミングで第2表示モードに切り替えることで、その時点での映像表示装置40の位置を基準に、平面映像Mの表示位置を制御することができる。
ここで、この第2の例において情報処理装置10が実行する処理の流れの例について、図7のフロー図を用いて説明する。映像表示装置40が使用されていない状態において、切り替え制御部54は、定期的に近接センサー45の検出結果を取得して(S1)、物体の存在が検出されていないかを確認する(S2)。S2で物体の存在が検出された場合、ユーザーが情報処理装置10の使用を開始しようとしていると推定されるため、切り替え制御部54は第1表示制御部52に対して第1表示モードでの表示開始を指示する。これにより第1表示制御部52は、第1表示モードでシステムメニューなどの平面映像Mを表示する処理を開始する(S3)。
その後、切り替え制御部54は、S3で平面映像Mの表示処理が開始されてからの経過時間をカウントし、所定時間が経過したかを判定する(S4)。所定時間が経過した場合、切り替え制御部54は、第2表示制御部53に対して第2表示モードでの表示開始を指示する。これにより第2表示制御部53は、それまで第1表示モードで表示されていた平面映像Mを、第2表示モードで表示する処理を開始する(S5)。
このとき、第2表示制御部53は、S5で表示処理を開始した時点における映像表示装置40の位置及び向きを映像表示装置40の基準姿勢として、表示用映像を生成する。すなわち、第1表示モードから第2表示モードへの切り替えが行われた時点における映像表示装置40の位置及び向きが、仮想空間内における初期の視点カメラの位置及び視線方向に対応づけられ、その視点カメラの視線方向の前方に仮想スクリーンVSが配置される。これにより、第2表示モードが開始された時点では、それまで第1表示モードで表示されていたのと同様に、ユーザーの正面方向に平面映像Mが表示される。その後、映像表示装置40の位置や向きが変化すると、その変化に連動して、視点カメラの位置や視線方向が初期の状態から変化していく。こうすれば、ユーザーが映像表示装置40の装着を開始してから所定時間経過した後の状態(すなわち、ユーザーが映像表示装置40の装着を終えたと想定される状態)を基準状態として、この基準状態におけるユーザーの正面方向に仮想スクリーンVSを固定することができる。
また、この第2の例において、第1表示制御部52は、第1表示モードから第2表示モードに切り替えられるまでの残り時間をユーザーに知らせる通知映像を表示用映像に含めてもよい。この場合の通知映像は、例えば第1表示モードによる表示開始からの経過時間や切り替えまでの残り時間の値を直接示すタイムカウンタや、時間経過を視覚的に表すゲージ画像などであってよい。
以上説明した第1の例と第2の例は、組み合わせて用いられてもよい。具体的に切り替え制御部54は、平面映像Mの表示サイズが所定閾値以上の場合、第2の例で説明したように、近接センサー45が物体の存在を最初に検出した時点では第1表示モードで平面映像Mを表示させ、所定の時間が経過した後に第2表示モードへの切り替えを行う。一方、平面映像Mの表示サイズが所定閾値未満の場合、このような切り替えは行わず、継続して第1表示モードで平面映像Mを表示させる。
なお、切り替え制御部54が表示モードの切り替えを行う契機となる条件は、以上説明したものに限られない。例えば切り替え制御部54は、映像供給部51からの明示の指示に応じて表示モードを切り替えてもよい。映像供給部51は、例えば平面画像内に含まれるコンテンツの性質に応じて、第1表示モードと第2表示モードとを切り替えるよう切り替え制御部54に対して指示する。これにより、表示されるコンテンツの内容に応じて適した表示モードで平面映像Mを表示させることができる。
以上説明した本実施形態に係る情報処理装置10によれば、第1表示モードと第2表示モードを各種の条件に応じて切り替えることによって、ユーザーの使用状況やコンテンツの内容に適した表示モードで平面映像Mを表示させることができる。
なお、本発明の実施の形態は以上説明したものに限られない。例えば以上の説明では、第1表示制御部52は、自身で左目用映像及び右目用映像を生成することとしたが、これに限らず第1表示制御部52は映像供給部51が供給する平面映像Mをそのまま表示用映像として中継装置30に出力してもよい。この場合、中継装置30、または映像表示装置40のいずれかが、供給される平面映像Mを略中央に配置した左目用映像及び右目用映像を生成する。このような方式によれば、中継装置30及び映像表示装置40は、従来の情報処理装置が供給する通常の平面映像Mを含んだ映像信号を受け付けて、映像表示素子41に表示させることができる。
また、第1表示制御部52は、第2表示制御部53が第2表示モードの表示用映像を生成するのと類似する処理によって第1表示モードの表示用映像を生成してもよい。具体的には、仮想空間内に仮想スクリーンVSと視点カメラC1及びC2を配置し、各視点カメラC1から仮想スクリーンVSを見た様子を示す映像を表示用映像として生成する。この場合において、第1表示制御部52は、映像表示装置40の向きや位置によらず視点カメラC1及びC2の位置を常に固定させておけば、常に平面映像Mの位置が表示用映像内で変化しないように制御できる。このような制御によれば、第1表示モードと第2表示モードで描画処理のプロセスを切り替えることなく、同様の手順で生成された同様の形式の映像信号として表示用映像を中継装置30に供給することができる。
また、以上の説明において情報処理装置10が実行することとした処理の一部、又は全部は、中継装置30によって実現されてもよい。この場合、情報処理装置10と中継装置30を含んだシステム全体、または中継装置30が単体で本発明における情報処理装置として機能することになる。
1 映像表示システム、10 情報処理装置、11 制御部、12 記憶部、13 インタフェース部、20 操作デバイス、25 カメラ、30 中継装置、40 映像表示装置、41 映像表示素子、42 光学素子、43 発光素子、44 モーションセンサー、45 近接センサー、46 通信インタフェース、51 映像供給部、52 第1表示制御部、53 第2表示制御部、54 切り替え制御部。
Claims (9)
- ユーザーが頭部に装着して使用する映像表示装置と接続される情報処理装置であって、
前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる表示モードで、当該平面映像を前記映像表示装置に表示させる表示制御部を含み、
前記表示制御部は、前記映像表示装置の向きの変化に応じて、前記平面映像の形状を変化させる
ことを特徴とする情報処理装置。 - 請求項1に記載の情報処理装置において、
前記表示制御部は、射影変換により前記平面映像の形状を変化させる
ことを特徴とする情報処理装置。 - 請求項1又は2に記載の情報処理装置において、
当該情報処理装置は、前記ユーザーからのタッチ操作を受け付ける操作デバイスと接続され、
前記表示制御部は、前記操作デバイスに対する前記ユーザーの操作に応じて前記平面映像の表示サイズを変化させる
ことを特徴とする情報処理装置。 - 請求項1から3のいずれか一項に記載の情報処理装置において、
前記平面映像は、システムメニューを含む映像である
ことを特徴とする情報処理装置。 - 請求項1から4のいずれか一項に記載の情報処理装置において、
前記表示制御部は、前記映像表示装置の向きの変化に応じて、マーカー画像を表示する
ことを特徴とする情報処理装置。 - 請求項5に記載の情報処理装置において、
前記マーカー画像は、前記映像表示装置の向きを変化させるべき方向を前記ユーザーに示す画像である
ことを特徴とする情報処理装置。 - 請求項1から6のいずれか一項に記載の情報処理装置において、
前記映像表示装置の位置及び/又は向きの変化によらずユーザーの正面方向に平面映像を表示させる前記表示モードとは別の表示モードで、当該平面映像を前記映像表示装置に表示させる別の表示制御部と、
前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる表示モードと、前記映像表示装置の位置及び/又は向きの変化によらずユーザーの正面方向に平面映像を表示させる表示モードと、を所与の条件に基づいて切り替える切替制御部と、
をさらに含むことを特徴とする情報処理装置。 - ユーザーが頭部に装着して使用する映像表示装置の制御方法であって、
前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる表示モードで、当該平面映像を前記映像表示装置に表示させる表示ステップを含み、
前記表示ステップでは、前記映像表示装置の向きの変化に応じて、前記平面映像の形状を変化させる
ことを特徴とする映像表示装置の制御方法。 - ユーザーが頭部に装着して使用する映像表示装置と接続されるコンピュータを、
前記映像表示装置の位置及び/又は向きの変化に応じて変化する態様で平面映像を表示させる表示モードで、当該平面映像を前記映像表示装置に表示させる表示制御部、
として機能させるためのプログラムであって、
前記表示制御部は、前記映像表示装置の向きの変化に応じて、前記平面映像の形状を変化させる
プログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015188025 | 2015-09-25 | ||
JP2015188025 | 2015-09-25 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017541443A Division JP6479199B2 (ja) | 2015-09-25 | 2016-05-10 | 情報処理装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019113849A true JP2019113849A (ja) | 2019-07-11 |
Family
ID=58385943
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017541443A Active JP6479199B2 (ja) | 2015-09-25 | 2016-05-10 | 情報処理装置 |
JP2019018866A Pending JP2019113849A (ja) | 2015-09-25 | 2019-02-05 | 情報処理装置 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017541443A Active JP6479199B2 (ja) | 2015-09-25 | 2016-05-10 | 情報処理装置 |
Country Status (6)
Country | Link |
---|---|
US (4) | US10594936B2 (ja) |
EP (2) | EP3340024B1 (ja) |
JP (2) | JP6479199B2 (ja) |
KR (1) | KR102117376B1 (ja) |
CN (1) | CN108027700B (ja) |
WO (1) | WO2017051564A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021067899A (ja) * | 2019-10-28 | 2021-04-30 | 株式会社日立製作所 | 頭部装着型表示装置および表示コンテンツ制御方法 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108027700B (zh) * | 2015-09-25 | 2021-10-08 | 索尼互动娱乐股份有限公司 | 信息处理装置 |
US10229540B2 (en) * | 2015-12-22 | 2019-03-12 | Google Llc | Adjusting video rendering rate of virtual reality content and processing of a stereoscopic image |
US10981060B1 (en) | 2016-05-24 | 2021-04-20 | Out of Sight Vision Systems LLC | Collision avoidance system for room scale virtual reality system |
US11164378B1 (en) * | 2016-12-08 | 2021-11-02 | Out of Sight Vision Systems LLC | Virtual reality detection and projection system for use with a head mounted display |
WO2019188229A1 (ja) * | 2018-03-26 | 2019-10-03 | ソニー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2020090477A1 (ja) * | 2018-11-01 | 2020-05-07 | 株式会社ソニー・インタラクティブエンタテインメント | Vr酔い低減システム、ヘッドマウントディスプレイ、vr酔い低減方法及びプログラム |
WO2021024526A1 (ja) * | 2019-08-06 | 2021-02-11 | パナソニックIpマネジメント株式会社 | 表示装置 |
US12079923B2 (en) * | 2020-03-30 | 2024-09-03 | Sony Group Corporation | Method for changing viewpoint in virtual space |
KR102358898B1 (ko) * | 2020-08-24 | 2022-02-07 | 민팃(주) | 객체 촬영 장치 및 방법 |
CN113777788A (zh) * | 2021-09-09 | 2021-12-10 | 京东方科技集团股份有限公司 | 显示控制方法及装置、显示设备 |
WO2023238197A1 (ja) * | 2022-06-06 | 2023-12-14 | 株式会社ソニー・インタラクティブエンタテインメント | 仮想現実コンテンツ表示システムおよび仮想現実コンテンツ表示方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07298165A (ja) * | 1994-04-27 | 1995-11-10 | Olympus Optical Co Ltd | 頭部装着式映像表示装置 |
JP2009192905A (ja) * | 2008-02-15 | 2009-08-27 | Nikon Corp | 頭部装着型撮影装置 |
JP2011059435A (ja) * | 2009-09-10 | 2011-03-24 | Sumitomo Electric Ind Ltd | ヘッドマウントディスプレイ |
JP2012063253A (ja) * | 2010-09-16 | 2012-03-29 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
US20150103021A1 (en) * | 2013-10-15 | 2015-04-16 | Lg Electronics Inc. | Glass type terminal having three-dimensional input device and screen control method thereof |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003279882A (ja) | 2002-03-22 | 2003-10-02 | Victor Co Of Japan Ltd | ヘッドマウントディスプレイ装置 |
JP4373286B2 (ja) * | 2004-05-06 | 2009-11-25 | オリンパス株式会社 | 頭部装着型表示装置 |
JP2005339266A (ja) | 2004-05-27 | 2005-12-08 | Canon Inc | 情報処理方法、情報処理装置、撮像装置 |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
DE102009037835B4 (de) * | 2009-08-18 | 2012-12-06 | Metaio Gmbh | Verfahren zur Darstellung von virtueller Information in einer realen Umgebung |
JP5434767B2 (ja) * | 2010-04-16 | 2014-03-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びそのプログラム |
WO2012147702A1 (ja) | 2011-04-28 | 2012-11-01 | シャープ株式会社 | ヘッドマウントディスプレイ |
JP2013097529A (ja) | 2011-10-31 | 2013-05-20 | Sony Corp | 情報処理装置、情報処理装置の起動モード切替え方法、プログラム、及び記録媒体 |
EP2611152A3 (en) * | 2011-12-28 | 2014-10-15 | Samsung Electronics Co., Ltd. | Display apparatus, image processing system, display method and imaging processing thereof |
JP2013200775A (ja) * | 2012-03-26 | 2013-10-03 | Sony Corp | 情報処理装置、情報処理方法およびプログラム |
US10175483B2 (en) * | 2013-06-18 | 2019-01-08 | Microsoft Technology Licensing, Llc | Hybrid world/body locked HUD on an HMD |
JP5884816B2 (ja) * | 2013-12-16 | 2016-03-15 | コニカミノルタ株式会社 | 透過型hmdを有する情報表示システム及び表示制御プログラム |
KR102355118B1 (ko) * | 2014-01-06 | 2022-01-26 | 삼성전자주식회사 | 전자 장치 및 가상 현실 모드에서의 이벤트 표시 방법 |
JP6459380B2 (ja) * | 2014-10-20 | 2019-01-30 | セイコーエプソン株式会社 | 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム |
US10192361B2 (en) * | 2015-07-06 | 2019-01-29 | Seiko Epson Corporation | Head-mounted display device and computer program |
CN108027700B (zh) * | 2015-09-25 | 2021-10-08 | 索尼互动娱乐股份有限公司 | 信息处理装置 |
-
2016
- 2016-05-10 CN CN201680053928.3A patent/CN108027700B/zh active Active
- 2016-05-10 EP EP16848354.3A patent/EP3340024B1/en active Active
- 2016-05-10 EP EP24152204.4A patent/EP4339689A3/en active Pending
- 2016-05-10 US US15/754,362 patent/US10594936B2/en active Active
- 2016-05-10 WO PCT/JP2016/063862 patent/WO2017051564A1/ja active Application Filing
- 2016-05-10 KR KR1020187007053A patent/KR102117376B1/ko active IP Right Grant
- 2016-05-10 JP JP2017541443A patent/JP6479199B2/ja active Active
-
2019
- 2019-02-05 JP JP2019018866A patent/JP2019113849A/ja active Pending
-
2020
- 2020-02-05 US US16/782,212 patent/US11202008B2/en active Active
-
2021
- 2021-11-08 US US17/520,862 patent/US11601592B2/en active Active
-
2023
- 2023-02-06 US US18/164,863 patent/US12075157B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07298165A (ja) * | 1994-04-27 | 1995-11-10 | Olympus Optical Co Ltd | 頭部装着式映像表示装置 |
JP2009192905A (ja) * | 2008-02-15 | 2009-08-27 | Nikon Corp | 頭部装着型撮影装置 |
JP2011059435A (ja) * | 2009-09-10 | 2011-03-24 | Sumitomo Electric Ind Ltd | ヘッドマウントディスプレイ |
JP2012063253A (ja) * | 2010-09-16 | 2012-03-29 | Olympus Corp | 画像生成システム、プログラム及び情報記憶媒体 |
US20150103021A1 (en) * | 2013-10-15 | 2015-04-16 | Lg Electronics Inc. | Glass type terminal having three-dimensional input device and screen control method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021067899A (ja) * | 2019-10-28 | 2021-04-30 | 株式会社日立製作所 | 頭部装着型表示装置および表示コンテンツ制御方法 |
Also Published As
Publication number | Publication date |
---|---|
US11601592B2 (en) | 2023-03-07 |
WO2017051564A1 (ja) | 2017-03-30 |
US20180255243A1 (en) | 2018-09-06 |
US11202008B2 (en) | 2021-12-14 |
JP6479199B2 (ja) | 2019-03-06 |
JPWO2017051564A1 (ja) | 2018-03-08 |
US20220060625A1 (en) | 2022-02-24 |
US20200177810A1 (en) | 2020-06-04 |
US12075157B2 (en) | 2024-08-27 |
EP3340024A4 (en) | 2019-03-27 |
US20230188843A1 (en) | 2023-06-15 |
EP3340024B1 (en) | 2024-02-21 |
US10594936B2 (en) | 2020-03-17 |
CN108027700A (zh) | 2018-05-11 |
EP4339689A2 (en) | 2024-03-20 |
EP4339689A3 (en) | 2024-06-12 |
KR102117376B1 (ko) | 2020-06-01 |
CN108027700B (zh) | 2021-10-08 |
KR20180040634A (ko) | 2018-04-20 |
EP3340024A1 (en) | 2018-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6479199B2 (ja) | 情報処理装置 | |
EP3379525B1 (en) | Image processing device and image generation method | |
US11030771B2 (en) | Information processing apparatus and image generating method | |
JP5996814B1 (ja) | 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム | |
JP6576536B2 (ja) | 情報処理装置 | |
US10627628B2 (en) | Information processing apparatus and image generating method | |
JP6963399B2 (ja) | プログラム、記録媒体、画像生成装置、画像生成方法 | |
JP6649010B2 (ja) | 情報処理装置 | |
JP2018094086A (ja) | 情報処理装置および画像生成方法 | |
US20150237338A1 (en) | Flip-up stereo viewing glasses | |
JP6442619B2 (ja) | 情報処理装置 | |
JP6867566B2 (ja) | 画像表示装置及び画像表示システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20191112 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191119 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20200602 |