JP2014011656A - 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法 - Google Patents

映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法 Download PDF

Info

Publication number
JP2014011656A
JP2014011656A JP2012147343A JP2012147343A JP2014011656A JP 2014011656 A JP2014011656 A JP 2014011656A JP 2012147343 A JP2012147343 A JP 2012147343A JP 2012147343 A JP2012147343 A JP 2012147343A JP 2014011656 A JP2014011656 A JP 2014011656A
Authority
JP
Japan
Prior art keywords
monitor
optically transmissive
displayed
video
hmd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012147343A
Other languages
English (en)
Other versions
JP5483761B2 (ja
Inventor
Yoshinori Ohashi
良徳 大橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2012147343A priority Critical patent/JP5483761B2/ja
Priority to CN201380031820.0A priority patent/CN104396237B/zh
Priority to US14/405,928 priority patent/US9741168B2/en
Priority to PCT/JP2013/002623 priority patent/WO2014002347A1/ja
Priority to ES13809316.6T priority patent/ES2646924T3/es
Priority to EP13809316.6A priority patent/EP2869573B1/en
Publication of JP2014011656A publication Critical patent/JP2014011656A/ja
Application granted granted Critical
Publication of JP5483761B2 publication Critical patent/JP5483761B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2300/00Aspects of the constitution of display devices
    • G09G2300/02Composition of display devices
    • G09G2300/023Display panel composed of stacked panels
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】モニタと光学透過型HMDとの両方を用いて立体映像を表現するための技術を提供する。
【解決手段】オブジェクト分類部504は、仮想的な3次元空間に設置したオブジェクトを、光学透過型HMDに表示させるオブジェクトと、当該光学透過型HMDを通して観察されるモニタ300に表示させるオブジェクトとに分類する。映像出力部506は、オブジェクト分類部504の分類をもとに、オブジェクトの映像をモニタ300または前記光学透過型HMDに出力する。
【選択図】図3

Description

本発明は、映像出力装置、立体映像観察デバイス、それらを含む映像提示システム、および映像出力方法に関する。
近年、立体映像を提示するための技術開発が進み、奥行きを持った立体映像を提示することが可能なヘッドマウントディスプレイ(Head Mounted Display; 以下「HMD」と記載する。)が普及してきている。このようなHMDの中には、ホログラフィック素子やハーフミラー等を用いて、立体映像をユーザに提示しつつ、かつユーザがHMDの外の様子をシースルーで見ることができる光学透過型HMDも開発されている。
近年、テレビモニタの高性能化が進み、奥行きを持った立体映像を提示することが可能な3次元モニタが普及してきている。この3次元モニタを実現する方式は種々提案されいるが、いずれの方式もユーザに視差画像を提示することで、奥行きを持った立体的な映像表現を実現している。これらの3次元モニタは、従来のテレビモニタ同様に2次元の映像を表示することもできる。
光学透過型HMDを装着したユーザは、HMDを通してテレビモニタの映像も見ることができる。本願の発明者は、光学透過型HMDとテレビモニタとの両方に映像を連動させて提示することにより、ふたつの表示デバイスを用いた新たな映像表現が実現できる可能性について認識するに至った。
本発明はこうした課題に鑑みてなされたものであり、その目的は、モニタと光学透過型HMDとの両方を用いて立体映像を表現するための技術を提供することにある。
上記課題を解決するために、本発明のある態様は映像出力装置である。この装置は、仮想的な3次元空間に設置したオブジェクトを、光学透過型HMDに表示させるオブジェクトと、当該光学透過型HMDを通して観察されるモニタに表示させるオブジェクトとに分類するオブジェクト分類部と、前記オブジェクト分類部の分類をもとに、オブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力する映像出力部とを含む。
本発明の別の態様は、立体映像観察デバイスである。このデバイスは、フレームシーケンシャル方式の3次元モニタを観察するための光学シャッタと、光学透過型HMDとを含む。
本発明のさらに別の態様は、映像提示システムである。このシステムは、フレームシーケンシャル方式の3次元モニタと、光学透過型HMDと前記3次元モニタの観察に用いる光学シャッタとを含む立体映像観察デバイスと、仮想的な3次元空間に設置したオブジェクトを、前記光学透過型HMDに表示させるオブジェクトと、前記3次元モニタに表示させるオブジェクトとに分類するオブジェクト分類部と、前記オブジェクト分類部の分類をもとに、オブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力する映像出力部とを含む。
本発明のさらに別の態様は、映像出力方法である。この方法は、仮想的な3次元空間に設置したオブジェクトを、光学透過型HMDに表示させるオブジェクトと、当該光学透過型HMDを装着するユーザが当該光学透過型HMDを通して観察するモニタに表示させるオブジェクトとに分類してオブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力することをプロセッサに実行させる。
本発明のさらに別の態様は、上記のいずれかの方法の各ステップをコンピュータに実現させるプログラムである。
このプログラムは、ビデオやオーディオのデコーダ等のハードウェア資源の基本的な制御を行なうために機器に組み込まれるファームウェアの一部として提供されてもよい。このファームウェアは、たとえば、機器内のROM(Read Only Memory)やフラッシュメモリなどの半導体メモリに格納される。このファームウェアを提供するため、あるいはファームウェアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、モニタと光学透過型HMDとの両方を用いて立体映像を表現するための技術を提供することができる。
実施の形態に係る映像提示システムの全体構成を模式的に示す図である。 実施の形態に係る立体映像観察デバイスの外観の一例を模式的に示す図である。 実施の形態に係る映像出力装置の内部構成を模式的に示す図である。 仮想的な3次元空間およびそこに設置されたオブジェクトと、モニタおよびユーザの視野との関係を模式的に示す図である。 実施の形態に係るオブジェクト分類部によるオブジェクト分類の一例を説明する図である。 実施の形態に係るオブジェクト分類部によるオブジェクト分類の別の例を説明する図である。 実施の形態に係るオブジェクト分類部によるオブジェクト分類のさらに別の例を説明する図である。 実施の形態に係るオブジェクト分類部における分類処理の流れを示すフローチャートである。
本発明の実施の形態の概要を述べる。本発明の実施の形態は、仮想的な3次元空間に設置したオブジェクトを、オブジェクト単位で、モニタに表示させるためのオブジェクトと光学透過型HMDに表示させるためのオブジェクトとに分類し、分類にしたがってモニタまたは光学透過型HMDに表示させる。
図1は、実施の形態に係る映像提示システム100の全体構成を模式的に示す図である。実施の形態に係る映像提示システム100は、立体映像観察デバイス200、モニタ300、および情報処理装置400を含む。
モニタ300は、情報処理装置400が出力するコンテンツの再生画面の少なくとも一部を表示する。モニタ300は一般的な2次元映像を表示するテレビモニタを用いて実現できるが、より没入感を持たせた映像表現をするために3次元モニタであることが好ましい。以下本明細書においては、モニタ300は3次元モニタであることを前提とする。なお、3次元モニタは、2次元画像を表示する一般的なテレビモニタの機能も合わせ持つ。
モニタ300は、立体映像を表示する。人間の左右の目は6cm程度離れているため、左目から見える映像と右目から見える映像には視差が生じる。人間の脳は、左右の目で知覚した視差画像を、奥行きを認識するためのひとつの情報として利用しているといわれている。そのため、左目で知覚される視差画像と右目で知覚される視差画像とをそれぞれの目に投影すると、人間には奥行きを持った映像として認識される。
3次元モニタを実現する方式は種々提案されている。例えばモニタ300がフレームシーケンシャル方式の3次元テレビである場合、モニタ300は、左目用の視差画像と右目用の視差画像とを交互に時分割で表示する。この場合、立体映像観察デバイス200は、光学透過型HMDであり、かつモニタ300を観察するための光学シャッタ(図示せず)を備える。光学シャッタはモニタ300の視差画像の切替と同期して、左右のシャッタを開閉する。より具体的には、モニタ300が左目用の視差画像を表示しているときは、右目用のシャッタを閉じるとともに左目用のシャッタを開け、立体映像観察デバイス200を装着するユーザに左目用の視差画像を提示する。反対に、モニタ300が右目用の視差画像を表示しているときは、左目用のシャッタを閉じるとともに右目用のシャッタを開け、ユーザに右目用の視差画像を提示する。光学シャッタは、例えば既知の液晶シャッタを用いて実現できる。
立体映像観察デバイス200は、シャッタ切替のための同期信号を受信する。同期信号は、モニタ300または情報処理装置400に設けられた図示しない信号送信部から、例えば赤外光等を用いて無線で伝達される。
またモニタ300が偏光方式の3次元テレビである場合、モニタ300の表面に偏光シートが張られる。この偏光シートは、例えばモニタ300の上方から数えて奇数行目のラインと偶数行目のラインとで偏光の向きが変わるように貼付される。立体映像観察デバイス200は偏光レンズを備え、左目用のレンズは、例えば液晶パネルの奇数行目ラインを通過した光が見える向きとし、右目用のレンズは、液晶パネルの偶数行目ラインを通過した光が見える向きとする。これにより、ユーザのそれぞれの目に適切な視差画像が提示される。
いずれの方式においても、モニタ300は、液晶テレビやプラズマディスプレイ、有機ELモニタ、偏光板等の既知の技術を用いて実現できる。
情報処理装置400は、映像提示システム100で提示するための立体映像や上述した同期信号を取得する。情報処理装置400の例としては、例えば据置型のゲーム機や携帯ゲーム機等である。情報処理装置400は内蔵するプロセッサを用いて立体映像や同期信号を生成したり、図示しないネットワークインタフェースを介して、サーバ等の他の情報処理装置から立体映像を取得したりする。
図2は、実施の形態に係る立体映像観察デバイス200の外観の一例を模式的に示す図である。立体映像観察デバイス200は、立体映像を提示する提示部202、撮像素子204、および種々のモジュールを収納する筐体206を含む。
提示部202は、ユーザの目に立体映像を提示する光学透過型HMDを含む。提示部202はまた、3次元モニタの方式にあわせて、例えば光学透過型HMDを透過する外界の光の透過率を変更する液晶シャッタや偏光レンズ等を含む。撮像素子204は、立体映像観察デバイス200を装着するユーザの視野を含む領域にある被写体を撮像する。このため、撮像素子204は、立体映像観察デバイス200をユーザが装着したとき、ユーザの眉間のあたりに配置されるように設置されている。撮像素子204は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子を用いて実現できる。
筐体206は、めがね形状の立体映像観察デバイス200におけるフレームの役割を果たすとともに、立体映像観察デバイス200が利用する様々なモジュール(図示せず)を収納する。立体映像観察デバイス200が利用するモジュールとは、光学透過型HMDを実現するためのホログラム導光板を含む光学エンジン、液晶シャッタを駆動するためのドライバや同期信号受信部、その他Wi−Fi(登録商標)モジュール等の通信モジュール、電子コンパス、加速度センサ、傾きセンサ、GPS(Global Positioning System)センサ、および照度センサ等である。これらのモジュールは例示であり、また立体映像観察デバイス200はこれらのモジュールを必ずしも全て搭載する必要はない。いずれのモジュールを搭載するかは、立体映像観察デバイス200が想定する利用シーンに応じて決定すればよい。
図2は、めがね型の立体映像観察デバイス200を例示する図である。立体映像観察デバイス200の形状は、この他にも帽子形状、ユーザの頭部を一周して固定されるベルト形状、ユーザの頭部全体を覆うヘルメット形状等さまざまなバリエーションが考えられるが、いずれの形状の立体映像観察デバイス200も本発明の実施の形態に含まれることは、当業者であれば容易に理解されよう。
図3は、実施の形態に係る映像出力装置500の内部構成を模式的に示す図である。実施の形態に係る映像出力装置500は、上述した情報処理装置400の一部として実現される。あるいは、インターネット等のネットワークを介して情報処理装置400に送信するための立体映像を生成するサーバ内に実現されてもよいし、立体映像観察デバイス200やモニタ300に内蔵されてもよい。あるいはさらに、映像出力装置500は独立したひとつの装置であってもよい。以下では、実施の形態に係る映像出力装置500は、上述した情報処理装置400の一部として実現されることを前提に説明する。また説明の便宜上、モニタ300はフレームシーケンシャル方式の3次元テレビであることを前提として説明するが、例えば偏光方式等の他の方式の3次元テレビであっても本発明は成立することは当業者には明らかである。
実施の形態に係る映像出力装置500は、オブジェクト取得部502、オブジェクト分類部504、映像出力部506、および同期信号生成部508を含む。
オブジェクト取得部502は、映像提示システム100で提示するための立体映像を生成して取得する。ここで立体映像とは、例えばゲームアプリケーションが生成する3次元CG(Computer Graphics)映像である。
オブジェクト取得部502は、仮想的な3次元空間中に、立体映像を構成するオブジェクトを設定する。ここで本明細書における「オブジェクト」とは、3次元CGにおける描画の要素となるポリゴン(polygon)の集合であって、各ポリゴンが共通の座標軸を持ち、ひとまとまりとして意味を持つものである。具体的には、木や家、車などの物体を表現するポリゴンの集合体や、ユーザの操作対象となるキャラクタ等の人物や生物を表現するポリゴンの集合体である。「オブジェクト」を構成するポリゴンの集合は共通の座標軸をもっているため、仮想的な3次元空間中において位置や向きを特定することができる。
例えば「木」を表すオブジェクトが根本から切り倒されることを表現する場合、仮想的な3次元空間中に直立していた「木」は、根本を中心軸として3次元空間中で次第に傾けて描画される。この時「木」のオブジェクトを構成するポリゴンの各座標は、中心軸を中心とする回転の座標変換を計算することによって求めることができる。これらの操作は、拡大、縮小のスケール変換と合わせて、既知の4×4の変換行列を用いる線形変換の演算によって実現できる。
オブジェクト分類部504は、仮想的な3次元空間に設置した複数のオブジェクトを、
光学透過型HMDに表示させるオブジェクトと、光学透過型HMDを装着するユーザが観察するモニタ300に表示させるオブジェクトとに分類する。オブジェクト分類部504によるオブジェクトの分類の詳細は後述する。
映像出力部506は、オブジェクト分類部504の分類をもとに、オブジェクトの映像をモニタ300または立体映像観察デバイス200中の光学透過型HMDに出力する。このため、映像出力部506は、出力制御部510、第1バッファ512、および第2バッファ514を含む。
第1バッファ512は、立体映像観察デバイス200中の光学透過型HMDに出力するためのオブジェクトの映像を格納する。第2バッファ514は、モニタ300に表示させるためのオブジェクトの映像を格納する。ここで第1バッファ512と第2バッファ514とは物理的に異なるバッファであってもよいし、物理的には同一のバッファを分割して利用するものであってもよい。
出力制御部510は、オブジェクト分類部504の分類にしたがって、光学透過型HMDに出力するためのオブジェクトの映像を第1バッファ512に格納し、モニタ300に表示させるためのオブジェクトの映像を第2バッファ514に格納する。ここで、光学透過型HMDは左目用の視差画像と右目用の視差画像とを同時に表示するため、出力制御部510は、第1バッファ512にオブジェクトの左目用の視差画像と右目用の視差画像とを同時に格納する。一方、モニタ300は左目用の視差画像と右目用の視差画像とを交互に時分割で表示するため、出力制御部510は、第2バッファ514にオブジェクトの左目用の視差画像と右目用の視差画像とを交互に格納する。
同期信号生成部508は、出力制御部510が第2バッファ514に画像を格納するタイミングにしたがって、立体映像観察デバイス200中の光学シャッタの開閉を制御するための同期信号を生成する。立体映像観察デバイス200は、同期信号生成部508が生成した同期信号を受信し、受信した同期信号にしたがって光学シャッタを開閉する。
以下、オブジェクト分類部504によるオブジェクトの分類について具体的に説明する。
図4は、仮想的な3次元空間およびそこに設置されたオブジェクトと、モニタ300およびユーザの視野との関係を模式的に示す図である。図4に示すように、仮想的な3次元空間はx軸、y軸、およびz軸による直交座標系602が設定されている。ここで、直交座標系602のx軸とy軸とが張るxy平面と、モニタ300の表示領域とが平行となるように、直交座標系602が設定される。より具体的には、直交座標系602のx軸とy軸とが張るxy平面上にモニタ300の表示領域が重なるように、直交座標系602の原点Oが設定されるのが好ましい。また、直交座標系602のz軸は、モニタ300の表示領域に対して立体映像観察デバイス200を装着するユーザの視点604側が負のz座標値、モニタ300の表示領域に対して視点604と反対側が正のz座標値となるように設定される。
例えば図4において、球状オブジェクト606は、仮想的な3次元空間においてxy平面に対して視点604と反対側に配置されている。したがって、球状オブジェクト606のz座標の値は正となる。反対に、仮想的な3次元空間において球状オブジェクト608は、xy平面に対して視点604側に配置されるため、そのz座標の値は負となる。ここで、仮想的な3次元空間におけるオブジェクトの座標は、例えばそのオブジェクトを構成する複数のポリゴンの重心の座標を用いることとする。これにより、オブジェクトを構成するポリゴンが複数あったとしてもオブジェクトの位置座標をひとつの座標で表すことができるので、計算コストの抑制と処理速度の向上とが期待できる。
ところで、フレームシーケンシャル方式のモニタ300は、左目用の視差画像と右目用の視差画像とを交互に時分割で表示するため、2次元画像を表示する場合と比較して、映像のフレームレートが下がる。また、フレームシーケンシャル方式のモニタ300は、一般に、映像の奥行き感の表現、すなわち仮想的な3次元空間におけるxy平面に対して視点604と反対側に配置されるオブジェクトの提示を得意とするが、飛び出す表現、すなわち仮想的な3次元空間におけるxy平面に対して視点604側に配置されるオブジェクトの提示は、奥行き感の表現と比較すると苦手であるといわれている。
これに対し、HMDはフレームシーケンシャル方式ではないため、HMDが提示する映像のフレームレートはモニタ300が提示する映像よりも高い。また、モニタ300が提示する映像と比較して飛び出す表現も得意であるといわれている。一方、HMDが提示する映像の解像度は、モニタ300が提示する映像よりも低くなる傾向にある。
本願の発明者は、上述したモニタ300およびHMDの性質を考慮して、オブジェクト毎にモニタ300に表示させるためのオブジェクトと、HMDに表示させるためのオブジェクトとに分類することにより、モニタ300およびHMDの特徴を生かして立体映像を提示することができることを認識するに至った。
これを実現するためのひとつの方法として、オブジェクト分類部504は、仮想的な3次元空間におけるオブジェクトの位置座標をもとにオブジェクトを分類する。
図5は、実施の形態に係るオブジェクト分類部504によるオブジェクト分類の一例を説明する図である。図5に示すように、仮想的な3次元空間における直交座標系602のz座標であって、オブジェクトをモニタ300に表示させるか、あるいは立体映像観察デバイス200中の光学透過型HMDに表示させるかを分類するために定められた表示分類基準座標値Sが定められている。オブジェクト分類部504は、分類対象とするオブジェクトのz座標と表示分類基準座標値Sとの大小関係をもとにオブジェクトを分類する。表示分類基準座標値Sの具体的な値は、モニタ300およびHMDの特徴等を勘案して実験により定めればよいが、例えばモニタ300の表示領域付近となるように0とする。
上述したように、HMDは、モニタ300と比較して飛び出す表現が得意である。そこで、オブジェクト分類部504は、オブジェクトが表示分類基準座標値Sよりも視点604側に表示される場合、すなわちオブジェクトのz座標が表示分類基準座標値Sよりも小さい場合、そのオブジェクトを立体映像観察デバイス200中の光学透過型HMDに表示させるオブジェクトに分類する。
図5において符号612は球状オブジェクト610の重心位置を示す。図5に示すように、球状オブジェクト610の重心612のz座標値は表示分類基準座標値Sよりも大きい。この場合、オブジェクト分類部504は球状オブジェクト610をモニタ300に表示させるオブジェクトに分類する。楕円状オブジェクト614の重心616のz座標の値も表示分類基準座標値Sよりも大きいため、オブジェクト分類部504は球状オブジェクト610をモニタ300に表示させるオブジェクトに分類する。
HMDとモニタ300とは得意とする表現が異なる。そのため、あるひとつのオブジェクトがHMDとモニタ300とにまたがって表示されると、その境界面における接続が不自然となる場合もありうる。例えば、図5に示す楕円状オブジェクト614の一部分618は、モニタ300の表示領域よりも視点604側に存在し、残りの部分はモニタ300の表示領域よりも視点604の反対側に存在する。仮に楕円状オブジェクト614の一部分618をHMDに表示させ、残りの部分をモニタ300で表示させると、境界面であるモニタ300の表示領域において、楕円状オブジェクト614の表現が不自然となる場合もある。
しかしながら、オブジェクト分類部504は、オブジェクトを構成するポリゴン単位ではなく、オブジェクト単位で分類することに留意すべきである。オブジェクト分類部504はオブジェクト単位で分類するため、仮に分類対象のオブジェクトが仮想的な3次元空間においてモニタ300の表示領域と交わり、その一部分がモニタ300の表示領域よりも視点604側に存在するとしても、オブジェクト分類部504は、そのオブジェクトをモニタ300または立体映像観察デバイス200中の光学透過型HMDのいずれか一方に表示させるオブジェクトに分類する。これにより、同一のオブジェクトがHMDとモニタ300とにまたがって表示されることに起因する視覚上の違和感を軽減することができる。
図6は、実施の形態に係るオブジェクト分類部504によるオブジェクト分類の別の例を説明する図であり、ユーザが立体映像観察デバイス200を通してモニタ300を含む領域を観察したときに表示される映像を例示する図である。図6に示す例では、ユーザはFPS(First Person Shooter)のゲームコンテントを再生している。図6にはユーザ自身の腕702や、ユーザが構える銃704、銃704から発射された銃弾706等が示されている。ここで、腕702は当然のことながら実在する。銃704は、ゲームコンテントをプレイするために用意された実在のレプリカでもよいし、オブジェクト取得部502が生成して光学透過型HMDに表示させた仮想のAR(Augmented Reality)イメージであってもよい。なお、ARイメージについては後述する。
ユーザは、モニタ300に表示された標的708に銃弾706を当てることを試みると仮定する。ここで銃弾706は、オブジェクト取得部502が仮想的な3次元空間に生成したオブジェクトであり、標的708は仮想的な3次元空間においてモニタ300の表示領域に対してユーザの反対側にあるとする。
ユーザが標的708に向けて銃弾706を発射すると、銃弾706は、モニタ300の表示領域に対してユーザ側にある銃704の発射口から飛び出し、やがてモニタ300の表示領域に至り、最終的にモニタ300の表示領域に対してユーザの反対側にある標的708に到達する。したがって、上述のオブジェクトの位置座標をもとにする分類にしたがえば、オブジェクト分類部504は、銃弾706がモニタ300の表示領域に対してユーザ側にあるときはHMDに表示させ、モニタ300の表示領域に対してユーザの反対側にあるときはモニタ300に表示させるように分類することになる。
ここでモニタ300はフレームシーケンシャル方式の3次元テレビであることを前提としているため、HMDが提示する映像のフレームレートはモニタ300が提示する映像よりも高い。したがって、モニタ300がフレームシーケンシャル方式の3次元テレビである場合、銃弾706のように動きの速いオブジェクトは、その位置座標にかかわらず、HMDに表示させることが好ましい。そこで、オブジェクト分類部504は、表示分類基準速度値Sとオブジェクトの位置座標の変化速度との大小関係をもとにオブジェクトを分類してもよい。より具体的には、オブジェクト分類部504は、仮想的な3次元空間におけるオブジェクトのz座標の変化速度が、表示分類基準速度値Sよりも大きい場合、そのオブジェクトを立体映像観察デバイス200中の光学透過型HMDに表示させるオブジェクトに分類する。動きの速いオブジェクトをフレームレートの大きい方の提示デバイスに提示することにより、ユーザによる動きの速いオブジェクトの視認性を向上させることができる。
ここで「表示分類基準速度値S」は、オブジェクトをモニタ300に表示させるか、あるいは立体映像観察デバイス200中の光学透過型HMDに表示させるかを分類するために定められた基準速度である。表示分類基準速度値Sの具体的な値は、モニタ300やHMDのフレームレート等を勘案して実験により定めればよい。これにより、例えば動きの少ない遠景の背景等はモニタ300が表示する等、モニタ300およびHMDのフレームレートの特徴を生かして立体映像を提示することが可能となる。
図7は、実施の形態に係るオブジェクト分類部504によるオブジェクト分類のさらに別の例を説明する図であり、マーカ710とそのマーカに紐付けられたARイメージ712とを含む映像を例示する図である。ここで「マーカ」とは、例えばオブジェクトを生成するオブジェクト取得部502が利用する情報であって、仮想的な3次元空間に生成する画像の位置を特定できる情報である。また「ARイメージ」とは、例えばマーカに関連づけられたオブジェクトであって、そのマーカの位置および向きの変化に連動して位置および向きが変化するオブジェクトである。すなわち、オブジェクト取得部502が生成するオブジェクトには、マーカに関連づけられたARイメージも含む。なお、マーカとして、例えば円錐のような3次元の物体が用いられる場合には、マーカの3次元空間における「向き」が特定できる。このような場合、画像を生成すべき位置のみならず、生成する画像の向きも特定できる。
図7は、ユーザの腕702が握っている棒状の握り部および球状の物体からなるマーカの一例を図示している。図7に示す例では、マーカ710は実在する物体である。立体映像観察デバイス200の撮像素子204は、ユーザの視野を含む領域中に存在するマーカ710を流し撮りして、オブジェクトを生成するオブジェクト取得部502に送信する。オブジェクト取得部502は、撮像素子204が撮像した映像からマーカ710の位置および向きを特定し、仮想的な3次元空間の対応する位置にマーカ710に関連づけてARイメージ712を生成する。図7に示す例では、ARイメージ712は炎を表現するオブジェクトである。
オブジェクト取得部502が生成するARイメージ712もオブジェクトであるため位置座標が定められているが、オブジェクト取得部502は、上述の直交座標系602ではなく、ARイメージ712を関連づけるマーカ710の位置を原点として設定された座標系714にしたがってARイメージ712を生成する。このため、ユーザがマーカ710の位置および向きを変更すると、ARイメージ712が基準とする座標系714も変更する。座標系714が変更されると、それに伴ってARイメージ712の位置および向きも変更される。なお、ARイメージ712が基準とする座標系714の原点は、必ずしも関連するマーカと重なる位置になくてもよい。
このように、ARイメージはマーカに関連づけられており、マーカは実在する物体であることが多い。ゆえに、ARイメージはモニタ300の表示領域に対してユーザ側に提示される機会が多く、また、マーカの移動に伴って位置が変わるため、移動速度も比較的大きくなる。そこでオブジェクト分類部504は、ARイメージは立体映像観察デバイス200中の光学透過型HMDに表示させるオブジェクトに分類する。光学透過型HMDに表示されたオブジェクトは半透明であり、背後の映像も透過させる。これにより、ユーザがマーカを操作してARイメージを移動させたとしても、ARイメージに遮られてモニタ300の表示が見えなくなるという不都合も回避することができる。
同様の不都合を回避するために、オブジェクト分類部504は、ユーザの操作対象となるオブジェクトを、そのオブジェクトの位置座標に関わらず、光学透過型HMDに表示させるオブジェクトに分類してもよい。ここで「操作対象オブジェクト」とは、例えば光学透過型HMDを装着するユーザの操作に応じて仮想的な3次元空間中の位置座標を変更可能なオブジェクトである。これにより、仮に、ユーザの視点と回避すべき敵キャラとの間に操作対象オブジェクトが表示されることになったとしても、それによってユーザが敵キャラを見失うという事態が回避される。
図8は、実施の形態に係るオブジェクト分類部504における分類処理の流れを示すフローチャートである。本フローチャートにおける処理は、例えば映像出力装置500の電源が投入されたときに開始する。
オブジェクト分類部504は、オブジェクト取得部502が生成した複数のオブジェクトの中から、分類の対象とするひとつのオブジェクトを選択する(S2)。選択したオブジェクトがARイメージではない場合(S4のN)、オブジェクト分類部504は、選択したオブジェクトの仮想的な3次元空間における移動速度を取得する(S6)。
選択したオブジェクトの移動速度が表示分類基準速度値S未満の場合(S8のN)、オブジェクト分類部504は、選択したオブジェクトの仮想的な3次元空間におけるz座標を取得する(S10)。選択したオブジェクトのz座標が表示分類基準座標値Sよりも大きい場合(S12のN)、オブジェクト分類部504は、選択したオブジェクトをモニタ300に表示させるオブジェクトに分類する(S14)。
選択したオブジェクトがARイメージの場合(S4のY)、選択したオブジェクトの移動速度が表示分類基準速度値S以上の場合(S8のY)、あるいは選択したオブジェクトのz座標が表示分類基準座標値S未満の場合(S12のY)、オブジェクト分類部504は、選択したオブジェクトを立体映像観察デバイス200中の光学透過型HMDに表示させるオブジェクトに分類する(S16)。
オブジェクト取得部502が生成した全てのオブジェクトを選択していない場合(S18のN)、オブジェクト分類部504は上述したステップS2からステップ16までの処理を繰り返し、オブジェクトの分類を継続する。オブジェクト取得部502が生成した全てのオブジェクトをオブジェクト分類部504が選択すると(S18のY)、本フローチャートにおける処理は終了する。
以上の構成による映像提示システム100の利用シーンは以下のとおりである。オブジェクト分類部504は、映像提示システム100に表示させる映像を構成するオブジェクトを、オブジェクト毎そのオブジェクトの表示位置や移動速度等に基づいて、立体映像観察デバイス200中の光学透過型HMDに表示させるオブジェクトと、フレームシーケンシャル方式のモニタ300に表示させるオブジェクトとに分類する。映像出力部506は、オブジェクト分類部504の分類に基づいて、オブジェクトの映像を立体映像観察デバイス200中の光学透過型HMDまたはモニタ300に出力する。立体映像観察デバイス200を装着して映像提示システム100を利用するユーザは、モニタ300および光学透過型HMDそれぞれの特徴を生かした立体映像を観察することができる。
以上述べたように、実施の形態に係る映像提示システム100によれば、モニタ300と光学透過型HMDとの両方に立体映像を用いて立体映像を表現することができる。
以上、本発明を実施の形態をもとに説明した。実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
(第1の変形例)
上記では、オブジェクトの座標としてオブジェクトを構成するポリゴンの重心の座標を採用する場合について説明したが、オブジェクトの座標はポリゴンの重心の座標には限られない。例えば、オブジェクトを構成するポリゴンのうちひとつのポリゴンの位置座標を代表で用いてもよい。このとき、代表で用いるポリゴンをオブジェクト間の位置関係に応じて適応的に変更してもよい。具体的には、オブジェクトを構成する複数のポリゴンのうち、別のオブジェクトとの距離が最短のポリゴンの位置座標をオブジェクトの座標として採用してもよい。これにより、オブジェクト同士の衝突判定の計算を容易にすることができる。
(第2の変形例)
上記では、棒状の握り部および球状の物体からなるマーカを例に説明したが、マーカはこれに限られず、位置が特定できる情報であればよい。例えばモニタに表示された画像や動画、カードや紙に印刷された画像、円や星形等の特定形状の物体、特定の色、人物や動物のシルエットや顔、商品の包装や外観、GPS等による特定の位置情報が示す位置など様々なバリエーションが考えられる。マーカとして、例えば円錐のような3次元の物体が用いられる場合には、マーカの3次元空間における「向き」が特定できる。このような場合、画像を生成すべき位置のみならず、生成する画像の向きも特定できる。
(第3の変形例)
上記では、立体映像観察デバイス200を装着したユーザが単独で映像提示システム100が再生するコンテントを利用する場合について説明したが、立体映像観察デバイス200を複数用意して、複数のユーザで同一のコンテントを共有してもよい。具体的には、ふたり以上のユーザが同じゲームコンテントを遊ぶ場合が考えられる。この時、例えばトランプゲームのカードの内容や麻雀ゲームの牌の内容など、ユーザ毎に提示すべき内容は、そのユーザが装着している光学透過型HMDに表示するようにしてもよい。これは、オブジェクト分類部504が、オブジェクト取得部502からどのユーザに提示すべきオブジェクトかを示す情報を取得してオブジェクトを分類することによって実現できる。これにより、背景や捨て牌などユーザ間で共有すべき情報と、ユーザ毎に提示すべき情報とを区別して表示することが可能となる。
(第4の変形例)
上記は、モニタ300が立体映像を表示する3テレビであることを前提にしたが、モニタ300が2次元映像を表示する従来型のテレビの場合、ユーザに適切に視差画像を提示することは難しい。そこで、モニタ300が従来型のテレビの場合またはモニタ300を従来型のテレビとして使用する場合、映像出力装置500は、左目用の視差画像まはた右目用の視差画像のいずれか一方の視差画像をモニタ300に出力する。あるいは、映像出力装置500は、仮想的な3次元空間に設置したオブジェクトをモニタ300の表示領域に射影変換してできる2次元映像を生成し、モニタ300に表示してもよい。
100 映像提示システム、 200 立体映像観察デバイス、 202 提示部、 204 撮像素子、 206 筐体、 300 モニタ、 400 情報処理装置、 500 映像出力装置、 502 オブジェクト取得部、 504 オブジェクト分類部、 506 映像出力部、 508 同期信号生成部、 510 出力制御部、 512 第1バッファ、 514 第2バッファ、 602 直交座標系、 604 視点、612 重心、 616 重心、 710 マーカ、 712 ARイメージ。

Claims (13)

  1. 仮想的な3次元空間に設置したオブジェクトを、光学透過型HMDに表示させるオブジェクトと、当該光学透過型HMDを通して観察されるモニタに表示させるオブジェクトとに分類するオブジェクト分類部と、
    前記オブジェクト分類部の分類をもとに、オブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力する映像出力部とを含むことを特徴とする映像出力装置。
  2. 前記オブジェクト分類部は、前記仮想的な3次元空間におけるオブジェクトの位置座標をもとにオブジェクトを分類することを特徴とする請求項1に記載の映像出力装置。
  3. 前記仮想的な3次元空間はx軸、y軸、およびz軸による直交座標系が設定され、x軸とy軸とが張るxy平面は前記モニタの表示領域と平行であり、
    前記オブジェクト分類部は、オブジェクトを前記モニタに表示させるか前記光学透過型HMDに表示させるかを分類するために定められた表示分類基準座標値と前記オブジェクトのz座標との大小関係をもとにオブジェクトを分類することを特徴とする請求項1または2に記載の映像出力装置。
  4. 前記オブジェクト分類部は、前記仮想的な3次元空間におけるオブジェクトが、前記表示分類基準座標値よりも視点側に表示される場合、当該オブジェクトを前記光学透過型HMDに表示させるオブジェクトに分類することを特徴とする請求項3に記載の映像出力装置。
  5. 前記オブジェクト分類部は、オブジェクトを構成する複数のポリゴンの重心の座標を、当該オブジェクトの座標としてオブジェクトを分類することを特徴とする請求項3または4に記載の映像出力装置。
  6. 前記光学透過型HMDは、当該光学透過型HMDを装着するユーザの視野を含む領域にある被写体を撮像する撮像素子をさらに備え、
    前記仮想的な3次元空間に設置したオブジェクトは、前記撮像素子が撮像した被写体をマーカとして生成される当該マーカに紐付けられたAR(Augmented Reality)イメージも含み、
    前記オブジェクト分類部は、前記ARイメージを前記光学透過型HMDに表示させるオブジェクトに分類することを特徴とする請求項1から5のいずれかに記載の映像出力装置。
  7. 前記仮想的な3次元空間に設置したオブジェクトは、前記光学透過型HMDを装着するユーザの操作に応じて前記仮想的な3次元空間中の位置座標を変更可能な操作対象オブジェクトも含み、
    前記オブジェクト分類部は、前記操作対象オブジェクトを前記光学透過型HMDに表示させるオブジェクトに分類することを特徴とする請求項1に記載の映像出力装置。
  8. フレームシーケンシャル方式の3次元モニタと、
    光学透過型HMDと前記3次元モニタの観察に用いる光学シャッタとを含む立体映像観察デバイスと、
    仮想的な3次元空間に設置したオブジェクトを、前記光学透過型HMDに表示させるオブジェクトと、前記3次元モニタに表示させるオブジェクトとに分類するオブジェクト分類部と、
    前記オブジェクト分類部の分類をもとに、オブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力する映像出力部とを含むことを特徴とする映像提示システム。
  9. 前記オブジェクト分類部は、オブジェクトを前記モニタに表示させるか前記光学透過型HMDに表示させるかを分類するために定められた表示分類基準速度値と前記オブジェクトの位置座標の変化速度との大小関係をもとにオブジェクトを分類することを特徴とする請求項8に記載の映像提示システム。
  10. 前記オブジェクト分類部は、前記仮想的な3次元空間におけるオブジェクトのz座標の変化速度が、前記表示分類基準速度値よりも大きい場合、当該オブジェクトを前記光学透過型HMDに表示させるオブジェクトに分類することを特徴とする請求項9に記載の映像提示システム。
  11. フレームシーケンシャル方式の3次元モニタを観察するための光学シャッタと、
    光学透過型HMDとを含むことを特徴とする立体映像観察デバイス。
  12. 仮想的な3次元空間に設置したオブジェクトを、光学透過型HMDに表示させるオブジェクトと、当該光学透過型HMDを装着するユーザが当該光学透過型HMDを通して観察するモニタに表示させるオブジェクトとに分類してオブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力することをプロセッサに実行させることを特徴とする映像出力方法。
  13. 仮想的な3次元空間に設置したオブジェクトを、光学透過型HMDに表示させるオブジェクトと、当該光学透過型HMDを装着するユーザが当該光学透過型HMDを通して観察するモニタに表示させるオブジェクトとに分類する機能と、
    オブジェクトの映像を前記モニタまたは前記光学透過型HMDに出力する機能とをコンピュータに実現させることを特徴とするプログラム。
JP2012147343A 2012-06-29 2012-06-29 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法 Active JP5483761B2 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2012147343A JP5483761B2 (ja) 2012-06-29 2012-06-29 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
CN201380031820.0A CN104396237B (zh) 2012-06-29 2013-04-18 视频输出装置、三维视频观察设备、视频呈现系统和视频输出方法
US14/405,928 US9741168B2 (en) 2012-06-29 2013-04-18 Video outputting apparatus, three-dimentional video observation device, video presentation system, and video outputting method
PCT/JP2013/002623 WO2014002347A1 (ja) 2012-06-29 2013-04-18 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
ES13809316.6T ES2646924T3 (es) 2012-06-29 2013-04-18 Dispositivo de salida de vídeo, dispositivo de observación de vídeo en 3D, dispositivo de presentación visual de vídeo y método de salida de vídeo
EP13809316.6A EP2869573B1 (en) 2012-06-29 2013-04-18 Video output device, 3d video observation device, video display device, and video output method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012147343A JP5483761B2 (ja) 2012-06-29 2012-06-29 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法

Publications (2)

Publication Number Publication Date
JP2014011656A true JP2014011656A (ja) 2014-01-20
JP5483761B2 JP5483761B2 (ja) 2014-05-07

Family

ID=49782554

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012147343A Active JP5483761B2 (ja) 2012-06-29 2012-06-29 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法

Country Status (6)

Country Link
US (1) US9741168B2 (ja)
EP (1) EP2869573B1 (ja)
JP (1) JP5483761B2 (ja)
CN (1) CN104396237B (ja)
ES (1) ES2646924T3 (ja)
WO (1) WO2014002347A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142659A1 (ja) * 2018-01-19 2019-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9977493B2 (en) 2015-06-17 2018-05-22 Microsoft Technology Licensing, Llc Hybrid display system
US10515482B2 (en) 2015-08-24 2019-12-24 Pcms Holdings, Inc. Systems and methods for enhancing augmented reality experience with dynamic output mapping
US9964765B2 (en) * 2015-09-11 2018-05-08 The Boeing Company Virtual display of the real-time position of a robotic device to a human operator positioned on an opposing side of an object
CN108139803B (zh) 2015-10-08 2021-04-20 Pcms控股公司 用于动态显示器配置的自动校准的方法及系统
JP6439744B2 (ja) * 2016-04-28 2018-12-19 カシオ計算機株式会社 表示システム、情報装置、表示方法及びプログラム
US9823477B1 (en) * 2016-05-02 2017-11-21 Futurewei Technologies, Inc. Head mounted display content capture and sharing
US10298587B2 (en) * 2016-06-20 2019-05-21 International Business Machines Corporation Peer-to-peer augmented reality handlers
JP7067481B2 (ja) * 2016-10-20 2022-05-16 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、およびコミュニケーションシステム
US10916220B2 (en) * 2018-08-07 2021-02-09 Apple Inc. Detection and display of mixed 2D/3D content
US10777012B2 (en) * 2018-09-27 2020-09-15 Universal City Studios Llc Display systems in an entertainment environment
WO2020112900A2 (en) 2018-11-30 2020-06-04 Pcms Holdings, Inc. Method for mirroring 3d objects to light field displays
USD883991S1 (en) * 2018-12-18 2020-05-12 Marilyn Moore Monitor frame
WO2022004234A1 (ja) 2020-07-01 2022-01-06 ソニーグループ株式会社 情報処理装置、情報処理方法およびプログラム
GB202115440D0 (en) * 2021-10-27 2021-12-08 Bae Systems Plc A system and method for coordinated symbology in an augmented reality system
US20230230152A1 (en) * 2022-01-14 2023-07-20 Shopify Inc. Systems and methods for generating customized augmented reality video

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028765A (ja) * 1999-07-14 2001-01-30 Sony Corp 3次元映像の送受信システム及びその送受信方法
JP2002244074A (ja) * 2001-02-15 2002-08-28 Mixed Reality Systems Laboratory Inc 画像表示装置
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2006277239A (ja) * 2005-03-29 2006-10-12 Canon Inc 電子文書閲覧管理システム
JP2011010126A (ja) * 2009-06-26 2011-01-13 Canon Inc 画像処理装置、画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4208601B2 (ja) * 2003-02-24 2009-01-14 キヤノン株式会社 表示制御方法、及び表示制御装置
KR100656342B1 (ko) * 2004-12-16 2006-12-11 한국전자통신연구원 다중 입체 영상 혼합 제시용 시각 인터페이스 장치
KR100809479B1 (ko) 2006-07-27 2008-03-03 한국전자통신연구원 혼합 현실 환경을 위한 얼굴 착용형 디스플레이 장치
JP5156571B2 (ja) * 2008-10-10 2013-03-06 キヤノン株式会社 画像処理装置、画像処理方法
US20130038702A1 (en) * 2010-03-09 2013-02-14 Imax Corporation System, method, and computer program product for performing actions based on received input in a theater environment
US8665321B2 (en) * 2010-06-08 2014-03-04 Lg Electronics Inc. Image display apparatus and method for operating the same
US20120056875A1 (en) * 2010-08-11 2012-03-08 Lg Electronics Inc. Method for operating image display apparatus
JP5434848B2 (ja) 2010-08-18 2014-03-05 ソニー株式会社 表示装置
KR20120034996A (ko) * 2010-10-04 2012-04-13 엘지전자 주식회사 영상표시장치 및 그 동작방법
JP5303685B2 (ja) * 2010-11-09 2013-10-02 富士フイルム株式会社 拡張現実感提供装置
US8576276B2 (en) * 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
US9213405B2 (en) * 2010-12-16 2015-12-15 Microsoft Technology Licensing, Llc Comprehension and intent-based content for augmented reality displays
US8941560B2 (en) * 2011-09-21 2015-01-27 Google Inc. Wearable computer with superimposed controls and instructions for external device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001028765A (ja) * 1999-07-14 2001-01-30 Sony Corp 3次元映像の送受信システム及びその送受信方法
JP2002244074A (ja) * 2001-02-15 2002-08-28 Mixed Reality Systems Laboratory Inc 画像表示装置
JP2002247602A (ja) * 2001-02-15 2002-08-30 Mixed Reality Systems Laboratory Inc 画像生成装置及びその制御方法並びにそのコンピュータプログラム
JP2006277239A (ja) * 2005-03-29 2006-10-12 Canon Inc 電子文書閲覧管理システム
JP2011010126A (ja) * 2009-06-26 2011-01-13 Canon Inc 画像処理装置、画像処理方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019142659A1 (ja) * 2018-01-19 2019-07-25 ソニー株式会社 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
ES2646924T3 (es) 2017-12-18
US9741168B2 (en) 2017-08-22
EP2869573A1 (en) 2015-05-06
EP2869573B1 (en) 2017-09-20
CN104396237A (zh) 2015-03-04
WO2014002347A1 (ja) 2014-01-03
JP5483761B2 (ja) 2014-05-07
EP2869573A4 (en) 2015-12-09
US20150123996A1 (en) 2015-05-07
CN104396237B (zh) 2016-12-21

Similar Documents

Publication Publication Date Title
JP5483761B2 (ja) 映像出力装置、立体映像観察デバイス、映像提示システム、および映像出力方法
JP5891125B2 (ja) 映像処理装置、映像処理方法、および映像処理システム
US9684173B2 (en) Image processing device, image processing method, and image processing system
EP3051525B1 (en) Display
JP6511386B2 (ja) 情報処理装置および画像生成方法
US20150312561A1 (en) Virtual 3d monitor
EP3008548B1 (en) Head-mountable apparatus and systems
US20120306860A1 (en) Image generation system, image generation method, and information storage medium
CN110709897A (zh) 用于插入到图像中的图像内容的阴影生成
JP7177054B2 (ja) ユーザ頭部回転ガイド付きヘッドマウントディスプレイ
EP2583131B1 (en) Personal viewing devices
JP6161749B2 (ja) 映像処理装置、映像処理方法、および映像処理システム
US11187895B2 (en) Content generation apparatus and method
JP2021512402A (ja) マルチビューイング仮想現実ユーザインターフェース
WO2019130183A1 (en) Multi-camera display
EP4261768A1 (en) Image processing system and method
GB2558278A (en) Virtual reality
EP3996075A1 (en) Image rendering system and method
WO2018096315A1 (en) Virtual reality

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140217

R150 Certificate of patent or registration of utility model

Ref document number: 5483761

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250