JP2019022121A - 画像処理装置、および画像処理装置の制御方法 - Google Patents

画像処理装置、および画像処理装置の制御方法 Download PDF

Info

Publication number
JP2019022121A
JP2019022121A JP2017140080A JP2017140080A JP2019022121A JP 2019022121 A JP2019022121 A JP 2019022121A JP 2017140080 A JP2017140080 A JP 2017140080A JP 2017140080 A JP2017140080 A JP 2017140080A JP 2019022121 A JP2019022121 A JP 2019022121A
Authority
JP
Japan
Prior art keywords
image
viewing
user
image data
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017140080A
Other languages
English (en)
Inventor
哲也 菊川
Tetsuya Kikukawa
哲也 菊川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2017140080A priority Critical patent/JP2019022121A/ja
Priority to CN201880046308.6A priority patent/CN110892717B/zh
Priority to EP18752636.3A priority patent/EP3656123A1/en
Priority to PCT/JP2018/025470 priority patent/WO2019017207A1/en
Priority to US16/603,076 priority patent/US11109009B2/en
Publication of JP2019022121A publication Critical patent/JP2019022121A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/383Image reproducers using viewer tracking for tracking with gaze detection, i.e. detecting the lines of sight of the viewer's eyes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking

Abstract

【課題】立体視画像における視差画像を破綻しないように生成する。【解決手段】ユーザの位置情報に基づいて特定される、全天球画像空間における視聴位置が、全天球画像の座標系における原点から所定の距離の範囲内であれば、視聴位置を基準とした視差画像を生成し、全天球画像空間における視聴位置が、全天球画像の座標系における原点から所定の距離の範囲内でなければ、全天球画像空間における視聴位置を、全天球画像空間の原点に移動させて、視差画像を生成する。本開示は、HMDに適用することができる。【選択図】図4

Description

本開示は、画像処理装置、および画像処理装置の制御方法に関し、特に、ユーザの視聴情報に基づいた視差画像を生成できるようにした画像処理装置、および画像処理装置の制御方法に関する。
近年、HMD(Head Mounted Display)を用いて、立体視画像を視聴する技術が注目されている。
立体視画像の視聴は、視差が設けられた左右の目のそれぞれに対応する画像が、HMDにおいて、左右の目のそれぞれに対して表示されて、ユーザが視聴することで実現される。
ところで、HMDを用いた立体視画像を視聴する場合、視聴される画像と、実際の体の動きとの間にずれが生じることにより、ユーザに、いわゆる、酔いが生じることが知られている。
そこで、HMDに内蔵されるモーションセンサから得られる変位量情報(時間的な長さのある量)を閾値として用い、閾値を超えて酔いにつながるような視点の急激な変化を検出した場合には、表示する画像を、緩やかに変化する画像に差し替えるようにすることで、HMDを用いた立体視画像の視聴に伴った酔いを防止する技術が提案されている(特許文献1参照)。
特開2010−266989号公報
しかしながら、リアルタイムに立体視画像を表示させる場合、HMDのモーションセンサにより検出される変位量情報の絶対量を表示に反映させる必要があるため、顔向きを急激に変化させるようなときに、緩やかな画像に差し替えると違和感が生じてしまう恐れがあった。
また、移動速度や移動角速度に上限を設けるという方法もあるが、モーションセンサの位置が絶対対応するという操作性の面での優位性が損なわれる恐れがあった。
本開示は、このような状況に鑑みてなされたものであり、特に、ユーザの視聴情報に基づいて立体視画像の表示における視差画像の生成を可能にするものである。
本開示の一側面の画像処理装置は、ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成し、前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成する画像生成部を含む画像処理装置である。
前記画像生成部には、前記ユーザの前記画像データの座標系における前記ユーザの視聴方向が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、前記ユーザの前記画像データの座標系における前記ユーザの視聴方向が所定の条件を満たさない場合、前記他の所定のモードで、前記左右の2枚の画像を生成させるようにすることができる。
前記画像生成部には、前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内である場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成させ、前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内ではない場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記他の所定のモードで、前記左右の同一の2枚の画像を生成させるようにすることができる。
前記左右の2枚の画像は、左右の2枚の視差画像とすることができる。
前記画像生成部には、前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内である場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成させ、前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内ではない場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の画像を生成させ、左右反転させる、または、前記左右の2枚の画像が左右反転するように、前記左右の2枚の画像を生成させるようにすることができる。
前記左右の2枚の画像は、左右の2枚の視差画像とすることができる。
前記視聴方向を検出する視聴方向検出部をさらに含ませるようにすることができ、前記視聴方向検出部には、前記ユーザの顔向き方向を検出する顔向き方向検出部と、前記ユーザの視線方向を検出する視線方向検出部とをさらに含ませるようにすることができ、前記視聴方向検出部には、前記顔向き方向および前記視線方向を用いて視聴方向を算出させるようにすることができる。
前記画像生成部には、前記ユーザの前記画像データの座標系における前記ユーザの視聴位置が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成させ、前記ユーザの前記画像データの座標系における前記ユーザの視聴位置が所定の条件を満たさない場合、前記他の所定のモードで、前記左右の2枚の画像を生成させるようにすることができる。
前記画像生成部には、前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内である場合、前記ユーザの視聴位置に基づいて特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成させ、前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内ではない場合、前記ユーザの視聴位置を、前記画像データにおける座標系の原点となるようにずらし、前記原点となるようにずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の画像を生成させるようにすることができる。
前記左右の2枚の画像は、左右の2枚の視差画像とすることができる。
前記画像生成部には、前記画像データにおける座標系の原点を、前記視聴位置に段階的にずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成させるようにすることができる。
前記画像生成部には、前記画像データにおける座標系の原点を、前記視聴位置に段階的に所定の間隔ずつずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成させるようにすることができる。
前記画像生成部には、前記画像データにおける座標系の原点を、前記視聴位置に段階的に所定の距離の割合ずつずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成させるようにすることができる。
前記画像生成部には、前記画像データにおける座標系の原点を、前記視聴位置に、前記視聴位置までの最短経路上を段階的にずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成させるようにすることができる。
前記画像生成部には、前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内ではない場合で、かつ、前記ユーザの視聴状態に変更がある場合、前記ユーザの視聴位置を、前記画像データにおける座標系の原点となるようにずらし、前記原点となるようにずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成させるようにすることができる。
前記ユーザの視聴状態に変更がある場合は、前記ユーザが瞬きをするタイミング、前記ユーザが振り返るタイミング、および前記ユーザがうなずくタイミングの場合とすることができる。
本開示の一側面の画像処理装置の制御方法は、ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成し、前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成する画像処理装置の制御方法である。
本開示の一側面においては、ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像が生成され、前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像が生成される。
本開示の一側面によれば、特に、HMD(Head Mounted Display)を用いた立体視画像を視聴する際に生じる視差画像の破綻を抑制し、酔いを抑制させることが可能となる。
本開示のHMDを用いた立体視画像の視聴を説明する図である。 本開示のHMDを用いた立体視画像の視聴を説明する図である。 全天球画像の原点を視聴位置に移動させる例を説明する図である。 本開示のHMDシステムの第1の実施の形態の構成例を示すブロック図である。 視差画像の破綻の有無を判定する方法と破綻を抑制する方法を説明する図である。 図4のHMDシステムによる表示処理を説明するフローチャートである。 本開示のHMDシステムの第2の実施の形態の構成例を示すブロック図である。 図7のHMDシステムによる表示処理を説明するフローチャートである。 全天球画像を構成する正距円筒画像を説明する図である。 視聴方向に応じた視差画像の破綻の有無を説明する図である。 視差画像が破綻する場合に仰角が90付近のみの画像に視差を設けないようにする場合の正距円筒画像を説明する図である。 本開示のHMDシステムの第3の実施の形態の構成例を示すブロック図である。 図12のHMDシステムによる表示処理を説明するフローチャートである。 図12のHMDシステムの変形例を説明する図である。 本開示のHMDシステムの第1の実施の形態の応用例を示すブロック図である。 全天球画像の原点を視聴位置に段階的に移動させる例を説明する図である。 図15のHMDシステムによる表示処理を説明するフローチャートである。 汎用のパーソナルコンピュータの構成例を説明する図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
1.第1の実施の形態
2.第2の実施の形態
3.第3の実施の形態
4.第3の実施の形態の変形例
5.第1の実施の形態の応用例
6.ソフトウェアにより実行させる例
<<1.第1の実施の形態>>
<HMDを用いた立体視画像の視聴>
HMD(Head Mount Display)を用いた立体視画像の視聴は、HMDを装着したユーザの視聴方向に応じた画像を、左右の目に対して、視差が生じるように表示して視聴させることにより実現される。
より詳細には、HMDを用いた立体視画像の視聴に使用される画像は、例えば、全天球画像と呼ばれるものであり、所定の原点位置から全方位が撮像された画像であって、かつ、視差を有する左眼用画像、および右眼用画像からなる。尚、全天球画像は、撮像された画像に限らず、CG(Computer Graphics)などからなる画像であってもよい。
HMDは、自らを装着しているユーザの空間内の位置、並びに、顔向き、および視線方向を検出して、全天球画像におけるユーザの視聴位置と視聴方向とから特定される範囲の画像を用いて、対応する適切な視差を備えた左眼用画像および右眼用画像からなる視差画像を、それぞれ左眼および右眼で視聴できるように表示する。
尚、ここでいう、全天球画像におけるユーザの視聴位置とは、全天球画像の基準となる原点位置(原点O)で既定される座標系におけるユーザの位置である。全天球画像空間における位置は、現実空間と対応付けられており、現実空間におけるユーザの位置情報が特定されれば、対応付けられた全天球画像空間の位置が一意に特定される。従って、以降においては、全天球画像空間における視聴位置は、現実空間における位置情報に対応付けられた位置であるものとする。
例えば、図1で示されるユーザH1,H2のそれぞれがHMD11を装着しており、ユーザH1,H2の空間内のそれぞれの位置に対応する所定の位置に物体Bがあたかも存在するかのような画像を表示することを考える。
尚、図1においては、ユーザH1,H2の目の前に物体Bが存在する状態が図示されているが、図1において表現しているのは、現実空間内においてユーザH1,H2の目の前に物体Bが存在することではなく、ユーザH1,H2が、HMD11を装着することで、あたかも図1で示されるような位置関係となる物体Bを視聴することができることである。
すなわち、図1におけるユーザH1の顔向き方向F11に正対する方向に物体Bが存在するように見えるものとする。このとき、ユーザH1の左眼ELの視線方向EL11および右眼ERの視線方向ER11は、図1で示されるように、いずれも顔向き方向F11と平行な関係となる。したがって、図2で示されるように、左眼ELの視線方向EL11および右眼ERの視線方向ER11に対して平行であり、左眼ELと右眼ERとの中間位置を始点とする視線方向E11がユーザH1の視聴方向となる。
尚、図2は、図1におけるユーザH1,H2の頭上から見たそれぞれの顔向き方向F11,F21、および視線方向E11,E21との関係を示している。
一方、図1におけるユーザH2の顔向き方向F21が、図2で示されるように、ユーザH1の顔向き方向F11と平行の方向F11’に対して角度θ1だけ右方向に回転した方向であるものとする。また、図1のユーザH2の左眼ELの視線方向EL21および右眼ERの視線方向ER21と図2の視線方向E21とが平行であるものとすれば、視線方向E21は、顔向き方向F21に対して、角度θ2だけ右方向に回転した方向であるものとなる。そして、ユーザH2の視線方向E21の先に、物体Bが存在することになる。
すなわち、ユーザH2の場合、図1の左眼ELの視線方向EL21および右眼ERの視線方向ER21に対して平行な、図2の左眼ELと右眼ERとの中間位置を始点とする視線方向E21がユーザH2の視聴方向となる。
図1,図2で示されるように、ユーザH1の視線方向E11とユーザH2の視線方向E21とは、相互に角度(θ1+θ2)をなす関係となる。
HMD11は、ユーザH1,H2のそれぞれの位置と、それぞれの位置における視聴方向に応じた画像を、全天球画像より切り出して、左眼用画像および右眼用画像として視差が生じるように表示する。ユーザH1,H2は、それぞれの位置と、それぞれの視聴方向とに応じて表示される右眼用画像および左眼用画像のそれぞれを、それぞれ右眼および左眼で視聴することにより立体視画像として視聴することが可能となる。
ところで、全天球画像は、例えば、観測点などの基準となる視点(原点)から撮像した1枚、または、複数の一連の画像である。また、全天球画像は、画像を構成する画素単位で、視聴位置からの距離の情報であるデプス情報を含ませる、または、対応するデプス情報を別で与えることができる。デプス情報は、例えば、同じ、または、異なる解像度のデプス画像や、奥行き情報を持った点群データなどが考えられる。このデプス情報を含んだ全天球画像を用いた視聴画像を生成して表示するには、ユーザの位置情報と視聴方向との情報に基づいて、対応する全天球画像内における視聴位置が特定され、視聴位置から視聴方向を見たときに視聴できる全天球画像内の範囲が特定されて、特定された範囲の画像が用いられて、適切な視差を持つ左眼用画像および右眼用画像からなる視差画像が生成されて、表示される必要がある。尚、本明細書においては、全天球画像は、画素単位でデプス情報を含んだものを一例として説明を進めるものとする。ただし、当然のことながら、デプス情報は別に与えられるものであってもよいものである。
<全天球画像の座標変換>
例えば、HMD11を装着したユーザの所定の空間内の視聴位置と視聴方向とが、図3の左部における例St1で示されるように、全天球画像の基準となる位置である原点位置Oと一致する理想的な視聴位置G1であって、図中の矢印方向が視聴方向である場合、全天球画像内における所定の物体BL,BRが理想的な状態で配置された画像P1が視聴画像として生成されることになる。画像P1においては、物体BL,BRに対応する、画像オブジェクトBL1,BR1が画像P1内のほぼ中心付近に存在している。
尚、図3の例St1における左部の分布図は、X軸が全天球画像内における水平方向を示しており、Z軸がデプス情報により表現される奥行き方向を示している。したがって、全天球画像の画像内におけるY軸は、図中の紙面手前方向である。すなわち、図3の左部では、全天球画像により表現される一部の範囲の画像を、画像平面を図中紙面に対して垂直方向に立てて、上方から見たときの視聴位置と、視聴位置に対する画像内の物体BL,BRとの、水平方向の位置と奥行き方向の位置との位置関係が示されている。
つまり、図3では、全天球画像の基準位置である原点位置Oを視聴位置G1としたとき、視聴される画像が画像P1として表現されている。尚、画像P1,P2は、水平方向がX軸であり、垂直方向がY軸である。
これに対して、ユーザの視聴位置が、原点Oから図3左部の右上方向にずれた視聴位置G2であって、図中の矢印方向が視聴方向である場合、所定の物体BL,BRが存在する画像P2が視聴画像として生成されることになる。画像P2においては、物体BL,BRに対応する、画像オブジェクトBL2,BR2が画像P2内の左端部に寄った状態で存在している。
すなわち、画像P2内においては、物体BL,BRの情報を用いた補間処理により画像オブジェクトBL2,BR2が配置されることになる。このため、原点O(=G1)と視聴位置G2との位置のずれが所定値よりも小さければ、画像における視差の乱れの影響は小さいが、原点O(=G1)と視聴位置G2との位置のずれの大きさが所定値を超えると、視差が大きく変化することになり、視聴画像(視差画像)として破綻してしまう恐れがある。
そこで、本開示のHMD11においては、原点O(=G1)と視聴位置G2との位置のずれの大きさが所定値を超える場合、図3の右部の例St2で示されるように、視聴位置G2が全天球画像における原点Oとなるように座標変換を掛ける。このように座標変換が掛けられることにより、ユーザの視聴位置G2における物体BL’,BR’との位置関係が、ユーザが原点O(=G1)であるときの物体BL,BRとの位置関係と同様になるので、理想的な視聴画像を生成することが可能となり、視聴画像(視差画像)の破綻が抑制される。
<本開示のHMDシステムの第1の実施の形態の構成例>
図4は、本開示のHMDシステムの第1の実施の形態の構成例を示している。図4のHMDシステムは、HMD11と画像処理装置12とから構成されている。
HMD11は、図1乃至図3を参照して説明したように、ユーザの頭部に装着され、ユーザの頭部の位置である位置情報、および視聴方向を検出して、画像処理装置12に送信する。
画像処理装置12は、全天球画像を記憶しており、HMD11より送信された位置情報、および視聴方向に対応する、適切な視差を備えた左眼用画像および右眼用画像を、全天球画像より補間生成してHMD11に送信する。
HMD11は、画像処理装置12より送信される位置情報、および視聴方向に対応する、適切な視差を備えた左眼用画像および右眼用画像を受信して、ユーザに視聴させる。尚、以降において、位置情報、および視聴方向に基づいて、全天球画像を用いたレンダリングにより、対応した適切な視差を備えた左眼用画像および右眼用画像を単に視差画像とも称する。
このような構成により、HMD11を装着したユーザは、自らの顔向き方向および視線方向に応じた左右の眼で適切な視差を備えた全天球画像を視聴することが可能となり、あたかも全天球画像により表現される空間内を覗き込むような感覚を楽しむことが可能となる。
より詳細には、HMD11は、制御部31、視聴方向検出部32、位置検出部33、通信部34、表示部35、および音声出力部36を備えている。
制御部31は、HMD11の全体の動作を制御している。
視聴方向検出部32は、HMD11を装着するユーザ(視聴者)の視聴方向を検出し、制御部31に出力する。
より詳細には、視聴方向検出部32は、顔向き検出部41および視線方向検出部42を備えており、それぞれを制御して、顔向き方向および視線方向を検出させ、検出された顔向き方向と視線方向とから視聴方向を算出して、制御部31に出力する。
顔向き検出部41は、例えば、モーションセンサなどから構成され、HMD11を装着するユーザの顔向き方向を検出する。顔向き方向とは、具体的には、ユーザの目の部分を覆うように装着されているHMD11が向いている方向であり、例えば、図2におけるユーザH1,H2のそれぞれの顔向き方向F11,F21に対応する方向である。
すなわち、HMD11は、自らを装着するユーザの眉間などの顔の中心が正対する方向である顔向き方向として、HMD11の正面方向を検出する。顔向き方向は、例えば、極北方向などの基準となる方向に対するHMD11の正面方向のなす角度として検出される。
視線方向検出部42は、例えば、HMD11を装着するユーザの眼球を撮像するカメラなどを備えており、カメラにより撮像された眼球の動きに基づいて視線方向を検出する。視線方向とは、例えば、図2におけるユーザH1,H2の視線方向E11,E12であり、HMD11の正面方向、すなわち、顔向き方向などの基準方向に対して、視線が向けられた方向のなす角度を視線方向として検出する。
視聴方向検出部32は、顔向き検出部41により求められた顔向き方向と、視線方向検出部42により求められた視線方向とから視聴方向を算出する。より具体的には、視聴方向検出部32は、図2のユーザH2の顔向き方向F21となる角度θ1と、視線方向E21となる角度θ2とから、それぞれの和となる角度(θ1+θ2)をユーザH2の視聴方向として算出し、制御部31に出力する。
位置検出部33は、ユーザの位置情報としてHMD11の位置情報を検出して、制御部31に出力する。位置検出部33は、HMD11の現実空間内における位置を検出できるものであれば、いずれの構成であってもよい。すなわち、位置検出部33は、例えば、GPS(Global Positioning System)などから構成するようにして、地球上の緯度および経度からなる位置情報を検出するようにしてもよい。また、位置検出部33は、HMD11の周囲を撮像する撮像装置、演算装置、および方向検出装置などから構成されるようにして、演算装置が、予め周囲の物体の位置情報を記憶し、撮像装置により撮像される撮像方向と撮像される画像内における周囲の物体との位置関係から、HMD11の位置情報を算出するようにしてもよい。
制御部31は、無線LAN(Local Area Network)やブルートゥース(登録商標)などを利用した通信を行う通信部34を制御して、視聴方向検出部32より入力されるHMD11を装着した視聴方向の情報と、位置検出部33により入力されるHMD11の位置情報とを合わせて画像処理装置12に送信させる。
また、制御部31は、通信部34を制御して、HMD11の位置情報と視聴方向の情報とに基づいて、画像処理装置12より送信される視差画像を受信する。この際、視差画像に対応する音声データが含まれるようにしてもよい。
さらに、制御部31は、左眼用画像を、HMD11を装着するユーザの左眼で視聴する表示部35に表示させると共に、右眼用画像を、HMD11を装着するユーザの右眼で視聴する表示部35に表示させる。この際、制御部31は、音声データが含まれている場合、スピーカやヘッドホンなどからなる音声出力部36より音声を出力させるようにしてもよい。
表示部35は、有機EL(Electro-Luminescence)やLCD(Liquid Crystal Display)などからなり、左眼用画像を表示して左眼に視聴させる左眼用表示部位(図示せず)と、右眼用画像を表示して右眼に視聴させる右眼用表示部位(図示せず)とを備えており、制御部31より供給される視差画像を構成する、左眼用画像および右眼用画像を、それぞれ左眼用表示部位および右眼用表示部位に表示させる。
ユーザは、HMD11を装着し、表示部35において、左眼用表示部位に表示された左眼用画像を左眼で視聴すると共に、右眼用表示部位に表示された右眼用画像を右眼で視聴することにより、左眼用画像と右眼用画像との視差により立体的な画像を視聴することができる。この際、ユーザは、自らが装着しているHMD11の動きに応じた画像が表示されることになるので、あたかも全天球画像により表現される空間内を覗き込むような感覚を楽しむことが可能となる。
画像処理装置12は、制御部51、通信部52、レンダリング部53、およびコンテンツ記憶部54を備えている。
制御部51は、画像処理装置12の全体の動作を制御する。また、制御部51は、無線LAN(Local Area Network)やブルートゥース(登録商標)などを利用した通信を行う通信部52を制御して、HMD11から供給される、HMD11の位置情報および視聴方向の情報を受信させる。制御部51は、HMD11より受信したHMD11の位置情報および視聴方向の情報をレンダリング部53に出力すると共に、対応する視差画像を生成するように指示する。
コンテンツ記憶部54は全天球画像からなるコンテンツを記憶しており、必要に応じてレンダリング部53に供給する。コンテンツ記憶部54において、記憶されている全天球画像からなるコンテンツが複数であり、HMD11の位置情報および視聴方向の情報が含まれている場合、制御部51は、予めコンテンツ記憶部54に記憶されている複数のコンテンツを指定する情報を合わせてレンダリング部53に出力するようにしてもよい。
レンダリング部53は、コンテンツ記憶部54に記憶されているコンテンツの全天球画像のデータを読み出し、制御部51より供給される、位置情報、および視聴方向の情報に基づいて、視差画像をレンダリングにより生成して制御部51に出力する。コンテンツに音声データが含まれる場合、レンダリング部53は、音声データも制御部51に出力する。
より詳細には、レンダリング部53は、視聴位置判定部61およびレンダリング演算部62を備えている。
視聴位置判定部61は、HMD11を装着したユーザの位置情報に基づいて、全天球画像の原点位置(以下、原点Oとも称する)を基準とする視聴位置と視聴方向とに対応する、視差画像をレンダリングにより生成する際、生成された視差画像に破綻が生じるか否かを判定し、判定結果をレンダリング演算部62に供給する。
より詳細には、全天球画像の、各画素単位での被写体距離であるデプス情報に基づいて、視聴位置判定部61は、図5の左部で示されるように、原点Oに対して、ユーザの全天球画像内における視聴位置が、図中の点線で示される原点Oから所定の距離内の範囲Z11内であるか否かにより、視差画像に破綻が生じるか否かを判定する。尚、この範囲Z11の半径は、例えば、アプリケーションプログラムなどの条件により設定される。したがって、同一の視聴位置であっても、アプリケーションプログラムにより破綻の有無が異なる。
例えば、図5の左部における視聴位置G11で示されるように、範囲Z11外である場合、視差画像としての破綻が生じるものとみなされる。
一方、例えば、視聴位置が、範囲Z11内である場合には、適切な視差を備えた視差画像をレンダリングにより補間生成することが可能であるものとみなされて、破綻は生じないものとみなされる。
レンダリング演算部62は、視聴位置判定部61の判定結果に基づいて、位置情報および視聴方向の情報に対応する全天球画像内の視聴位置を特定し、さらに、特定した視聴位置から視聴方向を見たときの全天球画像内の範囲の画像を利用して、適切な視差を備えた視差画像をレンダリングにより生成して制御部51に出力する。
より詳細には、視聴位置判定部61の判定結果が、特定された全天球画像に対する視聴位置と視聴方向に対応する視差画像に破綻が生じないことを示す結果である場合、レンダリング演算部62は、位置情報に基づいて、全天球画像の原点位置(図3における原点O)を基準とした座標系に対応する視聴位置を特定すると共に、視聴位置から視聴方向を見たときの、全天球画像の範囲を特定し、特定した範囲における視差画像をレンダリングにより補間生成して制御部51に出力する。
一方、視聴位置判定部61の判定結果が、例えば、破綻が生じることを示す結果である場合については、レンダリング演算部62は、位置情報に基づいて特定される視聴位置を、全天球画像における原点位置(図3における原点O)にずらして、視聴方向を見たときの全天球画像の範囲を特定し、特定した範囲における視差画像をレンダリングにより生成する。
以上のように、破綻が生じると判定された場合、図5の右部で示されるように、全天球画像における座標系における現在の視聴位置G11を、全天球画像における原点Oと一致するように座標変換する。
このような座標変換により、全天球画像の座標系における視聴位置から視聴方向をみたときの画像が図3の画像P1の物体BL1,BR1で示されるような、理想的な配置となり、破綻ない、適切な視差を備えた左眼用画像および右眼用画像からなる視差画像をレンダリングにより生成することが可能となる。
<図4のHMDシステムによる表示処理>
次に、図6のフローチャートを参照して、図4のHMDシステムによる表示処理について説明する。
ステップS11において、位置検出部33は、HMD11の位置情報を検出し、制御部31に出力する。
ステップS12において、視聴方向検出部32は、視線方向検出部42を制御して、例えば、HMD11を装着するユーザの眼球を撮像した画像からユーザの視線方向を検出させる。
ステップS13において、視聴方向検出部32は、顔向き検出部41を制御して、例えば、モーションセンサなどによりユーザに装着されるHMD11の方向を検出することで、ユーザの顔向き方向を検出させる。
ステップS14において、視聴方向検出部32は、検出された視線方向と、検出された顔向き方向とを用いて、視聴方向を算出し、制御部31に出力する。
ステップS15において、制御部31は、通信部34を制御して、視聴方向検出部32より供給された視聴方向の情報、および位置検出部33より供給された位置情報を合わせた情報を画像処理装置12に送信させる。
ステップS31において、画像処理装置12の通信部52は、HMD11より送信された、HMD11の位置情報および視聴方向の情報を受信し、制御部51に出力する。制御部51は、取得したHMD11の位置情報および視聴方向の情報をレンダリング部53に出力する。
ステップS32において、レンダリング部53は、視聴位置判定部61を制御して、位置情報および視聴方向の情報に基づいて、レンダリング演算部62のレンダリングにより、位置情報に対応するコンテンツである全天球画像における視聴位置を求めさせ、さらに、求められた視聴位置から視差画像に破綻が生じるか否かを判定する。
すなわち、視聴位置判定部61は、例えば、図5を参照して説明したように、視聴位置が、例えば、原点Oから所定の範囲Z11内であるか否かに基づいて破綻の有無を判定する。
ステップS32において、破綻が生じると判定された場合、処理は、ステップS33に進む。
ステップS33において、レンダリング部53は、レンダリング演算部62に対して、コンテンツである全天球画像における、座標系の原点Oを、視聴位置にずらすように座標変換する。
ステップS34において、レンダリング部53は、レンダリング演算部62を制御して、全天球画像のデータからなるコンテンツを、コンテンツ記憶部54より読み出させる。
ステップS35において、レンダリング部53は、レンダリング演算部62を制御して、コンテンツである全天球画像における視聴位置から視聴方向を見たときの範囲の画像を用いて、レンダリングにより視差画像を補間生成させ、制御部51に出力させる。
ステップS36において、制御部51は、レンダリングにより補間生成された視差画像を、通信部52を制御して、HMD11に送信させる。
尚、ステップS32において、破綻は生じないと判定された場合、ステップS33の処理がスキップされる。すなわち、破綻が生じない場合、オリジナルの全天球画像における原点Oを基準とする座標系における視聴位置からの視聴方向に対して特定される画像から視差画像がレンダリングにより補間生成されることになる。
ステップS15において、制御部31は、通信部34を制御して、画像処理装置12から送信された、視聴方向および位置情報に基づいた、視差画像を受信させる。
ステップS16において、制御部31は、受信した視差画像を表示部35に表示させ、左眼用画像および右眼用画像を、それぞれユーザの左眼および右眼に視聴させる。
ステップS17において、制御部31は、図示せぬ操作部が操作されることにより、処理の終了が指示されたか否かを判定する。
ステップS17において、終了が指示されていない場合、処理は、ステップS11に戻り、それ以降の処理が繰り返され、終了が指示されると、処理が終了する。
また、ステップS36の処理が終了すると、ステップS37において、制御部51は、終了が指示されたか否かを判定し、終了が指示されたと判定されない場合、処理は、ステップS31に戻り、それ以降の処理が繰り返される。そして、ステップS37において、処理の終了が指示される、処理が終了する。
以上の処理により、HMD11の位置情報に応じて得られる、全天球画像における視聴位置に基づいて、レンダリングにより生成される、視差画像に破綻が生じると判定された場合については、視差画像を生成する際の、全天球画像における視聴位置を、全天球画像における原点位置にずらすように座標変換することで、視差画像の破綻を抑制することが可能となる。
換言すれば、視聴位置が所定の範囲内の場合、視聴位置に応じた視差画像が表示され、視聴位置が所定の範囲外の場合、視聴位置ではなく、原点位置の視差画像に切り替えられて表示される。すなわち、レンダリング部53は、視聴位置が所定の範囲内の場合、第1のモードとして、視聴位置に応じた視差画像(通常の視差画像)を生成し、視聴位置が所定の範囲外の場合、第2のモードとして、視聴位置ではなく、原点位置の視差画像を生成する。結果として、視聴位置に応じて、モードを切り替えて視差画像を生成することにより、視差画像の破綻を抑制することが可能となる。
<<2.第2の実施の形態>>
以上においては、視差画像の生成に際して、HMD11の位置情報に対応する全天球画像における視聴位置に基づいて、補間生成する視差画像の破綻の有無を判定し、破綻があるとみなされた場合については、位置情報に基づいた全天球画像内における視聴位置を原点Oにずらすようにすることで、視差画像の破綻を抑制する例について説明してきた。
しかしながら、ユーザのHMD11の位置情報および視聴方向の情報に基づいて、視差画像の破綻があるものと判定されたタイミングで直ちに全天球画像における視聴位置を原点位置にずらすと、直前まで破綻の無い視差画像が生成されていた場合、全天球画像における視聴位置が急激に変化することになるため、いわゆる、立体視画像の視聴に伴った酔いを誘発する可能性がある。
そこで、ユーザのHMD11の位置情報および視聴方向の情報に基づいて、視差画像に破綻が生じると判定されたタイミングで直ちに全天球画像における視聴位置を原点位置にずらすのではなく、ユーザが瞬きをしたときなど、ユーザの立体視画像の視聴が事実上一時的に途切れるようなタイミングで全天球画像内における視聴位置を原点位置にずらすような座標変換を掛けるようにしてもよい。
図7は、視差画像に破綻が生じると判定された場合、瞬きなどのユーザの立体視画像の視聴が一時的に途切れるタイミングでのみ、全天球画像内における視聴位置を原点位置にずらすように座標変換するようにしたHMDシステムの構成例を示している。
図7のHMDシステムにおいて、図4のHMDシステムにおける構成と同一の機能を備えた構成については、同一の符号を付しており、その説明は適宜省略する。
すなわち、図7のHMDシステムにおいて、図4のHMDシステムと異なる点は、HMD11の視聴方向検出部32において、ユーザの瞬きを検出する瞬き検出部91が設けられた点と、画像処理装置12のレンダリング部53に瞬き判定部101が設けられた点である。
HMD11の視聴方向検出部32における瞬き検出部91は、例えば、視線方向検出部42に用いられるユーザの眼球の画像を用いて、瞬きの有無を検出し、検出結果を制御部31に出力する。制御部31は、位置情報および視聴方向の情報に加えて、瞬きの有無の情報を、通信部34を制御して、画像処理装置12に送信させる。
画像処理装置12のレンダリング部53における瞬き判定部101は、HMD11より送信されてくる瞬きの有無の情報に基づいて、瞬きの有無を判定し、判定結果をレンダリング演算部62に出力する。
レンダリング演算部62は、視差画像の生成に際して視差画像の破綻があると判定された場合であっても、瞬きが検出されていないタイミングであれば、全天球画像内における視聴位置を原点Oに移動させることなく、レンダリングにより視差画像を生成する。すなわち、この場合、視差画像は、破綻している可能性が高いが、急激な視聴位置の変化に起因する酔いの発生を抑制させることが可能となる。
一方、レンダリング演算部62は、視差画像の生成に際して視差画像の破綻があると判定された場合であって、瞬きが検出されているタイミングであれば、全天球画像内における視聴位置を原点位置(原点O)に移動させて、レンダリングにより視差画像を生成する。すなわち、この場合、瞬きが検出されたタイミングなので、立体視画像の視聴が一時的に途切れた後に、視聴位置を変化させることになるので、立体視画像の視聴に伴った酔いの発生を抑制させつつ、視差画像の破綻を抑制することが可能となる。
<図7のHMDシステムによる表示処理>
次に、図8のフローチャートを参照して、図7のHMDシステムによる表示処理について説明する。
尚、図8のフローチャートにおけるステップS51乃至S54,S57乃至S59の処理、およびステップS71,S72、およびS74乃至S78の処理については、図6のフローチャートにおけるステップS11乃至S14,S16乃至S18、並びにステップS31乃至S37の処理と同様であるので、その説明は省略する。
すなわち、ステップS55において、瞬き検出部91は、視線方向検出部42において視線方向を検出するために撮像された眼球の画像に基づいて、瞬きの有無を検出し、検出結果を制御部31に出力する。
ステップS56において、制御部31は、通信部34を制御して、視聴方向検出部32より供給された視聴方向の情報、位置検出部33より供給された位置情報、および瞬き検出部91より供給された瞬きの有無の情報を合わせた情報を画像処理装置12に送信させる。
また、ステップS72において、位置情報に基づいて特定される全天球画像内における視聴位置が所定の範囲内ではなく、視差画像に破綻が生じるとみなされた場合、ステップS73において、瞬き判定部101は、瞬きの有無を判定する。
ステップS73において、瞬きが検出されたと判定された場合、処理は、ステップS74に進む。
ステップS74において、レンダリング演算部62は、位置情報に基づいた視聴位置を、全天球画像内における原点Oにずらすように座標変換する。
また、ステップS73において、瞬きが検出されていないとみなされた場合、ステップS74の処理がスキップされて、視聴位置が原点Oにずらされることなく、視聴位置における視聴方向を見たときに特定される範囲の画像より視差画像が生成される。
以上の処理により、全天球画像内の視聴位置に応じて、レンダリングにより補間生成される視差画像に破綻が生じる場合でも、瞬きが検出されたタイミングにのみ視聴位置を原点Oにずらして視差画像をレンダリングにより補間生成するようにしたので、ユーザが瞬きをしたときにのみ、視聴位置を原点Oに切り替えた視差画像を補間生成することが可能となり、急激な視聴位置の変化に起因する立体視画像の視聴により生じる酔いを抑制することが可能となる。
換言すれば、視聴位置が所定の範囲内、または、瞬きがない場合、視聴位置に応じた視差画像が表示され、視聴位置が所定の範囲外で、かつ、瞬きがある場合、視聴位置の視差画像ではなく、原点位置の視差画像に切り替えられて表示される。すなわち、レンダリング部53は、視聴位置が所定の範囲内、または、瞬きがない場合、第1のモードとして、視聴位置に応じた視差画像(通常の視差画像)を生成し、視聴位置が所定の範囲外で、かつ、瞬きがある場合、第2のモードとして、視聴位置の視差画像ではなく、原点位置の視差画像を生成している。結果として、視聴位置と瞬きの有無に応じて、モードを切り替えて視差画像を生成することにより、視差画像の破綻や立体視画像の視聴により生じる酔いを抑制することが可能となる。
尚、以上においては、視差画像の破綻が生じて、かつ、瞬きが検出されるタイミングで、視聴位置が原点Oにずらされる例について説明してきたが、ユーザの全天球画像の視聴が一時的に途切れるタイミングであれば、その他のタイミングでもよく、例えば、ユーザが急に大きく振り向いたとき、または、首を上下に大きく振ったときなどでもよい。
<<3.第3の実施の形態>>
以上においては、位置情報に基づいた、全天球画像内の視聴位置が所定の範囲内であるか否かに基づいて、視差画像に破綻が生じるか否かの判定結果と、瞬きの有無に応じて、視聴位置を原点にずらすように座標変換することで、視差画像の破綻の発生を抑制し、立体視画像の視聴に伴った酔いの発生を抑制する例について説明してきた。
ところで、全天球画像は、一般に、仰角を0度で一定にして、かつ、方位角を0度から360度まで変化させて撮像した画像を用いることが多い。この場合、全天球画像は、例えば、図9で示されるような画像となる。図9においては、図中の上段が左眼用画像の正距円筒画像Lであり、図中の下段が右眼用画像の正距円筒画像Rである。各画像は、垂直方向の位置が仰角を示し、水平方向の位置が方位角を示している。
また、正距円筒画像L,Rには、それぞれ同一の物体BP,BEが含まれている。このうち物体BEは、仰角が0度付近に表示されており、物体BPは、仰角が90度付近に表示されている。
さらに、正距円筒画像L,Rの物体BP,BEのずれdは、視差を生じるように設けられたものである。
しかしながら、仰角が90度に近い位置の画像は、破綻が生じ易いので、ずれdを設けて視差画像を生成しても破綻してしまう恐れがある。
そこで、図10の左部で示されるように、視聴者であるユーザの目Eを基準とした、視聴方向E31の仰角、すなわち、全天球画像を撮像した撮像装置の撮像方向となる水平方向を基準とした視聴方向E31の仰角が、水平方向を含む、例えば、所定の範囲Z1内であれば、視差画像における破綻は生じないと考えることができる。
また、図10の右部で示されるように、視聴者であるユーザの目Eを基準とした、視聴方向E31の仰角、すなわち、全天球画像を撮像した撮像装置の撮像方向となる水平方向を基準とした視聴方向E31の仰角が、所定の範囲Z1外であれば、視差画像における破綻は生じるものと考えることができる。
したがって、視聴位置判定部61は、視聴方向の全天球画像に対する仰角については、視聴方向E31が水平方向を含む、範囲Z1内であるとき、破綻は生じないものとみなし、視聴方向E31が範囲Z1外であるとき、破綻は生じるものとみなす。
例えば、図10における所定の範囲Z1内を、図9の仰角−φ101乃至φ101の範囲であるものとした場合、視差画像には破綻が生じないものとみなす。そこで、視差画像に破綻の恐れがない場合、図11で示されるように、視差画像を生成するため、正距円筒画像L,Rにおけるそれぞれの物体BEには、ずれdを設けて視差画像が生成されるようにする。
また、例えば、図10の右部で示されるように、視聴方向E31が所定の範囲Z1外であり、すなわち、視聴方向が仰角−φ101乃至φ101外であるとき、視差画像には破綻が生じるものとみなす。そこで、視差画像に破綻の恐れがある場合、正距円筒画像L,Rにおけるそれぞれの物体BPには、ずれdを設けず、視差のない画像が生成されるようにする。
このように、視聴方向の仰角が小さく、視差画像に破綻が生じない場合には、ずれdを設けることで、適切な視差を有する視差画像を生成する。また、視聴方向の仰角が上下に大きく、視差画像に破綻が生じる場合には、ずれdを設けず、視差のない画像を生成することで、視差画像における破綻の発生を抑制し、立体視画像の視聴に伴った酔いの発生を抑制するようにしてもよい。
<第3の実施の形態のHMDシステムの構成例>
図12は、視聴方向の仰角に応じて、仰角が大きく視差画像における破綻が生じる場合には、視差のない画像を生成するようにしたHMDシステムの構成例を示している。尚、図12のHMDシステムにおいて、図4におけるHMDシステムと同様の機能を備えた構成については、同一の符号を付しており、その説明は省略するものとする。
すなわち、図12のHMDシステムにおいて、図4のHMDシステムと異なる点は、視聴位置判定部61およびレンダリング演算部62に代えて、視聴方向判定部141およびレンダリング演算部142を設けた点である。
視聴方向判定部141は、視聴方向に基づいて、視聴方向の仰角が所定の範囲Z1(図11のφ−101乃至φ101)外の大きな仰角であるか否かに基づいて、視差画像の破綻の有無を判定し、判定結果をレンダリング演算部142に供給する。
レンダリング演算部142は、基本的には、レンダリング演算部62と同様の機能を備えているが、視聴方向判定部141に基づいて、視差画像の破綻がない場合、レンダリング演算部62と同一の機能により、視差画像を生成する。また、レンダリング演算部142は、視聴方向判定部141の判定結果として視差画像の破綻があるとみなされた場合、左眼用画像と右眼用画像とを同一の視差がない画像としてレンダリングにより補間生成する。
<図12のHMDシステムによる表示処理>
次に、図13のフローチャートを参照して、図12のHMDシステムによる表示処理について説明する。尚、図13のフローチャートにおけるステップS91乃至S98の処理、およびステップS111およびS115乃至S117の処理については、図6のステップS11乃至S18、およびステップS31,S35乃至S37の処理と同様であるので、その説明は省略する。
すなわち、ステップS112において、レンダリング演算部142は、コンテンツ記憶部54に記憶されている全天球画像からなるコンテンツのデータを読み出す。
ステップS113において、視聴方向判定部141は、視聴方向の仰角が所定の範囲Z1(−φ101乃至φ101)よりも大きな仰角であるか否かに基づいて、視差画像の破綻の有無を判定する。
ステップS113において、視聴方向の仰角が所定の範囲Z1(−φ101乃至φ101)よりも大きく、視差画像の破綻があると判定された場合、処理は、ステップS114に進む。
ステップS114において、レンダリング演算部142は、位置情報および視聴方向の情報に基づいて、全天球画像内の視聴位置を特定すると共に視聴位置における視聴方向における画像の範囲を特定し、視差のない左眼用画像および右眼用画像をレンダリングにより補間生成する。
一方、ステップS113において、視聴方向の仰角が所定範囲内であり、視差画像の破綻がないと判定された場合、処理は、ステップS115に進み、レンダリング演算部142は、位置情報および視聴方向の情報に基づいて、全天球画像内の視聴位置を特定すると共に視聴位置から視聴方向を見たときの画像の範囲を特定し、視差画像をレンダリングにより補間生成する。
以上の処理により、視聴方向の仰角が上下方向について90度に近い場合、視差画像の破綻が生じるものとみなされ、視差のない左眼用画像および右眼用画像が生成され、視聴方向の仰角が0度に近い場合、視差画像の破綻が生じないものとみなされ、視差画像が生成される。
換言すれば、視聴方向の仰角が上下方向について0度に近い場合、視聴位置に応じた視差画像が表示され、視聴方向の仰角が上下方向について90度に近い場合、視差のない左右の画像に切り替えられて表示される。すなわち、レンダリング部53は、視聴方向の仰角が上下方向について0度に近い場合、第1のモードとして、視聴位置に応じた視差画像(通常の視差画像)を生成し、視聴方向の仰角が上下方向について90度に近い場合、第2のモードとして、視差のない左右の画像を生成している。
結果として、視聴方向の仰角に応じて視差画像が生成されるモードが切り替えられることにより、視聴方向の仰角に応じた破綻のない視差画像がレンダリングにより補間生成されるようにすることが可能となり、立体視画像の視聴に伴った酔いの発生を抑制することが可能となる。
<<4.第3の実施の形態の変形例>>
全天球画像においては、正距円筒画像における仰角が−φ101乃至φ101外である場合、すなわち、仰角が90度に近い範囲の視差画像の、左眼用画像および右眼用画像は、相互に視差のない同一の画像が用いられている。
すなわち、図14の右部で示されるように、視聴方向の仰角φが−φ101乃至φ101の範囲内である、回帰線NL乃至SLの範囲においては、視差画像により破綻が生じない範囲であり、図9の正距円筒画像L,Rにおける物体BEのそれぞれによりずれdが設けられた視差画像が生成される。
尚、図14においては、全天球画像が球状に構成される場合の例を示している。
また、視聴方向の仰角φが−φ101乃至φ101の範囲外、すなわち、図14の回帰線NLよりも仰角が90度に近く、極点NPまでの範囲については、例えば、図14の左部で示されるような円状の1枚の画像が用いられ、この1枚の画像を用いて視差画像が生成される。尚、以降において、この回帰線NLよりも頂点NP近傍の範囲の画像を極画像NPとも称する。また、回帰線SLよりも仰角が90度に近く、極点SPまでの範囲についても同様に1枚の画像が用いられる。
ところで、仰角が0度付近の円周EL上に画像PL1(図中の三角形),PR1(図中の円形)が、視点eL1,eR1により視聴される、視差画像の左眼用画像および右眼用画像として補間生成されることを考える。このとき、一点鎖線の矢印で示されるように、視点eL1,eR1からの視聴方向の仰角を徐々に90度にまで大きくするように移動させることを考える。
同様に、画像PL1,PR1と方位角がほぼ180度反対側であって、仰角が0度付近に画像PL2,PR2が設けられており、これを視点eL2,eR2により視聴される、視差画像の左眼用画像および右眼用画像が視差画像として補間生成されることを考える。このとき、一点鎖線で示される視点eL2,eR2からの視聴方向の仰角を徐々に90度にまで大きくするように移動させることを考える。
すると、図14の左部で示されるように、極画像NP内において、視点eL1,eR1からの視聴方向の仰角が90度に近付くと、極画像NPにおいては、画像PR1’,PL1’として視差画像が生成される。一方、極画像NP内において、視点eL2,eR2からの視聴方向の仰角が90度に近付くと、極画像NPにおいては、画像PR2’,PL2’として視差画像が生成される。
そして、視聴方向が90度になると、視点eL1,eR1からの視聴方向に基づいた視差画像も、視点eL2,eR2からの視聴方向に基づいた視差画像を構成する左眼用画像および右眼用画像のいずれも画像NP1,NP2となり、いずれも同一のものとなるはずである。しかしながら、双方の視差画像は、視差画像の左右が異なる。
そこで、視聴方向の仰角が、回帰線NLより90度に近い範囲の場合、すなわち、視差画像の補間生成に極画像NPが用いられる場合、レンダリング演算部142は、視聴方向の動きに応じて、左右の視差画像を入れ替えるようにしてもよい。
換言すれば、視聴方向の動きが第1の動きである場合、第1の画像からなる左眼用画像と、第2の画像からなる右眼用画像とで構成される視差画像が表示され、視聴方向の動きが第2の動きである場合には、第2の画像からなる左眼用画像と、第1の画像からなる右眼用画像とで構成される視差画像が表示される。すなわち、レンダリング部53は、視聴方向の動きが第1の動きである場合、上述した第2のモードのうちの、第1の派生モードとして、第1の画像からなる左眼用画像と、第2の画像からなる右眼用画像とで構成される視差画像を生成し、視聴方向の動きが第2の動きである場合には、上述した第2のモードのうちの、第2の派生モードとして、第2の画像からなる左眼用画像と、第1の画像からなる右眼用画像とで構成される視差画像を生成している。結果として、視聴方向の動きに応じて、左眼用画像と右眼用画像とを入れ替えるように視差画像を生成するモードが切り替えられることにより、視差画像の破綻や立体視画像の視聴により生じる酔いを抑制することが可能となる。
尚、以上においては、一旦、生成された視差画像を構成する左眼用画像と右眼用画像とを入れ替える例について説明したが、視差画像の左右の構成が入れ替わるように左眼用画像と右眼用画像とを生成するようにしてもよい。
尚、この場合、HMDシステムとしての構成は、図12のものと同一でよく、また、表示処理については、図13のフローチャートにおけるステップS114の処理において、視差のない画像を生成する処理に代えて、左右の視差画像を入れ替える(反転させる)ように処理すればよいので、詳細な説明は省略するものとする。また、左右の視差画像を入れ替える(反転させる)に当たっては、視差画像を補間生成して入れ替えるようにしてもよいし、既に補間生成されている視差画像の左右を入れ替えるようにしてもよい。
<<5.第1の実施の形態の応用例>>
第1の実施の形態においては、視差画像に破綻が生じると判定された場合、位置情報に基づいた全天球画像における視聴位置を原点Oにずらすことで、破綻のない視差画像を生成する例について説明してきたが、位置情報に基づいた全天球画像における視聴位置と、原点Oとの距離が大きい場合、視差画像として表示される位置は大きく変化してしまうため、表示に違和感を生じさせる恐れがある。
そこで、視差画像が破綻すると判定された場合、位置情報に基づいた全天球画像における視聴位置と、原点Oまでを、所定の距離毎に段階的に移動して、急激な視聴位置の変化を抑制することで、違和感の発生を抑制し、酔いの発生を抑制するようにしてもよい。
図15は、視差画像が破綻すると判定された場合、位置情報に基づいた全天球画像における視聴位置と、原点Oまで移動を、所定の距離毎に段階的に移動するようにしたHMDシステムの構成例を示している。
図15のHMDシステムにおいて、図4のHMDシステムと異なる点は、レンダリング部53において、新たに原点移動モード制御部171が設けられた点である。
原点移動モード制御部171は、視差画像が破綻すると判定された場合、原点移動モードをオンの状態に設定し、視差画像が破綻しないと判定された場合、原点移動モードをオフの状態に設定する。
レンダリング演算部62は、原点移動モードがオンの状態である場合には、位置情報に基づいた全天球画像における視聴位置を、原点Oまで最短経路上であって、所定の距離だけ段階的に移動させた上で、移動された視聴位置における、視聴方向の範囲として特定される全天球画像を用いたレンダリングにより視差画像を補間生成する処理を繰り返す。
すなわち、図16で示されるように、位置情報に基づいた、全天球画像内における視聴位置が視聴位置G32であって、全天球画像の原点Oが位置G31である場合、原点Oを位置G32に移動させることで、視差画像の破綻を抑制させる必要がある。
しかしながら、位置G31,G32との距離が所定距離よりも長い場合、原点Oが位置G31から位置G32に移動することにより生成される視差画像の破綻はなくなるものの、表示される画像について、全天球画像内で視聴位置が大きく変化した画像として表示されることになる。
そこで、位置情報に基づいた視聴位置であるG32と、原点Oである位置G31とが所定の距離よりも離れているような場合、原点Oを、位置G31から位置G32までの最短経路に沿って所定の距離ずつ段階的に移動させる。すなわち、最初の処理では、レンダリング演算部62は、全天球画像の原点Oの位置を、位置G31から位置G32に向けた経路上を距離tだけ移動させて位置M1に移動させ、移動した視聴位置を基準とした視差画像を補間生成する。そして、次の処理では、レンダリング演算部62は、全天球画像の原点Oの位置を、位置M1から距離tだけ移動させて位置M2に移動させ、移動した視聴位置を基準とした視差画像を補間生成する。さらに、次の処理では、レンダリング演算部62は、全天球画像の原点Oの位置を、位置M2から距離tだけ移動させて位置M3に移動させ、移動した視聴位置を基準とした視差画像を補間生成する。
レンダリング演算部62は、原点移動モードがオンである限り、同様の処理を繰り返すことで、最終的に、原点Oを位置G31から位置G32に移動させる。
この処理により位置情報に基づいた全天球画像内における視聴位置となる原点Oは、所定の距離tずつ、徐々に位置G32に近付くように移動することになり、視聴位置が原点Oになると、視差画像の破綻は生じない状態となるので、原点移動モードがオフにされて、位置情報に対応する視聴位置を基準として通常の補間生成に戻る。
結果として、視聴位置が原点Oと所定の距離以上に離れているような状況で、視差画像の破綻が生じても、視聴位置に対する原点Oが所定の距離ずつ、徐々にずらされることになるので、レンダリングにより補間生成される視差画像の大きな変化を抑制することが可能となり、立体視画像の視聴による急激な変化による違和感と酔いの発生を抑制することが可能となる。
<図16のHMDシステムによる表示処理>
次に、図17のフローチャートを参照して、図15のHMDシステムによる表示処理について説明する。尚、図17のフローチャートにおいては、HMD11の処理は、図6のステップS11乃至S18の処理と同様であるので、省略されている。
すなわち、ステップS151において、レンダリング演算部62は、原点移動モード制御部171に問い合わせて、原点移動モードがオンであるか否かを判定する。ステップS151において、原点移動モードがオンではないと判定された場合、処理は、ステップS152に進む。
ステップS152において、画像処理装置12の通信部52は、HMD11より送信された、HMD11の位置情報および視聴方向の情報を受信し、制御部51に出力する。制御部51は、取得したHMD11の位置情報および視聴方向の情報をレンダリング部53に出力する。
ステップS153において、レンダリング部53は、視聴位置判定部61を制御して、位置情報に対応する全天球画像における視聴位置の情報が原点位置に対して所定の範囲内であるか否かに基づいて、視差画像に破綻が生じるか否かを判定する。
ステップS153において、視差画像に破綻が生じると判定された場合、処理は、ステップS154に進む。
ステップS154において、原点移動モード制御部171は、原点移動モードをオンの状態に制御する。
尚、ステップS153において、視差画像に破綻が生じないと判定された場合、ステップS154の処理はスキップされる。
ステップS155において、レンダリング部53は、レンダリング演算部62に対して、コンテンツ記憶部54に記憶されている全天球画像のコンテンツのデータを読み出させる。
ステップS156において、レンダリング部53は、レンダリング演算部62に対して、コンテンツである全天球画像における、視聴位置から視聴方向を見たときに特定される範囲の画像を用いて、レンダリングにより視差画像を補間生成し、制御部51に出力する。
ステップS157において、制御部51は、レンダリングにより補間生成された視差画像を、通信部52を制御して、HMD11に送信させる。
ステップS158において、制御部51は、処理が終了であるか否かを判定し、終了ではない場合、処理は、ステップS151に戻る。
ステップS151において、原点移動モードがオンである場合、処理は、ステップS159に進む。
ステップS159において、レンダリング演算部62は、全天球画像における原点Oに対応する位置を、ユーザの位置情報に基づいて特定される全天球画像内における視聴位置に所定の距離だけ(例えば、図16の距離tだけ)近付けるように座標変換する。
ステップS160において、レンダリング演算部62は、全天球画像における原点Oが、現状における視聴位置に十分近い位置であり、視差画像の破綻が生じない状態であるか否かを判定する。
ステップS160において、視差画像の破綻が生じる状態であるとみなされた場合、ステップS161の処理がスキップされて、処理は、ステップS155に進み、現状の視聴位置から視聴方向を見たときに特定される全天球画像内の範囲の画像が用いられて、レンダリングにより視差画像が補間生成される。
すなわち、視差画像の破綻が生じる状態であるとみなされた場合、原点移動モードがオンの状態が継続されるので、ステップS151,S155乃至S160の処理が繰り返されて、視聴位置に、全天球画像の原点Oが徐々に移動しながら、視差画像を補間生成して、表示する処理が繰り返される。
そして、全天球画像の原点Oが、徐々に今現在の視聴位置に十分に近付くと、ステップS160において、視差画像の破綻がないとみなされ、処理は、ステップS161に進む。
ステップS161において、原点移動モード制御部171は、原点移動モードをオフの状態に制御し、処理は、ステップS155に進む。
以上の処理により、視聴位置が原点Oと所定の距離以上に離れているような状況で、視差画像の破綻が生じても、視聴位置に対して全天球画像の原点Oが所定の距離ずつ、徐々にずらされることになるので、レンダリングにより補間生成される視差画像の大きな変化を抑制することが可能となるので、立体視画像の視聴における急激な視聴位置の変化による違和感と酔いの発生を抑制することが可能となる。
換言すれば、視聴位置が原点Oと所定の距離以上に離れていない場合、視聴位置に応じた視差画像が表示され、視聴位置が原点Oと所定の距離以上に離れている場合、原点Oが視聴位置に徐々に近付くような視差画像に切り替えられて表示される。すなわち、レンダリング部53は、視聴位置が原点Oと所定の距離以上に離れていない場合、第1のモードとして、視聴位置に応じた視差画像(通常の視差画像)を生成し、視聴位置が原点Oと所定の距離以上に離れている場合、第2のモードとして、原点Oが視聴位置に徐々に近付くような視差画像を生成している。結果として、視聴位置と原点Oとの距離に応じて、視聴位置に応じた視差画像を生成するモードと、原点Oが視聴位置に徐々に近付くような視差画像を生成するモードとが切り替えられることにより、視差画像の破綻や立体視画像の視聴により生じる酔いを抑制することが可能となる。
尚、以上においては、全天球画像の原点位置が、所定の距離ずつ、視聴位置に近づく例について説明してきたが、徐々に原点位置が視聴位置に近づけばよいので、所定の距離ずつ近づかなくてもよく、例えば、残された距離について、所定の割合で徐々に近づくようにしてもよい。また、以上においては、視聴位置と全天球画像の原点とが最短経路上を徐々に近づく例について説明してきたが、最短経路でなくとも、徐々に原点位置が視聴位置に近づくようにしてもよい。
また、以上においては、第1の実施の形態においては、全天球画像の座標系における、視聴位置が原点位置に対して所定の範囲内であるか否かに基づいて、視差画像の破綻の有無を判定し、第3の実施の形態においては、全天球画像の座標系における、視聴方向が所定の範囲内であるか否かに基づいて視差画像の破綻の有無を判定するようにする例について説明してきたが、それらを組み合わせて視差画像の破綻の有無を判定するようにしてもよい。
さらに、全天球画像の座標系における視聴位置および視聴方向は、いずれもHMDを装着するユーザの視聴姿勢を特定する情報であるので、これらを総称して視聴情報と称する。また、視聴情報は、HMD11を装着したユーザの視聴姿勢を特定する情報であると共に、HMD11そのものの視聴姿勢を特定する情報であるとも言える。
従って、本開示のHMDシステムは、視聴情報が所定の条件を満たす状態であれば、全天球画像より視差画像を補間生成して表示し、視聴情報が所定の条件を満たさない状態であれば、視聴位置を全天球画像の原点位置に移動させるような座標変換をした上で視差画像を補間生成したり、左右の視差がない視差画像を補間生成することで、通常の視差画像を生成する処理と異なる手法で視差画像を生成することにより、視差画像の破綻を抑制している。
換言すれば、本開示のHMDシステムは、視聴位置に応じて生成される通常の視差画像を構成する左眼用画像および右眼用画像を生成する第1のモードと、通常の視差画像を生成する処理とは異なる手法で左眼用画像および右眼用画像を生成する第2のモードとを切り替えて、それぞれのモードで生成された左眼用画像および右眼用画像を表示させることにより、視差画像の破綻と、立体視画像の視聴に伴う酔いを抑制している。
また、第2の実施の形態においては、視差画像が破綻して、かつ、瞬きをしたタイミングで、視聴位置に全天球画像の原点をずらすように座標変換する例について説明してきたが、第1の実施の形態、および第3の実施の形態を組み合わせるようにしてもよい。
さらに、以上の全ての実施の形態、変形例、および応用例においては、HMD11と画像処理装置12からなるHMDシステムにより上述した機能を実現させる例について説明してきたが、例えば、HMD11内に、画像処理装置12におけるレンダリング部53およびコンテンツ記憶部54の機能を設けるようにして、HMDのみで上述した機能を実現するようにしてもよい。
また、本明細書においては、HMD11を用いる例について説明してきたが、スマートフォンにアプリケーションプログラムをインストールし、ユーザの頭部に装着して、表示部に左眼用表示部位および右眼用表示部位に対応する表示領域を設定し、視差画像である左眼用画像および右眼用画像を表示させることで、HMD11と同様に利用する場合についても、上述した機能を実現させることが可能である。
<<6.ソフトウェアにより実行させる例>>
ところで、上述した一連の処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図18は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタフェース1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタフェース1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011ら読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
以上のように構成されるコンピュータでは、CPU1001が、例えば、記憶部1008に記憶されているプログラムを、入出力インタフェース1005及びバス1004を介して、RAM1003にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU1001)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア1011に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディア1011をドライブ1010に装着することにより、入出力インタフェース1005を介して、記憶部1008にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部1009で受信し、記憶部1008にインストールすることができる。その他、プログラムは、ROM1002や記憶部1008に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
尚、図18におけるCPU1001が、制御部31,51の機能を実現させる。また、記憶部1008が、コンテンツ記憶部54を実現する。
また、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
例えば、本開示は、1つの機能をネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。
さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
尚、本開示は、以下のような構成も取ることができる。
<1> ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成し、
前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成する画像生成部
を含む画像処理装置。
<2> 前記画像生成部は、
前記ユーザの前記画像データの座標系における前記ユーザの視聴方向が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
前記ユーザの前記画像データの座標系における前記ユーザの視聴方向が所定の条件を満たさない場合、前記他の所定のモードで、前記左右の2枚の画像を生成する
<1>に記載の画像処理装置。
<3> 前記画像生成部は、
前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内である場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内ではない場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記他の所定のモードで、前記左右の同一の2枚の画像を生成する
<2>に記載の画像処理装置。
<4> 前記左右の2枚の画像は、左右の2枚の視差画像である
<3>に記載の画像処理装置。
<5> 前記画像生成部は、
前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内である場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内ではない場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の画像を生成し、左右反転させる、または、前記左右の2枚の画像が左右反転するように、前記左右の2枚の画像を生成する
<2>に記載の画像処理装置。
<6> 前記左右の2枚の画像は、左右の2枚の視差画像である
<5>に記載の画像処理装置。
<7> 前記視聴方向を検出する視聴方向検出部をさらに含み、
前記視聴方向検出部は、
前記ユーザの顔向き方向を検出する顔向き方向検出部と、
前記ユーザの視線方向を検出する視線方向検出部とをさらに含み、
前記視聴方向検出部は、前記顔向き方向および前記視線方向を用いて視聴方向を算出する
<2>に記載の画像処理装置。
<8> 前記画像生成部は、
前記ユーザの前記画像データの座標系における前記ユーザの視聴位置が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
前記ユーザの前記画像データの座標系における前記ユーザの視聴位置が所定の条件を満たさない場合、前記他の所定のモードで、前記左右の2枚の画像を生成する
<1>に記載の画像処理装置。
<9> 前記画像生成部は、
前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内である場合、前記ユーザの視聴位置に基づいて特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内ではない場合、前記ユーザの視聴位置を、前記画像データにおける座標系の原点となるようにずらし、前記原点となるようにずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の画像を生成する
<8>に記載の画像処理装置。
<10> 前記左右の2枚の画像は、左右の2枚の視差画像である
<8>に記載の画像処理装置。
<11> 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に段階的にずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
<10>に記載の画像処理装置。
<12> 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に段階的に所定の間隔ずつずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
<11>に記載の画像処理装置。
<13> 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に段階的に所定の距離の割合ずつずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
<11>に記載の画像処理装置。
<14> 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に、前記視聴位置までの最短経路上を段階的にずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
<11>に記載の画像処理装置。
<15> 前記画像生成部は、前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内ではない場合で、かつ、前記ユーザの視聴状態に変更がある場合、前記ユーザの視聴位置を、前記画像データにおける座標系の原点となるようにずらし、前記原点となるようにずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
<10>に記載の画像処理装置。
<16> 前記ユーザの視聴状態に変更がある場合は、前記ユーザが瞬きをするタイミング、前記ユーザが振り返るタイミング、および前記ユーザがうなずくタイミングの場合である
<15>に記載の画像処理装置。
<17> ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成し、
前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成する
画像処理装置の制御方法。
11 HMD, 12 画像処理装置, 31 制御部, 32 視聴方向検出部, 33 位置検出部, 34 通信部, 35 表示部, 36 音声出力部, 41 顔向き検出部, 42 視線方向検出部, 51 制御部, 52 通信部, 53 レンダリング部, 54 コンテンツ記憶部, 61 視聴位置判定部, 62 レンダリング演算部, 91 瞬き検出部, 101 瞬き判定部, 141 視聴方向判定部, 142 レンダリング演算部, 171 原点移動モード制御部

Claims (17)

  1. ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成し、
    前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成する画像生成部
    を含む画像処理装置。
  2. 前記画像生成部は、
    前記ユーザの前記画像データの座標系における前記ユーザの視聴方向が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
    前記ユーザの前記画像データの座標系における前記ユーザの視聴方向が所定の条件を満たさない場合、前記他の所定のモードで、前記左右の2枚の画像を生成する
    請求項1に記載の画像処理装置。
  3. 前記画像生成部は、
    前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内である場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
    前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内ではない場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記他の所定のモードで、前記左右の同一の2枚の画像を生成する
    請求項2に記載の画像処理装置。
  4. 前記左右の2枚の画像は、左右の2枚の視差画像である
    請求項3に記載の画像処理装置。
  5. 前記画像生成部は、
    前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内である場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
    前記視聴方向が、前記画像データにおける座標系の所定の仰角の範囲内ではない場合、前記ユーザの視聴方向で特定される前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の画像を生成し、左右反転させる、または、前記左右の2枚の画像が左右反転するように、前記左右の2枚の画像を生成する
    請求項2に記載の画像処理装置。
  6. 前記左右の2枚の画像は、左右の2枚の視差画像である
    請求項5に記載の画像処理装置。
  7. 前記視聴方向を検出する視聴方向検出部をさらに含み、
    前記視聴方向検出部は、
    前記ユーザの顔向き方向を検出する顔向き方向検出部と、
    前記ユーザの視線方向を検出する視線方向検出部とをさらに含み、
    前記視聴方向検出部は、前記顔向き方向および前記視線方向を用いて視聴方向を算出する
    請求項2に記載の画像処理装置。
  8. 前記画像生成部は、
    前記ユーザの前記画像データの座標系における前記ユーザの視聴位置が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
    前記ユーザの前記画像データの座標系における前記ユーザの視聴位置が所定の条件を満たさない場合、前記他の所定のモードで、前記左右の2枚の画像を生成する
    請求項1に記載の画像処理装置。
  9. 前記画像生成部は、
    前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内である場合、前記ユーザの視聴位置に基づいて特定される前記画像データを用いた、前記所定のモードで、前記左右の2枚の画像を生成し、
    前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内ではない場合、前記ユーザの視聴位置を、前記画像データにおける座標系の原点となるようにずらし、前記原点となるようにずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の画像を生成する
    請求項8に記載の画像処理装置。
  10. 前記左右の2枚の画像は、左右の2枚の視差画像である
    請求項8に記載の画像処理装置。
  11. 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に段階的にずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
    請求項10に記載の画像処理装置。
  12. 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に段階的に所定の間隔ずつずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
    請求項11に記載の画像処理装置。
  13. 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に段階的に所定の距離の割合ずつずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
    請求項11に記載の画像処理装置。
  14. 前記画像生成部は、前記画像データにおける座標系の原点を、前記視聴位置に、前記視聴位置までの最短経路上を段階的にずらして、ずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
    請求項11に記載の画像処理装置。
  15. 前記画像生成部は、前記視聴位置が、前記画像データにおける座標系の原点から所定の距離の範囲内ではない場合で、かつ、前記ユーザの視聴状態に変更がある場合、前記ユーザの視聴位置を、前記画像データにおける座標系の原点となるようにずらし、前記原点となるようにずらした前記視聴位置に基づいて特定される、前記画像データを用いた、前記他の所定のモードで、前記左右の2枚の視差画像を生成する
    請求項10に記載の画像処理装置。
  16. 前記ユーザの視聴状態に変更がある場合は、前記ユーザが瞬きをするタイミング、前記ユーザが振り返るタイミング、および前記ユーザがうなずくタイミングの場合である
    請求項15に記載の画像処理装置。
  17. ユーザの視聴情報が所定の条件を満たす場合、前記ユーザの視聴情報で特定される画像データを用いた、所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成し、
    前記ユーザの視聴情報が前記所定の条件を満たさない場合、前記所定のモードとは異なる他の所定のモードで、前記ユーザの右目と左目に対応する左右の2枚の画像を生成する
    画像処理装置の制御方法。
JP2017140080A 2017-07-19 2017-07-19 画像処理装置、および画像処理装置の制御方法 Pending JP2019022121A (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2017140080A JP2019022121A (ja) 2017-07-19 2017-07-19 画像処理装置、および画像処理装置の制御方法
CN201880046308.6A CN110892717B (zh) 2017-07-19 2018-07-05 图像处理器和图像处理器的控制方法
EP18752636.3A EP3656123A1 (en) 2017-07-19 2018-07-05 Image processor and control method of image processor
PCT/JP2018/025470 WO2019017207A1 (en) 2017-07-19 2018-07-05 IMAGE PROCESSOR AND METHOD FOR CONTROLLING IMAGE PROCESSOR
US16/603,076 US11109009B2 (en) 2017-07-19 2018-07-05 Image processor and control method of image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017140080A JP2019022121A (ja) 2017-07-19 2017-07-19 画像処理装置、および画像処理装置の制御方法

Publications (1)

Publication Number Publication Date
JP2019022121A true JP2019022121A (ja) 2019-02-07

Family

ID=63145148

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017140080A Pending JP2019022121A (ja) 2017-07-19 2017-07-19 画像処理装置、および画像処理装置の制御方法

Country Status (5)

Country Link
US (1) US11109009B2 (ja)
EP (1) EP3656123A1 (ja)
JP (1) JP2019022121A (ja)
CN (1) CN110892717B (ja)
WO (1) WO2019017207A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7434846B2 (ja) 2019-11-29 2024-02-21 株式会社リコー 画像処理装置、画像処理方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08292394A (ja) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd 頭部搭載型画像表示装置
JPH08336166A (ja) * 1995-06-07 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
WO2015068656A1 (ja) * 2013-11-11 2015-05-14 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2016181267A (ja) * 2016-05-16 2016-10-13 株式会社コロプラ コンピュータ・プログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9827546D0 (en) 1998-12-15 1999-02-10 Street Graham S B Apparatus and method for image control
GB2457690A (en) * 2008-02-21 2009-08-26 Sharp Kk Viewer position tracking display
JP2010266989A (ja) 2009-05-13 2010-11-25 Toppan Printing Co Ltd リアルタイム3次元映像の映像酔い防止制御方法および制御装置
JP4903888B2 (ja) 2010-08-09 2012-03-28 株式会社ソニー・コンピュータエンタテインメント 画像表示装置、画像表示方法、および画像補正方法
US9007430B2 (en) 2011-05-27 2015-04-14 Thomas Seidl System and method for creating a navigable, three-dimensional virtual reality environment having ultra-wide field of view
JP6073307B2 (ja) 2011-06-22 2017-02-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. ディスプレイ用信号の生成方法及び装置
KR101769976B1 (ko) * 2013-03-06 2017-08-21 한국전자통신연구원 시청 가구 구성원 프로파일 추론 방법 및 장치
KR101981530B1 (ko) * 2013-03-29 2019-05-23 엘지디스플레이 주식회사 입체영상 표시장치와 그 구동방법
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
EP3127329B1 (en) * 2014-04-02 2019-06-12 Telefonaktiebolaget LM Ericsson (publ) Multi-view display control
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08292394A (ja) * 1995-01-24 1996-11-05 Matsushita Electric Ind Co Ltd 頭部搭載型画像表示装置
JPH08336166A (ja) * 1995-06-07 1996-12-17 Matsushita Electric Ind Co Ltd 映像視聴装置
WO2015068656A1 (ja) * 2013-11-11 2015-05-14 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2016062486A (ja) * 2014-09-19 2016-04-25 株式会社ソニー・コンピュータエンタテインメント 画像生成装置および画像生成方法
JP2016181267A (ja) * 2016-05-16 2016-10-13 株式会社コロプラ コンピュータ・プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7434846B2 (ja) 2019-11-29 2024-02-21 株式会社リコー 画像処理装置、画像処理方法、プログラム

Also Published As

Publication number Publication date
CN110892717B (zh) 2021-12-07
EP3656123A1 (en) 2020-05-27
WO2019017207A1 (en) 2019-01-24
CN110892717A (zh) 2020-03-17
US11109009B2 (en) 2021-08-31
US20200053337A1 (en) 2020-02-13

Similar Documents

Publication Publication Date Title
US10591731B2 (en) Ocular video stabilization
US10629107B2 (en) Information processing apparatus and image generation method
US10681276B2 (en) Virtual reality video processing to compensate for movement of a camera during capture
US10692300B2 (en) Information processing apparatus, information processing method, and image display system
JP2015095147A (ja) 表示制御装置、表示制御方法、およびプログラム
US9965830B2 (en) Image processing apparatus, image processing method, and program
US10871822B2 (en) Image generation apparatus, image generation system, and image generation method
KR20160147735A (ko) 헤드부 위치 검출 장치 및 헤드부 위치 검출 방법, 화상 처리 장치 및 화상 처리 방법, 표시 장치, 및 컴퓨터 프로그램
JP2017204674A (ja) 撮像装置、ヘッドマウントディスプレイ、情報処理システム、および情報処理方法
US20220109822A1 (en) Multi-sensor camera systems, devices, and methods for providing image pan, tilt, and zoom functionality
JP2017215875A (ja) 画像生成装置、画像生成システム、および画像生成方法
JP2017021680A (ja) ヘッドマウントディスプレイ制御方法、および、ヘッドマウントディスプレイ制御プログラム
CN112655202B (zh) 用于头戴式显示器的鱼眼镜头的减小带宽立体失真校正
US20180054568A1 (en) Display control method and program for executing the display control method on computer
US20220239888A1 (en) Video distribution system, video distribution method, and display terminal
JPWO2015122052A1 (ja) 画像送信装置、情報処理端末、画像送信方法、情報処理方法、プログラム及び情報記憶媒体
JP6518645B2 (ja) 情報処理装置および画像生成方法
JP2019022121A (ja) 画像処理装置、および画像処理装置の制御方法
WO2020137877A1 (ja) 三次元データ再生装置
US20210058611A1 (en) Multiviewing virtual reality user interface
WO2021095537A1 (ja) 情報処理装置、情報処理方法、並びにプログラム
US20210266510A1 (en) Image processing apparatus, image processing method, and image processing program
JP2017142769A (ja) 仮想空間の画像をヘッドマウントディスプレイに提供する方法及びプログラム
JP2023172180A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2017098921A (ja) 送信装置、送信方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200603

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220118