JP6708444B2 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP6708444B2
JP6708444B2 JP2016042494A JP2016042494A JP6708444B2 JP 6708444 B2 JP6708444 B2 JP 6708444B2 JP 2016042494 A JP2016042494 A JP 2016042494A JP 2016042494 A JP2016042494 A JP 2016042494A JP 6708444 B2 JP6708444 B2 JP 6708444B2
Authority
JP
Japan
Prior art keywords
image
display image
display
information
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016042494A
Other languages
English (en)
Other versions
JP2017158153A (ja
Inventor
祐二 加藤
祐二 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016042494A priority Critical patent/JP6708444B2/ja
Priority to US15/439,567 priority patent/US10277891B2/en
Publication of JP2017158153A publication Critical patent/JP2017158153A/ja
Application granted granted Critical
Publication of JP6708444B2 publication Critical patent/JP6708444B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Description

本発明は、画像処理装置および画像処理方法に関する。
臨場感の高い映像を視聴者に視聴させるために、ステレオ全方位画像を、ヘッドマウントディスプレイ(HMD)等のステレオ画像表示デバイスにリアルタイムで表示する技術が知られている。しかしながら、視聴者が向いている方向に応じて、リアルタイムでステレオ全方位画像を効率的に表示するための技術は未だ確立されていない。
特許文献1には、ステレオではない全方位画像を平面のディスプレイに効率的に表示するための画像生成方法が開示されている。この方法は、球面上の座標で表される全方位画像を予め複数の平面に分割しておき、球面から平面への投影変換を平面から平面への投影変換に近似することで、効率的にディスプレイに表示する平面画像を生成する方法である。
特開2012−256274号公報
しかしながら、HMDに表示する画像を生成する際には、単純な平面から平面への投影変換ではなく、その投影変換に加えて接眼レンズの歪みを考慮した計算も必要であり、上記特許文献1に記載の方法をそのまま適用することはできない。つまり、上記特許文献1に記載の技術では、ステレオ全方位画像からHMDに表示するステレオ表示画像を生成する処理に要する計算コストを削減することはできない。
そこで、本発明は、ステレオ画像表示デバイスに表示する表示画像を効率的に生成することを目的とする。
上記課題を解決するために、本発明に係る画像処理装置の一態様は、視聴者の姿勢情報を取得する第一の取得手段と、前記視聴者に提示する右目用の表示画像と左目用の表示画像について、それぞれ前記視聴者の眼前に配置されるレンズの光軸と交わる点からの相対的な位置が等しい領域である重複領域を抽出する抽出手段と、前記第一の取得手段により取得された前記姿勢情報と前記レンズの歪曲情報とに基づく光線の方向と、前記抽出手段により抽出された前記重複領域とに基づいて、右目用の全方位画像と左目用の全方位画像とを含むステレオ全方位画像である参照画像から前記表示画像を生成する生成手段と、を備え、前記生成手段は、前記重複領域において、前記右目用の表示画像と前記左目用の表示画像とで、前記表示画像の生成処理に係る前記光線の方向の情報を共有する。
本発明によれば、ステレオ画像表示デバイスに表示する表示画像を効率的に生成することができる。
画像処理装置のハードウェア構成図である。 画像処理装置の機能ブロック図である。 画像処理装置の動作を説明するフローチャートである。 全方位画像の例である。 表示画像の例である。 表示画像生成処理を示すフローチャートである。 表示画像上の座標系を示す図である。 計算領域を示す図である。 表示画像上でのレンズの歪曲を示す図である。 眼を原点とした座標系での画素位置を示す図である。
以下、添付図面を参照して、本発明を実施するための形態について詳細に説明する。なお、以下に説明する実施の形態は、本発明の実現手段としての一例であり、本発明が適用される装置の構成や各種条件によって適宜修正または変更されるべきものであり、本発明は以下の実施の形態に限定されるものではない。
本実施形態では、所定の参照画像を変換してステレオ画像表示デバイスに表示する際に、計算量を削減してステレオ画像表示デバイスに表示する表示画像を効率的に生成する方法について説明する。上記参照画像は、水平方向や垂直方向といった全方位を撮像した全方位画像や、水平方向360度を撮像した全周囲画像を用いることができる。本実施形態では、参照画像が、左目用全方位画像と右目用全方位画像とを含むステレオ全方位画像であり、ステレオ画像表示デバイスが、ヘッドマウントディスプレイ(HMD)である場合について説明する。
図1は、本実施形態における画像処理装置100のハードウェア構成図である。画像処理装置100は、CPU101、RAM102、ROM13、HDD I/F104、HDD105、入力I/F106、出力I/F107、姿勢検出I/F108およびシステムバス109を備える。
CPU101は、画像処理装置100における動作を統括的に制御するものであり、システムバス109を介して、各構成部(102〜104、106〜108)を制御する。RAM102は、CPU101のワークメモリとして機能する。CPU101が処理を実行するために必要なプログラムや各種データは、ROM102やHDD105に格納されている。つまり、CPU101は、処理の実行に際してROM102やHDD105に格納されたプログラムを実行することで、各種の機能動作を実現する。
HDD I/F104は、HDD105や光ディスクドライブなどの二次記憶装置(不図示)と接続されている。HDD I/F104は、例えばSATA(Serial ATA)等である。CPU101は、HDD I/F104を介して、HDD105に対してデータを読み書きすることができる。また、CPU101は、HDD105に格納されたデータをRAM102に展開したり、RAM102に展開されたデータをHDD105に保存したりすることができる。そして、CPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。
入力I/F106は、キーボードやマウス、デジタルカメラ、スキャナなどの入力デバイス201と接続されている。入力I/F106は、例えばUSBやIEEE1394等のシリアルバスインタフェースにより構成することができる。CPU101は、入力I/F106を介して、入力デバイス201から各種データを読み込むことが可能である。出力I/F107は、視聴者が頭部に装着可能な頭部装着型の表示装置などのステレオ画像表示デバイスである出力デバイス202と接続されている。出力I/F107は、例えばDVI(Digital Visual Interface)やHDMI(登録商標)(High-Definition Multimedia Interface)等の映像出力インタフェースにより構成することができる。
本実施形態では、出力デバイス202が、HMDである場合について説明する。HMD202は、視聴者の眼前に配置された接眼レンズと画像表示面(パネル)とを備える。接眼レンズとパネルとは、視聴者の左右の目にそれぞれ対応して視聴者の眼前に配置されている。HMD202は、画像処理装置100から出力された左目用の表示画像と右目用の表示画像とを各パネルに表示することで、各表示画像を視聴者に提示することができる。つまり、CPU101は、出力I/F107を介して、HMD202にデータを送ることで、HMD202に画像を表示させる表示制御を行うことができる。
姿勢検出I/F108は、加速度センサや角速度センサ、地磁気センサ、GPSなどを含む姿勢検出装置203と接続されている。姿勢検出I/F108は、例えばUSBやIEEE1394等のシリアルバスインタフェースにより構成することができる。姿勢検出装置203は、HMD202の画像表示面などに取り付けられており、CPU101は、姿勢検出I/F108を介して姿勢検出装置203からHMD202の姿勢情報を読み込むことが可能である。つまり、CPU101は、姿勢検出装置203からHMD202を装着した視聴者の姿勢情報(頭部の向きに関する情報)を取得することができる。なお、CPU101は、マウスやキーボードなどの入力デバイス201を介して姿勢情報を入力することもできる。
図2は、画像処理装置100の機能ブロック図である。画像処理装置100は、パラメータ取得部111、姿勢情報取得部112、画像データ取得部113、画像処理部114および画像データ出力部115を備える。画像処理部114は、計算領域算出部116と、画素値取得部117とを備える。画素値取得部117は、光線方向算出部118と、画素値格納部119とを備える。
この図2に示す情報処理装置100の各部の機能は、図1のCPU101がプログラムを実行することにより実現され得る。なお、図2に示す情報処理装置100の各部のうち少なくとも一部が専用のハードウェアとして動作するようにしてもよい。この場合、専用のハードウェアは、CPU101の制御に基づいて動作する。
パラメータ取得部111は、入力デバイス201から、ステレオ全方位画像をHMD202に表示するために必要なパラメータである表示パラメータを取得する。なお、パラメータ取得部111は、RAM102やHDD105に一旦保存された表示パラメータを取得してもよい。ここで、表示パラメータは、HMD202を構成する接眼レンズの焦点距離、歪曲パラメータ、パネル上における接眼レンズの中心位置、パネル解像度、パネルサイズなどを含む。
姿勢情報取得部112は、姿勢検出装置203または入力デバイス201から姿勢情報を取得する。なお、姿勢情報取得部112は、RAM102やHDD105に一旦保存された姿勢情報を取得してもよい。画像データ取得部113は、HDD105や入力デバイス201からステレオ全方位画像を取得する。画像処理部114は、表示パラメータと姿勢情報とステレオ全方位画像とに基づいて、HMD202に表示するための表示画像を生成する。画像データ出力部115は、画像処理部114において生成された表示画像をHMD202に出力する。
画像処理部114は、HMD202に表示する左目用表示画像と右目用表示画像とを生成する。本実施形態では、画像処理部114は、左目用表示画像と右目用表示画像とについて、表示画像の生成処理において同じ計算を行う領域を抽出する。そして、画像処理部114は、抽出した領域において、左目用表示画像と右目用表示画像とで計算結果(表示画像の生成処理に係る情報)を共有することで上記計算を1回に抑え、全体の計算量を削減する。
画像処理部114の計算領域算出部116は、表示画像生成処理に際して計算の必要がある領域(計算領域)を算出し、画素値取得部117は、計算領域の各画素位置に対応する画素値を所定の参照画像からサンプリングする。画素値取得部117の光線方向算出部118は、表示画像の画素位置と所定の参照画像の画素位置とを対応付ける対応情報として、計算領域の各画素位置に表示すべき光線の方向を示す情報を算出する。
上記参照画像はステレオ全方位画像ある。ステレオ全方位画像は、全ての方向の光線の色を保存した画像データであるため、画素値格納部119は、算出された光線の方向に基づいて、計算領域の各画素位置に対応する画素値をステレオ全方位画像からサンプリングすることができる。画素値格納部119は、サンプリングした画素値を表示画像の対応する画素位置に格納する。
図3は、画像処理装置100の動作を説明するフローチャートである。画像処理装置100は、CPU101が必要なプログラムを読み出して実行することにより、図3に示す各処理を実現することができる。以降、アルファベットSはフローチャートにおけるステップを意味するものとする。
まずS1において、パラメータ取得部111は表示パラメータを取得し、S2に移行する。S2では、姿勢情報取得部112は姿勢情報を取得し、S3に移行する。ここで、姿勢情報は、HMD202の向きを表すデータであり、本実施形態では3×3の回転行列Mとする。なお、姿勢情報は、クォータニオンやロール、ピッチ、ヨー表現を用いて表してもよい。
S3では、画像データ取得部113は、次に表示するステレオ全方位画像を取得する。ステレオ全方位画像の例を図4に示す。本実施形態では、全方位画像のうち、左目に表示する画像を左目用全方位画像IL、右目に表示する画像を右目用全方位画像IRとする。ここで、全方位画像は、上述したように全ての方向の光線の色を保存した画像データである。全方位画像の横軸は方位角であり、その範囲は[0,2π]である。また、全方位画像の縦軸は仰角であり、その範囲は[−π/2,π/2]である。
S4では、画像処理部114は、S1において取得された表示パラメータと、S2において取得された姿勢情報と、S3において取得された全方位画像ILおよびIRとに基づいて、出力デバイス109に表示するための表示画像を生成する。表示画像の例を図5に示す。本実施形態では、表示画像のうち、左目に提示するための画像を左目用表示画像JL、右目に提示するための画像を右目用表示画像JRとする。各表示画像は、接眼レンズを通してみたときに歪みなく見えるように、接眼レンズの歪みに応じて補正された画像である。このS4において実行される表示画像生成処理の詳細については後述する。
S5では、画像データ出力部115は、S4において生成された表示画像JLおよびJRをHMD202に出力することで、ステレオ全方位画像から生成された表示画像JLおよびJRを、HMD202に表示させる表示制御を行う。S6では、パラメータ取得部111は、画像処理を終了するか否かを判定し、処理を継続すると判定した場合にはS1に戻り、処理を終了すると判定した場合には図3の処理を終了する。
以下、画像処理部114が実行する表示画像生成処理について、詳細に説明する。
画像処理部114は、視聴者の頭部の向いている方向に応じてステレオ全方位画像から画素値をサンプリングすることで、HMD202に表示する画像を生成する。画素値をステレオ全方位画像からサンプリングするために、画像処理部114は、視聴者の姿勢情報(HMD202の姿勢情報)を基に、HMD202のパネル上の各画素位置にどの方向の光線を表示するかを計算する。この光線の方向は、水平方向の角度を表す方位角θと、垂直方向の角度を表す仰角φとによって表すことができる。そして、この光線の方向(θ,φ)は、接眼レンズの光軸と表示画像との交点からの相対的な位置によって決まる。
図7に示すように、左目用表示画像JL上の接眼レンズの光軸との交点をOL、右目用表示画像JR上の接眼レンズの光軸との交点をORとし、これらの点を原点とした各座標系での画素位置を、左右それぞれ(xL,yL)、(xR,yR)とする。ここで、左目用表示画像JLの左上の座標を(xL0,y0)、右下の座標を(xL1,y1)とする。同様に、右目用表示画像JRの左上の座標を(xR0,y0)、右下の座標を(xR1,y1)とする。レンズ中心からの相対的な位置が同じである画素は、入射する光線の方向も同じであるため、(xL,yL)と(xR,yR)とが同じ座標値である場合、その画素位置に表示すべき光線の方向(θ,φ)も同じになる。
そこで、本実施形態では、画像処理部114は、同じ座標値となる画素位置(xL,yL)と(xR,yR)とについて、表示すべき光線の方向をそれぞれ導出するのではなく、光線の方向の導出結果を共有する。つまり、画像処理部114は、左右の表示画像上で接眼レンズの光軸と交わる点からの相対的な位置が等しい領域については、入射する光線の方向が1回の計算で求められることを利用して、全体の計算コストを削減する。
図6は、図3のS4において実行される表示画像生成処理を示すフローチャートである。この表示画像生成処理では、画像処理部114は、上述した計算領域内の全ての画素位置について、ステレオ全方位画像から画素値のサンプリングを行う。画像処理部114は、サンプリングした画素値を、画素位置に応じて左目用表示画像と右目用表示画像の両方またはいずれか一方の対応する画素位置に格納する。画像処理部114は、このようにして表示画像を生成する。以下に示す処理では、画像処理部114は、レンズ中心を原点とした座標系における画素の位置を(x,y)として、光線の方向(θ,φ)を計算し、その方向から表示画像の画素値を求める。
先ずS401において、計算領域算出部116は、表示画像生成の際に計算の必要がある領域である計算領域Rを算出する。図8(a)に示すように、左目用表示画像JLには、右目用表示画像JR内の画素と同じ座標値を有する画素が配置された領域ROと、右目用表示画像JR内の画素とは異なる座標値を有する画素が配置された領域RLとが存在する。同様に、図8(b)に示すように、右目用表示画像JRには、左目用表示画像JL内の画素と同じ座標値を有する画素が配置された領域ROと、左目用表示画像JL内の画素とは異なる座標値を有する画素が配置された領域RRとが存在する。
計算領域Rは、図8(c)に示すように、領域ROと、領域RLと、領域RRとを含む。領域ROは、画像上で接眼レンズの光軸と交わる点からの相対的な位置が等しい領域であり、左右で同じ計算が可能な領域(計算の省略が可能な領域)である。以下、領域ROを重複領域という。また、領域RLは、左目用表示画像JLのみのために計算が必要となる領域であり、領域RRは、右目用表示画像JRのみのために計算が必要となる領域である。
左右で同じ計算が可能な重複領域ROは、左目用表示画像JLと右目用表示画像JRとに共に存在する領域であり、左上(xR0,y0)、右下(xL1,y1)とする四角形の領域である。左目用表示画像JLのみでしか計算を行わない領域RLは、左目用表示画像JL上の重複領域RO以外の領域であり、左上(xL0,y0)、右下(xR0,y1)とする四角形の領域である。右目用表示画像JRのみでしか計算を行わない領域RRは、右目用表示画像JR上の重複領域RO以外の領域であり、左上(xL1,y0)、右下(xR1,y1)とする四角形の領域である。
計算領域Rは、これら3つの領域RO、RL、RRを合わせた領域であり、左上(xL0,y0)、右下(xR1,y1)とする四角形の領域である。計算領域算出部116は、表示パラメータに基づいて、この計算領域Rを、光線の方向を計算する領域として算出する。
次にステップS402では、光線方向算出部118は、計算領域R内の着目画素の位置(x,y)が視聴可能範囲内であるか否かを判定する。具体的には、光線方向算出部118は、レンズ中心からの距離rに基づいて、画素位置(x,y)が視聴可能範囲内であるか否かを判定する。画素位置(x,y)はレンズ中心を原点としているため、レンズ中心からの距離rは(x2+y21/2である。HMD202の画像表示面上での視聴可能範囲が半径Rの円である場合、r≦Rであれば、画素位置(x,y)は視聴可能範囲内である。
そのため、r>Rである場合には、光線方向算出部118は、画素位置(x,y)が視聴可能範囲外であり、描画を行う必要はないと判断してS403に移行し、画素位置(x,y)に対応する表示画像の画素値の値を黒に設定してS412に移行する。一方、r≦Rである場合には、光線方向算出部118は、画素位置(x,y)が視聴範囲内であるため、描画処理を進めると判断してS404に移行する。
S404では、光線方向算出部118は、接眼レンズの歪曲情報として、画素位置(x,y)におけるレンズによる歪曲率を取得する。図9に画像座標上での歪曲の例を示す。歪曲率は、レンズ中心からの距離rとレンズの光学特性とによって決まる。本実施形態では、光線方向算出部118は、使用レンズに応じて予め用意されたレンズ中心からの距離rに対する歪曲率のルックアップテーブルを用いて歪曲率を取得する。
なお、接眼レンズの特性によって、波長ごとに歪曲率が異なる場合には、パネルにおけるR、G、Bの波長ごとにルックアップテーブルを用意する。そして、R、G、B毎の歪曲率を取得した以後のステップでは、R、G、Bの色ごとに異なる歪曲率を用いて処理を行う。
S405では、光線方向算出部118は、画素位置(x,y)がレンズの歪曲によって実際に見える画素位置(xd,yd)を算出する。画素位置(xd,yd)は、画素位置(x,y)の座標値にそれぞれ歪曲率dを積算することで計算できる。
d=x×d,
d=y×d ………(1)
S406では、光線方向算出部118は、歪曲後の画素位置(xd,yd)を眼の位置を原点とする座標系の3次元位置(X,Y,Z)に変換する。図10に画像座標上の点と3次元座標上の点との関係の例を示す。姿勢情報を3×3の回転行列M、画素単位で表現した焦点距離をfとすると、(X,Y,Z)は以下の式で計算できる。
[X Y Z]t=M×[xdd f]t ………(2)
S407では、光線方向算出部118は、画素の3次元位置(X,Y,Z)をもとに、光線の方向を表す方位角θおよび仰角φを算出する。原点から3次元位置(X,Y,Z)までの距離をL=(X2+Y2+Z21/2とすると、方位角θ、仰角φは以下の式で計算できる。
φ=arcsin(Y/L),
θ=arcsin(Z/L/cosφ) ………(3)
つまり、光線の方向(θ,φ)は、レンズの歪曲情報と視聴者の姿勢情報とに基づいて導出することができる。
S408では、画素値格納部119は、着目画素が表示画像の左目領域に描画する画素であるか否かを判定する。具体的には、画素値格納部119は、着目画素が領域RLまたは領域ROに含まれる場合には、左目領域に描画する画素であると判断してS409に移行し、着目画素が領域RRに含まれる場合にはS410に移行する。
S409では、画素値格納部119は、S407において算出された光線の方向(θ,φ)に対応する画素の画素値を、左目用全方位画像ILから取得し、左目用表示画像JLに格納する。画素値を格納する位置は、左目用表示画像JLにおける原点OLから(x,y)だけ移動した位置である。なお、全方位画像から画素値をサンプリングする際は、最近傍の画素値を取得してもよいし、バイリニア補間やバイキュービック補間など周辺の画素値を使って補間してサンプリングを行ってもよい。
S410では、画素値格納部119は、着目画素が表示画像の右目領域に描画する画素であるか否かを判定する。具体的には、画素値格納部119は、着目画素が領域RRまたは領域ROに含まれる場合には、右目領域に描画する画素であると判断してS411に移行し、着目画素が領域RLに含まれる場合にはS412に移行する。S411では、画素値格納部119は、S407において算出された光線の方向(θ,φ)に対応する画素の画素値を、右目用全方位画像IRから取得し、右目用表示画像JRに格納する。画素値を格納する位置は、右目用表示画像JRにおける原点ORから(x,y)だけ移動した位置である。なお、サンプリングはS409と同様に行う。
このように、画素値格納部119は、重複領域ROについては、S407において算出された光線の方向(θ,φ)に基づいて、左右両方の全方位画像から画素値のサンプリングを行い、左右両方の表示画像に値を格納する。一方、領域RLについては、画素値のサンプリングを左目用の全方位画像から行い、左目用の表示画像に値を格納する。また、領域RRについては、画素値のサンプリングを右目用の全方位画像から行い、右目用の表示画像に値を格納する。
次にS412では、光線方向算出部118は、計算領域R内の全画素について処理が完了しているか否かを判定する。そして、光線方向算出部118は、全画素の処理が完了していないと判定するとS402に戻り、全画素の処理が完了していると判定すると図6の表示画像生成処理を終了する。
以上のように、画像処理装置100は、視聴者に提示する右目用の表示画像と左目用の表示画像について、それぞれ視聴者の眼前に配置されるレンズの光軸と交わる点からの相対的な位置が等しい領域である重複領域を抽出する。また、画像処理装置100は、視聴者の姿勢情報と上記重複領域とに基づいて、所定の参照画像から表示画像を生成する。その際、画像処理装置100は、重複領域において、右目用の表示画像と左目用の表示画像とで、表示画像の生成処理に係る情報を共有する。ここで、参照画像は、右目用の全方位画像と左目用の全方位画像とを含むステレオ全方位画像である。
このように、画像処理装置100は、右目用表示画像および左目用表示画像を生成する際に同じ計算を行う領域を算出し、その領域の計算結果を共有することができる。そのため、ステレオ全方位画像から視聴者の姿勢に応じたステレオ表示画像を生成する処理に必要な計算量を削減することができる。
具体的には、画像処理装置100は、表示画像の生成に際し、視聴者の姿勢情報と重複領域の情報とに基づいて、表示画像の画素位置と参照画像の画素位置とを対応付ける対応情報を導出する。そして、画像処理装置100は、導出された対応情報と、重複領域の情報とに基づいて、参照画像から表示画像を生成する。したがって、画像処理装置100は、対応情報に基づいて適切に表示画像を生成することができる。また、このとき画像処理装置100は、重複領域において、右目用の表示画像と左目用の表示画像とで対応情報の導出結果を共有する。これにより、表示画像の画素位置に対応する参照画像の画素位置の計算コストを削減することができる。
さらに、画像処理装置100は、対応情報として、表示画像の各画素に表示すべき光線の方向を示す情報を導出し、その対応情報を重複領域において共有する。このように、画像処理装置100は、左右の表示画像においてレンズの光軸と交わる点からの相対的な位置が同じである画素には同じ光線の色を表示すべきであることを利用し、重複領域の各画素に表示すべき光線の方向を1回の計算で求める。つまり、画像処理装置100は、重複領域内の画素位置に対応する参照画像の画素位置の計算を左目と右目とで2回計算するのではなく、1回の計算に抑える。したがって、表示画像上でレンズの光軸と交わる点が表示画像の中央に位置する場合、つまりレンズ中心から見て内側の画素数と外側の画素数とが同じである場合、計算量を1/2にすることができる。
また、画像処理装置100は、表示画像の生成に際し、対応情報に基づいて参照画像から画素値をサンプリングし、サンプリングした画素値を表示画像の対応する画素位置に格納する。このように、画像処理装置100は、左目用の表示画像と右目用の表示画像の各画素について、それぞれ対応する全方位画像の画素位置を計算し、その画素位置の色を全方位画像から参照して並べることで左右の表示画像を生成する。このとき、画像処理装置100は、重複領域において、左右の表示画像で対応情報を共有するので、重複領域については1つの対応情報から左右両方の表示画像の画素値のサンプリングを行うことができ、効率的に左右の表示画像を生成することができる。
さらに、画像処理装置100は、接眼レンズの歪曲情報を取得し、視聴者の姿勢情報と、重複領域の情報と、歪曲情報とに基づいて、対応情報を導出する。このように、画像処理装置100は、接眼レンズの歪曲情報も考慮して、HMDに表示する表示画像を生成する。そのため、本実施形態のように左右の画像で計算結果を共有できる領域を算出し、計算結果を共有する処理を行わないと、計算量が大きくなって、視聴者の姿勢に応じてリアルタイムでHMDにステレオ全方位画像を表示することが困難となる。
これに対して、本実施形態では、視聴者が向いている方向に応じて、ステレオ全方位画像からHMDに表示する表示画像を効率的に生成することができる。したがって、リアルタイムでHMDにステレオ全方位画像を表示することができ、視聴者は臨場感の高い映像を視聴することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…画像処理装置、111…パラメータ取得部、112…姿勢情報取得部、113…画像データ取得部、114…画像処理部、115…画像データ出力部、116…計算領域算出部、117…画素値取得部、118…光線方向算出部、119…画素値格納部

Claims (9)

  1. 視聴者の姿勢情報を取得する第一の取得手段と、
    前記視聴者に提示する右目用の表示画像と左目用の表示画像について、それぞれ前記視聴者の眼前に配置されるレンズの光軸と交わる点からの相対的な位置が等しい領域である重複領域を抽出する抽出手段と、
    前記第一の取得手段により取得された前記姿勢情報と前記レンズの歪曲情報とに基づく光線の方向と、前記抽出手段により抽出された前記重複領域とに基づいて、右目用の全方位画像と左目用の全方位画像とを含むステレオ全方位画像である参照画像から前記表示画像を生成する生成手段と、を備え、
    前記生成手段は、前記重複領域において、前記右目用の表示画像と前記左目用の表示画像とで、前記表示画像の生成処理に係る前記光線の方向の情報を共有することを特徴とする画像処理装置。
  2. 前記生成手段は、
    前記第一の取得手段により取得された前記姿勢情報と、前記抽出手段により抽出された前記重複領域とに基づいて、前記表示画像の画素位置と参照画像の画素位置とを対応付ける対応情報を導出する導出手段を備え、
    前記導出手段により導出された前記対応情報と、前記抽出手段により抽出された前記重複領域とに基づいて、前記参照画像から前記表示画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記導出手段は、
    前記重複領域において、前記右目用の表示画像と前記左目用の表示画像とで前記対応情報の導出結果を共有することを特徴とする請求項2に記載の画像処理装置。
  4. 前記生成手段は、
    前記導出手段により導出された前記対応情報に基づいて前記参照画像から画素値をサンプリングし、サンプリングした前記画素値を前記表示画像の対応する画素位置に格納することで、前記表示画像を生成することを特徴とする請求項2または3に記載の画像処理装置。
  5. 前記レンズの歪曲情報を取得する第二の取得手段をさらに備え、
    前記導出手段は、前記第一の取得手段により取得された前記姿勢情報と、前記抽出手段により抽出された前記重複領域と、前記第二の取得手段により取得された歪曲情報とに基づいて、前記対応情報を導出することを特徴とする請求項2から4のいずれか1項に記載の画像処理装置。
  6. 前記導出手段は、前記表示画像の各画素に表示する光線の方向を示す情報を、前記対応情報として導出することを特徴とする請求項2から5のいずれか1項に記載の画像処理装置。
  7. 前記生成手段によって生成された前記表示画像を、前記視聴者が装着可能な頭部装着型の表示装置に表示させる表示制御手段をさらに備えることを特徴とする請求項1からのいずれか1項に記載の画像処理装置。
  8. 視聴者の姿勢情報を取得するステップと、
    前記視聴者に提示する右目用の表示画像と左目用の表示画像について、それぞれ前記視聴者の眼前に配置されるレンズの光軸と交わる点からの相対的な位置が等しい領域である重複領域を抽出するステップと、
    取得された前記姿勢情報と前記レンズの歪曲情報とに基づく光線の方向と、抽出された前記重複領域とに基づいて、右目用の全方位画像と左目用の全方位画像とを含むステレオ全方位画像である参照画像から前記表示画像を生成するステップと、を含み、
    前記表示画像を生成するステップでは、前記重複領域において、前記右目用の表示画像と前記左目用の表示画像とで、前記表示画像の生成処理に係る前記光線の方向の情報を共有することを特徴とする画像処理方法。
  9. コンピュータを、請求項1からのいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2016042494A 2016-03-04 2016-03-04 画像処理装置および画像処理方法 Active JP6708444B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016042494A JP6708444B2 (ja) 2016-03-04 2016-03-04 画像処理装置および画像処理方法
US15/439,567 US10277891B2 (en) 2016-03-04 2017-02-22 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016042494A JP6708444B2 (ja) 2016-03-04 2016-03-04 画像処理装置および画像処理方法

Publications (2)

Publication Number Publication Date
JP2017158153A JP2017158153A (ja) 2017-09-07
JP6708444B2 true JP6708444B2 (ja) 2020-06-10

Family

ID=59724502

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016042494A Active JP6708444B2 (ja) 2016-03-04 2016-03-04 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US10277891B2 (ja)
JP (1) JP6708444B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108111874B (zh) * 2016-11-16 2020-01-31 腾讯科技(深圳)有限公司 一种文件处理方法、终端及服务器
CN111032624B (zh) 2017-08-18 2023-06-02 三菱瓦斯化学株式会社 二氰基环己烷的制造方法
WO2019220527A1 (ja) * 2018-05-15 2019-11-21 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイ、画像表示方法およびコンピュータプログラム
US11611700B2 (en) * 2020-07-12 2023-03-21 Skydio, Inc. Unmanned aerial vehicle with virtual un-zoomed imaging
JPWO2022070270A1 (ja) * 2020-09-29 2022-04-07

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191419A (ja) * 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
JPH0927971A (ja) * 1995-07-10 1997-01-28 Shimadzu Corp 画像表示システム
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2012256274A (ja) 2011-06-10 2012-12-27 Panasonic Corp 画像生成装置、画像生成方法、及びコンピュータプログラム
JP2013090180A (ja) * 2011-10-19 2013-05-13 Nippon Hoso Kyokai <Nhk> 立体映像撮影表示装置
JP5946777B2 (ja) * 2013-01-25 2016-07-06 富士フイルム株式会社 立体撮像装置
US11205305B2 (en) * 2014-09-22 2021-12-21 Samsung Electronics Company, Ltd. Presentation of three-dimensional video

Also Published As

Publication number Publication date
JP2017158153A (ja) 2017-09-07
US10277891B2 (en) 2019-04-30
US20170257621A1 (en) 2017-09-07

Similar Documents

Publication Publication Date Title
US11592668B2 (en) Image generation apparatus and image generation method using frequency lower than display frame rate
JP6808484B2 (ja) 画像処理装置および画像処理方法
JP6708444B2 (ja) 画像処理装置および画像処理方法
AU2017246470B2 (en) Generating intermediate views using optical flow
EP3057066B1 (en) Generation of three-dimensional imagery from a two-dimensional image using a depth map
EP3438919B1 (en) Image displaying method and head-mounted display apparatus
JP6672315B2 (ja) 画像生成装置、及び画像表示制御装置
JP7182920B2 (ja) 画像処理装置、画像処理方法およびプログラム
WO2019076348A1 (zh) 一种虚拟现实vr界面生成的方法和装置
US20130135310A1 (en) Method and device for representing synthetic environments
US9766458B2 (en) Image generating system, image generating method, and information storage medium
KR20130018869A (ko) 화상생성장치 및 조작지원 시스템
JP5809607B2 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
US10664947B2 (en) Image processing apparatus and image processing method to represent part of spherical image in planar image using equidistant cylindrical projection
JP3032414B2 (ja) 画像処理方法および画像処理装置
JP6971590B2 (ja) 画像処理装置、画像処理方法及びプログラム
CN115868158A (zh) 一种显示调节方法、装置、设备及介质
JP2019029721A (ja) 画像処理装置、画像処理方法およびプログラム
CN110969706B (zh) 增强现实设备及其图像处理方法、系统以及存储介质
KR101947372B1 (ko) Hmd에 위치 보정 영상을 제공하는 방법 및 hmd에 위치 보정 영상을 표시하는 방법, 그리고 이를 이용한 위치 보정 영상을 표시하는 hmd
JP4889036B2 (ja) 画像処理装置、画像処理方法
KR20200056721A (ko) 증강현실 기기의 광학 특성 측정 방법 및 장치
JP2018129025A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP2018129026A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
CN114020150A (zh) 图像显示方法、装置、电子设备及介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191210

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200521

R151 Written notification of patent or utility model registration

Ref document number: 6708444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151