JP2018110295A - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
JP2018110295A
JP2018110295A JP2016256606A JP2016256606A JP2018110295A JP 2018110295 A JP2018110295 A JP 2018110295A JP 2016256606 A JP2016256606 A JP 2016256606A JP 2016256606 A JP2016256606 A JP 2016256606A JP 2018110295 A JP2018110295 A JP 2018110295A
Authority
JP
Japan
Prior art keywords
image
display
parallax
image processing
virtual camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016256606A
Other languages
English (en)
Other versions
JP6808484B2 (ja
JP2018110295A5 (ja
Inventor
祐二 加藤
Yuji Kato
祐二 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016256606A priority Critical patent/JP6808484B2/ja
Priority to US15/849,478 priority patent/US20180184077A1/en
Publication of JP2018110295A publication Critical patent/JP2018110295A/ja
Publication of JP2018110295A5 publication Critical patent/JP2018110295A5/ja
Application granted granted Critical
Publication of JP6808484B2 publication Critical patent/JP6808484B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • H04N13/31Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays using parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Image Processing (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】視野角を減少させることなく適切な視差で表示用画像を生成することが出来る画像処理装置を提供すること。
【解決手段】表示装置に表示する表示用画像を視差画像から生成する画像処理装置であって、前記表示装置の姿勢情報を取得する第1の取得手段と、前記視差画像の視差量を取得する第2の取得手段と、前記表示装置の姿勢情報と前記視差画像の視差量とに基づいて、前記視差画像に対応する視点に仮想的に配置される仮想カメラの姿勢を調整する調整手段と、前記表示装置の姿勢情報と、調整された前記仮想カメラの姿勢とに基づいて、前記視差画像から前記表示用画像を生成する生成手段と、を備える。
【選択図】 図2

Description

本発明は画像処理装置および画像処理方法に関する。
左目用画像と右目用画像からなる視差画像を用いて3次元画像(映像)を表示する表示装置が知られている。このような表示装置において、視聴者が頭を左右に傾けて視聴を行った場合に、視聴者の両目を結ぶ線分とは異なる方向に視差が発生するという問題が知られている。このような視差は、視聴者の眼の疲れの原因となったり、視差画像の融像を困難にする原因となる。
上記した視差を低減する技術として、特許文献1に記載された技術がある。特許文献1では、視聴者の頭の傾きに応じて左右の映像(表示用画像)の表示位置をそれぞれシフトして、平面の3Dディスプレイに表示用画像を表示している。特許文献1では、3D眼鏡に搭載した姿勢センサで取得した視聴者の頭の傾きに応じて、画像表示位置をシフトしている。
特開2012−244453号公報
しかしながら、ヘッドマウントディスプレイに画像(映像)を表示する場合、表示の際に画像を大きく変形する処理が必要になる場合がある(例えば、魚眼カメラで撮影した画像や全天球画像などを表示する場合)。大きな変形を伴う処理をした後の画像を単純にシフトすると、表示用画像の周辺部が大きく削られるため、ヘッドマウントディスプレイで視聴した際の視野角が狭くなってしまう。また、ヘッドマウントディスプレイの接眼レンズの歪曲補正を変形処理と合わせて適用する場合に表示用画像を単純にシフトすると、正しく接眼レンズの歪曲補正ができなくなる。
本発明は、上記した課題を解決すべく、視野角を減少させることなく適切な視差で表示用画像を生成する画像処理を提供することを目的とする。
上記課題を解決するために、本発明の1つの態様に係る画像処理装置は、表示装置に表示する表示用画像を視差画像から生成する画像処理装置であって、前記表示装置の姿勢情報を取得する第1の取得手段と、前記視差画像の視差量を取得する第2の取得手段と、前記表示装置の姿勢情報と前記視差画像の視差量とに基づいて、前記視差画像に対応する視点に仮想的に配置される仮想カメラの姿勢を調整する調整手段と、前記表示装置の姿勢情報と、調整された前記仮想カメラの姿勢とに基づいて、前記視差画像から前記表示用画像を生成する生成手段と、を備える。
本発明によれば、視野角を減少させることなく適切な視差で表示用画像を生成することができる。
本発明の実施形態1の画像処理装置の構成を示すブロック図。 実施形態1の画像処理装置の機能ブロック図。 実施形態1の画像処理装置における処理の流れを示すフローチャート。 実施形態1における視差のある全天球画像の例を示す図。 実施形態1における表示用画像の例を示す図。 実施形態1におけるディスプレイの座標と回転の例を示す図。 実施形態1におけるディスプレイに表示する画像の座標系を示す図。 実施形態1における頭(首)を傾けたときの表示用画像の例を示す図。 表示用画像を単純にシフトした場合を示す図。 実施形態1における仮想カメラの姿勢の調整の例を示す図。 実施形態1における表示用画像生成処理の流れを示すフローチャート。 実施形態1における表示用画像上でのレンズの歪曲を示す図。 実施形態1における眼を原点とした座標系での画素位置を示す図。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
<実施形態1>
実施形態1では、左目用画像と右目用画像から構成される視差画像をヘッドマウントディスプレイなどのステレオ画像表示用の表示装置に表示する際に、頭が傾いても視野角を狭めることなく適切な視差で画像を表示する画像処理装置について説明する。
(画像処理装置のハードウェア構成)
まず、本実施形態における画像処理装置を含む画像処理システムの構成例について、図1を用いて説明する。
図1に示されるように、画像処理システム100は、CPU101、RAM102、ROM103、HDDインタフェイス(I/F)104、ハードディスクドライブ(HDD)105、入力I/F106および入力デバイス107を備える。また、画像処理システム100は、出力インタフェイス(I/F)108、出力デバイス109、姿勢検出インタフェイス(I/F)110および姿勢検出装置111を備える。CPU101、RAM102、ROM103、HDD105、入力デバイス107、出力デバイス109および姿勢検出装置111は、バス112および付随するI/F(104、106、108、110)を介して相互に接続されている。本実施形態の画像処理装置113は、画像処理システム100に含まれており、画像処理装置113は、CPU101、RAM102、ROM103、HDDI/F104、入力I/F106、出力I/F108および姿勢検出I/F110を有する。
ROM103およびHDD105は、画像処理装置113の動作に必要なプログラムを格納する。
HDDI/F104は、HDD105を画像処理装置113に接続する。HDDI/F104は、例えばシリアルATA(SATA)等のインタフェイスである。なお、HDD105は画像処理装置113に接続される二次記憶装置の一例であり、HDDに加えて(またはHDDに代えて)光ディスクドライブなどの二次記憶装置が画像処理装置113に接続されてもよい。ATAはAdvanced Technology Attachmentの略である。
CPU101は、RAM102をワークメモリとして、ROM103および(または)HDD105に格納されたプログラムを実行し、システムバス112を介して画像処理装置113の各構成部を制御する。これにより、後述する様々な処理が実行される。
CPU101は、HDDI/F104を介して、HDD105からデータを読み出すことができると共に、HDD105へデータを書き込みむことができる。CPU101は、HDD105に格納されたデータをRAM102に展開することができる。CPU101は、RAM102に展開されたデータをHDD105に保存することもできる。CPU101は、RAM102に展開したプログラムを実行することができる。
入力I/F106は、キーボード、マウス、デジタルカメラ、スキャナなどの入力デバイス107を画像処理装置113に接続する。入力I/F106は、例えば、USBやIEEE1394等の規格に準拠したシリアルバスインタフェイスである。CPU101は、入力I/F106を介して入力デバイス107からデータを読み込むことができる。
出力I/F108は、出力デバイス109を画像処理装置113に接続する。出力デバイス109は画像表示面を有する。出力デバイス109は、本実施形態では、ヘッドマウントディスプレイである。ヘッドマウントディスプレイは接眼レンズを備える。出力I/F108は、例えば、DVIやHDMI(登録商標)等の規格に準拠した映像出力インタフェイスである。DVIはDigital Visual Interfaceの略である。HDMIはHigh Definition Multimedia Interfaceの略である。CPU101は、出力I/F108を介して出力デバイス109にデータを送り、出力デバイス109に表示を実行させることができる。
姿勢検出I/F110は、加速度センサや角速度センサなどの姿勢検出装置111を画像処理装置113に接続する。姿勢検出I/F110は、例えば、USBやIEEE1394等の規格に準拠したシリアルバスインタフェイスである。本実施形態では、姿勢検出装置111は出力デバイス109の画像表示面またはその近傍に取り付けられている。CPU101は、姿勢検出I/F110を介して姿勢検出装置111から、出力デバイス109の画像表示面の姿勢情報を読み込むことができる。なお、出力デバイス109の画像表示面の姿勢情報は、マウス、キーボード、カメラなどを用いてCPU101に入力することもできる。
以下、本実施形態の画像処理装置113が行う処理の流れについて、図2と図3とを参照して説明する。
(画像処理装置の機能構成)
図2(A)は、本実施形態における画像処理装置113の機能構成を示すブロック図である。画像処理装置113は、姿勢情報取得部201、画像データ取得部202、視差量取得部203、仮想カメラ姿勢調整部204、表示パラメータ取得部205、表示用画像生成部206および画像データ出力部207を含む。視差量取得部203、仮想カメラ姿勢調整部204および表示用画像生成部206は、画像処理部208を構成する。図2の各機能部の処理・動作は、図3のフローチャートを用いて説明する。仮想カメラは、視差画像に対応する視点に仮想的に配置されるカメラである。
図2(B)は、ヘッドマウントディスプレイの姿勢のロール(roll)、ピッチ(pitch)およびヨー(yaw)を示す図である。
なお、図1のCPU101は、ROM103又はHDD104に格納されたプログラムを読み出して、RAM102をワークエリアとしてプログラムを実行することで、図2に示す各機能ブロックとしての役割を果たす。また、本実施形態で扱う画像は、全天球画像であるとする。
(画像処理装置の処理)
図3は本実施形態の画像処理装置113で行われる処理の流れを示すフローチャートである。
まず、S1において、姿勢情報取得部201(図2)が姿勢検出装置111(図1)または入力デバイス107(図1)から姿勢情報を取得する。姿勢情報はRAM102やHDD105に一旦保存されたものを取得してもよい。姿勢情報はヘッドマウントディスプレイの姿勢を表すデータであり、本実施形態では3×3の回転行列Rとロール、ピッチおよびヨーを使用して説明する。姿勢情報取得部201は、取得した姿勢情報を視差量取得部203へ出力する。
S2において、画像データ取得部202は、次に表示する画像データをHDD105や入力デバイス107から取得する。画像データ取得部202は、取得した画像データを視差量取得部203へ出力する。取得した画像データのうち左目に表示する画像データをIとし、右目に表示する画像データをIとする(図4)。上記したように、本実施形態で扱う画像は、全天球画像である。
全天球画像の例を図4に示す。全天球画像の画像データは全ての向きの入射光線の色を保存した画像データである。画像データの横軸を方位角θとし、その範囲は[0 2π]とする。また、縦軸を仰角φとし、その範囲は[−π/2 π/2]とする。
S3以降のステップで、入力画像データ(取得した画像データ)から図5のような表示用画像(表示用の視差画像)を作成する。表示用画像は左目に提示するための左目用の表示用画像Jと右目に提示するための右目用の表示用画像Jとからなる。左目用の表示用画像Jと右目用の表示用画像Jは、接眼レンズを通して視聴したときに歪みなく見えるように接眼レンズの歪曲を補正した画像である。
S3において、視差量取得部203は、姿勢情報と画像データに基づいて(または画像データに基づいて)、画像データI、画像データIの注目領域における視差量を取得する。視差量取得部203は、取得した視差量を仮想カメラ姿勢調整部204へ出力する。
頭部の動きに追従して映像を表示するヘッドマウントディスプレイでは、視聴者は頭を動かして周囲を見回すため、視野の中心領域を注目することが多い。そこで、本実施形態では、画像データI、画像データIの視野の中心領域を注目領域として、視差量を取得する。視差量は画像データI、画像データIからあらかじめ作成しておいた視差マップから取得してもよいし、計算して取得してもよい。
視差量を計算して取得する場合、ヘッドマウントディスプレイの姿勢である方位角θ、仰角Φが示す座標を画像データにおける視野中心とする。左目用画像データIの視野中心周りのN×M画素の領域をAとし、右目用画像データIの視野中心の画素周辺を水平方向に走査してマッチング処理を行い、最も類似度が高い領域Aを求める。このマッチング処理は、例えば、テンプレートマッチングである。類似度の評価指標はSSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)など領域間の類似度を評価できるものであればよい。求めた領域Aと領域Aの中心の水平方向のずれ量を、注目対象(注目領域)の視差量dとする。なお、注目対象(注目領域)を画像データの視野中心として説明したが、画像データ中で最も距離が近い領域や、最も顕著度が高い領域や、手動で指定した領域を注目領域として視差を求めてもよい。
S4において、仮想カメラ姿勢調整部204は、視差量取得部203から取得した視差量と姿勢情報に基づいて、左右の表示用画像を生成する際の左右の仮想カメラの姿勢を調整する。仮想カメラ姿勢調整部204は、調整後の仮想カメラの姿勢の情報(姿勢情報)を表示用画像生成部206に出力する。ここでは、姿勢情報のうち、ヘッドマウントディスプレイの正面方向を正とする軸周りの回転量(ロール角)αを利用して仮想カメラの姿勢を調整する。
(ヘッドマウントディスプレイのロール)
図6にヘッドマウントディスプレイのロールの例を示す。なお、図6〜図9、図12および図13では「ヘッドマウントディスプレイの画像表示面」を「ディスプレイ」と表記している。座標系は正面方向がZ軸正、右方向がX軸正、上方向がY軸正である。図6(A)はロール角αが0°の場合を示している。ロール角αが0°の場合、ディスプレイのY軸は地面に対して垂直になっており、視聴者の両目を結ぶ線分は、Yが一定の平面上にある(つまり、X軸に平行かX軸を含む平面上にある)。図6(B)はロール角αが30°の場合を示している。つまり、図6(B)は、視聴者が頭部を右に傾けたときのディスプレイの状態を示している。仮想カメラは、ディスプレイが傾くと、同じように傾く。
(ディスプレイに表示する画像の座標系)
図7はディスプレイに表示する画像の座標系を示している。ディスプレイの右方向をx軸正、上方向をy軸正とする。視差画像は水平方向に視差が生じている画像であり、視差画像をヘッドマウントディスプレイで快適に視聴するためには、その視差がディスプレイのx軸方向にのみ存在している必要がある。しかしながら、単純にディスプレイの姿勢情報に基づいて表示用画像を生成・表示すると、表示した表示用画像では、ディスプレイのx軸方向およびy軸方向に視差ずれが生じてしまう。例えば、視聴者が頭を右に傾けると、図8に示すように(視差は地面に対して水平方向にあるのに対し)、視聴者の眼の位置はディスプレイのx軸に平行になってしまう。これにより、視聴者の眼に対して水平方向(ディスプレイの幅方向)の視差が小さくなり(x軸方向の内向きの2つの矢印)、ディスプレイの垂直方向(y軸方向)に視差が生じる(ディスプレイの高さ方向の矢印)。つまり、ディスプレイの水平方向と垂直方向に視差ずれが生じてしまう。水平方向の視差が小さくなることで距離感が変化し、垂直方向に視差が生じることで、融像が困難になる。
(従来の手法)
従来の方法では、図8のような表示用画像に対しては、表示用画像を上下左右にシフトするという処理をしている。詳しくは、図9に示すように、表示用画像をディスプレイの上下左右にシフトすることで垂直方向の視差を無くし、水平方向に視差を付ける。しかしながら、このようなシフトを行うと、ディスプレイ(画面表示面)の端ではシフトした分だけ画像を表示できない領域が発生し視野角が狭くなってしまう(図9の黒塗り部分)。また、画像をシフトすることで接眼レンズの中心と歪曲補正の中心位置がずれてしまうため、正しく歪曲補正ができない。
(本実施形態の手法)
そこで、本実施形態では注目領域において、視聴者の眼に対して水平方向に適切な視差がつき、垂直方向の視差がなくなるように左右の仮想カメラの姿勢を調整することで、視野角を減少することなく適切な視差量の画像を提示する。
例えばディスプレイに対して垂直方向(y軸方向)の視差がついている場合は、仮想カメラの左右方向軸周りに仮想カメラをΔΦ[radian]だけ回転をして調整する。ディスプレイに対して水平方向(x軸方向)の視差を調整する場合は、仮想カメラの上下方向軸周りに仮想カメラをΔθ[radian]だけ回転して視差を調整する。これにより、視野を狭くすることなく(視野角を減少することなく)、歪曲も正しく補正され適切な視差がついた画像を表示できる。以下に、仮想カメラの回転量の算出方法について説明する。
図8のように頭が傾き左目よりも右目が下方向になった場合(0≦α<π)、右目用の表示用画像の注目領域は適切な位置よりも下に表示される。逆に、左目用の表示用画像の注目領域は適切な位置よりも上に表示される。そこで、右目用の表示用画像を上にシフトして表示するため仮想カメラを下向きに回転し、左目用の表示用画像を下にシフトして表示するため仮想カメラを上向きに回転する。右目よりも左目が下になった場合(―π≦α<0)は、右目用の表示用画像を下にシフトして表示するため仮想カメラを上向きに回転し、左目用の表示用画像を上にシフトして表示するため仮想カメラを下向きに回転する。また、頭が傾くとディスプレイのx軸方向の視差は小さくなるため、視差が大きくなる方向に表示用画像をシフトするために左右の仮想カメラの姿勢を内向きに回転する。回転量は全天球画像における水平方向の視差量dがロール回転によって垂直成分および水平成分に配分された視差ずれを打ち消すように決定する。ディスプレイの幅方向について言えば、表示用画像の視差量は、ディスプレイが傾いていないときの視差画像に生じる視差量と等しくなるように仮想カメラの姿勢(方位角)を調整する。
左仮想カメラの回転量(調整量)Δθ、ΔΦ、右仮想カメラの回転量Δθ、ΔΦは以下の式で表される。
左仮想カメラの回転量
Δθ = Sign(cosα)×D/2×( 1 − |cosα|)
ΔΦ= −Dsinα/2
右仮想カメラの回転量
Δθ = −Sign(cosα)×D/2×( 1 − |cosα|)
ΔΦ = Dsinα/2
ここで、視差量Dは全天球画像上の視差量d[pixel]をradianの単位系に変換したものであり、D=d×2π/wとなる。ただしwは全天球画像の幅[pixel]である。また、Sign()は符号関数であり、変数が0より大きければ1を、0であれば0を、0より小さければ−1を返す。ここで求めた仮想カメラの調整量を回転行列に変換したものをM、Mとする。左仮想カメラの姿勢Rと右仮想カメラの姿勢Rは、ディスプレイの姿勢Rに、それぞれM、Mを適用した回転行列である。調整した仮想カメラの向きの例を図10に示す。
(仮想カメラの姿勢調整)
図10に示すように、調整前の仮想カメラの向きを全天球画像上で表したものが白丸301、303であり、両目で同じ座標を示している。黒丸302、304は調整後の仮想カメラの向きである。このように、本実施形態では、右目用画像の仮想カメラの姿勢と、左目用画像の仮想カメラの姿勢とを異なる方向に調整する。より詳しくは、調整前の仮想カメラの向きを示す白丸301、303に対して、左右の仮想カメラは対称な位置(黒丸302、304の位置)に調整され、その距離は視差量dに等しい。
なお、上記の説明では左右の仮想カメラを同じ量だけ回転したが、本実施形態はこのような調整に限定されない。左右の仮想カメラによりトータルで調整した量(シフトした量)が同じであればよいため、シフト量が左右の仮想カメラで同じ量でなくてもよい。例えば、右仮想カメラのみを調整してもよいし、左仮想カメラのみを調整してもよい。また、調整量を0〜1の数で定数倍することで姿勢調整量を調整してもよい。
視差量が小さい場合は、ロールが起きたときの視差ずれも小さいため、仮想カメラの姿勢の調整を行わないようにしてもよい。その場合は、あらかじめ視差量の閾値dthを決めておき、閾値dthより視差量が大きい場合は仮想カメラの姿勢を調整し、閾値dthより視差量が小さい場合は仮想カメラの姿勢を調整しないようにする。
(表示パラメータの取得)
S5において、表示パラメータ取得部205は、視差画像を出力デバイス109に表示するために必要なパラメータである画像表示パラメータを入力デバイス107から取得する。画像表示パラメータは、ヘッドマウントディスプレイの接眼レンズの焦点距離、歪曲パラメータ、ディスプレイ上における接眼レンズの中心位置、ディスプレイ解像度、ディスプレイサイズなどである。表示パラメータ取得部205は、取得した画像表示パラメータを表示用画像生成部206に出力する。なお、表示パラメータ取得部205は、画像表示パラメータを入力デバイス107から取得するのではなく、RAM102やHDD105に保存されている画像表示パラメータをRAM102やHDD105から取得してもよい。
S6において、表示用画像生成部206は、画像表示パラメータと画像データと左右の仮想カメラの姿勢情報とから、出力デバイス109に表示するための表示用画像を生成する。図5に示されるように、表示用画像は左目に提示するための表示用画像Jと右目に提示するための表示用画像Jからなり、表示用画像JとJは接眼レンズを通してみたときに歪みのなく見えるように接眼レンズの歪曲を補正した画像である。この表示用画像生成処理の詳細については、図11、図12および図13を用いて後述する。表示用画像生成部206は、表示用画像JとJを画像データ出力部207に出力する。
S7において、画像データ出力部207は、S6で生成した表示用画像JL、を画像データとして出力デバイス109に出力し、表示用画像JL、をディスプレイに表示させる。
S7の後、S8に進む。S8において、処理を終了すべきかを判定する。S7の判定がYesならば、画像処理装置113は処理を終了する。S7の判定がNoならば、S1に戻る。
(表示用画像生成処理)
ヘッドマウントディスプレイに表示する表示用画像は、視聴者(ヘッドマウントディスプレイ装着者)の頭部の傾いている方向に応じて画素値を視差画像からサンプリングして生成する。画素値を視差画像からサンプリングするために、左右の仮想カメラの姿勢情報を基に、ディスプレイ上の各画素位置にどの向きの光線を表示するか計算する。この光線の向きは上下方向の軸周りの角度を表す方位角θと左右方向の軸周りの角度を表す仰角φとによって表すことができる。以下の説明では、接眼レンズ中心を原点とした座標系における画素の位置を(x,y)として、光線の向き(θ,φ)を計算し、その向きから表示用画像の画素値を求める。
図11のフローチャートを用いて表示用画像生成処理の詳細を説明する。以下の処理は左右の表示用画像の全ての画素に対して行う。
S11において、表示用画像生成部206(図2)が、画素位置(x,y)における接眼レンズによる歪曲率を取得する。歪曲率については図12を用いて説明する。
図12は、画像座標上での歪曲の例を示している。歪曲率は接眼レンズ中心からの距離rと接眼レンズの光学特性で決まるため、接眼レンズの光学特性に応じてあらかじめ用意した接眼レンズ中心からの距離rに対する歪曲率のルックアップテーブルを使って歪曲率を取得する。接眼レンズの光学特性によって、波長ごとに歪曲率が異なる場合は、ディスプレイにおけるR、GおよびBの波長ごとにルックアップテーブルを用意する。そして、R、GおよびBごとの歪曲率を取得して、S12以降のステップでR、GおよびBごとに異なる歪曲率を使用して処理を行う。RはRed(赤)、GはGreen(緑)、BはBlue(青)の略である。
なお、あらかじめ画素位置ごとに歪曲率を参照できるようにルックアップテーブルを作成しておき、接眼レンズ中心からの距離rの計算を省略できるようにしてもよい。また、接眼レンズ中心からの距離rが遠く、接眼レンズの視聴可能範囲外である場合は、表示用画像の画素値を黒にしてその画素の処理を終了してもよい。
S12において、表示用画像生成部206は、画素位置(x,y)が接眼レンズの歪曲によって屈折した結果、そこから光線が射出しているように見える画素位置を算出する。算出される画素位置(x,y)は、以下の記載において「歪曲後の位置」と称する。歪曲後の位置(x,y)は、式(1)に示すように、画素位置(x,y)のxとyに歪曲率cを積算することで算出できる。
= x × c
= y × c (1)
歪曲後の位置(x,y)は、図12に示されている。
S13において、表示用画像生成部206は、歪曲後の位置(x,y)を、眼の位置を原点とする座標系の3次元位置(X,Y,Z)に変換することにより、3次元位置(X,Y,Z)を算出する。図13に画像座標上の点と3次元位置の関係の例を示す。仮想カメラの姿勢情報を3×3の回転行列Rとし、画素単位で表現した焦点距離をfとすると、3次元位置(X,Y,Z)は以下の式(2)で算出できる。
[X Y Z] = R × [x y f] (2)
左目用の表示用画像なのか、右目用の表示用画像なのかにより、仮想カメラの姿勢が異なるため、左目用の表示用画像中の画素値を求める場合は、式(2)のRはRをとし、右目用の表示用画像中の画素値を求める場合は、式(2)のRはRとする。
S14において、表示用画像生成部206は、画素の三次元位置(X,Y,Z)から方位角θと仰角φを算出する。図13には、原点と3次元位置の関係が示されている。原点から(X,Y,Z)までの距離をL=(X+Y+Z1/2とすると、方位角θと仰角φは以下の式(3)で算出できる。
φ=asin(Y / L)
θ=asin(Z / L / cosφ) (3)
S15において、表示用画像生成部206は、光線の方向(θ,φ)の画素値を、対応する画像から取得し(サンプリングし)、表示用画像の対応する画素位置に格納する。つまり、S15において、表示用画像生成部206は、光線の方向(θ,φ)の画素値を、対応する画像からサンプリングし、描画配列に格納する。左目用の表示用画像を生成する際は左目用画像から画素値をサンプリングし、右目用の表示用画像を生成する際は右目用画像から画素値をサンプリングする。格納する位置は原点から(x,y)だけ移動した位置である。
画像から画素値をサンプリングする際は、最近傍の画素値を取得してもよいし、バイリニア補間やバイキュービック補間など周辺の画素値を使って補間してサンプリングを行ってもよい。また、ロール角αが|α|>90°であるときは、眼の位置関係が|α|≦90°のときと左右逆転するため、左右の表示用画像を入れ替えてもよい。すなわち、左目用の表示用画像のサンプリングを右目用画像から行い、右目用の表示用画像のサンプリングを左目用画像から行ってもよい。
なお、全天球画像以外の画像(例えば、魚眼カメラなどで撮影した画像)からサンプリングする場合は、あらかじめ格納した光線の向き(方位角と仰角)とそれに対応する画素位置のルックアップテーブルを用意しておく。このルックアップテーブルを使って光線の向き(θ、φ)に対応する画素位置(a,b)を取得し、画像データの画素位置(a,b)の画素をサンプリングし、全天球画像の場合と同様に表示用画像の座標(x,y)に格納する。
S15の後、S16において、左右の表示用画像の全画素を処理したかを判定する。全画素を処理していなければ、S11に戻る。全画素を処理していれば、図3のフローチャートに戻り、S7に進む。
(実施形態1の効果)
特許文献1では表示用画像を生成した後に表示用画像の表示位置をシフトしているので、図9に示したように、ディスプレイ(画面)の端ではシフトした分だけ表示用画像を表示できない領域が発生し視野角が減少してしまう。また、表示用画像をシフトすることで接眼レンズの中心と歪曲補正の中心位置がずれてしまうため、正しく歪曲補正ができない。これに対し、本実施形態では、表示用画像を生成する前に、仮想カメラの姿勢を調整することにより、視野角を減少させずに視差ずれを抑制している。また、接眼レンズの中心と歪曲補正の中心位置がずれないので、歪曲補正を正しく行うことができる。
よって、本実施形態の画像処理装置113によれば、視差画像をヘッドマウントディスプレイに表示する際に頭が傾いた場合に生じる視差ずれを軽減し、注目領域において適切な視差で画像を表示することができる。
本実施形態の画像処理装置113は、仮想カメラの姿勢を調整しているので、全天球画像や魚眼画像からの表示用画像の生成に適用することができ、正しい歪曲補正を実行することができる。
(変形例)
図2に示す機能ブロックの少なくとも一部をハードウェアにより実現してもよい。ハードウェアにより実現する場合、例えば、所定のコンパイラを用いることで、各ステップを実現するためのプログラムからFPGA上に自動的に専用回路を生成すればよい。また、FPGAと同様にしてGate Array回路を形成し、ハードウェアとして実現するようにしてもよい。また、ASICにより実現するようにしてもよい。FPGAは、Field―Programmable Gate Arrayの略である。ASICは、Application Specific Integrated Circuitの略である。
上記の説明において、CPU101は、ROM103等に格納されたプログラムを実行することで、図2に示す各機能ブロックとしての役割を果たすとしたが、全ての機能ブロックの役割をCPU101が果たす必要はない。例えば、いくつかの機能ブロックに対応する専用の処理回路を設け、当該機能についてはCPU101ではなく専用の処理回路が実行するようにしてもよい。
上記の説明において、画像処理装置113は、HDD105、入力デバイス107、出力デバイス109および姿勢検出装置111を含まないとしたが、本発明の画像処理装置はこのような構成に限定されない。例えば、画像処理装置113は、HDD105、入力デバイス107、出力デバイス109および姿勢検出装置111の少なくとも1つを画像処理装置113の構成部として有してもよい。
上記の説明においてHDDI/F104は画像処理装置113に含まれるとしたが、HDD105を使用する必要がなければ、画像処理装置113はHDDI/F104を備えなくてもよい。
上記の説明において、姿勢を表現する場合に、ロール、ピッチおよびヨーという表現を用いたが、クォータニオンなどの表現を用いてもよい。
上記の説明において、全天球画像や魚眼カメラなどで撮影した画像を例に挙げたが、所定値以上の画角を有する視差画像を視聴する場合には、本発明を適用することができる。
上記の説明において、ヘッドマウントディスプレイを例に挙げたが、その他の表示装置にも本発明を適用することができる。
上記の説明では、姿勢検出装置111は出力デバイス109の画像表示面またはその近傍に取り付けられるとしたが、姿勢検出装置111の設置位置は、ディスプレイの傾きが検出できるならば、上記した位置以外の位置でもよい。
<その他の実施形態>
本発明は、上記した実施形態1の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
100…画像処理システム、101…CPU、113…画像処理装置、201…姿勢情報取得部、202…画像データ取得部、203…視差量取得部、204…仮想カメラ姿勢調整部、205…表示パラメータ取得部、206…表示用画像生成部、207…画像データ出力部、208…画像処理部

Claims (17)

  1. 表示装置に表示する表示用画像を視差画像から生成する画像処理装置であって、
    前記表示装置の姿勢情報を取得する第1の取得手段と、
    前記視差画像の視差量を取得する第2の取得手段と、
    前記表示装置の姿勢情報と前記視差画像の視差量とに基づいて、前記視差画像に対応する視点に仮想的に配置される仮想カメラの姿勢を調整する調整手段と、
    前記表示装置の姿勢情報と、調整された前記仮想カメラの姿勢とに基づいて、前記視差画像から前記表示用画像を生成する生成手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記表示装置の姿勢情報は、前記表示装置の画像表示面に垂直な軸周りの、前記画像表示面の回転量であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記仮想カメラは右目用画像の仮想カメラと、左目用画像の仮想カメラとからなり、
    前記調整手段は、前記右目用画像の仮想カメラの姿勢と、前記左目用画像の仮想カメラの姿勢とを異なる方向に調整することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記調整手段は、前記仮想カメラの水平方向における前記仮想カメラの方位角と、前記仮想カメラの垂直方向における仰角とを調整することを特徴とする請求項1〜3のいずれか1項に記載の画像処理装置。
  5. 前記調整手段は、前記表示装置の画像表示面の高さ方向に発生する表示用画像のずれを減ずる方向に前記仰角を調整することを特徴とする請求項4に記載の画像処理装置。
  6. 前記調整手段は、前記表示装置の画像表示面の幅方向に発生する表示用画像の視差量が前記表示装置が傾いていないときに表示用画像に生じる視差量と等しくなるように前記方位角を調整することを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記生成手段は、前記視差画像の画素位置に対応する方位角と仰角のテーブルに基づいて、前記視差画像から画素値をサンプリングして前記表示用画像を生成することを特徴とする請求項4〜6のいずれか1項に記載の画像処理装置。
  8. 前記調整手段は、前記視差量が所定の閾値より小さい場合、前記仮想カメラの姿勢の調整を行わないことを特徴とする請求項1〜7のいずれか1項に記載の画像処理装置。
  9. 前記第2の取得手段は、前記視差画像を前記仮想カメラで見たときの中心領域における視差量を取得することを特徴とする請求項1〜8のいずれか1項に記載の画像処理装置。
  10. 前記第2の取得手段は、前記視差画像の中心領域をマッチング処理することで、前記視差量を取得することを特徴とする請求項9に記載の画像処理装置。
  11. 前記視差画像は全天球画像または魚眼カメラで撮影した画像であることを特徴とする請求項1〜10のいずれか1項に記載の画像処理装置。
  12. 前記生成手段は、前記表示装置のレンズの歪曲を補正して前記表示用画像を生成することを特徴とする請求項1〜11のいずれか1項に記載の画像処理装置。
  13. 前記表示装置はヘッドマウントディスプレイであることを特徴とする請求項1〜12のいずれか1項に記載の画像処理装置。
  14. 前記生成手段は、前記表示装置の画像表示パラメータを使用して、前記表示用画像を生成し、前記画像表示パラメータは、前記ヘッドマウントディスプレイの接眼レンズの焦点距離、前記接眼レンズの歪曲パラメータ、前記ヘッドマウントディスプレイの画像表示面における前記接眼レンズの中心位置、前記ヘッドマウントディスプレイの解像度、前記画像表示面のサイズの少なくとも1つを含むことを特徴とする請求項13に記載の画像処理装置。
  15. 請求項1〜14のいずれか1項に記載の画像処理装置と、
    前記画像処理装置が生成した表示用画像を表示する表示装置と、
    を含む画像処理システム。
  16. 表示装置に表示する表示用画像を視差画像から生成する画像処理方法であって、
    前記表示装置の姿勢情報と前記視差画像の視差量とに基づいて、前記視差画像に対応する視点に仮想的に配置される仮想カメラの姿勢を調整するステップと、
    前記表示装置の姿勢情報と、調整された前記仮想カメラの姿勢とに基づいて、前記視差画像から前記表示用画像を生成するステップと、
    を有することを特徴とする画像処理方法。
  17. コンピュータを、請求項1〜14のいずれか1項に記載の画像処理装置の手段として機能させるためのプログラム。
JP2016256606A 2016-12-28 2016-12-28 画像処理装置および画像処理方法 Active JP6808484B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016256606A JP6808484B2 (ja) 2016-12-28 2016-12-28 画像処理装置および画像処理方法
US15/849,478 US20180184077A1 (en) 2016-12-28 2017-12-20 Image processing apparatus, method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016256606A JP6808484B2 (ja) 2016-12-28 2016-12-28 画像処理装置および画像処理方法

Publications (3)

Publication Number Publication Date
JP2018110295A true JP2018110295A (ja) 2018-07-12
JP2018110295A5 JP2018110295A5 (ja) 2020-02-06
JP6808484B2 JP6808484B2 (ja) 2021-01-06

Family

ID=62630732

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016256606A Active JP6808484B2 (ja) 2016-12-28 2016-12-28 画像処理装置および画像処理方法

Country Status (2)

Country Link
US (1) US20180184077A1 (ja)
JP (1) JP6808484B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070270A1 (ja) * 2020-09-29 2022-04-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2023068087A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 ヘッドマウントディスプレイ、情報処理装置および情報処理方法

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6335237B2 (ja) * 2016-09-15 2018-05-30 株式会社Subaru ステレオ測距装置、ステレオ測距方法及びステレオ測距プログラム
JP6463319B2 (ja) * 2016-10-19 2019-01-30 株式会社Subaru ステレオ測距装置、ステレオ測距方法及びステレオ測距プログラム
US10600152B1 (en) * 2017-05-10 2020-03-24 Gopro, Inc. Systems and methods for parallax compensation
US20190324283A1 (en) * 2018-04-19 2019-10-24 Htc Corporation Display device and display method
KR102113285B1 (ko) * 2018-08-01 2020-05-20 한국원자력연구원 평행축 방식의 양안 카메라 시스템에서 근거리 물체의 입체영상을 위한 영상처리 방법 및 장치
EP3824620A4 (en) * 2018-10-25 2021-12-01 Samsung Electronics Co., Ltd. METHOD AND DEVICE FOR PROCESSING VIDEO
EP3926618A4 (en) * 2019-02-15 2022-04-13 JVCKenwood Corporation IMAGE ADJUSTMENT SYSTEM, IMAGE ADJUSTMENT DEVICE AND IMAGE ADJUSTMENT METHOD
JP7349808B2 (ja) * 2019-03-20 2023-09-25 任天堂株式会社 画像表示システム、画像表示プログラム、画像表示装置、および画像表示方法
CN111259165B (zh) * 2020-01-14 2021-03-30 清华大学 一种多核心元素的知识图谱边图布局方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191419A (ja) * 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
JPH0927971A (ja) * 1995-07-10 1997-01-28 Shimadzu Corp 画像表示システム
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2013235304A (ja) * 2012-05-02 2013-11-21 Sony Corp 画像処理装置および方法、並びにプログラム
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
US20180359462A1 (en) * 2015-08-06 2018-12-13 Sony Interactive Entertainment Inc. Information processing apparatus

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08191419A (ja) * 1995-01-10 1996-07-23 Yamaha Corp 頭部装着型表示システム
JPH0927971A (ja) * 1995-07-10 1997-01-28 Shimadzu Corp 画像表示システム
JP2002354505A (ja) * 2001-05-29 2002-12-06 Vstone Kk 立体視システム
JP2013235304A (ja) * 2012-05-02 2013-11-21 Sony Corp 画像処理装置および方法、並びにプログラム
US20150145977A1 (en) * 2013-11-22 2015-05-28 Samsung Display Co., Ltd. Compensation technique for viewer position in autostereoscopic displays
US20180359462A1 (en) * 2015-08-06 2018-12-13 Sony Interactive Entertainment Inc. Information processing apparatus

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022070270A1 (ja) * 2020-09-29 2022-04-07 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置および画像生成方法
WO2023068087A1 (ja) * 2021-10-18 2023-04-27 ソニーグループ株式会社 ヘッドマウントディスプレイ、情報処理装置および情報処理方法

Also Published As

Publication number Publication date
JP6808484B2 (ja) 2021-01-06
US20180184077A1 (en) 2018-06-28

Similar Documents

Publication Publication Date Title
JP6808484B2 (ja) 画像処理装置および画像処理方法
CN113382168B (zh) 用于存储成像数据的重叠区以产生优化拼接图像的设备及方法
US10375381B2 (en) Omnistereo capture and render of panoramic virtual reality content
US20170363949A1 (en) Multi-tier camera rig for stereoscopic image capture
US10244226B2 (en) Camera rig and stereoscopic image capture
US9881421B2 (en) Image processing
US10057562B2 (en) Generating intermediate views using optical flow
US10038887B2 (en) Capture and render of panoramic virtual reality content
EP2820593B1 (en) Method and system for adaptive perspective correction of ultra wide-angle lens images
US20200296348A1 (en) Virtual Reality Parallax Correction
EP3410388A2 (en) Capture and render of panoramic virtual reality content
US20180122099A1 (en) Image processing apparatus having automatic compensation function for image obtained from camera, and method thereof
JP2020525912A (ja) デジタル画像を適応的にスティッチするシステムおよび方法
US10277891B2 (en) Image processing apparatus, image processing method, and storage medium
JP2019160330A (ja) 画像生成装置、及び画像表示制御装置
GB2555908A (en) Multi-tier camera rig for stereoscopic image capture
US10742950B2 (en) Collecting and processing stereoscopic digital image data to produce a parallax corrected tilted head view
JP2019029721A (ja) 画像処理装置、画像処理方法およびプログラム
TWI694271B (zh) 操作方法、頭戴式裝置及追蹤系統
KR101222153B1 (ko) 어안렌즈를 이용한 증강현실 구현 시스템 및 그 구현 방법
JP2018129025A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
CN111480335B (zh) 图像处理装置、图像处理方法、程序以及投影系统
US20230351695A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
US11941751B2 (en) Rapid target acquisition using gravity and north vectors
WO2022044806A1 (ja) 情報処理装置および方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191217

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201009

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201209

R151 Written notification of patent or utility model registration

Ref document number: 6808484

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151