JP2016109828A - 画像処理装置、画像処理方法及びプログラム - Google Patents

画像処理装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP2016109828A
JP2016109828A JP2014246347A JP2014246347A JP2016109828A JP 2016109828 A JP2016109828 A JP 2016109828A JP 2014246347 A JP2014246347 A JP 2014246347A JP 2014246347 A JP2014246347 A JP 2014246347A JP 2016109828 A JP2016109828 A JP 2016109828A
Authority
JP
Japan
Prior art keywords
image data
adaptation
brightness
time
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014246347A
Other languages
English (en)
Inventor
千晶 金子
Chiaki Kaneko
千晶 金子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014246347A priority Critical patent/JP2016109828A/ja
Publication of JP2016109828A publication Critical patent/JP2016109828A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】 より臨場感の高い映像を観察者に提示する。【解決手段】 画像データを表示デバイスで表示するための画像処理装置であって、時間軸に沿って表示対象シーンの明るさを取得する明るさ取得手段と、前記表示対象シーンの明るさの時系列データに基づいて、該表示対象シーンに対する取得データサイズを決定する取得データサイズ決定手段と、前記取得データサイズに従い前記表示対象シーンに対応する入力画像データを取得する入力画像データ取得手段と、記入力画像データに基づき、前記表示デバイスに出力するための出力画像データを生成する出力画像データ生成手段と有することを特徴とする。【選択図】 図2

Description

本発明は、映像を効率良く再生・表示するための画像処理に関する。
観察者の頭部に固定するヘッドマウントディスプレイ(以降、HMD)を用いて、観察者が画像を視聴する技術が知られている。また近年は、眼鏡型ディスプレイなども知られている。HMD等に表示される画像データは、3次元空間中のある点を中心とする全方位の映像を記録したデータ(以後、全周囲映像データと呼ぶ)をその都度切り出した映像である。特許文献1には、HMDに内蔵されたセンサを用いて観察者の動作を検出し、観察者の頭の動きに対応する操作に応じて表示された画像をスクロールし、表示する方法について開示している。
特開2013−254251号公報
一般に映像の臨場感は、その映像の解像度やダイナミックレンジが高いほど向上する。しかしながら、全周囲映像データの解像度やダイナミックレンジを高めると、ハンドリングするデータ量が爆発的に増加する。そのため、全周囲映像データから部分データのみを抽出する場合であっても部分データの表示にかかる処理時間が増大する。その結果観察者の視線方向の動きに応じた映像表示のレスポンスが低下し、臨場感が損なわれるという課題があった。
そこで本発明では、表示する映像の明るさの変化に応じて映像の取得データ量を制御することにより、全周囲映像データの一部を効率良く切り出し、再生することを目的とする。
上記課題を解決するため本発明は、画像データを表示デバイスで表示するための画像処理装置であって、時間軸に沿って表示対象シーンの明るさを取得する明るさ取得手段と、前記表示対象シーンの明るさの時系列データに基づいて、該表示対象シーンに対する取得データサイズを決定する取得データサイズ決定手段と、前記取得データサイズに従い前記表示対象シーンに対応する入力画像データを取得する入力画像データ取得手段と、記入力画像データに基づき、前記表示デバイスに出力するための出力画像データを生成する出力画像データ生成手段と有することを特徴とする。
本発明により、より臨場感の高い映像を観察者に提示することができる。
画像処理装置のハードウェア構成を示す図。 実施例1に係る画像処理装置の機能ブロック図。 実施例1に係る画像処理装置における一連の処理の流れを示すフローチャート。 全周囲映像の一例を示す図。 視野領域の一例を示す図。 順応輝度の遷移の一例を示す図。 実施例1に係る視野領域の明るさと順応輝度の一例を示す図。 実施例2に係る画像処理装置の機能ブロック図。 実施例2に係る画像処理装置における一連の処理の流れを示すフローチャート。 実施例2に係る視野領域の明るさと順応輝度の一例を示す図。
以下、本発明の実施形態について、図面を参照して説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
<第1実施形態>
本実施形態では、観察者の視線方向に対応する表示対象シーンの明るさと、観察者の視覚の順応状態とに応じて表示映像の取得データサイズを決定する。一般に、人間の視覚には明暗順応と呼ばれる機能が備わっており、視界中の光量に応じて無意識のうちに瞳孔の絞りと網膜の感度が最適な状態に調整される。ただし、順応が完了するまでにはある程度の時間を要するため、視界の明るさが急激に変化した場合には一時的に視力が減退する。例えば、薄暗い屋内から日光が照りつける屋外へ出ると、しばらくの間は視覚が露出オーバーの状態となり、視界が白とびして景色の詳細を知覚できない。また、明るい所から暗い所へ移動した場合には露出アンダーの状態となり、視界が黒つぶれしてやはり知覚が困難となる。この特性を利用して、観察者の視覚が表示対象シーンの明るさに充分に順応していない場合には、表示対象シーンに対応する映像の取得データサイズを小さく設定する。これにより、観察者が映像の細部を知覚しにくい順応の過渡期において、臨場感を損なうことなくハンドリングする映像の情報量を削減する。
以下、全周囲映像データを入力画像データとし、入力画像データからヘッドマウントディスプレイ(以後、HMDと呼ぶ)を装着した観察者の視線方向に応じた部分画像を抽出して表示する場合を例に説明を行う。
図1は、本実施形態における画像処理装置のハードウェア構成例を示す図である。画像処理装置100は、CPU101、RAM102、ROM103、HDD104、HDD I/F105、入力I/F106、出力I/F107、システムバス108で構成される。
CPU101は、RAM102をワークメモリとして、ROM103及びハードディスクドライブ(HDD)104に格納されたプログラムを実行し、システムバス108を介して後述する各部を制御する。HDDインタフェイス(I/F)105は、HDD104や光ディスクドライブなどの二次記憶装置を接続する、例えばシリアルATA(SATA)等のインタフェイスである。CPU101は、HDDI/F105を介して、HDD104からのデータ読み出し、およびHDD104へのデータ書き込みが可能である。さらにCPU101は、HDD104に格納されたデータをRAM102に展開し、同様に、RAM102に展開されたデータをHDD104に保存することが可能である。そしてCPU101は、RAM102に展開したデータをプログラムとみなし、実行することができる。入力インタフェイス(I/F)106は、HMD109に備えられた加速度センサ、地磁気センサ、GPSセンサ等の各種センサ110や、図示しないキーボード、マウス等の入力デバイスを接続する、例えばUSB等のシリアルバスインタフェイスである。CPU101は、入力I/F106を介してセンサ110から各種データを読み込むことが可能である。出力インタフェイス(I/F)107は、HMD109に備えられたディスプレイ111やプロジェクタ等の表示デバイスを接続する、例えばDVIやHDMI(登録商標)等の映像出力インタフェイスである。CPU101は、出力インタフェイス107を介してディスプレイ111にデータを送り、表示を実行させることができる。なお、USBやIEEE1394等の双方向通信インタフェイスを利用すれば、入力I/F106と出力I/F107を一つにまとめることができる。
本実施形態で用いる全周囲映像中の1フレームの例を図4に示す。全周囲映像402の各画素の座標は、3次元空間中の基準位置401からの方向を表わす極座標(θ,φ)と対応付けられており、3次元空間中の球面状の画像データが2次元平面上に射影された形で保持されている。したがって、観察者の視線方向が(θ,φ)の向きを向いている場合、入力画像データである全周囲映像402から視線方向(θ,φ)に応じた部分画像を切り出し、表示する。具体的には、ディスプレイ111のサイズに相当する領域403として、視線方向(θ,φ)を基準として2次元平面上へ射影した領域(以後、表示領域と呼ぶ)404の部分画像を入力画像データから抽出して表示すればよい。ただし、入力画像データのデータ量が膨大である場合、RAM102上に全データを保持することが困難となるため、スワッピングと呼ばれる現象が発生してデータの抽出および表示の処理速度が著しく低下する。
図2は、画像処理装置100のソフトウェア構成を示す機能ブロック図である。
視野領域取得部201は、時刻t’から時刻t(t’<t)までの間に観察者の視界に入る入力画像上の領域(以後、視野領域R(t)と呼ぶ)を、センサ情報に基づいて取得する。本実施形態における視野領域R(t)について、図5を用いて説明する。時刻t’および時刻tにおける観察者の視線方向を、それぞれv(t’)=(θt’,φt’)、v(t)=(θt,φt)とする。このとき、先に述べた表示領域が入力画像上を(θt’,φt’)から(θt,φt)まで移動する際に通過する領域(図5中の網掛けの領域)を視野領域R(t)とする。なお、視野領域は所定時間内に観察者の視界に入る領域を含む領域であればよく、上述した領域R(t)を内包する矩形領域を視野領域としてもよい。取得された視野領域R(t)は、明るさ取得部202へ送られる。
明るさ取得部202は、視野領域R(t)に基づいて、時刻tにおける表示対象シーンの明るさを取得する。本実施形態では、表示対象シーンの明るさIr(t)として、入力画像データから視野領域R(t)内の平均輝度値を求める。なお、明るさIr(t)は領域内の明るさを代表する値であればよく、平均値以外にも中央値や最頻値などを代表値として用いてもよい。また、輝度値以外にもRGBやXYZ、Lab、YUV、YCbCrなど各種の表色系で表された色成分のうち、明るさに相当する値を用いてもよい。さらには、中心視野を考慮して視野領域内の一部の領域(例えば、時刻tにおける表示領域)のみから明るさIr(t)を算出してもよい。取得された明るさIr(t)は、順応状態推定部203および取得データサイズ決定部204へ送られる。
順応状態推定部203は、表示対象シーンの明るさの時系列データに基づき、時刻tにおける観察者の順応状態を推定する。本実施形態では、順応状態を表わす指標として観察者の視覚が適応している最も見やすい輝度(以後、順応輝度と呼ぶ)を用いる。時刻t’において順応輝度Is(t’)が表示対象シーンの明るさIr(t’)と異なる場合について考える。この場合時刻t(t’<t)における順応輝度Is(t)は、Is(t’)を起点とし、順応が完了するまでに要する遷移時間Tcが経過した時刻t’+Tcに明るさIr(t’)へ到達する順応曲線Ctに基づき推定する。本実施形態では、順応完了までの時間の経過率dTに対する順応輝度の変化率dSを表わす曲線を予め記憶しておき、この曲線を順応輝度Is(t’)と表示対象シーンの明るさIr(t’)とに応じてスケーリングすることにより順応曲線Ctを予測する。このとき、順応曲線Ct上の時刻tにおける順応輝度Is(t)を次式に従い推定する。
Is(t)=Is(t’)+(Ir(t’)−Is(t’))*dS(dT) 式(1)
dT =(t−t’)/Tc 式(2)
ここで、dS(dT)は時間の経過率dTに対する順応輝度の変化率であり、t=t’のときdS(0)=0、t=t’+TcのときdS(1)=1である。また、順応が完了するまでに要する遷移時間Tcは、一般的な人間の視覚特性に基づき、暗順応(Is(t’)>Ir(t’))の場合は5分〜30分程度、明順応(Is(t’)<Ir(t’))の場合は0.1秒〜40秒程度の値を予め定めておく。順応輝度の遷移の例を図6に示す。同図(a)は、時間の経過率dTに対する順応輝度の変化率dSを表わす曲線である。この曲線を予め記憶する際は、曲線を表わす式の形で記憶しておいてもよいし、適当な間隔でサンプリングした曲線上の値をLUTの形で記憶しておいてもよい。また、図6(b)は、同図(a)の曲線をスケーリングして予測した順応曲線Ctである。なお、推定する順応状態は映像中のシーンを実際に見た際に引き起こされる状態であることが望ましく、ディスプレイに表示した映像を見た際の順応状態と一致している必要はない。推定した順応輝度Is(t)は、取得データサイズ決定部204へ送られる。
取得データサイズ決定部204は、表示対象シーンの明るさIr(t)および観察者の順応輝度Is(t)に基づいて、当該表示対象シーンに対する映像の取得データサイズを決定する。本実施形態では、観察者の順応輝度Is(t)が表示対象シーンの明るさIr(t)と異なる場合に観察者の視覚が順応の途中であるとみなし、順応が完了している(Is(t)とIr(t)が等しい)場合に比べて取得データサイズを小さく設定する。決定した取得データサイズは、入力画像データ取得部205へ送られる。
入力画像データ取得部205は、視野領域R(t)とこの領域に対する取得データサイズに従い、HDD104等の記憶装置や図示しないデータベースから、表示対象シーンに対応する入力画像データを取得する。取得された入力画像データは、出力画像データ生成部206へ送られる。
出力画像データ生成部206は、入力画像データに対し、ディスプレイ111に出力するための射影変換や色変換、フォーマット変換などの各種変換を施して出力画像データを生成する。生成された出力画像データは、ディスプレイ111へ送られて表示される。
図3は、画像処理装置100における一連の処理の動作手順を示すフローチャートである。この一連の処理は、以下に示す手順を記述したコンピュータ実行可能なプログラムを、ROM103あるいはHDD104からRAM102上に読み込んだ後に、CPU101によって該プログラムを実行することによって実現される。なお、本実施形態では入力画像データの全てをRAM102上に保持できないことによるスワッピングを回避するため、予め全周囲映像を複数の異なる解像度(ここでは、低、中、高解像度)の入力画像データとしてHDD104等の記憶装置に保持しておく。このとき、各解像度の入力画像データは、1ファイルのデータサイズがRAM102の容量に応じて定めたデータサイズ以下となるように分割して保持されている。これにより、必要な領域を含む必要な解像度の画像データのみを読み出すことができるようにしておくものとする。
ステップ301において、入力画像データ取得部205は、HDD104等の記憶装置から低解像度の入力画像データを全て取得し、RAM102に展開する。
ステップ302において、視野領域取得部201は、入力I/F106を介してセンサ110からセンサ情報を取得する。視野領域取得部201は、一定時間Ts(例えばセンサ情報のサンプリング周期)が経過するまでのΔt刻みの時刻ti(=t0+Δt×i、i=0,1,…,N、Δt×N=Ts、t0はセンサ情報取得時の時刻)について、それぞれ視野領域を算出する。本実施形態では、センサ情報としてHMD109に備えられたセンサ110から得られる角加速度(観察者の頭部の角加速度に相当)を用い、この角加速度を時間積分することにより、各時刻tiにおける観察者の視線方向v(ti)を推定する。そして、時刻t’=ti−Δtから時刻t=tiまでの間に観察者の視界に入る視野領域R(ti)を、視線方向v(ti−Δt)、v(ti)に基づき算出する。なお、処理開始直後については、時刻t=0における表示領域を視野領域R(0)とする。
ステップ303において、明るさ取得部202は、各時刻tiにおける表示対象シーンの明るさIr(ti)を求める。具体的には明るさ取得部202は、ステップ302で算出した視野領域R(ti)(i=0,1,…,N)に基づいて、ステップ301でRAM102に展開した低解像度の入力画像データから各時刻tiにおける表示対象シーンの明るさIr(ti)を求める。
ステップ304において、順応状態推定部203は、ステップ303で求めた表示対象シーンの明るさIr(ti)に基づき、時刻tiに沿って順応曲線Ctiを予測しながら順応輝度Is(ti)を推定する。図7に視野領域とこれに対応する表示対象シーンの明るさ、および、順応輝度の例を示す。図7(a)中の網掛け部は暗い領域を、白い領域は明るい領域を表わしており、これらの領域を観察者の視線方向vが時刻t0からt6にかけて横断する様子を示している。このときに得られる視野領域R(t0)〜R(t6)に対応する表示対象シーンの明るさIr(t0)〜Ir(t6)を図7(b)中に黒点で示す。また、時刻t0において順応輝度Is(t0)が表示対象シーンの明るさIr(t0)と等しい場合に、明るさIr(t0)〜Ir(t6)から推定される順応輝度Is(t1)〜Is(t6)を同図中に白点で示す。図7の例ではIs(t0)=Ir(t0)であることから、時刻t0以降において順応曲線Ct1は式(1)に従いI=Ir(t0)(すなわち一定)となると予測される。この順応曲線Ct1に基づいて、次の時刻t1に関する順応輝度はIs(t1)=Ir(t0)と推定される。さらに、時刻t1以降における順応曲線Ct2はIr(t0)を起点として時刻t1+TcにIr(t1)へ到達する曲線となると予測される。この時推定される曲線は、式(1)’によって表される。
I=Ir(t0)+(Ir(t1)−Ir(t0))*dS((t-t1)/Tc))
式(1)’
以降の時刻についても同様にして順応曲線Ctiに基づいて順応輝度Is(ti)を推定し、推定結果と表示対象シーンの明るさIr(ti)とを用いて式(1)に従い時刻ti以降の順応曲線Cti+1を予測して更新する。ただし、図7(b)の時刻t5,t6のように、表示対象シーンの明るさIr(ti)が前時刻における明るさIr(ti−1)から変化しない場合は、順応状態が滑らかに変化することが望ましいため、時刻tiにおける順応曲線の更新は不要である。すなわち、時刻ti以降も曲線Ctiに沿って順応が遷移するものと予測し、曲線Ctiに基づいて順応輝度Is(ti+1)を推定する。なお、処理開始直後である時刻t=0においては、観察者の視覚が表示対象シーンの明るさに充分順応していると仮定し、順応輝度Is(0)=Ir(0)として以後の順応状態を推定する。あるいは、何も表示しない状態でのディスプレイ111の輝度Ibに順応している(Is(0)=Ib)としてもよい。
ステップ305において、出力画像データ生成部206は、ステップ301でRAM102に展開した低解像度の入力画像データから、ステップ302で算出した各時刻tiの視野領域R(ti)に対応する部分画像を抽出する。そして、部分画像それぞれに対して先に述べたディスプレイ111に出力するための各種変換を施し、時刻毎の出力画像データを生成する。生成した低解像度の出力画像データは、出力I/F107を介してディスプレイ111へ出力され、時刻に応じて順次表示される。この処理により、観察者の視線方向に応じた画像を低解像度ではあるが高速に表示し、表示の遅延による臨場感の低下を抑制する。
ステップ306において、取得データサイズ決定部204は、ステップ302で算出した視野領域R(ti)の中から処理対象とする領域を1つ選択し、これを注目領域とする。
ステップ307において、取得データサイズ決定部204は、表示対象シーンの明るさIr(ti)と順応輝度Is(ti)に基づき、ステップ306で選択した注目領域について観察者の視覚が充分に順応しているか否かを判定する。具体的には、注目領域が視野領域R(ti)である場合、時刻tiにおける表示対象シーンの明るさIr(ti)と順応輝度Is(ti)との差分を所定の閾値と比較する。取得データサイズ決定部024は、|Ir(ti)−Is(ti)|<ΔI(ΔIは明るさに関して予め定めた閾値)を満たす場合に充分に順応していると判断する。充分に順応していると判断した場合は、注目領域に対する取得データサイズを高解像度と決定し、ステップ308へ進む。順応が不充分と判断した場合には、取得データサイズを中解像度と決定し、ステップ309へ進む。
ステップ308において、入力画像データ取得部205は、HDD104等の記憶装置からステップ306で選択した注目領域が含まれる高解像度の入力画像データを取得してRAM102に展開し、ステップ310へ進む。なお、注目領域が含まれる高解像度の入力画像データのうち、一部または全部をこれまでの処理において既にRAM102に展開済みである場合は、不足分のデータのみを取得すればよい。
ステップ309において、入力画像データ取得部205は、HDD104等の記憶装置からステップ306で選択した注目領域が含まれる中解像度の入力画像データを取得してRAM102に展開し、ステップ310へ進む。なお、注目領域が含まれる中解像度の入力画像データのうち、一部または全部をこれまでの処理において既にRAM102に展開済みである場合は、不足分のデータのみを取得すればよい。
ステップ310において、出力画像データ生成部206は、ステップ308またはステップ309でRAM102に展開した高解像度または中解像度の入力画像データから、ステップ306で選択した注目領域の部分画像を抽出する。そして、部分画像に対して先に述べたディスプレイ111に出力するための各種変換を施し、注目領域の出力画像データを生成する。生成された高解像度または中解像度の出力画像データは、出力I/F107を介してディスプレイ111へ出力され、時刻に応じて低解像度の出力画像と順次差し替えられて表示される。
ステップ311において、出力画像データ生成部206は、ステップ302で算出した全ての視野領域R(ti)について中解像度または高解像度の出力画像データを生成したか否かを判定する。全ての領域について生成済みである場合にはステップ312へ進み、未生成の領域がある場合にはステップ306へ戻る。
ステップ312では、一連の処理を続行するか否かを判定する。入力I/F106を介したユーザ指示により終了を指示された場合には処理を終了し、終了の指示がない場合にはステップ302へ戻って処理を続行する。処理を続行した際、これまでの処理において既に取得または生成済みで再利用可能な画像データがRAM102上に残っている場合は、以後の処理における取得処理(ステップ308、309)や生成処理(ステップ310)をスキップする。
なお、本実施形態では視野領域に基づき低解像度の入力画像データを用いて表示対象シーンの明るさを取得する例について説明したが、別途視線方向や時刻に対する明るさの情報をテーブルデータとして保持しておき、このテーブルを参照して取得してもよい。
また、順応状態に対する閾値処理により取得データサイズを高解像度または中解像度の2段階のデータサイズから選択する例について説明したが、より多段階のデータサイズから選択する構成にしてもよい。
また、予め複数の異なる解像度で保持されている入力画像データを用いる例について説明したが、高解像度の画像データから異なるサンプリング間隔でデータを読み込むことにより異なる解像度の入力画像データを取得してもよい。
また、全周囲映像の座標軸と視線方向(θ,φ)との対応付けの方式として、横軸をθ、縦軸をφと対応付ける正距円筒マップ方式を用いて説明したが、球状マップ方式やその他の方式を用いてもよい。
また、センサから得られる角加速度に基づき観察者の視線方向を推定する例について説明したが、磁気式あるいは光学式の位置センサや速度センサなど他のセンサから得られる情報に基づき推定してもよい。
また、HMDを装着した観察者の視線方向に応じて全周囲映像を表示する例について説明したが、視野領域を画像全体とすれば、映像をディスプレイに表示する一般の場合にも適用可能である。その場合、視野領域取得部201は不要となる。
また、観察者の順応輝度と表示対象シーンの明るさとの差に基づいて取得データサイズを設定する例について説明したが、表示対象シーンの明るさのみに基づいて入力画像データの取得データサイズを設定してもよい。例えば、表示対象シーンの明るさが急激に変化した場合には、順応輝度と表示対象シーンの明るさとの乖離が一時的に生じると予想できる。したがって、時間軸方向における表示対象シーンの明るさの変動量が閾値以上である場合に、取得データサイズを小さく設定すればよい。その場合、順応状態推定部203は不要となる。
また、本実施形態で用いたCPU101に替えてGPUなどを用いて実現しても、同様の効果を得ることができる。
以上説明した処理制御を行うことで、全周囲映像データを効率良く再生し、より臨場感の高い映像を観察者に提示することが可能となる。
<第2実施形態>
第1実施形態では、予め定めた順応が完了するまでの遷移時間を用いて順応曲線を予測する方法について説明した。本実施形態においては、入力画像データの取得にかかる所要時間を考慮して順応が完了するまでの遷移時間を設定し、順応曲線を予測する例について説明する。また、出力画像データを生成する際に順応状態に応じたトーンマッピングを行う例について説明する。
ディスプレイのダイナミックレンジに対して入力画像データのダイナミックレンジが広い場合、入力画像データをディスプレイに出力するための変換の一つとして、ダイナミックレンジを圧縮するトーンマッピング処理を行う必要がある。本実施形態では、順応輝度周辺のレンジについて優先して視認性を高め、順応輝度から遠いほど視認性が低下するようにダイナミックレンジを圧縮する。これにより、ディスプレイのダイナミックレンジに依らず、映像中のシーンを実際に見た場合の見た目を画像上で再現する。さらに、入力画像データの取得に要する時間を考慮して順応の遷移時間を設定することにより、入力画像データの取得状況に合わせて出力画像の視認性を制御する。
第2実施形態における画像処理装置100のソフトウェア構成を示す機能ブロック図を図8に示す。なお、視野領域取得部201、明るさ取得部202、取得データサイズ決定部204、入力画像データ取得部205については第1実施形態と同一であるため説明を省略し、第1実施形態と異なる点を中心に簡潔に説明する。
本実施形態における順応状態推定部203はデータ取得時間推定部801を備え、出力画像データ生成部206はトーンマッピング部802を備える。
データ取得時間推定部801は、表示対象シーンに対応する入力画像データの取得にかかる所要時間を推定する。まず、表示対象シーンに対応する視野領域と、HDD104等の記憶装置に記憶されている入力画像データのデータ量に基づき、出力画像データの生成に必要な入力画像データのデータ量(以後、必要取得データ量Dと呼ぶ)を求める。そして、システムバス108のデータ転送速度Vに基づいて、入力画像データが記憶されている記憶装置からRAM102へ必要取得データ量D分のデータを転送する際にかかる所要時間Tdを次式に従い推定する。
Td=D/V 式(3)
なお、システムバス108のデータ転送速度Vは予め測定して記憶しておく。あるいは、システムバス108のデータ転送速度を測定する監視部を別途設け、この監視部からデータ転送速度Vを随時取得してもよい。
順応状態推定部203は、データ取得時間推定部801が推定した所要時間Tdに応じて順応が完了するまでの遷移時間Tcを設定し、観察者の順応状態を推定する。本実施形態では、所要時間Tdが経過した後に順応が完了するように、次式に従い遷移時間Tcを決定する。
Tc=Td+α 式(4)
ここで、α(≧0)は順応が完了するどのくらい前に入力画像データの取得を完了するかを表わすパラメータである。なお、視覚特性に基づき予め定めた順応が完了するまでの時間をTeとしたときにTe>Td+αである場合は、視覚特性に基づく視認性の再現を優先してTc=Teとしてもよい。以上で決定した遷移時間Tcを用いて、式(1)に従い時刻tにおける観察者の順応輝度を推定する。詳細は第1実施形態と同一であるため説明を省略する。推定した順応輝度は、取得データサイズ決定部204および出力画像データ生成部206へ送られる。
トーンマッピング部802は、表示対象シーンに対応する入力画像データに、順応輝度に応じたトーンマッピング処理を施す。トーンマッピング処理の代表的な手法の一つとして、次式に従い輝度変換を行うものが知られている。
L’=Ln/(1+Ln) 式(5)
Ln=0.18/Lm*L 式(6)
ここで、L’は変換後の輝度値、Lmは中間明度に対応する輝度値、Lは変換前の輝度値である。本実施形態では、順応輝度を中間明度に対応する輝度値Lmとして用いて変換を行う。このとき、トーンマッピング処理後の画像では、順応輝度よりも明るいレンジほど階調が潰れて視認性が低くなる。なお、変換関数としては順応輝度周辺の視認性が高く、それ以外の部分の視認性が低くなるような特性を持つものであれば、上記以外にも利用可能である。
出力画像データ生成部206は、トーンマッピング部802によるトーンマッピング処理が施された画像データに対し、ディスプレイ111に出力するための射影変換や、色変換、フォーマット変換などの各種変換を施して出力画像データを生成する。生成された出力画像データは、ディスプレイ111へ送られて表示される。
以下、図9に示すフローチャートを用いて、本実施形態に係る画像処理装置100における一連の処理の動作手順を説明する。なお、本実施形態で第1実施形態と同様に、予め全周囲映像を異なる解像度(低、中、高解像度)ごとに複数のファイルに分割した入力画像データとしてHDD104等の記憶装置に保持しておく。
ステップ301からステップ303は第1実施形態と同一であるため説明を省略する。
ステップ901において、データ取得時間推定部801は、データの取得に係る時間を推定する。具体的には、視野領域R(ti)(i=0,1,…,N)に基づいて、視野領域R(ti)が含まれる高解像度および中解像度の入力画像データを取得する際にかかる所要時間Td(ti)を、時刻ti毎に推定する。例えば、視野領域R(ti)が含まれる高解像度入力画像データファイルのデータ量がN[bit]、同じくR(ti)が含まれる中解像度入力画像データファイルのデータ量がM[bit]であるとする。この場合式(3)における必要取得データ量DにM+Nを代入して所要時間Td(ti)を推定する。
ステップ902において、順応状態推定部203は、ステップ303で求めた表示対象シーンの明るさIr(ti)に基づき、時刻tiに沿って順応曲線Ctiを予測しながら順応輝度Is(ti)を推定する。このとき、データ取得時間推定部801が推定した所要時間Td(ti)を用いて式(4)に従い遷移時間Tcを算出し、これを用いて式(2)に従い順応曲線Ctiを予測する。その他の詳細は第1実施形態のステップ304と同一であるため説明を省略する。
ステップ903において、出力画像データ生成部206は、ステップ301でRAM102に展開した低解像度の入力画像データから、ステップ302で算出した各時刻tiの視野領域R(ti)に対応する部分画像を抽出する。そして、トーンマッピング部802が、部分画像それぞれに対して式(5)、式(6)に従いトーンマッピング処理を施す。このとき、式(6)における中間明度に対応する輝度値Lmには、ステップ902で推定した順応輝度Is(ti)を代入する。続いて出力画像データ生成部206は、トーンマッピング処理後の画像データに対してディスプレイ111に出力するための各種変換を施し、時刻毎の出力画像データを生成する。生成した低解像度の出力画像データは、出力I/F107を介してディスプレイ111へ出力され、時刻に応じて順次表示される。
ステップ306からステップ309は第1実施形態と同一であるため説明を省略する。ただし、順応輝度はステップ902で推定したものを用いる。
ステップ904において、出力画像データ生成部206は、ステップ308またはステップ309でRAM102に展開した高解像度または中解像度の入力画像データから、ステップ306で選択した注目領域の部分画像を抽出する。そして、トーンマッピング部802が、部分画像に対して式(5)、式(6)に従いトーンマッピング処理を施す。このときステップ903と同様に、式(6)における中間明度に対応する輝度値Lmには、ステップ902で推定した順応輝度Is(ti)を代入する。続いて出力画像データ生成部206は、トーンマッピング処理後の画像データに対してディスプレイ111に出力するための各種変換を施し、注目領域の出力画像データを生成する。生成された高解像度または中解像度の出力画像データは、出力I/F107を介してディスプレイ111へ出力され、時刻に応じて低解像度の出力画像と順次差し替えられて表示される。
ステップ311からステップ312は第1実施形態と同一であるため説明を省略する。
図10に、本実施形態における順応輝度の例を示す。上述した図7(a)と同様、図10(a)中の網掛け部は暗い領域を、白い領域は明るい領域を表わしている。また、観察者の視線方向vが時刻t0’からt3’にかけて暗い領域から明るい領域へ移動し、その後t6’まで明るい領域に停滞している様子を示している。このときに得られる視野領域R(t0’)〜R(t6’)に対応する表示対象シーンの明るさIr(t0’)〜Ir(t6’)を図10(b)、(c)中に黒点で示す。また、時刻t0’において順応輝度Is(t0’)が表示対象シーンの明るさIr(t0’)と等しい場合に、明るさIr(t0’)〜Ir(t6’)から推定される順応輝度Is(t1’)〜Is(t6’)を同図中に白点で示す。ただし、図10(b)は予め定めた遷移時間Teを用いて順応曲線を予測した場合の例である。また、図10(c)は入力画像データの取得にかかる所要時間Td(ti)に応じて式(4)に従い遷移時間Tcを設定し、順応曲線を予測した場合の例である。
人間の視覚特性を考慮すると、図10(a)に示したシーンを観察者に提示する場合、時刻t2’付近においてシーンが急激に明るく変化した際に明るい領域が白飛びして見え、その後徐々に、白飛びした領域の細部が明瞭に見えるようになると理想的である。このとき、視界の大部分を占める明るい領域が白飛びして見える間は、解像度の低い入力画像データから生成した出力画像を表示しても、解像度の低さは視認されずに臨場感を維持できると考えられる。したがって、表示対象シーンに対応する高解像度の入力画像データの取得、および、この入力画像データをもとにした高解像度の出力画像データの生成は、順応が進んで対象シーン全体が明瞭に見えるようになるまでに完了すればよい。
図10(b)の例では、時刻t3’から始まる順応が順応曲線Ct4’に沿って時刻t6’までに完了しており、時刻t6’以降においてはほぼ白飛びのない出力画像が表示されることとなる。ここでもしTe<Td(t6’)であった場合には、時刻t6’までに視野領域R(t6’)に関する高解像度の出力画像の生成が間に合わない可能性がある。その場合、表示の遅延による臨場感の低下を抑制するために、既に生成済みの低解像度の出力画像が表示されることとなるが、この出力画像は表示対象シーンの適正露出で生成された画像である。その結果、解像度の低さが視認されやすく映像の臨場感を損なう恐れがある。
これに対し、図10(c)の例では、データ取得にかかる所要時間を考慮して順応曲線を予測しているため、出力画像を高解像度で表示する必要がある順応状態となるまでに、余裕を持って高解像度の入力画像データの読み込みを完了できる。
以上説明した処理制御を行うことで、映像中のシーンを観察者が実際に見た場合の見た目の明るさをディスプレイ上に再現し、より臨場感の高い映像を観察者に提示することができる。さらに、入力画像データの取得に要する時間を考慮して出力画像の視認性を制御し、入力画像データの取得に時間を要する場合に生じる臨場感の低下を軽減することができる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
202 明るさ取得部
204 取得データサイズ決定部
205 入力画像データ取得部
206 出力画像データ生成部

Claims (6)

  1. 画像データを表示デバイスで表示するための画像処理装置であって、
    時間軸に沿って表示対象シーンの明るさを取得する明るさ取得手段と、
    前記表示対象シーンの明るさの時系列データに基づいて、該表示対象シーンに対する取得データサイズを決定する取得データサイズ決定手段と、
    前記取得データサイズに従い前記表示対象シーンに対応する入力画像データを取得する入力画像データ取得手段と、
    前記入力画像データに基づき、前記表示デバイスに出力するための出力画像データを生成する出力画像データ生成手段と
    を有することを特徴とする画像処理装置。
  2. さらに、観察者の視覚の順応状態を推定する順応状態推定手段を備え、
    前記取得データサイズ決定手段は、前記順応状態に基づき、観察者の視覚が前記表示対象シーンに対して充分に順応していない場合には、観察者の視覚が前記表示対象シーンに対して充分に順応している場合に比べて、前記取得データサイズをより小さいデータサイズに決定することを特徴とする請求項1に記載の画像処理装置。
  3. 前記順応状態推定手段は、前記入力画像データの取得にかかる所要時間を推定し、該所要時間が経過した後に観察者の視覚の順応が完了すると仮定して前記順応状態を推定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記出力画像データ生成手段は、前記入力画像データに対し前記順応状態に基づくトーンマッピングを施して前記出力画像データを生成することを特徴とする請求項2または3に記載の画像処理装置。
  5. コンピュータに読み込み込ませ実行させることで、前記コンピュータを請求項1乃至4の何れか一項に記載された画像処理装置として機能させることを特徴とするプログラム。
  6. 画像データを表示デバイスで表示するための画像処理方法であって、
    時間軸に沿って表示対象シーンの明るさを取得し、
    前記表示対象シーンの明るさの時系列データに基づいて、該表示対象シーンに対する取得データサイズを決定し、
    前記取得データサイズに従い前記表示対象シーンに対応する入力画像データを取得し、
    前記入力画像データに基づき、前記表示デバイスに出力するための出力画像データを生成することを特徴とする画像処理方法。
JP2014246347A 2014-12-04 2014-12-04 画像処理装置、画像処理方法及びプログラム Pending JP2016109828A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014246347A JP2016109828A (ja) 2014-12-04 2014-12-04 画像処理装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014246347A JP2016109828A (ja) 2014-12-04 2014-12-04 画像処理装置、画像処理方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2016109828A true JP2016109828A (ja) 2016-06-20

Family

ID=56124079

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014246347A Pending JP2016109828A (ja) 2014-12-04 2014-12-04 画像処理装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP2016109828A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019193807A1 (ja) * 2018-04-06 2019-10-10 ソニー株式会社 画像処理装置、画像処理方法及び記録媒体
JP2020160696A (ja) * 2019-03-26 2020-10-01 株式会社富士通エフサス ウェアラブル装置および送信制御方法
JP2021530918A (ja) * 2018-07-17 2021-11-11 ドルビー ラボラトリーズ ライセンシング コーポレイション フォービエイションおよびhdr
US11962819B2 (en) 2018-07-17 2024-04-16 Dolby Laboratories Licensing Corporation Foviation and HDR

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019193807A1 (ja) * 2018-04-06 2019-10-10 ソニー株式会社 画像処理装置、画像処理方法及び記録媒体
JPWO2019193807A1 (ja) * 2018-04-06 2021-04-30 ソニー株式会社 画像処理装置、画像処理方法及び記録媒体
US11354790B2 (en) 2018-04-06 2022-06-07 Sony Corporation Image processing apparatus, image processing method, and recording medium
JP7188440B2 (ja) 2018-04-06 2022-12-13 ソニーグループ株式会社 画像処理装置、画像処理方法及び記録媒体
JP2021530918A (ja) * 2018-07-17 2021-11-11 ドルビー ラボラトリーズ ライセンシング コーポレイション フォービエイションおよびhdr
JP7443325B2 (ja) 2018-07-17 2024-03-05 ドルビー ラボラトリーズ ライセンシング コーポレイション フォービエイションおよびhdr
US11962819B2 (en) 2018-07-17 2024-04-16 Dolby Laboratories Licensing Corporation Foviation and HDR
JP2020160696A (ja) * 2019-03-26 2020-10-01 株式会社富士通エフサス ウェアラブル装置および送信制御方法

Similar Documents

Publication Publication Date Title
CN108027652B (zh) 信息处理设备、信息处理方法以及记录介质
US10916048B2 (en) Image processing apparatus, image processing method, and storage medium
JP6747504B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US9679415B2 (en) Image synthesis method and image synthesis apparatus
RU2749643C1 (ru) Устанавливаемое на голове устройство отображения и выполняемый им способ
US9766458B2 (en) Image generating system, image generating method, and information storage medium
US9749494B2 (en) User terminal device for displaying an object image in which a feature part changes based on image metadata and the control method thereof
US20200342671A1 (en) Information processing apparatus, information processing method, and program
JP7176520B2 (ja) 情報処理装置、情報処理方法及びプログラム
US20210368152A1 (en) Information processing apparatus, information processing method, and program
WO2017169369A1 (ja) 情報処理装置、情報処理方法、プログラム
US20140270693A1 (en) Information processing device, storage medium having moving image data stored thereon, information processing system, storage medium having moving image reproduction program stored thereon, and moving image reproduction method
KR20200051591A (ko) 정보 처리 장치, 정보 처리 방법, 및 프로그램
WO2017169273A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP2016109828A (ja) 画像処理装置、画像処理方法及びプログラム
US20220036779A1 (en) Information processing apparatus, information processing method, and recording medium
GB2541073B (en) Information processing apparatus, method for controlling information processing apparatus, image processing system and storage medium
CN111066081B (zh) 用于补偿虚拟现实的图像显示中的可变显示设备等待时间的技术
WO2020044916A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2017182247A (ja) 情報処理装置、情報処理方法、およびプログラム
CN112396705A (zh) 使用过渡视觉内容缓解小视场显示
US9323981B2 (en) Face component extraction apparatus, face component extraction method and recording medium in which program for face component extraction method is stored
WO2017169272A1 (ja) 情報処理装置、情報処理方法、及びプログラム
WO2020213088A1 (ja) 表示制御装置、表示制御方法、プログラム、ならびに、非一時的なコンピュータ読取可能な情報記録媒体
CN106055108B (zh) 一种虚拟触摸屏的操控方法和系统