JP2015156607A - 画像処理装置、画像処理装置、及び電子機器 - Google Patents

画像処理装置、画像処理装置、及び電子機器 Download PDF

Info

Publication number
JP2015156607A
JP2015156607A JP2014031592A JP2014031592A JP2015156607A JP 2015156607 A JP2015156607 A JP 2015156607A JP 2014031592 A JP2014031592 A JP 2014031592A JP 2014031592 A JP2014031592 A JP 2014031592A JP 2015156607 A JP2015156607 A JP 2015156607A
Authority
JP
Japan
Prior art keywords
parallax
image
maximum
amount
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014031592A
Other languages
English (en)
Inventor
靖英 兵動
Yasuhide Hyodo
靖英 兵動
石川 貴規
Takanori Ishikawa
貴規 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014031592A priority Critical patent/JP2015156607A/ja
Priority to US14/620,380 priority patent/US9591282B2/en
Publication of JP2015156607A publication Critical patent/JP2015156607A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/122Improving the 3D impression of stereoscopic images by modifying image signal contents, e.g. by filtering or adding monoscopic depth cues
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/002Eyestrain reduction by processing stereoscopic signals or controlling stereoscopic devices

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】画質の劣化を抑制し、かつ立体感を強調することが可能な画像処理方法、画像処理装置、及び電子機器を提案する。
【解決手段】原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得することと、プロセッサに、取得された前記原画像と前記視差マップとに基づき、視差のダイナミックレンジを決定させることと、前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換することと、を含む、画像処理方法。
【選択図】図14

Description

本開示は、画像処理装置、画像処理装置、及び電子機器に関する。
近年、コンテンツを立体的に表示することが可能な立体視表示装置が普及しつつある。立体視表示装置では、ディスプレイ上に右目用画像及び左目用画像を水平方向にずらして表示し、そのずれの程度で視差量を調整し、これにより、奥行き方向の任意の距離にコンテンツを表示する。
コンテンツを立体的に表示する方法としては、専用の眼鏡を用いた方式が古くから提案されてきたが、近年では、専用の眼鏡を用いずに3D映像を見せることが可能な裸眼3D映像技術が提案されている。
特表2010−529521号公報
2視点以上の視点画像を表示する立体視表示装置の場合、ディスプレイの光学特性上の理由から、近隣の視点画像から各視点画像へ光が漏れ込んでくる現象が発生する場合があり、この現象はクロストークと呼ばれている。クロストークが生じると、左右両眼用の立体視表示画像としてボケや二重像等のような画像の歪みが生じる可能性があり、画質が著しく低下する場合がある。すなわち、画質と視差はトレードオフの関係にあり、画質を一定のレベルだけ担保したまま表示できる視差の範囲には限界がある。
一方で、視差は、ディスプレイの表示面に対して奥行き方向の手前側及び奥側の双方に設定することが可能であるが、視差の分布が当該表示面に対して奥行き方向の一方に偏っている場合もある。このような場合には、ディスプレイの表示面に対して他方の視差表示範囲を有効に利用できていない場合が少なくは無く、結果としてディスプレイの性能を十分に活かしきれず、立体感が制限されている。
そこで、本開示では、画質の劣化を抑制し、かつ立体感を強調することが可能な、新規かつ改良された画像処理方法、画像処理装置、及び電子機器を提案する。
本開示によれば、原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得することと、プロセッサに、取得された前記原画像と前記視差マップとに基づき、視差のダイナミックレンジを決定させることと、前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換することと、を含む、画像処理方法が提供される。
また、本開示によれば、原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得する取得部と、取得された前記原画像と前記視差マップに基づき、視差のダイナミックレンジを決定する視差レンジ決定部と、前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換する視差レイアウト変換部と、を含む、画像処理装置が提供される。
また、本開示によれば、原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得する取得部と、取得された前記原画像と前記視差マップに基づき、視差のダイナミックレンジを決定する視差レンジ決定部と、前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換する視差レイアウト変換部と、を含む、電子機器が提供される。
以上説明したように本開示によれば、質の劣化を抑制し、かつ立体感を強調することが可能な、新規かつ改良された画像処理方法、画像処理装置、及び電子機器が提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る画像処理装置を含むシステムの概略的な構成の一例を示した説明図である。 同実施形態に係る表示装置の概略的な構成の一例を示した説明図である。 クロストークにより、見える画像にボケや二重像が発生した例を示す模式図である。 2視点以上の視点画像を表示する立体視表示装置における視差制御の一例について説明するための図である。 クロストークのモデル式を示す模式図である。 クロストークによる劣化量の計算の方法を示す模式図である。 クロストーク劣化量ΔIの視差依存性を示す模式図である。 クロストーク劣化量ΔIのコントラスト/空間周波数依存性を示す模式図である。 クロストーク劣化量ΔIの視差遷移グラフの学習方法の例を示す模式図である。 学習データの解析結果(クラスごとのサンプルデータの平均)を示す特性図である。 ヒストグラムの平坦化にについて説明するための説明図である。 視差レイアウトの変換に係る処理の概要について説明するための説明図である。 視差レイアウトの変換に係る処理の処理結果の一例を示している。 本開示の第1の実施形態に係る画像処理装置の機能構成の一例を示したブロック図である。 原画像の一例である。 視覚特性JNDと輝度との関係を示す特性図である。 空間周波数、画像中の物体の動き、及びコントラスト感度の関係を示す特性図である。 視差マップの一例である。 視差の分布を示すヒストグラムの一例を示す模式図である。 原画像中における前方ROI及び後方ROIの一例を示す模式図である。 後方ROIにおける最大視差量のヒストグラムの一例である。 前方ROIにおける最大視差量のヒストグラムの一例である。 最大視差量マップの一例である。 視差レイアウト変換部の機能構成の一例を示したブロック図である。 視差の分布を平坦化するためのI/Oカーブの一例を示す模式図である。 中間レイヤにおける最大の視差量が、最手前や最奥の最大の視差量よりも大きくなる場合の原画像の一例を示す。 図24に示した原画像に対応した視差マップの一例を示す模式図である。 図24に示した原画像の最大視差量マップの一例を示す模式図である。 位相差決定部が、実際に表示する視点画像の位相差を決定する方法の一例を示している。 本開示の第2の実施形態に係る画像処理装置の機能構成の一例を示したブロック図である。 本開示の第3の実施形態に係る画像処理装置の機能構成の一例を示したブロック図である。 変形例1に係る画像処理装置の動作について説明するための説明図である。 視差量毎に注目度のスコアを累積したヒストグラムを示す模式図である。 重み付け視差ヒストグラムを示す模式図である。 変形例2に係る視差レイアウトを変換するためのI/Oカーブの一例を示す模式図である。 RGBのサブピクセルとそのクロストーク比を示す平面図であって、パララックス素子の傾きによるクロストーク比を示す模式図である。 RGBのサブピクセルとそのクロストーク比を示す平面図であって、パララックス素子の傾きによるクロストーク比を示す模式図である。 色割れによる縞模様が発生した例を示す模式図である。 色割れが発生しない最大の視差量を推定する方法を示す模式図である。 ハードウェア構成の一例を示した図である。 本開示の実施形態に係る画像処理装置の適用例(テレビジョン装置)の外観を表す斜視図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.表示装置の構成
3.課題の整理
4.原理の説明
4.1.クロストークのモデル式
4.2.学習によるクロストーク劣化量ΔIの視差遷移の推定
4.3.ヒストグラムの平坦化と視差レイアウトの変換への応用
5.第1の実施形態
6.第2の実施形態
7.第3の実施形態
8.変形例
8.1.変形例1
8.2.変形例2
8.3.変形例3
9.ハードウェア構成
10.適用例
11.まとめ
<1.概要>
まず、図1を参照しながら、本開示の実施形態に係る画像処理装置の概要について説明する。図1は、本実施形態に係る画像処理装置を含むシステムの概略的な構成の一例を示した説明図である。
図1に示すように、本開示の実施形態に係る画像処理装置10は、表示装置20に接続される。なお、画像処理装置10は、表示装置20に内蔵されてもよい。以降では、画像処理装置10が、表示装置20とは別筐体として設けられているものとして説明する。
本開示の実施形態に係る表示装置20は、表示装置20の表示面の前方において互いに異なる所定の位置に複数(少なくとも2以上)の仮想視点をあらかじめ設定し、当該仮想視点のそれぞれで異なる視点映像を視聴可能に構成されている。このような構成により、例えば、視聴者の左右の目がそれぞれ異なる仮想視点となるように、各仮想視点の位置をあらかじめ調整し、各仮想視点に異なる視差が設定された視差画像を表示させることで、視聴者は、立体感を持った画像を視聴することが可能となる。表示装置20の具体的な一例として、裸眼3Dディスプレイが挙げられる。
画像処理装置10は、表示対象となる原画像を外部から取得し、取得した原画像に基づき各仮想視点に対応する視点画像を生成して表示装置20に出力する。例えば、画像処理装置10は、静止画像や動画像などの画像を含む放送を受信するためのアンテナ30に接続されていてもよい。
なお、本説明において原画像とは、各仮想視点に対応する視点画像の生成元となる画像を示すものであり、当該視点画像を生成可能であれば、その態様は特に限定されない。例えば、原画像は、静止画像であってもよいし、動画像であってもよい。また、原画像は、立体視を実現するための、所謂、ステレオ画像であってもよいし、立体視を考慮していない画像(換言すると、1視点分の画像)であってもよい。なお、立体視を考慮していない画像を原画像として取得した場合には、画像処理装置10が、当該原画像に対して画像解析を施すことで、当該解析結果に基づき各視点画像を生成すればよい。また、ステレオ画像を原画像とする場合においても、当該ステレオ画像よりも多くの視点を考慮した視点画像を必要とする場合には、画像処理装置10が、当該原画像に対して画像解析を施すことで、必要とされる視点分の視点画像を生成すればよい。
また、画像処理装置10が原画像を取得する取得元は特に限定されない。例えば、図1に示すように、画像処理装置10は、放送として配信された原画像を、アンテナ30を介して受信してもよい。また、他の一例として、画像処理装置10は、外部メディアに記録された原画像を当該外部メディアから読み出してもよい。また、他の一例として、画像処理装置10内に原画像を記憶するための記憶部を設け、画像処理装置10は、当該記憶部に記憶された原画像を読み出す構成としてもよい。
<2.表示装置の構成>
次に、図2を参照しながら、本開示の実施形態に係る表示装置20の構成の一例について説明する。図2は、本実施形態に係る表示装置の概略的な構成の一例を示した説明図である。なお、図2において、横方向で示されたx方向は、表示装置20の表示面に対する水平方向を示しており、図面に対して垂直な方向で示されたy方向は、表示装置20の表示面に対する垂直方向を示している。また、縦方向で示されたz方向は、表示装置20の表示面に対する奥行き方向を示している。
図2に示すように、表示装置20は、バックライト21と、バリア23と、表示パネル25とを含む。図2に示す構成は、例えば、表示パネル25として液晶パネルを使用した表示装置(ディスプレイ)を示しており、バックライト21から照射され表示パネル25を透過した光が像として視聴者に到達する。図2に示す構成では、バックライト21の前方にバリア23が設けられている。また、バリア23の前方には、当該バリア23と所定の距離だけ離間した位置に表示パネル25が設けられている。
バリア23は、例えば、レンチキュラ板やパララクスバリア等の光学部材からなる。バリア23には、x方向に沿って開口部が所定の周期で設けられており、バックライト21から照射された光のうち、バリア23の開口部を通過した光のみが表示パネル25に到達する。
表示パネル25は、複数の画素を含む。また、表示パネル25の各画素は、あらかじめ設定された複数の仮想視点のいずれかを示すインデックスが関連付けられており、当該インデックスに対応した視差画像の画素を表示するように構成されている。なお、各画素と各インデックスとの間の関連付けは、バリア23、表示パネル25、及び各仮想視点の間の位置関係に応じて、あらかじめ設計されている。
具体的な一例として、図2に示す例では、表示パネル25は、それぞれ異なる仮想視点に対応したインデックスが関連付けられた画素25a〜25dを含む。例えば、図2に示された仮想視点Mには、バリア23の開口部を透過した光Laが、画素25aを透過して収束し、仮想視点Mには、バリア23の開口部を透過した光Lbが、画素25bを透過して収束するように設計されている。このとき、例えば、仮想視点Mに視聴者の左目が位置し、仮想視点Mに視聴者の左目が位置する場合に、画素25aに左目用の視差画像を表示させ、画素25bに右目用の視差画像を表示させることで、視聴者は、立体感を持った画像を視聴することが可能となる。
なお、図2に示す例はあくまで一例であり、視点の位置に応じて異なる視差画像を観測することが可能であれば、表示装置20の構成は特に限定されない。具体的な一例として、表示パネル25の前面にバリア23を設ける構成としてもよい。
<3.課題の整理>
2視点以上の視点画像を表示する立体視表示装置(例えば、表示装置20)の場合、ディスプレイの光学特性上の理由から、近隣の視点画像から各視点画像へ光が漏れ込んでくる、クロストークと呼ばれる現象が発生する場合がある。クロストークが生じると、左右両眼用の立体視表示画像としてボケや二重像等のような画像の歪みが生じる可能性があり、画質が著しく低下する場合がある。例えば、図3は、クロストークにより、見える画像にボケや二重像が発生した例を示す模式図である。図3に示すように、クロストークにより画像にボケや二重像が発生し、視差が大きくなるほどボケや二重像が増加する。すなわち、画質と視差はトレードオフの関係にあり、画質を一定のレベルだけ担保したまま表示できる視差の範囲には限界がある。
一方で、視差は、ディスプレイの表示面に対して奥行き方向の手前側及び奥側の双方に設定することが可能であるが、視差の分布が当該表示面に対して奥行き方向の一方に偏っている場合もある。例えば、図4は、2視点以上の視点画像を表示する立体視表示装置における視差制御の一例について説明するための図である。図4における比較例1は、視差の分布が表示面に対して奥行き方向の一方(手前側)に偏っている場合の例を示している。即ち、比較例1に示す例では、奥行き方向に異なる位置に配置された画像n11及びn12それぞれが、表示面を基準として手前側に偏っている状態を示している。
また、比較例2は、奥行き方向の手前及び奥について、クロストークの影響が生じ得る視差(以降では、「限界表示視差」と呼ぶ場合がある)を算出し、比較例1に係る画像n11及びn12の視差を、限界表示視差の範囲内に制限した場合の例を示している。
比較例2に示す技術では、ディスプレイの特性や画像の特徴からボケや二重像が発生しない最大視差量を推定し、推定結果に基づき、奥行き方向の手前及び奥について、クロストークの影響が生じない限界の視差(以降では、「限界表示視差」と呼ぶ場合がある)を算出する。そして、比較例2に示す技術では、比較例1における画像n11及びn12の視差値をゲイン倍することで、変換後の画像n21及びn22の視差値を、算出した限界表示視差の範囲内に制限している。そのため、画像n21及びn22が手前側に集中して、奥側の視差範囲を有効に利用できず(即ち、ディスプレイの性能を十分に活かしきれず)、結果として立体感が制限されている場合がある。
また、比較例3は、比較例1に係る画像n11及びn12を、表示面を基準として手前側と奥側の視差範囲双方が活用されるように、参照符号n31及びn32で示される位置に再配置した場合の例を示している。なお、各画像を奥行き方向に沿って再配置する処理を、以降では「視差レイアウトの変更」と呼ぶ場合がある。
比較例3に示すように、比較例1における画像n11及びn12の視差レイアウトを変更することで、手前側及び奥側の双方の視差範囲が活用され、比較例1、2に示す例に比べてより立体感を強調することが可能となる。その一方で、比較例3に係る例の場合には、各画像n31及びn32について視差が発生する範囲を正確に推定することが困難であり、限界表示視差の範囲外においてクロストークが生じ、ボケや二重像等のような画像の歪みが顕在化する場合がある。
これに対して、比較例2及び3に示す技術を組み合わせることで、限界表示視差の範囲を有効に利用する方法が考え得る。しかしながら、単に、比較例2及び3に示す技術を組み合わせるのみでは、限界表示視差の範囲を有効に利用することは困難である。
具体的な一例として、比較例3に係る技術に基づき視差レイアウトを変更することで視差の範囲を拡大し、次いで、比較例2に係る技術に基づき視差の範囲を制限する方法が考え得る。しかしながら、視差レイアウトの変更時には、手前側及び奥側の最大視差量を仮定することが困難であり、また、表示面に対して手前側と奥側との間で視差範囲の比が一定とは限らない。そのため、比率の小さい側における視差が最大視差よりも小さくなり、結果として視差範囲を有効に利用できなくなる場合がある。
また、他の一例として、比較例2に係る技術に基づき視差の範囲を抑制し、次いで、比較例3に係る技術に基づき視差レイアウトを変更することで視差の範囲を拡大する方法が考え得る。この場合には、視差レンジの手前側及び奥側における最大視差量を仮定(算出)することが可能であるが、ボケや二重像が発生しやすいオブジェクトは必ずしも最手前または最奥に位置するとは限らず、視差レンジ内の中間レイヤでボケや二重像が発生する場合がある。
そこで、本実施形態に係る画像処理装置10では、ボケや二重像のような画質の劣化を抑制し、かつ、視差範囲を有効に活用することで立体感を強調可能とすることを目的とする。
<4.原理の説明>
次に、本実施形態に係る画像処理装置10における視差制御に係る各処理の原理について説明する。
[4.1.クロストークのモデル式]
まず、本実施形態における、クロストークのモデル式について説明する。本実施形態では、クロストークによって発生するボケのある画像、二重像(以下、ボケ・二重像という)と画像特徴の相関を考慮し、ディスプレイの視差表示性能を最大限発揮する視差制御を実現する。クロストークによって発生するボケ・二重像と画像特徴の相関は、図5に示すクロストークのモデル式から導出される。
本実施形態の骨子を説明するため、先ず、ボケ・二重像の知覚の劣化モデルを説明する。一般的に、画質の劣化は、評価の基準となる基準画像Fと、評価の対象となる評価画像Gとの差分値で客観評価できる。これを立体視表示装置のボケ・二重像の発生に適用すると、基準画像Fは原画像(本来表示したい画像)であり、評価画像Gは視差をつけた場合に実際に見える画像となる。評価画像Gと基準画像Fの差分値がクロストークによる劣化量である。この計算は画像の階調値によって計算するが、画像の階調値と画素の物理的な輝度の関係はγ特性として明らかになっている。すなわち、クロストークによる劣化量は物理量(輝度)として定義される。以下では、画像の階調値での計算方法を示す。
図6は、クロストークモデル式による劣化量の計算の方法を示す模式図である。先ず、クロストークモデルを用いて、原画像Fから見える画像Gを計算する。クロストークモデルは、ディスプレイの輝度プロファイルから得ることができる。例えば、図6に示すように、視点5が見える位置に目がある場合、視点5の画像は支配的に見え、この強度を1とする。このとき、隣接する視点4、6はαだけ見え、さらに2つ隣りの視点3、7はβだけ見え、それ以上離れた視点はγだけ見える。視点5以外の位置に目がある場合もこれらの1、α、β、γの関係を得ることができる。この関係から、原画像Fと見える画像Gの関係を行列とし定義したものがクロストークモデル行列である。図6に示すように、クロストークモデル行列は1、α、β、γを要素にもつ対角行列として定義される。基準画像F(原画像)に対しクロストークモデル行列を積算すると、見える画像Gを生成することができる。クロストークモデル行列は画像のボケ・二重像を発生させる、ローパスフィルタとしての性質を持つ。
次に、見える画像G(評価画像)と基準画像F(原画像)の差分値、すなわち、クロストーク劣化量ΔIを求める。図6の右下の図では、視点4に対し、見える画像G(評価画像)と基準画像F(原画像)の差分をとり、クロストーク劣化量ΔIを求めている。クロストーク劣化量ΔIは、輝度で表され、図6の右下の図において、輝度が明るい領域ほどクロストーク劣化量ΔIが大きくなる。視差を変えて反復計算を繰り返すと、クロストーク劣化量ΔIの視差遷移を画像データとして得ることができる。
図7は、クロストーク劣化量ΔIの視差依存性を示す模式図である。図7では、視差を0ピクセル(pix)から1ピクセル(pix)、3ピクセル(pix)、6ピクセル(pix)と順次に増加させ、図3に示す見える画像Gのクロストークが劣化する様子を示している。例えば視差が0ピクセルの場合は2次元画像であり、視差が0より大きくなるほど3次元画像の場合は表示対象の深さ方向の位置が基準位置(ディスプレイ面)から離れていく。図7に示すように、視差を増加させると、クロストーク劣化量ΔIは増加する傾向にある。クロストーク劣化量ΔIが一定量の閾値を超えると、人はボケ・二重像を知覚し、画質が劣化したように知覚する。
本実施形態では、デバイスのクロストークと画像特徴を利用し、ボケ・二重像が発生する画素数が一定の数以下(例えば画像全体の画素数の1%など)に収まるような視差を決定する。
次に、具体的な実現方法として、学習によるクロストーク劣化量ΔIの視差遷移を推定する方法について説明する。
[4.2.学習によるクロストーク劣化量ΔIの視差遷移の推定]
上記のように、各画素に対して図6の計算を反復計算し、画素毎にクロストーク劣化量ΔIを求めることで、ボケ・二重像が発生する画素数が一定の数以下(例えば画像全体の画素数の1%など)に収まるような視差を決定することができる。しかしながら、図6に示した行列式を用いてリアルタイム動画像処理を実現すると、クロストーク劣化量ΔIが前述したボケ・二重像の知覚閾値を超えるまで行列計算を反復して行わなければならないため、計算量が大きくなる。そこで、本開示の実施形態では、クロストーク劣化量ΔIの視差依存性に加え、クロストーク劣化量ΔIのコントラスト/空間周波数への依存性を利用することで、クロストーク劣化量ΔIの視差遷移を推定するフレームワークを構築する。
図8は、クロストーク劣化量ΔIのコントラスト/空間周波数依存性を示す模式図である。図8は、図7と同様に多視点画像の視差を一様につけたときのクロストーク劣化量を示しており、一例として画面全体で5ピクセル(pix)の視差を付けた場合を示している。ここで、図8の上段の図は、図4に示した方法により、見える画像G(評価画像)と基準画像F(原画像)との差分から得たクロストーク劣化量ΔIを示している。また、図8の下段の図は、基準画像F(原画像)を示している。図6と同様に、上段のクロストーク劣化量ΔIを示す画像においては、白い部分がクロストーク劣化量の大きい部分を示している。
図8に示すように、クロストーク劣化量ΔIは、コントラストが高いほど急激に増加し、空間周波数が高いほど急激に増加する。例えば、図8の左の人の顔(領域A1)と右の花の茎(領域A2)のクロストーク劣化量ΔIを比較すると、花の茎周辺の領域A2は、顔周辺の領域A1と比較して図3の上段の図でより白くなっており、クロストーク劣化量ΔIが大きい。一方、原画像において、領域A1,A2のコントラスト/空間周波数を比較すると、人の顔(領域A1)と花の茎(領域A2)は両方ともコントラスト(局所的な階調変化のダイナミックレンジ)は同程度であるが、人の顔は空間周波数が低く(階調の空間変化の間隔が広く)、花の茎は空間周波数が高い(階調の空間変化の間隔が狭い)。また、コントラストが低い領域は全体的にクロストーク劣化量ΔIが小さいが、コントラストが同じであってもクロストーク劣化量ΔIは空間周波数によって相違することになる。このように、クロストーク劣化量ΔIは視差が増えるにつれて増加傾向で変化していき、また、変化の特性はコントラスト/空間周波数に対して依存性がある。従って、クロストーク量ΔIの視差/コントラスト/空間周波数への依存性は、以下の式で表すことができる。
ただし、Csfは空間周波数ごとにN個に分解されるコントラストベクトル、Ciは空間周波数iのコントラスト、sはある視差におけるコントラストCiの劣化への影響度を表す係数、dispは視差、N(σ)は残差である。さらに、数式1の第1項は以下のように表すことができる。
数式2のコントラスト/空間周波数を表すCsfを固定して考えると、右辺の第1項(ΔIハットと称する)は、Csfにおけるクロストーク劣化量ΔIの視差遷移の統計値と解釈することができる。この性質を利用し、予めオフラインでクロストーク劣化量ΔIの視差遷移グラフを学習し、学習結果をリアルタイムの画像処理へ応用する。
図9は、クロストーク劣化量ΔIの視差遷移グラフの学習方法の例を示す模式図である。ここでは、学習方法を4つのステップに分けて説明する。学習の第1のステップでは、原画像Fのコントラスト/空間周波数を解析する。具体的には、N個の帯域通過型の画像フィルタを用いて、原画像FをN個の空間周波数ごとのコントラストマップに分解する。ここで、帯域通過型フィルタとしては、例えば、Gaborフィルタ、LOGフィルタなどの既存の帯域通過型の画像フィルタを用いることができる。これにより、N個のフィルタの出力として、空間周波数ごとにその成分がN個に分解され、コントラスト/空間周波数の関係を表すコントラストベクトルCsf=(C,C,...,CN−1)が画素毎に得られる。コントラストベクトルCsfの各成分(要素)は、空間周波数毎のコントラストを表している。
第2のステップとして、クロストーク劣化量ΔIのマップを種々の視差で生成する。具体的には、視点画像間の視差量(画素のずれ量)を変えながら多視点画像を生成し、クロストークモデルを用いて視差毎にクロストーク劣化量ΔIを求める。このステップでは、画像ごとにクロストーク劣化量ΔIマップを種々の視差に対して計算する。つまり、数式2の統計値ΔIハットを計算するための、サンプルデータを計算する。このサンプルデータ作成のためにのみ、図6のクロストークモデルを用いる。
第3のステップとして、クロストーク劣化量ΔIの視差遷移をデータベース化する。具体的には、クロストーク劣化量ΔIのコントラスト/空間周波数に対する依存性を利用し、コントラスト/空間周波数を表すCsfごとにクラス分けをし、クラスごとにクロストーク劣化量ΔIの視差遷移データを保持する。
一例として、図8で説明した左の人の顔(領域A1)と右の花の茎(領域A2)におけるクロストーク劣化量ΔIの比較を説明する。先に説明したように、図8の左の人の顔(領域A1)と右の花の茎(領域A2)はコントラストが同程度であるが、空間周波数の分布が異なる。空間周波数分布については、人の顔の空間周波数は低い帯域が支配的で、花の茎の空間周波数は高い周波数が支配的である。
図10に基づいて、上述した第1〜第3のステップについて具体的に説明する。図10は、学習データの解析結果(クラスごとのサンプルデータの平均)を示す特性図である。図10では、フィルタ数をN=4とし、同一コントラストでの比較のため、帯域通過型フィルタの応答を、支配的な空間周波数のコントラストを1として正規化し、各フィルタの応答の比率によってクラス分けをした例を示している。
図10に示す例では、4つのフィルタによって空間周波数毎にその成分が分解されたコントラストベクトルCsf=(C0,C1,C2,C3)=(r1cpd,r2cpd,r4cpd,r8cpd)が求められる(第1のステップ)。図10では、得られたコントラストベクトルの成分に応じて、人の顔の画像(領域A1)に多いクラスと、花の茎など細線の画像(領域A2)に多いクラスのそれぞれに該当するコントラストベクトルを示している。上述したように、人の顔の空間周波数は低い帯域が支配的で、花の茎の空間周波数は高い周波数が支配的である。従って、人の顔の画像に多いクラスに分類されたコントラストベクトルは、低い空間周波数の帯域に対応する成分が高い空間周波数の帯域に対応する成分よりも大きくなっている。また、花の茎など細線の画像に多いクラスに分類されたコントラストベクトルは、高い空間周波数の帯域に対応する成分が低い空間周波数の帯域に対応する成分よりも大きくなっている。
従って、コントラストベクトルの成分に基づいて画像のクラス分けを行うことができる。任意の画像にフィルタ処理を施すことで、当該任意の画像が、例えば人の顔(領域A1)の画像のクラスに属する画像であるか、花の茎(領域A2)の画像のクラスに属する画像か、あるいは他のクラスに属する画像であるかを判断することができる。
図10に示すように、人の顔の画像(領域A1)に多いクラスと、花の茎など細線の画像(領域A2)に多いクラスのそれぞれに該当するコントラストベクトルについて、視点画像間の視差量(画素のずれ量)を変えながら多視点画像を生成し、クロストークモデルを用いて視差毎にクロストーク劣化量ΔIを求める(第3のステップ)。これによって、図10に示すように、空間周波数の違いによるクロストーク劣化量ΔIの視差遷移グラフが、人の顔の画像(領域A1)に多いクラス(図10中に実線で示す)と、花の茎など細線の画像(領域A2)に多いクラス(図10中に破線で示す)のそれぞれについて作成される。2つの視差遷移グラフの比較を行うと、結果として、左の人の顔(領域A1)に多く分布するコントラスト/空間周波数のクラスではクロストーク劣化量ΔIの視差遷移が緩やかに増加傾向にあるのに対し、右の花の茎(領域A2)に多く分布するコントラスト/空間周波数のクラスではクロストーク劣化量ΔIの視差遷移が急激に増加する傾向にあることがわかる。これは、図8で説明した定性的な知見と一致する。
次に、第4のステップとして、第3のステップで得られたクラスごとのクロストーク劣化量ΔIの視差遷移データに対して最小二乗法等による回帰分析を行い、クロストーク劣化量ΔIの視差遷移を関数化する。回帰分析によって、クロストーク劣化量ΔIが視差/コントラスト/空間周波数の関数、すなわちΔIハットとして算出することができる。このステップでは、情報圧縮のため、クロストーク劣化量ΔIを視差/コントラスト/空間周波数を引数とした関数化を行う。図10の例では、左の人の顔(領域A1)に多く分布するコントラスト/空間周波数のクラスでは、視差(横軸)の増加量に対してクロストーク劣化量ΔI(縦軸)が緩やかに増加する関数(図10中に実線で示す)が得られる。また、右の花の茎(領域A2)に多く分布するコントラスト/空間周波数のクラスでは、視差(横軸)の増加量に対してクロストーク劣化量ΔI(縦軸)急激に増加する関数(図10中に破線で示す)が得られる。これにより、クロストーク劣化量ΔIは、以下の式により表すことができる。
ΔI=A(Cst)×disp
十分なデータ量のテーブルを保持できる場合であれば、クラスごとにクロストーク劣化量ΔIの平均値を計算し、関数ではなくデータのテーブルとして保持することもできる。また、関数化においては線形・非線形などの方式や、折れ線、定義域・値域の保持などのいずれの方法をとってもよい。
図9の右下に示すグラフは、第4のステップで得られたグラフを示している。なお、図9では、クロストーク劣化量ΔIと視差との関係を線形に関数化した例を示している。図9に示す例では、画像の種類に応じてクロストーク劣化量ΔIと視差との関係を示す特性の傾きが変化する。上述のように、人の顔(領域A1)に多く分布するクラスは傾きが小さい特性C1となり、花の茎(領域A2)に多く分布するクラスは傾きが大きい特性C2となる。以上の4つのステップにより、数式2に示すΔIハットを学習により計算することができる。
このように、学習により得られたΔIハットは、コントラストベクトルCsf毎に、視差とクロストーク劣化量ΔIとの関係を規定したデータベース(関数、又はテーブル等)として構築されることになる。
[4.3.ヒストグラムの平坦化と視差レイアウトの変換への応用]
次に、視差レイアウトを変換する技術(以降では、「視差拡大技術」と呼ぶ場合がある)について説明する。本開示の実施形態では、原画像の視差分布を示すヒストグラムを平坦化することで、入力視差(変換前)と出力視差(変換後)の関係を示すI/Oカーブ(換言すると、変換テーブル)を生成し、当該I/Oカーブに基づき視差レイアウトを変換する。そこで、まず、図11を参照しながら、コントラストの変換を例に、ヒストグラムの平坦化にについて説明する。
参照符号S101は、コントラストが変換される前の原画像と、当該原画像の階調値の分布を表現したヒストグラムを示している。変換前の原画像のヒストグラムが示すように、変換前の原画像の階調値は「0」側(即ち、暗い側)に偏っており、当該原画像も全体的に暗くかつコントラストが低くなっていることがわかる。
参照符号S103は、参照符号S101に示すような階調値が「0」側に偏ったヒストグラムを平坦化するためのI/Oカーブの一例を示している。参照符号S103の上側に示すI/Oカーブは、横軸(x軸)が原画(即ち、変換前)の階調値を示しており、縦軸(y軸)が処理画(即ち、変換後)の階調値を示している。参照符号S103に示すように、当該I/Oカーブは、変換前における低階調側の階調値が高階調側に変換されるような非線形曲線y=f(x)で示される。なお、y=xとした場合には変換前後で階調値が変わらない、即ち、変換を行わない場合を示している。
参照符号S103の上側に示すI/Oカーブは、例えば、参照符号S101に示したヒストグラムに基づき生成される。具体的には、当該ヒストグラムに示された階調値の頻度を階調の「0」側から「255」側に向けて走査しならが積算することで、参照符号S103の下側に示すような、階調値(横軸)と、当該階調値の累積頻度(縦軸)との関係を示すグラフが生成される。そして、生成されたグラフにおける階調値の累積頻度(即ち、縦軸)を「0」から「255」の階調値に正規化することで、上側に示されたI/Oカーブが生成される。
参照符号S105は、参照符号S103に示すI/Oカーブに基づき、参照符号S101に示す原画像の階調値を変換した結果として、変換後の原画像と、当該原画像の階調値の分布を表現したヒストグラムを示している。変換前と変換後との間で原画像のヒストグラムを比較するとわかるように、変換前において「0」側(即ち、暗い側)に偏っていた階調値が、変換後には偏りなく分布するように変換されている。これに伴い、変換後の原画像において、階調値の偏りが緩和され、コントラストが高くなっていることがわかる。
以上のようにして、原画像の変換前後において階調値のヒストグラムを平坦化することで、当該原画像のコントラストを補正することが可能となる。
本開示の実施形態に係る画像処理装置10では、上記に説明したヒストグラムの平坦化に係る処理を、原画像の視差分布を示すヒストグラムに適用することで、より視差が強調されるように、視差レイアウトの変換を行う。以下に、図12を参照しながら、本開示の実施形態に係る画像処理装置10における視差レイアウトの変換に係る処理の概要について説明する。
図12に示すように、本開示の実施形態に係る画像処理装置10では、原画像の視差分布を示すヒストグラムを入力として、主に4つのフェーズにより視差レイアウトを変換するための、入力視差(変換前)と出力視差(変換後)との関係を示すI/Oカーブを生成する。
まず、フェーズ1において、画像処理装置10は、左目用画像と右目用画像との間の視差(以降では、「LR視差」と呼ぶ場合がある)の分布を示すヒストグラムに基づき、LR視差のダイナミックレンジを算出する。なお、LR視差のヒストグラムは、例えば、原画像に対応した視差マップに基づき生成すればよい。なお、視差マップとは、原画像中の各画素の視差値(即ち、奥行き方向のどの位置を示しているかを示す値)の分布を示している。また、図12に示すヒストグラムは、横軸(x軸)が、ディスプレイの表示面の位置を「0」とした奥行き方向の位置を示し、縦軸(y軸)が頻度を示している。なお、以降の説明では、奥行き方向の視差値について、手前側を「+側」、奥側を「−側」として説明する場合がある。
次いで、フェーズ2において、画像処理装置10は、奥行き方向の位置に応じて重み付けを行い、当該重み付けに基づき視差分布を変換する。例えば、図12に示す例では、画像処理装置10は、視差範囲をcf0〜cf7の領域に分割し、奥側(−側)に位置する領域ほど視差分布が小さくなるように変換している。図12に示す例では、画像処理装置10は、ヒストグラム中のハッチが付されていない部分を除去することで、奥側(−側)に位置する領域ほど視差分布が小さくなるように、当該ヒストグラムを変換している。これにより、図12に示す例では、奥側(−側)の視差分布に対して、手前側(+側)の視差分布が相対的に大きくなる。
視差分布を変換した後、フェーズ3において、画像処理装置10は、視差レンジを変換する。例えば、図12に示す例では、画像処理装置10は、手前側(+側)に偏っていた視差分布が、ボケや二重像が発生しづらい±5[pix]の範囲に収まるように、ヒストグラムの視差レンジをゲイン倍することで変換している。
以上のようにして、画像処理装置10は、変換前後の視差分布のヒストグラムを生成する。画像処理装置10は、フェーズ4に示すように、当該変換前後のヒストグラムに示された視差値の頻度を、奥行き方向の最も奥側から手前側に向けて走査しならが積算することで、視差値と、当該視差値の累積頻度との関係を示すグラフを生成する。そして、画像処理装置10は、生成されたグラフにおける視差値の累積頻度を許容される視差レンジ内の視差値(例えば、±5[pix]の範囲内の視差値)に正規化することで、視差レイアウトを変換するためのI/Oカーブを生成する。
即ち、図12に例では、画像処理装置10は、視差のダイナミックレンジ内において、参照符号g12で示すように奥行き方向の手前側(即ち、前景側)の視差変化が強調されるように、I/Oカーブを生成する。また、図12に示す例では、画像処理装置10は、視差のダイナミックレンジ外においては、I/Oカーブをクリッピングすることで、変換後の視差値の分布を±5[pix]の範囲内に収めている。
図13は、上述した視差レイアウトの変換に係る処理の処理結果の一例を示している。図13に示す変換前の原画像は、左上に示した変換前におけるLR画像の視差マップに示すように、視差が−43[pix]から−28[pix]の範囲に分布している。このような原画像及び視差マップに基づき生成される視差レイアウトを変換するためのI/Oカーブを図面の左下に示す。
図面左下のI/Oカーブにおいて、横軸は、LR画像の視差、即ち、変換前の視差マップにおける視差を示している。また、縦軸は、ディスプレイに表示する視差、即ち、変換後の視差マップにおける視差を示している。
図面左下のI/Oカーブが示す例では、変換前のLR画像の視差マップにおける視差のダイナックレンジ内、即ち、−43[pix]から−28[pix]の範囲の視差が、±5[pix]の範囲に変換されるように生成されている。
このときの視差変化の関係を模式的に示したI/Oカーブを、図面の右上に示す。図面右上のI/Oカーブの参照符号g14に示すように、当該I/Oカーブを定義することで、奥行き方向の手前側(即ち、前景側)が強調され、結果として、前後関係が強調されるため立体感が向上する。このような視差変化の関係が、図面左下のI/Oカーブにおいても、LR画像の視差レンジの範囲内に示されている。
以上のようにして、左下に示すI/Oカーブに基づき変換された視差マップを、図13の右下に示す。当該視差マップに示すように、変換後の視差マップでは、視差のダイナミックレンジが±5の範囲内に収められている。また、視差マップにおいて、各視差を示す領域間のコントラストが向上していることから、前後関係が強調されていることがわかる。
以上、本実施形態に係る画像処理装置10における視差制御に係る処理の原理について説明した。
<5.第1の実施形態>
次に、第1の実施形態に係る画像処理装置10について、図14を参照しながら説明する。図14は、本実施形態に係る画像処理装置10の機能構成の一例を示したブロック図である。
図14に示すように、本実施形態に係る画像処理装置10は、画像解析部102と、最大視差量推定部104と、最大視差レンジ決定部106と、視差レイアウト変換部120と、最大位相差推定部130と、位相差決定部132とを含む。
画像解析部102は、表示装置20に表示させる各視点画像の生成元である原画像を外部から取得する。なお、前述したとおり、画像解析部102は、放送として配信された原画像を、アンテナ30を介して受信してもよいし、外部メディアに記録された原画像を当該外部メディアから読み出してもよい。例えば、図15は、取得される原画像の一例を示している。
画像解析部102は、N個の帯域通過型フィルタによって原画像v10をフィルタリングし、N個の空間周波数ごとのコントラストCsf=(C,C,...,CN−1)を画素毎に得る。なお、このフィルタリングは、前述したクロストーク劣化量ΔIの視差遷移グラフの学習時と同様に行われる。画像解析部102は、画素毎に得られたN種類の空間周波数ごとのコントラストCsf=(C,C,...,CN−1)、即ち、N種類の空間周波数ごとのコントラストの分布(空間周波数マップ)を示す情報を最大視差量推定部104に出力する。
最大視差量推定部104は、N種類の空間周波数ごとのコントラストの分布を示す情報を画像解析部102から取得する。最大視差量推定部104は、N種類の空間周波数ごとのコントラストCsf=(C,C,...,CN−1)からクラス分類をし、学習データ(図示しないデータベース)の中から該当するクラスのクロストーク劣化量ΔIの視差遷移の関数、あるいはテーブルを画素毎に得る。
最大視差量推定部104は、取得したクロストーク劣化量ΔIの視差遷移の関数若しくはテーブルに対し、クロストーク劣化量ΔIの知覚の閾値Thを設定する。そして、最大視差量推定部104は、画素毎に、クロストーク劣化量ΔIが知覚の閾値Thに達する視差は何ピクセルに相当するか、を算出する。具体的には、最大視差量推定部104は、関数またはテーブルのクロストーク劣化量ΔIに対して閾値Thを入力し、関数の場合は逆関数、テーブルの場合は対応する視差を探索し、対応する視差量を求める。ここで、クロストーク劣化量ΔIは輝度で表されるため、劣化知覚の閾値Thは、光学的に測定される輝度によって設定される。
さらに、より人の知覚の特性を反映するため、人の視覚特性(コントラスト感度(CSF)、Just Noticeable Difference(JND))を考慮し、画素毎に劣化知覚の閾値Thを適応的に決定することもできる。これにより、空間周波数の違いを考慮して閾値Thを設定することが可能となる。
図16は、視覚特性JNDと輝度との関係を示す特性図である。図16に示すように、人間の知覚は、輝度変化を、物理量通りに知覚せず、対数関数型の知覚をすることが知られている。具体的には、輝度が比較的の暗い領域では、輝度の物理量(cd/m)に増加に対して人の視覚特性は緩やかに上昇する。また、輝度が比較的明るい領域では、輝度の物理量(cd/m)に増加に対して人の視覚特性は暗い領域よりも急峻に上昇する。この適応的な閾値をadaThとおくと、adaThは次式で求められる。なお、画素毎に閾値Thを決定するのは、画素毎に空間周波数が異なるためである。
ここで、Yaveはある画素の周辺の照明輝度であり、画像をガウシアンフィルタなどの平滑化フィルタでフィルタリングすることによって求めることができる。数式3は、劣化知覚の適応的な閾値adaThが、コントラスト/空間周波数Csf、画素の周辺の照明輝度Yave、劣化知覚の固定閾値Th(定数)によって計算できることを定性的に意味する。なお、固定閾値Thは、一例として30cd/mとすることができる。
さらに、数式3は、例えば、次の数式4のように計算することができる。
数式4は、劣化知覚の適応的な閾値adaThは、定数項Thと、画素の周辺の照明輝度Yaveによって変動する知覚ゲインJNDと、画像の持つ空間周波数毎のコントラストCSFによって変動する知覚ゲインとの積算によって求められることを定性的に意味する。
更に、モーションブラーなど、物体の動き情報によって、コントラスト感度が変化することも知られている。図17は、空間周波数、画像中の物体の動き、及びコントラスト感度の関係を示す特性図である。図17の輝度刺激に対するモデルに示すように、物体の動きが大きくなるほど、コントラスト感度は増加する。すなわち、物体の動きが速くなると、ボケ・二重像は認識されにくくなる。
また、図17に示すように、空間周波数が高すぎると、コントラスト感度を知覚しにくくなる。このため、空間周波数が高い場合は、輝度変化を知覚する閾値をより大きくすることができる。また、動きが速いとコントラスト感度を知覚しにくくなる。このため、動きが速い場合は輝度変化を知覚する閾値をより大きくすることができる。この場合、数式4のコントラスト感度関数(CSF)の引数に動き情報を加え、コントラスト/空間周波数の知覚ゲインを変化させることができる。
以上のように、劣化知覚の輝度閾値ThまたはadaThが求まると、関数の場合は逆関数、テーブルの場合は対応する視差を探索し、閾値に対応する視差量が求まる。なお、前述した処理によりクロストーク劣化量ΔIの視差遷移の関数が得られている場合、閾値に対応する視差量として、劣化が知覚されない最大の視差量max_dspxが画素毎に求まる。テーブルの場合も同様に、劣化が知覚されない最大の視差量max_dspxを画素毎に求めることが可能である。
最大視差量推定部104は、画素毎に求めた最大の視差量max_dspx、即ち、最大視差量の分布を示す最大視差量マップを、最大視差レンジ決定部106と、最大位相差推定部130とに出力する。
最大視差レンジ決定部106は、原画像中の各画素に対して設定された、異なる視点画像間(例えば、左目用画像と右目用画像との間)の視差の分布を示す視差マップを取得する。このとき、視差マップは、原画像と同様に外部から取得されたものでもよいし、原画像に対して解析処理が施されることで生成されたものでもよい。なお、視差マップの生成は、画像処理装置10自体が原画像に基づき行ってもよい。例えば、図18は、図15に示した原画像v10に基づく視差マップの一例を示している。また、原画像及び視差マップを取得する構成が、「取得部」の一例に相当する。
また、最大視差レンジ決定部106は、最大視差量マップを、最大視差量推定部104から取得する。
最大視差レンジ決定部106は、取得した視差マップを基に、原画像中の手前側(前景側)の領域を示す前方ROIと、奥側(後景側)の領域を示す後方ROIを特定する。具体的には、最大視差レンジ決定部106は、取得した視差マップに基づく視差の分布を示すヒストグラムを解析することで、前方ROI及び後方ROIを特定する。例えば、図19は、取得した視差マップに基づく視差の分布を示したヒストグラムの一例である。なお、視差の分布を示すヒストグラムは、例えば、視差値ごとの視差マップ中における、各視差値が関連付けられた画素の数に基づき算出することが可能である。
最大視差レンジ決定部106は、ヒストグラムに基づきLR視差のダイナミックレンジ(即ち、LR視差レンジ)を特定する。このとき、最大視差レンジ決定部106は、例えば、当該ヒストグラムにおける最も手前側(+側)の値と最も奥側(−側)の値とで示される範囲を、LR視差のダイナミックレンジとして特定してもよい。また、他の一例として、最大視差レンジ決定部106は、LR視差のダイナミックレンジの各端部を特定する場合に、マージンを設けてもよい。具体的には、最大視差レンジ決定部106は、ヒストグラムの最も手前側(+側)から視差値の頻度を積算し、積算値があらかじめ決められた閾値を超える視差値を、LR視差のダイナミックレンジにおける手前側(+側)の端部として特定してもよい。同様に、最大視差レンジ決定部106は、ヒストグラムの最も奥側(−側)から視差値の頻度を積算し、積算値が当該閾値を超える視差値を、LR視差のダイナミックレンジにおける奥側(−側)の端部として特定してもよい。
次いで、最大視差レンジ決定部106は、特定したダイナミックレンジの手前側(+側)から視差値の頻度を積算し、当該積算値をあらかじめ決められた閾値と比較することで、積算値が当該閾値以下となる視差の範囲g22を前方ROIとして特定する。同様に、最大視差レンジ決定部106は、特定したダイナミックレンジの奥側(−側)から視差値の頻度を積算し、当該積算値をあらかじめ決められた閾値と比較することで、積算値が当該閾値以下となる視差の範囲g24を後方ROIとして特定する。
例えば、図20は、図15に示した原画像v10と、図18に示した視差マップv20とに基づき決定される、原画像v10中における前方ROI及び後方ROIの一例を示している。例えば、領域v32は、前方ROIを示しており、領域v34a及びv34bは、後方ROIを示している。
次に、最大視差レンジ決定部106は、特定した前方ROI及び後方ROIと、取得した最大視差量マップとに基づき、前方ROI及び後方ROIそれぞれにおける最大の視差量を算出する。このとき、最大視差レンジ決定部106は、各領域における最大視差量の頻度を、最大視差量の小さい側から積算し、積算値があらかじめ決められた閾値と比較し、当該閾値を超えたときの最大視差量を、当該領域における最大視差量として特定する。
例えば、図21Aは、後方ROIにおける、最大視差量と、当該最大視差量の頻度との関係を示したヒストグラムである。図21Aにおいて、横軸は最大視差量[pix]を示しており、縦軸は頻度を示している。なお、図21Aに示すようなヒストグラムは、例えば、最大視差量マップ中の後方ROIに相当する領域中における、各最大視差量が関連付けられた画素の数に基づき算出することが可能である。
最大視差レンジ決定部106は、図21Aに示すような最大視差量のヒストグラムに基づき、最大視差量が小さい側から大きい側に向けて頻度を積算し、積算値をあらかじめ決められた閾値と比較する。そして、最大視差レンジ決定部106は、積算値が閾値を超える直前の最大視差量を、後方ROIにおける最大視差量として特定する。
例えば、図21Aに示す例では、最大視差量がより高い程、頻度が高くなるような状態を示しており、ハッチが付された範囲は、頻度の積算値が閾値を超えない範囲を示している。この場合には、参照符号g32で示す値を超える場合に、頻度の積算値が閾値を超えるため、最大視差レンジ決定部106は、参照符号g32で示された最大視差量3.0[pix]を、後方ROIの最大視差量として特定する。
このような閾値処理により、最大視差レンジ決定部106は、後方ROIにおいて、劣化が知覚される頻度、換言すると、後方ROI中において劣化が知覚される領域の割合を、所定値以下に抑えることが可能な最大視差量を特定する。即ち、後方ROIにおいては、特定された3.0[pix]まで視差を付けても、劣化が知覚される頻度を所定値以下に抑えることが可能となる。
前方ROIについても同様である。例えば、図21Bは、前方ROIにおける、最大視差量と、当該最大視差量の頻度との関係を示したヒストグラムである。図21Bにおける横軸及び縦軸は、図21Aと同様である。
最大視差レンジ決定部106は、図21Bに示すような最大視差量のヒストグラムに基づき、最大視差量が小さい側から大きい側に向けて頻度を積算し、積算値をあらかじめ決められた閾値と比較することで、前方ROIにおける最大視差量を特定する。
例えば、図21Bに示す例では、最大視差量がより低い側で頻度が高くなる状態を示しており、ハッチが付された範囲は、頻度の積算値が閾値を超えない範囲を示している。この場合には、参照符号g32で示す値を超える場合に、頻度の積算値が閾値を超えるため、最大視差レンジ決定部106は、参照符号g32で示された最大視差量1.0[pix]を、前方ROIの最大視差量として特定する。
このように、図21Bに示す例では、最大視差量が低い側で頻度が高いため、図21Aに示した例よりも最大視差量が低い値、即ち、参照符号g32で示された最大視差量1.0[pix]の時点で、積算値が閾値を超えることとなる。即ち、後方ROIにおいては、3.0[pix]まで視差を付けることが可能であるのに対して、図21Bに示す例は、前方ROIについては1.0[pix]を超えて視差を付けると、劣化が知覚される頻度を所定値以下に抑えることが困難であることを示している。
図21Cは、最大視差量マップの一例を示している。図21Cに示す例では、最大視差量マップv40中に、前述した処理により特定した前方ROIv32及び後方ROIv34a及びv34bが模式的に示されている。
例えば、図21Cに示す例では、前方ROIv32に対応する最大の視差量は1.0[pix]である。そのため、最大視差レンジ決定部106は、前方ROIに対する最大の視差量を、手前側(+側)の最大視差dispMax=+1.0[pix]を特定する。同様に、図21Cに示す例では、後方ROIv34a及び34bに対応する最大の視差量は3.0[pix]である。そのため、最大視差レンジ決定部106は、後方ROIに対する最大の視差量を、奥側(−側)の最大視差dispMin=−3.0[pix]として特定する。
以上のようにして、最大視差レンジ決定部106は、手前側(+側)の最大視差dispMaxと奥側(−側)の最大視差dispMinとで定義される最大視差レンジを特定する。即ち、図21Cの場合には、−3.0[pix]から+1.0[pix]の範囲が最大視差レンジとして特定されることとなる。
最大視差レンジ決定部106は、特定した最大視差レンジ、即ち、手前側(+側)の最大視差dispMaxと奥側(−側)の最大視差dispMinとを示す情報を視差レイアウト変換部120に出力する。
次に、視差レイアウト変換部120の詳細について、図22を参照しながら説明する。図22は、視差レイアウト変換部120の機能構成の一例を示したブロック図である。図22に示すように、視差レイアウト変換部120は、視差分布解析部122と、変換データ生成部124と、変換処理部126とを含む。
視差レイアウト変換部120は、視差マップを取得する。なお、このとき取得される視差マップは、最大視差レンジ決定部106が取得する視差マップと同様である。取得された視差マップは、視差分布解析部122と、変換処理部126とに出力される。
視差分布解析部122は、取得した視差マップに基づき視差の分布を示すヒストグラムを生成する。なお、視差分布解析部122は、視差マップに替えて最大視差レンジ決定部106が生成した当該ヒストグラムを、当該最大視差レンジ決定部106から取得してもよい。これより、図19に示すような、視差の分布を示すヒストグラムが生成される。視差分布解析部122は、生成したヒストグラムを変換データ生成部124に出力する。なお、最大視差レンジ決定部106が、「視差レンジ決定部」の一例に相当する。
変換データ生成部124は、視差分布解析部122から、視差の分布を示すヒストグラムを取得する。また、変換データ生成部124は、最大視差レンジ決定部106から、最大視差レンジ、即ち、手前側(+側)の最大視差dispMaxと奥側(−側)の最大視差dispMinとを示す情報を取得する。
変換データ生成部124は、「4.3.ヒストグラムの平坦化と視差レイアウトの変換への応用」にて前述したように、取得したヒストグラムから視差レイアウトを変換するためのI/Oカーブを生成する。これにより、変換前の視差マップ中における視差の分布を平坦化するためのI/Oカーブが生成される。例えば、図23は、生成されるI/Oカーブの一例を示している。
なお、このとき、変換データ生成部124は、出力視差のダイナミックレンジを、許容される視差レンジ、即ち、最大視差レンジ決定部106から取得した最大視差レンジに設定する。例えば、図21Cに示す例に基づき最大視差レンジが決定されている場合には、変換データ生成部124は、出力視差(変換後)のダイナミックレンジを−3.0[pix]から+1.0[pix]の範囲に設定する。
変換データ生成部124は、生成した視差レイアウトを変換するためのI/Oカーブを変換処理部126に出力する。
変換処理部126は、取得した視差マップ中の各視差を、変換データ生成部124から出力されたI/Oカーブに基づき変換する。これにより、変換処理部126は、取得した視差マップを、視差のダイナミックレンジが−3.0[pix]から+1.0[pix]の範囲に収められ、かつ、視差の分布が平坦化された視差マップに変換する。
変換処理部126は、変換後の視差マップを、最大位相差推定部130と、視点画像を生成するための構成(例えば、他の画像処理部や、表示装置20)とに出力する。
次に、最大位相差推定部130及び位相差決定部132の動作について説明する。まず、図24〜図26を参照しながら、最大位相差推定部130及び位相差決定部132の動作の概要について説明する。
視差レイアウト変換部120の動作として示したように、視差レイアウト変換部120により変換された視差マップは、前方ROIの最大の視差量と、後方ROIの最大の視差量とに基づき視差レンジが決定されるように視差レイアウトが変換されている。しかしながら、ボケや二重像が発生しやすいオブジェクトは必ずしも最手前(前方ROI)または最奥(後方ROI)に位置するとは限らない。例えば、視差レンジ内の中間レイヤにおける最大の視差量が、最手前や最奥における最大の視差量よりも大きい場合には、当該中間レイヤにおいてボケや二重像が発生する場合がある。
例えば、図24は、中間レイヤにおける最大の視差量が、最手前や最奥の最大の視差量よりも大きくなる場合の原画像の一例を示している。また、図25は、図24に示した原画像v50に対応した視差マップの一例を示している。また、図26は、図24に示した原画像v50の最大視差量マップの一例を示している。
図24に示した原画像v50において、領域v52で示された部分は、原画像v50中の他の領域に比べて空間周波数が高い領域を示している。そのため、図26に示した最大視差量マップv70では、領域v52において最大の視差量が他の領域に比べて高くなっていることがわかる。一方で、図25に示した視差マップv60を参照するとわかるように、領域v52で示された部分は、中間レイヤに相当する。このような原画像v50が処理対象の場合には、前方ROI及び後方ROIそれぞれの最大の視差量を基に視差レンジを決定して視差レイアウトを変換したとしても、中間レイヤ(例えば、領域v52)においてボケや二重像が発生する可能性がある。
そこで、最大位相差推定部130及び位相差決定部132は、視差の制御に際し、視点画像の位相差の概念を導入する。例えば、LRのステレオ画像において、L画像の位相を0.0、R画像の位相を1.0と定義する。このように位相の概念を導入すれば、表示する視点画像に対して、物体の前後関係を保ちつつ、劣化が知覚されない最大の視差量(位相差)を決定することができる。
以下に、図14を参照しながら、最大位相差推定部130及び位相差決定部132の具体的な動作について説明する。
最大位相差推定部130は、最大視差量推定部104から、最大の視差量max_dspxの分布を示す最大視差量マップを取得する。また、最大位相差推定部130は、視差レイアウト変換部120から、視差レイアウトが変換された視差マップを取得する。
最大位相差推定部130は、取得した視差マップと最大視差量マップとに基づき、最大視差量マップ中の各画素の最大の視差量max_dspxを、劣化が知覚されない最大の位相差max_phaseに変換する。具体的には、最大位相差推定部130は、最大の視差量max_dspxから最大の位相差max_phaseへの変換を、以下に示す数式5に基づき実行する。
ただし、数式5において、lr_dspxはLR画像の視差、clip_phaseは外部から設定された最大の位相差である。つまり、劣化が知覚されない最大の位相差max_phaseの値域は、0≦max_phase≦clip_phaseとなる。最大の位相差max_phaseは、第3のステップで求めたmax_dspxを左右(LR)画像の視差で除算した値となる。これにより、視差max_dspxが左右画像の位相差max_phaseに変換され、物体の前後関係が考慮される。LR画像の視差lr_dspxは、入力画像の各画素における左右の視差の値であり、取得された視差マップに基づき規定される。
なお、この例では、LR画像から多視点画像を生成するシステムを想定しているが、画像+デプスマップなどの他の方法においても、デプスマップから視点画像生成する際に投影するずれ量(視差)に変換することで、同様に計算できる。これにより、画素毎の限界隣接視点間視差マップを3D画像の隣接視点間位相差マップ(phase map:どこまで位相差をつけられるかのマップ)に変換することができる。
以上のようにして、最大位相差推定部130は、劣化が知覚されない最大の位相差を画素毎に算出する。最大位相差推定部130は、画素毎の最大の位相差、即ち、最大位相差マップを位相差決定部132に出力する。
位相差決定部132は、最大位相差推定部130から、劣化が知覚されない最大の位相差のマップ、即ち、最大位相差マップを取得する。位相差決定部132は、取得した最大位相差マップに基づき、劣化が知覚される画素数が一定の数以下(例えば画像全体の画素数の1%など)に収まるような視差を決定する。
図27は、位相差決定部132が、実際に表示する視点画像の位相差を決定する方法の一例を示している。図27に示すように、位相差決定部132は、取得した最大位相差マップにおける各画素の値に対して、各max_phase値の出現頻度をヒストグラムとして集計する。次に、位相差決定部132は、ヒストグラムのmax_phase値が小さい頻度から順に累積和を計算していく。位相差決定部132は、累積和が閾値CutThを超えた位相差を、実際に表示する視点画像の位相差opt_phaseとして決定する。
例えば、図8の人の顔(領域A1)と花の茎(領域A2)の例において、CutTh=(全画素数)×1%と数値を設定した場合で説明する。ヒストグラムの累積を計算していくと、累積和が閾値CutThを超える位相差が0.100程度になる。このとき、花の茎は画質劣化が知覚される最大の位相差に相当する視差をつけたことになり、その他の99%の領域においても画質の劣化が知覚されない。つまり、画像全体としては画質劣化が知覚されない最大の位相差を表示していることとなり、ディスプレイの視差表示性能を充分に発揮することができる。
以上のようにして、位相差決定部132は、取得した最大位相差マップに基づき、実際に表示する視点画像の位相差opt_phaseを決定する。位相差決定部132は、決定した位相差opt_phaseを、視点画像を生成するための構成(例えば、他の画像処理部や、表示装置20)に出力する。なお、当該視点画像を生成するための構成は、位相差決定部132から取得した位相差opt_phaseに基づき、各仮想視点間の位置を決定すればよい。
以上、説明したように、本実施形態に係る画像処理装置10は、原画像中の空間周波数ごとのコントラストに基づき画素毎の最大視差量を推定し、推定した画素毎の最大視差量に基づき最大視差レンジを決定する。そして、画像処理装置10は、視差マップ中の各視差が、推定した最大視差レンジに収まるように視差レイアウトを変換する。このような構成により、表示装置20の表示面に対して手前側(+側)及び奥側(−側)のいずれかに視差が偏っている場合においても、ボケや二重像が発生しない範囲内において視差レンジを有効に活用することが可能となる。
また、本実施形態に係る画像処理装置10は、推定した画素毎の最大視差量に基づき、劣化が知覚される画素数が一定の数以下に収まるような視点画像の位相差を決定する。このような構成により、画像処理装置10は、例えば、ボケや二重像が発生しやすいオブジェクトが視差レンジ内の中間レイヤに存在する場合においても、当該中間レイヤにおけるボケや二重増の発生を抑制することが可能となる。
このように、本実施形態に係る画像処理装置10に依れば、視差の範囲とクロストークによる画質劣化との関係を正確に見積もることが可能であるため、ボケや二重像の発生が抑制される範囲内において、視差レンジを最大限に有効活用することが可能となる。
<6.第2の実施形態>
次に、第2の実施形態に係る画像処理装置10aについて、図28を参照しながら説明する。図28は、本実施形態に係る画像処理装置10aの機能構成の一例を示したブロック図である。
図28に示すように、本実施形態に係る画像処理装置10aは、最大位相差推定部130と、位相差決定部132とを含まない点で、前述した第1の実施形態に係る画像処理装置10と異なる。なお、その他の構成については、第1の実施形態に係る画像処理装置10と同様である。
このように、最大位相差推定部130と、位相差決定部132とを設けないことで、位相差の変換を行わずに、視差マップに対する視差レイアウトの変換のみを行う構成としてもよい。なお、この場合には、位相差をあらかじめ決められた値(例えば、1.0)として扱えばよい。
このような構成により、本実施形態に係る画像処理装置10aは、中間レイヤに発生するボケや二重像の抑制効果は、第1の実施形態に係る画像処理装置10に比べて弱いものの、当該画像処理装置10に比べて構成や処理を簡略化することが可能となる。
<7.第3の実施形態>
次に、第3の実施形態に係る画像処理装置10bについて、図29を参照しながら説明する。図29は、本実施形態に係る画像処理装置10bの機能構成の一例を示したブロック図である。
前述した各実施形態に係る画像処理装置では、最大視差レンジ決定部106は、最大視差量推定部104により推定された最大視差量の分布(即ち、最大視差量マップ)に基づき、最大視差レンジを決定していた。これに対して、本実施形態に係る画像処理装置10bは、例えば、原画像中におけるエッジや空間周波数等のような画像特徴量に基づき、最大視差レンジを決定する。そこで、本説明では、前述した各実施形態と動作の異なる最大視差レンジ決定部106に着目して説明し、その他の構成については詳細な説明は省略する。
図29に示すように、最大視差レンジ決定部106は、原画像中の画素毎の画像特徴量の分布を示す簡易特徴データを取得する。例えば、最大視差レンジ決定部106は、画像解析部102が原画像を基に生成したN種類の空間周波数ごとのコントラストの分布を、簡易特徴データとして取得してもよい。また、他の一例として、最大視差レンジ決定部106は、原画像に対して画像解析を施すことで得られる原画像中のエッジの分布を、簡易特徴データとして取得してもよい。なお、簡易特徴データの取得元は特に限定されない。例えば、最大視差レンジ決定部106が、原画像を画像解析することで簡易特徴データを生成してもよいし、画像処理装置10bの他の構成(例えば、画像解析部102)が簡易特徴データを生成してもよい。
このようにして得られた簡易特徴データからは、原画像中の各領域における最大視差量の相対値(比率)を算出することが可能である。本実施形態に係る最大視差レンジ決定部106は、このような特徴を利用して、前方ROI及び後方ROIとの間の最大視差量の比率を算出する。
ここで、原画像中のエッジの分布に基づき、前方ROI及び後方ROIとの間の最大視差量の比率を算出する場合の例について、以下に説明する。
最大視差レンジ決定部106は、原画像に対する画像解析の結果として取得したエッジの分布に基づき各画素におけるエッジの強度を特定する。このとき、最大視差レンジ決定部106は、隣接画素に対して階調値の変化が急激な画素ほどエッジ強度を高く設定し、階調値の変化が緩やかな画素ほどエッジ強度を低く設定する。
そして、最大視差レンジ決定部106は、画素ごとに特定したエッジの強度に基づき、前方ROI及び後方ROIのそれぞれについて、エッジ強度の頻度を示したヒストグラムを生成する。このとき、例えば、図21A及び図21Bに示した、最大視差量のヒストグラムにおいて、横軸に示した最大視差量を、エッジ強度に置き換えたものが、当該エッジ強度の頻度を示したヒストグラムに相当する。
そして、最大視差レンジ決定部106は、エッジ強度の頻度を示したヒストグラムに基づき、エッジ強度が高いほど最大視差量が高いものとして、エッジ強度を最大視差量に置き換えることで、前方ROI及び後方ROIそれぞれに対応する最大視差量を算出する。なお、エッジ強度と最大視差量との間の置き換えに係る関係式は、例えば、最大視差レンジ決定部106が読み出し可能な位置(例えば、データベースとして)、あらかじめ記憶させておけばよい。また、ヒストグラムに基づき、前方ROI及び後方ROIそれぞれに対応する最大視差量を特定する方法は、図21A及び図21Bに基づき前述した方法と同様である。
なお、このとき算出される最大視差量は、エッジ強度に基づく各画素間における最大視差量の相対値を示しており、前述したクロストークのモデル式に基づき算出される最大視差量とは厳密には異なる。そのため、ここで算出される前方ROI及び後方ROIそれぞれに対応する最大視差量は、前方ROIと後方ROIとの間の最大視差量の比率を示していることとなる。
最大視差レンジ決定部106は、算出した前方ROIと後方ROIとの間の最大視差量の比率と、ボケや二重像が発生しづらい視差の範囲とに基づき、手前側(+側)の最大視差dispMaxと、奥側(−側)の最大視差dispMinとを算出する。
なお、以降の処理は、前述した各実施形態に係る画像処理装置と同様である。即ち、最大視差レンジ決定部106は、手前側(+側)の最大視差dispMaxと奥側(−側)の最大視差dispMinとを示す情報、即ち、最大視差レンジを、視差レイアウト変換部120に出力する。視差レイアウト変換部120は、最大視差レンジ決定部106から取得した最大視差レンジに基づき、外部から取得した視差マップ(変換前の視差マップ)の視差レイアウトを変換すればよい。
また、上記では、原画像中のエッジの分布に基づき、前方ROI及び後方ROIとの間の最大視差量の比率を算出する例について説明したが、N種類の空間周波数ごとのコントラストの分布の場合についても同様である。即ち、原画像に基づく各分布中の各画素の画素値(例えば、エッジ強度や空間周波数)を、最大視差量の相対値に置き換え、当該最大視差量の相対値に基づき、前方ROI及び後方ROIとの間の最大視差量の比率を算出すればよい。
以上説明したように、本実施形態に係る画像処理装置10bは、原画像中の画素毎の画像特徴量の分布を示す簡易特徴データに基づき最大視差レンジを算出する。このような構成により、本実施形態に係る画像処理装置10bは、最大視差レンジの算出のために必ずしも最大視差量マップを算出する必要がなくなるため、前述した各実施形態に係る画像処理装置に比べて、一部の構成を簡略化することが可能となる。なお、上記では、前述の第1の実施形態に係る画像処理装置10をベースに、最大視差レンジ決定部106の処理を置き換えた場合を例に説明したが、第2の実施形態に係る画像処理装置10aをベースとしてもよいことは言うまでもない。
<8.変形例>
[8.1.変形例1]
次に、変形例1として、前述した各実施形態に係る画像処理装置の変形例について説明する。前述した各実施形態に係る画像処理装置では、視差レイアウト変換部120は、視差の分布を示すヒストグラムが平坦化されるようにI/Oカーブを生成していた。これに対して、変形例1では、視差レイアウト変換部120は、最大視差量推定部104により推定された最大視差量の分布(最大視差量マップ)に基づき、ボケや二重増の発生がより抑制されるように当該I/Oカーブを生成する。
そこで、変形例1に係る画像処理装置の動作について、図30を参照しながら、特に、前述した各実施形態に係る画像処理装置と異なる最大視差レンジ決定部106及び視差レイアウト変換部120の動作に着目して説明する。図30は、変形例1に係る画像処理装置の動作について説明するための説明図である。
まず、ステップS301に示すように、最大視差レンジ決定部106は、最大視差量推定部104により推定された最大視差量マップと、外部から取得した視差マップとに基づき、前方ROI及び後方ROIそれぞれにおける最大視差量を特定する。そして、最大視差レンジ決定部106は、特定した前方ROI及び後方ROIそれぞれの最大視差量に基づく最大視差レンジを視差レイアウト変換部120に出力する。なお、本動作は、前述した第1の実施形態に係る画像処理装置10と同様である。
また、最大視差レンジ決定部106は、取得した最大視差量マップを視差レイアウト変換部120に出力する。
次いで、ステップS303に示すように、視差レイアウト変換部120は外部から取得した視差マップに基づき、視差の分布を示すヒストグラムを生成する。そして、視差レイアウト変換部120は、生成した視差のヒストグラムを、LR視差レンジの範囲内で奥行き方向に沿って複数の領域に分割する。図28に示す例では、視差レイアウト変換部120は、領域0〜Mに分割している。
次に、視差レイアウト変換部120は、取得した最大視差量マップに基づき、領域0〜Mそれぞれについて、最大視差量の代表値を特定する。なお、領域ごとの最大視差量の代表値は、当該領域中における各視差量の最大値であってもよいし、中央値や平均値であってもよい。
そして、視差レイアウト変換部120は、領域0〜Mそれぞれを、当該領域における最大視差量の代表値に基づき重み付けを行う。例えば、図30に示す例では、視差レイアウト変換部120は、領域0〜Mそれぞれに対する重みとして、重みw0,w1,…,wMを算出している。なお、j番目の領域の重みをwjとした場合に、0<wj<1となるように、視差レイアウト変換部120は、各重みw0,w1,…,wMを算出する。
次に、視差レイアウト変換部120は、各領域に対して算出した重みw0,w1,…,wMに基づき、ステップS305に示すように、各領域の視差を0に近づけるように、視差を変換するためのI/Oカーブを生成する。例えば、図30の参照符号S305に示すI/Oカーブでは、参照符号g42で示すように、重みwjが大きい領域ほど、即ち、最大視差量が大きい領域ほど、視差値が小さくなるように(0に近づくように)変換する。
そして、視差レイアウト変換部120は、生成したI/Oカーブに基づき、外部から取得した視差マップ(即ち、変換前の視差マップ)における視差レイアウトを変換する。
このように、変形例1に係る画像処理装置10は、奥行き方向に沿って分割された複数の領域に対して、最大視差量の分布に基づき重み付けを行い、当該重み付けに基づき、当該領域ごとに視差がより0に近づくように視差マップを変換する。このような構成により、変形例1に係る画像処理装置10は、奥行き方向に沿った領域のうち、ボケや二重増の発生しやすいオブジェクトが存在する領域ほど視差が抑制されるように、視差マップを変換することが可能となる。
なお、上記に最大視差量の分布に基づく領域間の重み付けの例はあくまで一例であり、視差を軽減するための重み付けの判断基準は、画像処理装置10や表示装置20の用途や適用シーンに応じて適宜変更してもよい。具体的な一例として、変形例2として後述する視聴者の注目度に基づき、注目度の高い領域ほど視差が軽減されるように重み付けを行ってもよい。
[8.2.変形例2]
次に、変形例2に係る画像処理装置について説明する。変形例1では、原画像を複数の領域に分割し当該領域ごとに視差変換時の重み付けを行う例として、最大視差量に基づく重み付けの一例を示した。変形例2では、視差変換時における領域ごとの重み付けの一例として、視聴者の注目度が高い領域ほど、視差が強調されるように重み付けを行う場合の例について説明する。なお、以降では、前述した第1の実施形態に係る画像処理装置10と異なる視差レイアウト変換部120の動作に着目して説明し、その他の構成については詳細な説明を省略する。
変形例2に係る視差レイアウト変換部120は、外部から原画像を取得し、取得した原画像のコントラスト、輝度レベル、色あい(RGB)、エッジ強度やエッジの方向などの画像特徴量に基づいて、当該原画像の注目度マップを生成する。注目度マップは、入力画像の各画素に対して視聴者による注目度を示す情報を付加したものである。
例えば、視差レイアウト変換部120は、画像のコントラストが高い場合、輝度が高い場合、画像のエッジに定常性がある場合、画像の空間周波数が高い場合、等の場合は、注目度が高いと判定すればよい。なお、画像のエッジに定常性がある場合とは、コントラスト、輝度の変化に規則性があり、エッジが人の顔の輪郭などのオブジェクトを表している場合が該当する。また、コントラストは、空間周波数の振幅に相当する。例えば、中央に人物の顔が写っており、背景が特徴の無い画像の場合、中央の人物の顔の注目度が高くなる。
なお、視聴者の注目度の高さを定量的に数値化することで注目度マップを生成可能であれば、その生成方法は特に限定されない。例えば、視差レイアウト変換部120は、原画像からブロックマッチング等の手法を用いて画像の動きベクトルを求め、動きベクトルから注目度を算出しても良いし、動きベクトル情報も加味した注目度マップを算出してもよい。
視差レイアウト変換部120は、各画素の視差量毎に注目度マップを解析し、注目度の高い視差に対する重みパラメータを設定する。つまり、視差レイアウト変換部120は、どの帯域の視差の注目度が高いか(目立ちやすいか)を統計的に解析し、これに基づいて重み付け処理を行う。
例えば、図31は、視差量毎に各画素の注目度のスコアを累積したヒストグラムを示す模式図である。図31に示すように、視差レイアウト変換部120は、各画素の視差と注目度を示す情報とに基づいて、視差に対する注目度の度数を示すヒストグラムを作成する。例えば、中央に人物の顔が写っており、背景が特徴の無い画像の場合、中央の人物の顔の注目度が高くなるため、人物の顔に対応する画素の視差値dにおいて、注目度の度数(図31の縦軸)が高くなる。
そして、視差レイアウト変換部120は、ヒストグラムのモード値から注目度が高い視差帯域を推定し、重みパラメータを設定する。具体的には、図31において視差値dの注目度が最も高いため、視差値dの近辺の帯域aに対して重み付けが高くなるように重みパラメータを設定する。
視差レイアウト変換部120は、解析結果として得られた視差に対応する重みパラメータを用いて重み付け視差ヒストグラムを形成する。図32は、視差レイアウト変換部120が形成した重み付け視差ヒストグラムを示す模式図である。図32に示すヒストグラムは、視差値dの近辺の帯域aで図31の度数が重みパラメータ(重み付け係数(1.3倍))によって増加されている。図32の帯域aにおいて、斜線のハッチングを付した部分が重みパラメータによる増加分に相当する。視差値dの近辺の帯域a以外では、重みパラメータが1.0とされ、図31と同一のヒストグラムとされる。なお、帯域a以外の重みパラメータを1.0未満としても良い。
視差レイアウト変換部120は、図32に示す重み付け視差ヒストグラムの累積ヒストグラムから視差レイアウトを変換するためのI/Oカーブを生成する。
例えば、図33は、変形例2に係る視差レイアウトを変換するためのI/Oカーブの一例を示す模式図である。
図33に示すI/Oカーブの実線の特性は、図32に示す重み付け視差ヒストグラムの度数を視差値と対応付けて累積することによって生成される。例えば、視差値dの入力視差に対応する出力視差eの値は、図33に示す視差値0からdまでの度数を累積することによって求められる値である。具体的な一例として、図33に示す例の場合には、出力視差eは、度数f1〜f6の累積和を正規化することによって求めることが可能である。
同様に、図33に示す一点鎖線の特性は、図31に示すヒストグラムの度数を視差値と対応付けて累積することによって生成される特性であり、実線の特性との比較のために示したものである。また、図33に示す破線の特性は、入力視差に対して変換を行うことなく出力視差を出力する場合を示している(入力視差=出力視差)。
図33に示す実線の特性と一点鎖線の特性を比較すると、実線の特性は、重みパラメータによって帯域aの度数が増加された重み付け視差ヒストグラムから作成されるため、帯域aにおいて破線の特性よりも傾きが急峻になっている。
視差レイアウトを変換するためのI/Oカーブを生成したら、視差レイアウト変換部120は、当該I/Oカーブに基づいて、視差マップの視差を変換して出力する。なお、以降の処理は、前述した各実施形態に係る画像処理装置と同様である。
以上説明したように、変形例2に係る画像処理装置は、視聴者の注目度が高い領域ほど、視差が強調されるように重み付けを行い、当該重み付けに基づき視差レイアウトを変換するためのI/Oカーブを生成する。そのため、注目度の大きい画素ほど視差値が大きくなるように視差マップが変換される。このような構成により、変形例2に係る画像処理装置は、注目度の高い画素の視差値が増大させ、注目度が高い領域の立体感を強調することが可能となる。
なお、上記に示す例では、変形例2に係る画像処理装置は、原画像を解析することで視聴者が注目しやすい領域を特定していたが、視聴者の注目度が高い原画像中の領域を特定できれば、必ずしも上記に示した方法には限定されない。
例えば、画像処理装置は、表示装置20の表示パネル25に対する視聴者の視線方向から、当該視聴者が注目している原画像中の領域を特定してもよい。この場合には、例えば、画像処理装置は、カメラ等により撮像された視聴者の顔の画像(特に眼の画像)に基づき、表示パネル25に対する視聴者の視線方向を特定すればよい。
また、変形例1の説明において前述したように、変形例1に係る画像処理装置と、変形例2に係る画像処理装置とを組み合わせてもよい。例えば、原画像中における注目度の高さに応じて、奥行き方向に沿って分割された複数の領域を重み付けし、当該重み付けに応じて領域ごとに視差が軽減されるように視差マップを変換してもよい。この場合には、当該画像処理装置は、前述したように、原画像中の画像特徴(例えば、コントラスト、輝度、エッジ、空間周波数等)や検出された視聴者の視線方向に基づき注目度の高さを数値化し、当該注目度に基づき分割された複数の領域を重み付けすればよい。
[8.3.変形例3]
次に、変形例3に係る画像処理装置について説明する。ディスプレイの視点数をVとし、ある視位置から見える視点kの光量をrkとする。ディスプレイの表示パネルの前面または後方(表示パネルとバックライトの間)には、多視点画像を構成するためのパララックス素子(例えば、スリットが設けられたバリア)が設けられている。例えば、図2に示した表示装置20の場合には、バリア23がパララックス素子に相当する。
図34及び図35は、RGBのサブピクセルとそのクロストーク比を示す平面図であって、パララックス素子の傾きによるクロストーク比を示す模式図である。図34では、パララックス素子の傾きが1:3とされ、一点鎖線Pの方向に沿ってパララックス素子(スリット)が設けられている。一方、図35では、パララックス素子(スリット)の傾きが1:3ではなく、傾きが図34よりも緩やかになっている。
パララックス素子の傾きが1:3の場合、クロストーク比r=(r, r, r, r,・・・, r)は一意に定まる。一方,パララックス素子の傾きが1:3でない場合、クロストーク比r=(r, r, r, r,・・・,r)は複数の種類だけ存在する。この種類をMとする。
具体例について、図34及び図35に基づいて説明する。図34及び図35において、上段の図は各画素にマッピングされる視点の番号を示している。また、下段の図は、各画素のクロストーク比を示している。
図34に示すように、パララックス素子(スリット)の位置(一点鎖線P上)でクロストーク比は最も小さい0.1となり、パララックス素子から離れるほどクロストーク比は大きくなる。そして、図34に示すように、パララックス素子の傾きが1:3の場合、近接するRGBサブピクセルの各成分のクロストーク比は等しくなる。つまり、図34の下段において、カラム1(Column1)に示したクロストーク比は、R,G,B成分のいずれも、r=(r1, r2, r3, r4,・・・,r6)=(0.13, 0.3, 1, 0.3, 0.13, 0.1)となり、このクロストーク比が周期的に繰り返される。なお、視点数が6のため、1列目のカラム3(Column3)以降は、r=(r1, r2, r3, r4,・・・,r6)=(0.13, 0.3, 1, 0.3, 0.13, 0.1)が周期的に繰り返される。なお、輝度成分はRGB成分の線形和で表されるため、クロストーク比を近似的に輝度成分のみで説明してもよい。
一方、パララックス素子の傾きが1:3でない場合,近接するRGBサブピクセルの各成分のクロストーク比は等しくない。例えば,図35の下段において、カラム1(Column1)に着目すると、R成分のクロストーク比はr=(rR1, rR2, rR3, rR4,・・・, rR8)=(0.1, 0.11, 0.16, 0.45, 0.73, 0.71, 0.55, 0.19)、G成分のクロストーク比はr=(rG1, rG2, rG3, rG4,・・・, rG8)=(0.1, 0.13, 0.25, 0.65, 0.74, 0.66, 0.34, 0.14)、B成分のクロストーク比はr=(rB1, rB2, rB3, rB4,・・・, B8)=(0.1, 0.11, 0.16, 0.45, 0.73, 0.71, 0.55, 0.19)となり、RGB成分のクロストーク比が異なる(この例ではG成分のみ異なる)。従って、このクロストーク比のバラつきが色割れの原因となる。このバラつきはディスプレイ面内の位置によって異なり、パララックス素子の傾きに応じて周期性を持つ。このため、クロストークによって周期的な色割れ縞模様が発生する。
図36は、色割れによる縞模様が発生した例を示す模式図である。図36において、左側の図はパララックス素子の傾きが1:3の場合を示しており、パララックス素子の傾きが1:3の場合は色割れによる縞模様は発生していない。一方、図36の右側の図はパララックス素子の傾きが1:3でない場合を示している。図36の右側の図に示すように、パララックス素子の傾きが1:3でない場合は、色割れにより縞模様が発生していることが判る。このように、パラックス素子の傾きが元々の設計上から1:3でないディスプレイは、色割れによる画質の劣化が生じてしまう。
変形例3では、前述した各実施形態及び各変形例に対してRGB成分の色割れを考慮して処理を行うことで、色割れによる模様の発生を抑止する。例えば、「4.原理の説明」において説明した例では、主として以下の3ステップにより学習を行っている。
(第1のステップ)輝度画像成分に対してクロストークモデルを適用し、視差を変えながらクロストーク劣化量ΔI画像を生成
(第2のステップ)輝度画像のコントラスト/空間周波数でクラスを定義し,ステップ1で生成した画像群から各クラスに対してクロストーク劣化量ΔIの視差遷移のデータのサンプルを収集
(第3のステップ)各クラスにおけるサンプルデータを回帰分析して関数化又はテーブル化を行う。
上述したように、パララックス素子の傾きが1:3の場合はRGBサブピクセルのクロストーク比が一定のため、RGBの線形和である輝度成分に対して学習するだけで十分である。しかしながら、パララックス素子の傾きが1:3でない場合、ディスプレイ面の場所ごとにクロストーク比が異なり、クロストーク比はM種類存在する。したがって、変形例3では、輝度成分に縮退せず、RGBの各成分画像に対し、M種類のクロストークモデルを利用して画質劣化を表すことにする。変形例3による学習は以下の3ステップで行われる。
(第1のステップ)RGB画像の各成分に対して、M種類のクロストーク比によるクロストークモデルを適用し、視差を変えながらクロストーク劣化量ΔR画像,ΔG画像,ΔB画像を生成する。なお、パララックス素子の傾きに応じてクロストーク比は変わるため、パララックス素子の傾きに応じたM種類のクロストーク比によるクロストークモデルから、M種類のそれぞれについてクロストーク劣化量ΔR画像,ΔG画像,ΔB画像を予め求めておく。なお、ディスプレイの輝度を直接計測して図34及び図35の下段に示すようなクロストーク比を測定することもできる。
(第2のステップ)RGB画像の各成分に対してコントラスト/空間周波数でクラスを定義し,ステップ1で生成した画像群から各クラスに対してクロストーク劣化量ΔIの視差遷移のデータのサンプルを収集
(第3のステップ)各クラスにおけるサンプルデータを回帰分析して関数化又はテーブル化する
以上の3ステップにより、次式で表される右辺の第1項(それぞれΔIハット、ΔIハット、ΔIハットと称する)を学習によって求める。
但し、CR_sfは空間周波数ごとにN個に分解されるR成分コントラストベクトル,CR_iはR成分画像の空間周波数iのコントラスト、数式6の右辺第1項のΔIハットは、R成分画像におけるCR_sfにおけるクロストーク劣化量ΔIの視差遷移の統計値(関数又はテーブル)である。
同様に、CG_sfは空間周波数ごとにN個に分解されるG成分コントラストベクトル、CG_iはG成分画像の空間周波数iのコントラスト、数式7の右辺第1項のΔIハットは、G成分画像におけるCG_sfにおけるクロストーク劣化量ΔIの視差遷移の統計値(関数又はテーブル)である。また、CB_sfは空間周波数ごとにN個に分解されるB成分コントラストベクトル、CB_iはB成分画像の空間周波数iのコントラスト、数式8の右辺第1項のΔIハットは、B成分画像におけるCB_sfにおけるクロストーク劣化量ΔIの視差遷移の統計値(関数又はテーブル)である。これらのΔIハット、ΔIハット、ΔIハットをクロストーク比の種類(M種類)だけ生成する。より具体的には、インデックスjを0≦j≦M−1の整数とし、ΔI ハット、ΔI ハット、ΔI ハットを各クロストーク比ごとに学習によって求める。
次に、変形例3に係る画像処理装置10による視差制御に係る動作について説明する。変形例3に係る画像処理装置10は、最大視差量マップの生成に係る構成、即ち、画像解析部102及び最大視差量推定部104の動作が、前述した各実施形態に係る画像処理装置10と異なる。そこで、変形例3に係る画像解析部102及び最大視差量推定部104について以下に詳しく説明し、その他の構成については詳細な説明は省略する。
変形例3に係る最大視差量推定部104は、最大視差量の推定に係る処理を色差成分に拡張し、色差成分におけるクロストーク劣化量ΔIを計算する。
具体的には、画像解析部102は、原画像のRGBの各成分に対して、N種類の帯域通過型フィルタ(Gaborフィルタ,LOGフィルタなど)により空間周波数解析を行い、コントラスト/空間周波数CR_sf,CG_sf,CB_sfを画素毎に計算する。そして、画像解析部102は、RGBの各成分に対して画素毎に得られたN種類の空間周波数ごとのコントラストCsf=(C,C,...,CN−1)、即ち、空間周波数マップを示す情報を最大視差量推定部104に出力する。
最大視差量推定部104は、画素毎のクロストーク比の情報(予め整数j(0≦j≦M−1)のインデックスマップとして保持)から、クロストーク比のインデックスjを求める。そして、最大視差量推定部104は、RGBの各成分におけるコントラスト/空間周波数CR_sf,CG_sf,CB_sfの情報からそれぞれクラス分類し、クロストーク比のインデックスjに該当する学習結果のデータベース内のクラスデータと照合する。
該当するクラスを確定後、最大視差量推定部104は、ΔI ハット、ΔI ハット、ΔI ハット(RGBの各成分におけるΔI-dispのモデル式)を画素毎に保持する。
次いで、最大視差量推定部104は、ΔI ハット、ΔI ハット、ΔI ハットのグラフを統合し、新たに色差成分におけるΔI-dispモデル式を生成する。そして、最大視差量推定部104は、劣化を知覚する閾値Thを色差成分のΔI-dispモデル式に対して入力し、画素毎に最大視差量を計算することで、最大視差量マップを生成する
ここで、最大視差量推定部104による、ΔI ハット、ΔI ハット、ΔI ハットに基づくΔI-dispモデル式の生成に係る処理と、当該ΔI-dispモデル式に基づく最大視差量マップの生成に係る処理とについて、さらに詳しく説明する。
最大視差量推定部104は、RGBの色差をYCbCr空間のCb成分、Cr成分で評価する。この場合、RGBからYCbCrへの変換式は以下の式(数式9)で表される。
Y=0.2126*R+0.7152*G+0.0722*B
Cb=−0.1146*R−0.3854*G+0.5000*B
Cr=0.5000*R−0.4542*G−0.0458*B
・・・・・(数式9)
上式は線形であることから、クロストークによる変化量であるΔI ハット、ΔI ハット、ΔI ハットを数式9のR,G,Bにそれぞれ当てはめ、色差成分のクロストーク劣化量の関数として以下を得ることができる。
なお、以下では、上記色差成分のクロストーク劣化量の関数のそれぞれをΔICb ハット、ΔICr ハットと称する。
図37は、このようにして得られたΔICb ハット、ΔICr ハットから、色割れが発生しない最大の視差量を推定する方法を示す。図37に示すように、各グラフに対し、disp(視差)軸に沿ってスキャンし、色割れを表す評価関数F(ΔICb,ΔICr)によってΔICb ハット、ΔICr ハットを1つのグラフに統合する。例えば、色割れを表す評価関数は、以下のように定義できる。
数式10は、Cb−Cr色差空間(2次元)における元の色差からの変化を距離で表している。つまり、図37の左に示すΔICb ハット、ΔICr ハットの各グラフに対し、disp(視差)軸に沿ってスキャンし、視差に応じた、Cb−Cr色差空間(2次元)におけるΔICbとΔICrの距離を求める(図37の中間の特性)。なお、色割れを表す評価関数は数式10に限定されるものではない。例えば、Cb−Cr色差空間における原点(無彩色)からの角度ずれで定義することで,色相ずれを表す評価関数を定義してもよい。更に、本実施形態では色割れを表す色空間をYCbCr空間を用いて説明したが、より人の視覚における色知覚特性を考慮したCIE L*a*b*空間(非線形)で同様の処理を用いてもよい。
このようにして得られた色割れを評価するグラフ(図37の最も右に示すグラフ)において、縦軸に対し色割れ知覚の閾値Thを入力することで、色割れを知覚しない最大視差量max_dispを計算することができる。
なお、最大視差量マップの生成以降の動作については、前述した各実施形態に係る画像処理装置10と同様である。
以上説明したように変形例3に係る画像処理装置10によれば、ディスプレイ特性(RGB各成分におけるクロストーク)に加え、画像特徴(コントラスト/空間周波数)を考慮し、色割れが発生する限界の視差量を高精度に推定することで、ディスプレイの視差表示性能を最大限発揮することができる。これにより、トレードオフの関係にあった立体感・奥行き感と画質の両立が最適化され、高臨場感を有する映像表示を実現できる。また、技術の汎用性が高く、設計が異なるディスプレイに対しても経験値によらない調整が可能である。
更に、ディスプレイ特性と画像特徴からクロストーク劣化量ΔI(色差)を推定するため、設計が異なるディスプレイに対しても調整が容易となる。また、視覚研究で定量化されている心理物理量を利用することで、さらに高精度な視差制御を実現することも可能である。
<9.ハードウェア構成>
次に、図38を参照して、本開示の実施形態に係る画像処理装置10のハードウェア構成の一例について説明する。図38は、本実施形態に係る画像処理装置10のハードウェア構成の一例を示した図である。
図38に示すように、本実施形態に係る画像処理装置10は、プロセッサ901と、メモリ903と、ストレージ905と、操作デバイス907と、表示デバイス909と、通信デバイス911と、バス913とを含む。
プロセッサ901は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)又はSoC(System on Chip)であってよく、画像処理装置10の様々な処理を実行する。プロセッサ901は、例えば、各種演算処理を実行するための電子回路により構成することが可能である。なお、前述した画像解析部102、最大視差量推定部104、最大視差レンジ決定部106、視差レイアウト変換部120、最大位相差推定部130、及び位相差決定部132は、プロセッサ901により構成され得る。
メモリ903は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み、プロセッサ901により実行されるプログラム及びデータを記憶する。ストレージ905は、半導体メモリ又はハードディスクなどの記憶媒体を含み得る。
操作デバイス907は、ユーザが所望の操作を行うための入力信号を生成する機能を有する。操作デバイス907は、例えばボタン及びスイッチなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、プロセッサ901に供給する入力制御回路などから構成されてよい。
表示デバイス909は、出力装置の一例であり、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。表示デバイス909は、ユーザに対して画面を表示することにより情報を提供することができる。なお、前述した表示装置20を、当該表示デバイス909として構成してもよいし、表示装置20とは別に表示デバイス909を設けてもよい。
通信デバイス911は、画像処理装置10が備える通信手段であり、ネットワークを介して外部装置と通信する。通信デバイス911は、無線通信用のインタフェースであり、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサなどを含んでもよい。
通信デバイス911は、外部装置から受信した信号に各種の信号処理を行う機能を有し、受信したアナログ信号から生成したデジタル信号をプロセッサ901に供給することが可能である。
バス913は、プロセッサ901、メモリ903、ストレージ905、操作デバイス907、表示デバイス909、及び通信デバイス911を相互に接続する。バス913は、複数の種類のバスを含んでもよい。
また、コンピュータに内蔵されるCPU、ROM及びRAMなどのハードウェアを、上記した画像処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、当該プログラムを記録した、コンピュータに読み取り可能な記憶媒体も提供され得る。
<10.適用例>
上記に示した実施形態に係る画像処理装置の適用例について、以下に具体的な例を挙げて説明する。
例えば、図39は、テレビジョン装置の外観構成を表している。このテレビジョン装置は、例えば、フロントパネル411およびフィルターガラス412を含む映像表示画面部410(表示装置20)を備えている。なお、テレビジョン装置の筐体内に設けられた、映像表示画面部410への画像の表示に係るデバイス(例えば、CPUやGPUのようなプロセッサ)が、上述した実施形態に係る画像処理装置10に相当する。テレビジョン装置として本開示による表示装置を用いることにより、どこまで立体感をつけると画質劣化が生じるかを正確に見積もることが可能となるため、観測される画像が破綻することのない範囲で十分に広い視差レンジを使用することができる。そのため、テレビジョン装置の3D表示性能を最大限に発揮することが可能となり、テレビジョン装置に貢献することができる。
なお、上記に示した適用例はあくまで一例であり、本実施形態に係る画像処理装置を適用可能な構成を限定するものではないことは、言うまでもない。
<11.まとめ>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上記実施形態では、原画像中の各画素に関連付けられた視差値を調整する例について説明したが、各画素に関連付けられたパラメータであれば、調整対象は必ずしも視差値には限定されない。具体的な一例として、画像処理装置10は、画素ごとの、明度、コントラスト、彩度、色度、または空間周波数等が調整されるように、各画素に関連付けられたパラメータ(例えば、画素値)を調整する構成としてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得することと、
プロセッサに、取得された前記原画像と前記視差マップとに基づき、視差のダイナミックレンジを決定させることと、
前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換することと、
を含む、画像処理方法。
(2)
前記視差のダイナミックレンジは、前記原画像の空間周波数に応じたコントラストに対応するクロストーク劣化量と視差遷移との関係に基づく最大視差量の分布と、前記視差マップとに基づき決定される、前記(1)に記載の画像処理方法。
(3)
前記視差のダイナミックレンジは、前記視差マップに基づき決定される、奥行き方向の手前側に位置する前方領域と、奥側に位置する後方領域とのそれぞれにおける前記最大視差量に基づき決定される、前記(2)に記載の画像処理方法。
(4)
前記視差のダイナミックレンジは、前記前方領域における前記手前側からの前記最大視差量の積算値に対する閾値処理と、前記後方領域における前記奥側からの前記最大視差量の積算値に対する閾値処理とに基づき決定される、前記(3)に記載の画像処理方法。
(5)
前記最大視差量の分布は、前記原画像の空間周波数に応じたコントラストの分布に基づき決定される、前記(2)〜(4)のいずれか一項に記載の画像処理方法。
(6)
前記原画像の前記空間周波数に応じたコントラストをRGBの画素ごとに解析することと、
前記原画像の前記空間周波数に応じたコントラストに対応するクロストーク劣化量と視差遷移との関係をRGBの画素ごとに取得することと、
RGBの画素ごとに取得した前記クロストーク劣化量と前記視差遷移との関係を統合することと、
を含み、
前記前記最大視差量の分布は、統合された前記クロストーク劣化量と前記視差遷移との関係に基づきが決定される、前記(5)に記載の画像処理方法。
(7)
前記視差のダイナミックレンジは、前記原画像中における各画素の画素値に基づく最大視差量の相対値の分布と、前記視差マップとに基づき決定される、前記(1)に記載の画像処理方法。
(8)
前記最大視差量の相対値の分布に基づき、表示面を基準とした奥行き方向における手前側と奥側との間の前記視差のレンジの比率が算出され、
算出された当該視差のレンジの比率に基づき、前記視差のダイナミックレンジが決定される、前記(7)に記載の画像処理方法。
(9)
前記各画素の画素値は、当該原画像中の画素ごとに算出されたエッジの強度である、前記(7)または(8)に記載の画像処理方法。
(10)
前記各画素の画素値は、当該原画像の空間周波数に応じたコントラストである、前記(7)または(8)に記載の画像処理方法。
(11)
前記視差マップは、奥行き方向に沿って複数の領域に分割され、分割された複数の領域は重み付けされ、
前記重み付けに応じて前記領域ごとに視差が軽減されるように、当該視差マップが変換される、前記(1)〜(10)のいずれか一項に記載の画像処理方法。
(12)
奥行き方向に沿って分割された前記複数の領域は、前記原画像の空間周波数に応じたコントラストに対応するクロストーク劣化量と視差遷移との関係に基づく最大視差量の分布を基に、当該最大視差量が大きい領域ほど重みが大きくなるように重み付けされる、前記(11)に記載の画像処理方法。
(13)
奥行き方向に沿って分割された前記複数の領域は、前記原画像中における注目度の高い領域ほど重みが大きくなるように重み付けされる、前記(11)に記載の画像処理方法。
(14)
前記原画像に基づく最大視差量の分布と、変換された前記視差マップとに基づき、複数の視点位置のうち、隣接する前記視点位置における視点画像の最大位相差の分布を推定することと、
推定された前記最大位相差の分布に基づき、隣接する前記視点位置における視点画像の位相差を決定することと、
を含む、前記(1)〜(13)のいずれか一項に記載の画像処理方法。
(15)
前記原画像中における注目度の高い領域を特定し、特定された当該領域が強調されるように、前記視差マップが変換される、前記(1)〜(14)のいずれか一項に記載の画像処理方法。
(16)
視聴者の視線を検出し、検出された前記視線に基づき、当該視聴者が注目している前記原画像中の領域を、前記注目度の高い領域として特定する、前記(15)に記載の画像処理方法。
(17)
前記原画像中における領域ごとの顕著性に基づき、当該顕著性の高い領域を、前記注目度の高い領域として特定する、前記(15)に記載の画像処理方法。
(18)
原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得する取得部と、
取得された前記原画像と前記視差マップに基づき、視差のダイナミックレンジを決定する視差レンジ決定部と、
前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換する視差レイアウト変換部と、
を含む、画像処理装置。
(19)
原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得する取得部と、
取得された前記原画像と前記視差マップに基づき、視差のダイナミックレンジを決定する視差レンジ決定部と、
前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換する視差レイアウト変換部と、
を含む、電子機器。
10 画像処理装置
102 画像解析部
104 最大視差量推定部
106 最大視差レンジ決定部
120 視差レイアウト変換部
122 視差分布解析部
124 変換データ生成部
126 変換処理部
130 最大位相差推定部
132 位相差決定部
20 表示装置
21 バックライト
23 バリア
25 表示パネル
30 アンテナ

Claims (19)

  1. 原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得することと、
    プロセッサに、取得された前記原画像と前記視差マップとに基づき、視差のダイナミックレンジを決定させることと、
    前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換することと、
    を含む、画像処理方法。
  2. 前記視差のダイナミックレンジは、前記原画像の空間周波数に応じたコントラストに対応するクロストーク劣化量と視差遷移との関係に基づく最大視差量の分布と、前記視差マップとに基づき決定される、請求項1に記載の画像処理方法。
  3. 前記視差のダイナミックレンジは、前記視差マップに基づき決定される、奥行き方向の手前側に位置する前方領域と、奥側に位置する後方領域とのそれぞれにおける前記最大視差量に基づき決定される、請求項2に記載の画像処理方法。
  4. 前記視差のダイナミックレンジは、前記前方領域における前記手前側からの前記最大視差量の積算値に対する閾値処理と、前記後方領域における前記奥側からの前記最大視差量の積算値に対する閾値処理とに基づき決定される、請求項3に記載の画像処理方法。
  5. 前記最大視差量の分布は、前記原画像の空間周波数に応じたコントラストの分布に基づき決定される、請求項2に記載の画像処理方法。
  6. 前記原画像の前記空間周波数に応じたコントラストをRGBの画素ごとに解析することと、
    前記原画像の前記空間周波数に応じたコントラストに対応するクロストーク劣化量と視差遷移との関係をRGBの画素ごとに取得することと、
    RGBの画素ごとに取得した前記クロストーク劣化量と前記視差遷移との関係を統合することと、
    を含み、
    前記前記最大視差量の分布は、統合された前記クロストーク劣化量と前記視差遷移との関係に基づきが決定される、請求項5に記載の画像処理方法。
  7. 前記視差のダイナミックレンジは、前記原画像中における各画素の画素値に基づく最大視差量の相対値の分布と、前記視差マップとに基づき決定される、請求項1に記載の画像処理方法。
  8. 前記最大視差量の相対値の分布に基づき、表示面を基準とした奥行き方向における手前側と奥側との間の前記視差のレンジの比率が算出され、
    算出された当該視差のレンジの比率に基づき、前記視差のダイナミックレンジが決定される、請求項7に記載の画像処理方法。
  9. 前記各画素の画素値は、当該原画像中の画素ごとに算出されたエッジの強度である、請求項7に記載の画像処理方法。
  10. 前記各画素の画素値は、当該原画像の空間周波数に応じたコントラストである、請求項7に記載の画像処理方法。
  11. 前記視差マップは、奥行き方向に沿って複数の領域に分割され、分割された複数の領域は重み付けされ、
    前記重み付けに応じて前記領域ごとに視差が軽減されるように、当該視差マップが変換される、請求項1に記載の画像処理方法。
  12. 奥行き方向に沿って分割された前記複数の領域は、前記原画像の空間周波数に応じたコントラストに対応するクロストーク劣化量と視差遷移との関係に基づく最大視差量の分布を基に、当該最大視差量が大きい領域ほど重みが大きくなるように重み付けされる、請求項11に記載の画像処理方法。
  13. 奥行き方向に沿って分割された前記複数の領域は、前記原画像中における注目度の高い領域ほど重みが大きくなるように重み付けされる、請求項11に記載の画像処理方法。
  14. 前記原画像に基づく最大視差量の分布と、変換された前記視差マップとに基づき、複数の視点位置のうち、隣接する前記視点位置における視点画像の最大位相差の分布を推定することと、
    推定された前記最大位相差の分布に基づき、隣接する前記視点位置における視点画像の位相差を決定することと、
    を含む、請求項1に記載の画像処理方法。
  15. 前記原画像中における注目度の高い領域を特定し、特定された当該領域が強調されるように、前記視差マップが変換される、請求項1に記載の画像処理方法。
  16. 視聴者の視線を検出し、検出された前記視線に基づき、当該視聴者が注目している前記原画像中の領域を、前記注目度の高い領域として特定する、請求項15に記載の画像処理方法。
  17. 前記原画像中における領域ごとの顕著性に基づき、当該顕著性の高い領域を、前記注目度の高い領域として特定する、請求項15に記載の画像処理方法。
  18. 原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得する取得部と、
    取得された前記原画像と前記視差マップに基づき、視差のダイナミックレンジを決定する視差レンジ決定部と、
    前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換する視差レイアウト変換部と、
    を含む、画像処理装置。
  19. 原画像と、当該原画像中の各画素に関連付けられた視差値の分布を示す視差マップとを取得する取得部と、
    取得された前記原画像と前記視差マップに基づき、視差のダイナミックレンジを決定する視差レンジ決定部と、
    前記視差マップ中の各視差が、決定された前記視差のダイナミックレンジ内に分布するように、当該視差マップを変換する視差レイアウト変換部と、
    を含む、電子機器。
JP2014031592A 2014-02-21 2014-02-21 画像処理装置、画像処理装置、及び電子機器 Pending JP2015156607A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014031592A JP2015156607A (ja) 2014-02-21 2014-02-21 画像処理装置、画像処理装置、及び電子機器
US14/620,380 US9591282B2 (en) 2014-02-21 2015-02-12 Image processing method, image processing device, and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014031592A JP2015156607A (ja) 2014-02-21 2014-02-21 画像処理装置、画像処理装置、及び電子機器

Publications (1)

Publication Number Publication Date
JP2015156607A true JP2015156607A (ja) 2015-08-27

Family

ID=53883515

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014031592A Pending JP2015156607A (ja) 2014-02-21 2014-02-21 画像処理装置、画像処理装置、及び電子機器

Country Status (2)

Country Link
US (1) US9591282B2 (ja)
JP (1) JP2015156607A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229679A1 (ja) * 2020-05-12 2021-11-18 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム
JP7423750B2 (ja) 2021-04-15 2024-01-29 グーグル エルエルシー 3dライトフィールドディスプレイのクロストーク補償

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5397190B2 (ja) 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015095779A (ja) 2013-11-12 2015-05-18 ソニー株式会社 画像処理装置、画像処理方法及び電子機器
JP2015154091A (ja) 2014-02-10 2015-08-24 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
JP2015191051A (ja) 2014-03-27 2015-11-02 ソニー株式会社 空間映像表示装置
JP6275174B2 (ja) * 2015-03-10 2018-02-07 キヤノン株式会社 画像処理方法、画像処理装置、および、撮像装置
WO2016176840A1 (zh) * 2015-05-06 2016-11-10 北京大学深圳研究生院 深度图/视差图的后处理方法和装置
KR102121389B1 (ko) * 2015-10-16 2020-06-10 삼성전자주식회사 무안경 3d 디스플레이 장치 및 그 제어 방법
US10554956B2 (en) * 2015-10-29 2020-02-04 Dell Products, Lp Depth masks for image segmentation for depth-based computational photography
KR101855937B1 (ko) * 2016-08-30 2018-05-09 엘지전자 주식회사 차량용 디스플레이 장치
JP6759347B2 (ja) * 2016-09-23 2020-09-23 日本電信電話株式会社 画像生成装置、画像生成方法、およびプログラム
GB2558000B (en) * 2016-12-21 2020-06-10 Apical Ltd Display control
KR20200097865A (ko) 2019-02-08 2020-08-20 삼성전자주식회사 깊이 측정을 위한 이미지 처리 시스템 및 이의 동작 방법
US11223782B2 (en) * 2019-03-21 2022-01-11 Qualcomm Technologies, Inc. Video processing using a spectral decomposition layer
CN115994904B (zh) * 2023-03-22 2023-05-30 山东万重山电子有限公司 基于计算机视觉的挂烫机面板生产质量检测方法
CN117094965A (zh) * 2023-08-21 2023-11-21 深圳市宝安信息管道管理有限公司 一种基于图像识别算法的镜头画面质量分析方法及系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101452172B1 (ko) 2007-05-11 2014-10-21 코닌클리케 필립스 엔.브이. 깊이―관련 정보를 처리하기 위한 방법, 장치 및 시스템
US9445072B2 (en) * 2009-11-11 2016-09-13 Disney Enterprises, Inc. Synthesizing views based on image domain warping
EP2710550A2 (en) * 2011-05-17 2014-03-26 Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V. Methods and device for processing digital stereo image content
US20140340486A1 (en) * 2011-09-16 2014-11-20 Konica Minolta, Inc. Image processing system, image processing method, and image processing program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021229679A1 (ja) * 2020-05-12 2021-11-18 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム
JP7406166B2 (ja) 2020-05-12 2023-12-27 日本電信電話株式会社 情報処理装置、情報処理方法、およびプログラム
JP7423750B2 (ja) 2021-04-15 2024-01-29 グーグル エルエルシー 3dライトフィールドディスプレイのクロストーク補償

Also Published As

Publication number Publication date
US20150245007A1 (en) 2015-08-27
US9591282B2 (en) 2017-03-07

Similar Documents

Publication Publication Date Title
JP2015156607A (ja) 画像処理装置、画像処理装置、及び電子機器
US9123115B2 (en) Depth estimation based on global motion and optical flow
JP6027034B2 (ja) 立体映像エラー改善方法及び装置
RU2692432C2 (ru) Способ и устройство для формирования трехмерного изображения
US9467677B2 (en) Image processing method, image processing device, and electronic apparatus
CN100565589C (zh) 用于深度感知的装置和方法
KR101690297B1 (ko) 영상 변환 장치 및 이를 포함하는 입체 영상 표시 장치
EP3311361B1 (en) Method and apparatus for determining a depth map for an image
CN103096106A (zh) 图像处理设备和方法
JP2013527646A5 (ja)
TWI712990B (zh) 用於判定影像之深度圖之方法與裝置、及非暫時性電腦可讀取儲存媒體
CN103260039A (zh) 图像处理设备、图像处理方法以及程序
US9813698B2 (en) Image processing device, image processing method, and electronic apparatus
US20120019625A1 (en) Parallax image generation apparatus and method
TWI678098B (zh) 三維影像之視差的處理
KR20120101881A (ko) 영상 디스플레이 방법 및 장치
KR20120119173A (ko) 3d 영상처리장치 및 그 입체감 조정방법
JP2013172214A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20150222871A1 (en) Image processing method, image processing device, and electronic device
Zhou et al. Visual comfort prediction for stereoscopic image using stereoscopic visual saliency
Cheng et al. 51.3: An Ultra‐Low‐Cost 2‐D/3‐D Video‐Conversion System
EP2590417A1 (en) Stereoscopic image display apparatus
Peng et al. Quality assessment of stereoscopic video in free viewpoint video system
Cho et al. Prediction of visual discomfort in watching 3D video using multiple features
JP2014230251A (ja) 画像処理装置、および画像処理方法