JP2015154091A - 画像処理方法、画像処理装置、及び電子機器 - Google Patents

画像処理方法、画像処理装置、及び電子機器 Download PDF

Info

Publication number
JP2015154091A
JP2015154091A JP2014023395A JP2014023395A JP2015154091A JP 2015154091 A JP2015154091 A JP 2015154091A JP 2014023395 A JP2014023395 A JP 2014023395A JP 2014023395 A JP2014023395 A JP 2014023395A JP 2015154091 A JP2015154091 A JP 2015154091A
Authority
JP
Japan
Prior art keywords
image
viewpoint
index
crosstalk
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014023395A
Other languages
English (en)
Inventor
健太郎 土場
Kentaro Tsuchiba
健太郎 土場
靖英 兵動
Yasuhide Hyodo
靖英 兵動
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2014023395A priority Critical patent/JP2015154091A/ja
Priority to US14/612,568 priority patent/US9838664B2/en
Publication of JP2015154091A publication Critical patent/JP2015154091A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/139Format conversion, e.g. of frame-rate or size
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/003Aspects relating to the "2D+depth" image format

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】視聴位置に依らずに、複数の視点それぞれにおいて鮮明な視点画像を視聴することが可能な、新規かつ改良された画像処理方法、画像処理装置、及び電子機器を提案する。
【解決手段】原画像を取得することと、視聴者の位置情報を取得することと、クロストーク情報を取得することと、プロセッサに、あらかじめ設定された複数の視点それぞれに対応する、原画像に基づく互いに異なる第1の視点画像のうち、いずれかの第1の視点画像が、位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した位置情報とクロストーク情報とに基づき、表示部の各画素と、位置情報に基づく複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成させることと、原画像とインデックスマップとに基づき、当該インデックスマップに含まれる制御情報それぞれに対応した第2の視点画像を出力することと、を含む、画像処理方法。
【選択図】図1

Description

本開示は、画像処理方法、画像処理装置、及び電子機器に関する。
ディスプレイのような表示装置の前方に複数の仮想視点を設定し、各仮想視点において異なる映像を視聴可能とする技術がある。各仮想視点において異なる映像を視聴可能とする技術を応用した一例として、左右の目に異なる視差のついた映像をみせることで、視聴者に対して映像を立体的に感じさせる、裸眼3D映像技術が知られている。
左右の目に異なる映像を見せる方法としては、専用の眼鏡を用いた方式が古くから提案されてきたが、例えば、裸眼3D映像技術においては、専用の眼鏡を用いずに3D映像を見せることが可能となることが知られている。このように、近年では、専用の眼鏡を用いずに、各仮想視点において異なる映像を視聴可能とする技術が実用化されている。
特開2006−262191号公報
一方で、専用の眼鏡を用いずに各仮想視点において異なる映像を視聴可能とする場合には、各仮想視点に対応した画像(以降では、「視点画像」と呼ぶ場合がある)が収束する位置が限られている。そのため、各視点画像が収束する位置とは異なる位置では、観測される画像にボケや二重像が生じて、鮮明な画像を観測することが困難な場合があり、このような特性は、特に表示装置からの距離の違いにより強く表れる傾向にある。
そこで、本開示では、視聴位置に依らずに、複数の視点それぞれにおいて鮮明な視点画像を視聴することが可能な、新規かつ改良された画像処理方法、画像処理装置、及び電子機器を提案する。
本開示によれば、原画像を取得することと、表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得することと、前記表示部のクロストーク特性を示すクロストーク情報を取得することと、プロセッサに、あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成させることと、前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力することと、を含む、画像処理方法が提供される。
また、本開示によれば、原画像を取得する画像取得部と、表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得する位置情報取得部と、前記表示部のクロストーク特性を示すクロストーク情報を取得するクロストーク情報取得部と、あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成するインデックスマップ生成部と、前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力する画像生成部と、を備える、画像処理装置が提供される。
また、本開示によれば、原画像を取得する画像取得部と、表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得する位置情報取得部と、前記表示部のクロストーク特性を示すクロストーク情報を取得するクロストーク情報取得部と、あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成するインデックスマップ生成部と、前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力する画像生成部と、を備える、電子機器が提供される。
以上説明したように本開示によれば、視聴位置に依らずに、複数の視点それぞれにおいて鮮明な視点画像を視聴することが可能な画像処理方法、画像処理装置、及び電子機器が提供される。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の実施形態に係る画像処理装置を含むシステムの概略的な構成の一例を示した説明図である。 同実施形態に係る表示装置の概略的な構成の一例を示した説明図である。 視点画像と視聴位置との関係について説明するための説明図である。 比較例1に係る画像処理装置のレンダリングルールを模式的に示した図である。 表示パネルの各画素から出射される光線のクロストーク比の一例を示している。 比較例1に係る画像処理装置の処理結果に基づき観測される光線の一例を模式的に示した図である。 比較例2に係る画像処理装置のレンダリングルールを模式的に示した図である。 比較例2に係る画像処理装置の処理結果に基づき観測される光線の一例を模式的に示した図である。 原画像の一例を示した図である。 比較例2に係る画像処理装置の処理結果に基づき観測される画像の一例を示した図である。 本開示の実施形態に係る画像処理装置のレンダリングルールを模式的に示した図である。 同実施形態に係る画像処理装置の処理結果に基づき観測される光線の一例を模式的に示した図である。 同実施形態に係る画像処理装置の処理結果に基づき観測される画像の一例を示した図である。 レンダリングルールに基づく各画素とインデックスとの対応関係の一例を模式的に示した図である。 同実施形態に係る画像処理装置の機能構成の一例を示したブロック図である。 同実施形態に係る画像処理装置の詳細な動作について説明するための図である。 同実施形態に係る画像処理装置の一連の処理の流れについて説明するためのフローチャートである。 多視点画像の生成に係る処理の一例を示したフローチャートである。 多視点画像の生成に係る処理の一例を示したフローチャートである。 変形例に係る画像処理装置の機能構成の一例を示したブロック図である。 インデックス変換のルールの一例について模式的に示した図である。 変形例に係る画像処理装置の一連の処理の流れについて説明するためのフローチャートである。 ハードウェア構成の一例を示した図である。 同実施形態に係る画像処理装置の適用例(テレビジョン装置)の外観を表す斜視図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.概要
2.表示装置の構成
3.課題の整理
3.1.比較例1
3.2.比較例2
4.画像処理装置の詳細
4.1.概要
4.2.構成
4.3.処理の流れ
4.4.まとめ
5.変形例
5.1.概要
5.2.構成
5.3.処理の流れ
5.4.まとめ
6.ハードウェア構成
7.適用例
8.まとめ
<1.概要>
まず、図1を参照しながら、本実施形態に係る画像処理装置の概要について説明する。図1は、本実施形態に係る画像処理装置を含むシステムの概略的な構成の一例を示した説明図である。
図1に示すように、本実施形態に係る画像処理装置10は、表示装置20と視聴位置検出装置40とに接続される。なお、画像処理装置10、表示装置20、及び視聴位置検出装置40のいずれか複数または全部は、同一筐体内に設けられていてもよい。以降では、画像処理装置10、表示装置20、及び視聴位置検出装置40が、それぞれ別筐体として設けられているものとして説明する。
本実施形態に係る表示装置20は、表示装置20の表示面の前方において互いに異なる所定の位置に複数(少なくとも2以上)の仮想視点をあらかじめ設定し、当該仮想視点のそれぞれで異なる視点映像を視聴可能に構成されている。このような構成により、例えば、視聴者の左右の目がそれぞれ異なる仮想視点となるように、各仮想視点の位置をあらかじめ調整し、各仮想視点に異なる視差が設定された視差画像を表示させることで、視聴者は、立体感を持った画像を視聴することが可能となる。表示装置20の具体的な一例として、裸眼3Dディスプレイが挙げられる。
また、表示装置20の他の一例として、視聴者の視聴位置に応じて、互いに異なる映像が視聴されるように、各仮想視点と視点映像とを対応付けてもよい。このような構成により、例えば、表示装置20に対する視聴者の相対位置に応じて、複数の視聴者それぞれに対して異なる映像を提供することが可能となる。このように複数の仮想視点に対して、それぞれ異なる視点映像が対応付けられていれば、表示装置20の構成は、裸眼3Dディスプレイのような立体視のための表示装置に限定されいない。
なお、以降では、説明を簡単にするために、表示装置20が、立体視を可能とする裸眼3Dディスプレイとして構成されるものとして説明する。
視聴位置検出装置40は、表示装置20の表示面に対する視聴者の位置を検出するための情報を取得する装置である。視聴位置検出装置40は、特に、表示装置20の表示面に対する視聴者の奥行き方向の位置(換言すると、当該表示面と視聴者との間の距離)を検出するための情報を取得する。
具体的な一例として、視聴位置検出装置40は、カメラやセンサ等により構成され得る。例えば、視聴位置検出装置40をカメラとして構成した場合には、視聴位置検出装置40により表示装置20の表示面の前方を撮影することで、撮影された画像中の視聴者の位置や大きさに基づき、当該表示面に対する視聴者の位置を検出することが可能である。また、視聴位置検出装置40を測距センサとして構成することで、表示装置20の表示面と視聴者との間の距離を測定してもよい。なお、表示装置20の表示面に対する視聴者の奥行き方向の位置を検出可能な情報が取得できれば、視聴位置検出装置40の構成は特に限定されないことは言うまでもない。
なお、以降では、説明を簡単にするために、表示面に対する視聴者の位置を検出するための情報を、単に「視聴者の位置情報」と呼ぶ場合がある。
視聴位置検出装置40は、取得した視聴者の位置情報を、画像処理装置10に出力する。これにより、画像処理装置10は、取得した視聴者の位置情報に基づき、表示面に対する視聴者の位置を特定することが可能となる。
画像処理装置10は、表示対象となる原画像を外部から取得し、取得した原画像に基づき各仮想視点に対応する視点画像を生成して表示装置20に出力する。また、画像処理装置10は、静止画像や動画像などの画像を含む放送を受信するためのアンテナ30に接続されていてもよい。
なお、本説明において原画像とは、各仮想視点に対応する視点画像の生成元となる画像を示すものであり、当該視点画像を生成可能であれば、その態様は特に限定されない。例えば、原画像は、静止画像であってもよいし、動画像であってもよい。また、原画像は、立体視を実現するための、所謂、ステレオ画像であってもよいし、立体視を考慮していない画像(換言すると、1視点分の画像)であってもよい。なお、立体視を考慮していない画像を原画像として取得した場合には、画像処理装置10が、当該原画像に対して画像解析を施すことで、当該解析結果に基づき各視点画像を生成すればよい。また、ステレオ画像を原画像とする場合においても、当該ステレオ画像よりも多くの視点を考慮した視点画像を必要とする場合には、画像処理装置10が、当該原画像に対して画像解析を施すことで、必要とされる視点分の視点画像を生成すればよい。
また、画像処理装置10が原画像を取得する取得元は特に限定されない。例えば、図1に示すように、画像処理装置10は、放送として配信された原画像を、アンテナ30を介して受信してもよい。また、他の一例として、画像処理装置10は、外部メディアに記録された原画像を当該外部メディアから読み出してもよい。また、他の一例として、画像処理装置10内に原画像を記憶するための記憶部を設け、画像処理装置10は、当該記憶部に記憶された原画像を読み出す構成としてもよい。
一方で、裸眼3Dディスプレイのように、専用の眼鏡を用いずに各仮想視点において異なる映像を視聴可能とする場合には、各仮想視点に対応した視点画像が収束する位置が限られている。そのため、あらかじめ決められた観測位置、即ち、各視点画像が収束する位置とは異なる位置では、観測される画像にボケや二重像が生じて、鮮明な画像を観測することが困難な場合があり、このような特性は、特に表示装置からの距離の違いにより強く表れる傾向にある。
そこで、本実施形態に係る画像処理装置10は、視聴位置検出装置40から視聴者の位置情報を取得し、取得した位置情報に基づき表示面に対する視聴者の位置を特定する。そして、画像処理装置10は、特定した視聴者の位置において鮮明な画像が観測されるように、当該視聴者の位置に応じた視点画像を生成する。各視点画像を生成したら、画像処理装置10は、生成した各視点画像により多視点画像を生成し、当該多視点画像を表示装置20に表示させる。このような構成のより、本実施形態に係る画像処理装置10は、視聴者の位置に依らずに、複数の仮想視点それぞれにおいて、ボケや二重像の発生を抑止し、鮮明な視点画像を視聴することを可能とする。
<2.表示装置の構成>
図2を参照しながら、本実施形態に係る表示装置20の構成の一例について説明する。図2は、本実施形態に係る表示装置の概略的な構成の一例を示した説明図である。なお、図2において、横方向で示されたx方向は、表示装置20の表示面に対する水平方向を示しており、図面に対して垂直な方向で示されたy方向は、表示装置20の表示面に対する垂直方向を示している。また、縦方向で示されたz方向は、表示装置20の表示面に対する奥行き方向を示している。
図2に示すように、表示装置20は、バックライト21と、バリア23と、表示パネル25とを含む。図2に示す構成は、例えば、表示パネル25として液晶パネルを使用した表示装置(ディスプレイ)を示しており、バックライト21から照射され表示パネル25を透過した光が像として視聴者に到達する。図2に示す構成では、バックライト21の前方にバリア23が設けられている。また、バリア23の前方には、当該バリア23と所定の距離だけ離間した位置に表示パネル25が設けられている。
バリア23は、例えば、レンチキュラ板やパララクスバリア等の光学部材からなる。バリア23には、x方向に沿って開口部が所定の周期で設けられており、バックライト21から照射された光のうち、バリア23の開口部を通過した光のみが表示パネル25に到達する。
表示パネル25は、複数の画素を含む。また、表示パネル25の各画素は、あらかじめ設定された複数の仮想視点のいずれかを示すインデックスが関連付けられており、当該インデックスに対応した視差画像の画素を表示するように構成されている。なお、各画素と各インデックスとの間の関連付けは、バリア23、表示パネル25、及び各仮想視点の間の位置関係に応じて、あらかじめ設計されている。
具体的な一例として、図2に示す例では、表示パネル25は、それぞれ異なる仮想視点に対応したインデックスが関連付けられた画素25a〜25dを含む。例えば、図2に示された仮想視点Mには、バリア23の開口部を透過した光Laが、画素25aを透過して収束し、仮想視点Mには、バリア23の開口部を透過した光Lbが、画素25bを透過して収束するように設計されている。このとき、例えば、仮想視点Mに視聴者の左目が位置し、仮想視点Mに視聴者の左目が位置する場合に、画素25aに左目用の視差画像を表示させ、画素25bに右目用の視差画像を表示させることで、視聴者は、立体感を持った画像を視聴することが可能となる。
<3.課題の整理>
次に、原画像に基づき視点画像を生成する画像処理装置の比較例について説明することで、本実施形態に係る画像処理装置10の課題について整理する。
[3.1.比較例1]
以下に、図3〜図6を参照しながら比較例1に係る画像処理装置の動作について説明する。比較例1に係る画像処理装置は、あらかじめ設定された視聴位置、即ち、表示装置20の表示パネル25(即ち、表示面)に対する奥行き方向の位置において、各仮想視点に対して所定の視点画像が収束するように、各視点画像を生成する画像処理装置の例を示している。
まず、図3を参照する。図3は、視点画像と視聴位置との関係について説明するための説明図であり、図2において、視点Mの位置を奥行き方向(z方向)に変化させた場合の一例を示している。図3における参照符号Mは、あらかじめ設定された視聴位置(以降では、「最適視聴位置」と呼ぶ場合がある)、即ち、表示パネル25に対してあらかじめ設定された奥行き方向の位置を示している。また、参照符号ML0は、最適視聴位置Mに基づき設定された仮想視点を示している。また、参照符号ML1は、仮想視点ML0を奥行き方向(z方向)に沿って、最適視聴位置Mとは異なる位置に移動させた場合の視点を示している。
図3に示すように、最適視聴位置Mに基づく仮想視点ML0では、画素25aを透過した光Laが収束する。即ち、仮想視点ML0では、画素25aに表示された視点画像のみ観測されることとなる。
これに対して、最適視聴位置Mとは異なる位置に設置された視点ML1では、仮想視点ML0の場合とは光が収束する条件が異なるため、画素25aを透過した光La、画素25bを透過した光Lb、及び、画素25dを透過した光Ldが収束することとなる。即ち、視点ML1では、画素25a、25b、及び25dそれぞれに表示された視点画像が観測される。そのため、画素25a、25b、及び25dそれぞれにおいて、異なる視点画像が表示されている場合には、視点ML1では、ボケや二重像が観測されることとなる。
ここで、図4〜図6を参照しながら、比較例1に係る画像処理装置の動作について説明する。まず、図4を参照する。図4は、比較例1に係る画像処理装置のレンダリングルールを模式的に示した図である。表示装置20の画面の各画素は、あらかじめいずれかの仮想視点に対応付けられており、図4に示すレンダリングルールは、所定の仮想視点に対応付けられた画素が、表示装置20の画面のx座標に応じて、どの視点画像に関連付けられているかを示している。
図4の縦軸は、レンダリングされる視点を、即ち、どの視点画像に対応しているかを示している。換言すると、レンダリングされる視点は、インデックスに相当する。また、図4の横軸は、表示装置20の画面(即ち、表示パネル25)のx座標(即ち、水平方向の座標)を示している。また、参照符号v0〜v8は、各仮想視点にそれぞれ対応している。即ち、図4に示す例では、v0〜v8で示された9つの仮想視点が設定されている場合を示しており、v0〜v8のデータは、各画素と各インデックスとの対応関係を示している。
図4に示すように、比較例1に係る画像処理装置では、所定の仮想視点に関連付けられた画素には、当該画素のx座標に限らず、所定の視点画像が表示されることとなる。
このように、比較例1に係る画像処理装置は、図4に示すデータに基づき、各画素と各インデックスとを関連付けたインデックスマップを生成し、当該インデックスマップに基づき各画素と各視点画像とを関連付ける。
表示パネル25を構成する各画素は、仮想視点v0〜v8のいずれかに関連付けられており、図4に示すレンダリングルールに基づき、対応するインデックス(即ち、レンダリングされる視点)が示す視点画像が表示される。なお、比較例1に係る画像処理装置の処理に基づき各視点画像を表示する場合には、図4に示すように、例えば、仮想視点v0に関連付けられた画素はいずれも、x方向の位置に限らず、インデックス0(即ち、レンダリングされる視点0)に対応する視点画像が常に表示されることとなる。このことは、仮想視点v1〜v8それぞれに関連付けられた画素についても同様である。即ち、仮想視点v8に関連付けられた画素はいずれも、x方向の位置に限らず、インデックス8に対応する視点画像が常に表示されることとなる。
そのため、比較例1に係る画像処理装置に依れば、例えば、図3に示す例では、最適視聴位置Mに基づく仮想視点ML0では所定のインデックスに関連付けられた画素からの光が観測されるが、視点ML1では、異なるインデックスに関連付けられた画素からの光が観測される。即ち、最適視聴位置Mに基づく仮想視点ML0では鮮明な画像が観測されるが、最適視聴位置Mとは異なる位置に設置された視点ML1では、ボケや二重像が観測されることとなる。
ここで、図5及び図6を参照しながら、比較例1に係る画像処理装置を適用した場合の、最適視聴位置Mとは異なる位置に設置された視点ML1で観測される視点画像について更に詳しく説明する。図5は、表示パネル25の各画素から出射される光線のクロストーク比の一例を示している。図5の縦軸は、クロストーク比、即ち、クロストークの相対的な量を示している。また、図5の横軸は、表示装置20の画面(即ち、表示パネル25)のx座標(即ち、水平方向の座標)を示している。即ち、図5に示す例は、表示パネル25の各画素において、どれだけのクロストーク(即ち、他の視点画像の漏れ込み)が発生するかを示している。
次に、図6を参照する。図6は、図4に示したレンダリングルールに基づくインデックスマップにより各視点画像を各画素に関連付けた場合に、視点ML1のx方向の位置に応じて、観測される視点画像を模式的に示した図である。図6の縦軸は、観測される光線、即ち、インデックス0〜8のうちいずれの視点に対応する視点画像に基づく光線が観測されるかを示している。また、横軸は、表示装置20の画面(即ち、表示パネル25)のx座標(即ち、水平方向の座標)を示している。
なお、図6に示す例では、視点ML1は、仮想視点v4に関連付けられている場合を示しており、換言すると、仮想視点v4において、どのインデックスに対応した視点画像が観測されるかを示している。
例えば、仮想視点v4の場合には、x方向(即ち、水平方向)の位置に依らず、インデックス0〜8に対応する各視点画像のうち、いずれかのインデックス(例えば、インデックス4)に対応する視点画像のみが観測されることが望ましい。しかしながら、図6に示す例では、図5に示したクロストークの影響により、インデックス4以外の他のインデックスに対応した視点画像も観測されており、x方向の位置に応じてインデックス(即ち、観測される視点画像)も大きく変化していることがわかる。
このように、比較例1に係る画像処理装置を適用した場合には、最適視聴位置Mとは異なる位置に設置された視点ML1では、複数の異なる視点画像が観測される。即ち、視聴者は、ボケや二重像を観測することとなる。
[3.2.比較例2]
次に、比較例2に係る画像処理装置について説明する。前述の通り、比較例1に係る画像処理装置を適用した場合には、最適視聴位置Mとは異なる位置に設置された視点ML1において、ボケや二重像が観測される場合がある。
このような視聴位置に関する制約を解消するために、比較例2に係る画像処理装置は、表示パネル25に対する視聴者の奥行き方向の位置を検出し、検出された位置に応じて、各画素で表示される視点画像を切り替えている。即ち、比較例2に係る画像処理装置は、視聴者の位置に応じて、視聴者に観測される視点画像のずれを推定し、推定されたずれをキャンセルするように各画素で表示される視点画像を入れ替えることで、視聴者が鮮明な画像を観測できるようにする。
以下に、図7及び図8を参照しながら、比較例2に係る画像処理装置の動作について説明する。まず、図7を参照する。図7は、比較例2に係る画像処理装置のレンダリングルールを模式的に示した図である。図7に示すレンダリングルールは、比較例2に係る画像処理装置において、所定の仮想視点に対応付けられた画素が、表示装置20の画面のx座標に応じて、どの視点画像に関連付けられているかを示している。
なお、図7の縦軸及び横軸と、参照符号v0〜v8が示す内容とは、図4(比較例1に係る画像処理装置の場合)と同様である。つまり、図7に示す例では、図4と同様に、v0〜v8で示された9つの仮想視点が設定されている場合を示しており、仮想視点v0〜v8のデータは、各画素と各インデックスとの対応関係を示している。
図7に示すように、比較例1に係る画像処理装置では、所定の仮想視点に関連付けられた画素には、当該画素のx座標に応じて異なる視点画像が表示される。具体的には、このとき、所定の仮想視点に関連付けられた当該画素には、仮想視点v0〜v8に対応してあらかじめ生成された9つの視点画像のうち、いずれかの視点画像が表示されることとなる。即ち、比較例1に係る画像処理装置では、画素のx座標に応じて、当該画素に表示させる視点画像を、あらかじめ生成された9つの視点画像の中のいずれかに切り替えて表示させる。
このように、比較例2に係る画像処理装置は、図7に示すデータに基づき、各画素と各インデックスとを関連付けたインデックスマップを生成し、当該インデックスマップに基づき各画素と各視点画像とを関連付ける。
また、図7に示す例は、視聴者の位置が、最適視聴位置Mとは異なる場合(例えば、視点ML1が示す位置の場合)におけるレンダリングルールを示している。
図7に示すように、比較例2に係る画像処理装置は、視聴者の位置に応じて、視聴者に観測される視点画像のずれを推定し、推定されたずれをキャンセルするように各画素で表示される視点画像を入れ替えている。このような構成により、各仮想視点(v0〜v9)に関連付けられた各画素は、x方向の位置に応じて、インデックス0〜8のいずれかに対応した視点画像を表示することとなる。
図8は、図7に示したレンダリングルールに基づくインデックスマップにより各視点画像を各画素に関連付けた場合に、視点ML1のx方向の位置に応じて、観測される視点画像を模式的に示した図である。なお、図8の縦軸及び横軸は、図6(比較例1に係る画像処理装置の場合)と同様である。
なお、図8に示す例では、図6に示す例と同様に、視点ML1は、仮想視点v4に関連付けられている場合を示しており、換言すると、仮想視点v4において、どのインデックスに対応した視点画像が観測されるかを示している。
図8に示す例は、図6に示す例(即ち、比較例1に係る画像処理装置の場合)と比べるとわかるように、インデックスのずれ(即ち、観測される視点画像のずれ)が、図6に示す例に比べて収束していることがわかる。そのため、比較例2に係る画像処理装置を適用することで、最適視聴位置Mとは異なる位置に設置された視点ML1においても、比較例1に係る画像処理装置10に比べて、ボケや二重像の発生が部分的に抑制されることがわかる。
一方で、図8におけるグラフの傾きに注目するとわかるように、比較例2に係る画像処理装置を適用した場合においても、依然として画面の位置に応じて異なる視点画像が観測されていることがわかる。また、図8に示す例では、クロストークの影響により、周期的なインデックスのずれ(即ち、観測される視点画像のずれ)が発生していることがわかる。
ここで、図9及び図10を参照しながら、比較例2に係る画像処理装置を適用した場合に、視点ML1において観測される画像の一例について説明する。図9に示す画像V10は、原画像の一例を示している。また、図10に示す画像V20は、図9に示した画像V10を入力とした比較例2に係る画像処理装置の処理結果に基づき、視点ML1において観測される画像の一例を示している。
図10に示す画像V20を参照するとわかるように、残存する視点画像のずれや、クロスストークの影響による周期的な視点画像のずれにより、周期的な奥行き方向の波打ちが生じたり、画面の一部にボケや二重像のような視点の歪みが生じている。
そこで、本実施形態に係る画像処理装置10は、残存する視点画像のずれや、クロスストークの影響による周期的な視点画像のずれを緩和することで、視聴者の位置(即ち、視点の位置)に依らずに、複数の視点それぞれに対して、視点の歪みをより低減した視点画像を提供する。これにより、視聴者は、比較例1及び2に係る画像処理装置に比べて、より鮮明な画像を視聴することが可能となる。そこで、以降では、本実施形態に係る画像処理装置10の詳細について、特に、視聴者の位置に応じて、原画像を基に各視点画像を生成する処理に着目して説明する。
<4.画像処理装置の詳細>
[4.1.概要]
まず、本実施形態に係る画像処理装置10の動作の概要について説明する。本実施形態に係る画像処理装置10は、視聴位置検出装置40から出力される情報に基づき、表示装置20の表示パネル25に対する視聴者の位置(特に、奥行き方向の位置)を検出する。そして、画像処理装置10は、当該表示装置20のクロストーク特性を示すデータ(以降では「クロストーク情報」と呼ぶ場合がある)に基づき、検出された視聴者の位置(奥行き方向の位置)におけるクロストークの影響を算出し、算出したクロストークの影響を打ち消すようにインデックスマップを補正する。
なお、表示装置20のクロストーク情報とは、各画素から表示パネル25の前方のどの方向に(換言すると、どのような放射角で)光が照射されるかを示すデータ(例えば、図5)である。換言すると、クロストーク情報は、表示パネル25の各画素において、どれだけのクロストーク(近傍の画素からの漏れ込み)が発生するかを示している。そのため、当該クロストーク情報に基づき、表示パネル25の前方の視聴位置に対して、どの画素からの光がどのくらいの量で到達するかを算出することが可能であり、即ち
、視聴者の位置におけるクロストークの影響を算出することが可能である。
なお、表示装置20のクロストーク情報は、例えば、当該表示装置20におけるバリア23と、表示パネル25との位置関係に応じて決定される。そのため、表示装置20のクロストーク情報は、当該表示装置20の構成に応じて、事前に生成することが可能である。また、例えば、表示パネル25の各画素から光の漏れ込みを測定することで、表示装置20のクロストーク情報を事前に取得することも可能である。そのため、表示装置20のクロストーク情報は、あらかじめ生成または取得して、画像処理装置10が読み出し可能な位置(例えば、画像処理装置10自身や表示装置20)に記憶させておくとよい。
なお、画像処理装置10による、表示装置20のクロストーク情報に基づく、視聴者の位置におけるクロストークの影響の算出に係る処理の詳細については、別途後述する。
図11は、本実施形態に係る画像処理装置10のレンダリングルールを模式的に示した図である。なお、図11の縦軸及び横軸と、参照符号v0〜v8が示す内容とは、図4(比較例1に係る画像処理装置の場合)及び図7(比較例2に係る画像処理装置の場合)と同様である。つまり、図11に示す例では、図4及び図7と同様に、v0〜v8で示された9つの仮想視点が設定されている場合を示しており、仮想視点v0〜v8のデータは、各画素と各インデックスとの対応関係を示している。
また、図11に示す例は、図7と同様に、視聴者の位置が、最適視聴位置Mとは異なる場合(例えば、視点ML1が示す位置の場合)におけるレンダリングルールを示している。なお、表示パネル25からの光のクロストークは、図5に示すようになっているものとする。
本実施形態に係る画像処理装置10は、検出した視聴者の位置と、図5に示す表示装置20のクロストーク特性を示すデータとに基づき、当該視聴者の位置において観測される視点画像のインデックスを算出する。そして、画像処理装置10は、当該視聴者の位置において観測される視点画像のインデックスの算出結果に基づき、クロストークを打ち消すようにレンダリングルール(即ち、図11)を設定し、当該レンダリングルールに基づきインデックスマップを生成する。インデックスマップを生成した後、画像処理装置10は、生成されたインデックスマップに含まれる各インデックスに対応した視点画像を生成し、生成した各視点画像を、当該インデックスマップに基づき各画素に関連付ける。
図12は、図11に示したレンダリングルールに基づくインデックスマップにより各視点画像を各画素に関連付けた場合に、視点ML1のx方向の位置に応じて、観測される視点画像を模式的に示した図である。なお、図12の縦軸及び横軸は、図6(比較例1に係る画像処理装置の場合)及び図8(比較例2に係る画像処理装置の場合)と同様である。
なお、図12に示す例では、図6及び図8に示す例と同様に、視点ML1は、仮想視点v4に関連付けられている場合を示しており、換言すると、仮想視点v4において、どのインデックスに対応した視点画像が観測されるかを示している。
図12に示すように、本実施形態に係る画像処理装置10に依れば、インデックスのずれ(即ち、観測される視点画像のずれ)が収束し、x方向(即ち、水平方向)の位置に依らず、インデックス4に対応する視点画像のみが観測されていることがわかる。また、図8(比較例2に係る画像処理装置の場合)と比較するとわかるように、図12に示す例では、クロストークの影響による周期的なインデックスのずれ(即ち、観測される視点画像のずれ)が抑制されていることがわかる。
図13に示す画像V30は、図9に示した画像V10を入力とした本実施形態に係る画像処理装置10の処理結果に基づき、視点ML1において観測される画像の一例を示している。
図13に示す画像V30を、図10に示す画像V20(比較例2に係る画像処理装置の場合)と比較するとわかるように、本実施形態に係る画像処理装置10に依れば、周期的な奥行き方向の波打ちや、部分的なボケや二重像のような視点の歪みが緩和されていることがわかる。
図14は、レンダリングルールに基づく各画素とインデックスとの対応関係の一例を模式的に示した図であり、比較例1、比較例2、及び本実施形態それぞれに係る画像処理装置の処理結果の一例を示している。図14では、表示パネル25の一部の画素に着目して、最適視聴位置Mとは異なる位置に視聴者が位置する場合(例えば、視点ML1)を例に、比較例1、比較例2、及び本実施形態それぞれの場合について、どのようなインデックスが関連付けられているかを示している。なお、図14における「実施例」は、本実施形態に係る画像処理装置10の処理結果の一例に対応している。
図14に示すように、比較例1に係る画像処理装置の処理結果は、視聴者の位置に限らず、各画素には、最適視聴位置Mに基づきあらかじめ設定されたインデックスが関連付けられている。これに対して、比較例2及び実施例に係る画像処理装置の処理結果は、最適視聴位置Mとは異なる位置に視聴者が位置する場合には、その位置に応じて、各画素に関連付けられるインデックスが補正されている。このような構成により、比較例2及び実施例に係る画像処理装置は、最適視聴位置Mとは異なる位置に視聴者が位置する場合においても、観測される視点画像のずれ(インデックスのずれ)に伴うボケや二重像の発生を抑制している。
次に、比較例2と実施例とを比較する。図7に示したレンダリングルールを参照するとわかるように、比較例2に係る画像処理装置は、最適視聴位置Mに基づきあらかじめ設定されたインデックス0、1、2、…、8を入れ替えるようにインデックスマップを補正する。そのため、図8や図10に示すように、部分的にボケや二重像の発生は抑止されるが、クロストークの影響による周期的なインデックスのずれが残存し、周期的な奥行き方向の波打ちや部分的な視点の歪みとして顕在化している。
これに対して、実施例に係る画像処理装置は、図11に示したレンダリングルールを参照するとわかるように、クロストークの影響を打ち消すために、既存のインデックス0、1、2、…、8以外にも、クロストークの影響を反映したインデックスを生成する。例えば、図14において、「4.9」、「5.8」、「6.7」、「5.5」、「2.1」として示されたインデックスは、クロストークの影響を打ち消すように設定されたインデックスを示している。
このように、実施例に係る画像処理装置は、既存のインデックス0、1、2、…、8以外に、視聴者の位置に応じたクロストークの影響を打ち消すようにインデックスを生成し、各画素に関連付ける。そして、当該画像処理装置は、生成した各インデックスに対応する視点画像を生成し、生成した視点画像を、当該視点画像に対応するインデックスが関連付けられた画素に表示させる。
このような構成により、実施例に係る画像処理装置に依れば、各仮想視点では、クロストークの漏れ込みが打ち消され、例えば、既存のインデックス0、1、2、…、8のうち、あらかじめ関連付けられたインデックスに対応する視点画像が観測される。即ち、実施例に係る画像処理装置に依れば、視聴者は、視聴位置に依らずに、図13に示す視点画像V30のように、周期的な奥行き方向の波打ちや、部分的なボケや二重像のような視点の歪みが緩和された視点画像を観測することが可能となる。
また、本実施形態に係る画像処理装置10は、図14に示すように、既存のインデックス0、1、2、…、8以外に、視聴者の位置に応じたクロストークの影響を打ち消すようにインデックスを生成する。そのため、比較例1及び2に係る画像処理装置に比べて、より多くの視点画像が生成されることになることは言うまでもない。即ち、本実施形態に係る画像処理装置10では、各仮想視点において実際に観測される視点画像の数よりも、より多くの視点画像が生成されることとなる。
なお、各仮想視点において実際に観測される視点画像、換言すると、既存のインデックス0、1、2、…、8に対応する視点画像が「第1の視点画像」に相当する。また、画像処理装置10により実際に生成される視点画像、換言すると、クロストークの影響を打ち消すように生成されたインデックスに対応する視点画像が「第2の視点画像」に相当する。
[4.2.構成]
次に、図15を参照しながら、本実施形態に係る画像処理装置10の構成について、特に、各視点画像及びインデックスマップの生成に係る処理に着目しても説明する。図15は、本実施形態に係る画像処理装置10の機能構成の一例を示したブロック図である。
図15に示すように、本実施形態に係る画像処理装置10は、画像取得部11と、位置情報取得部13と、クロストーク情報取得部15と、画像処理部17とを含む。また、画像処理部17は、光線ずれ検出部171と、光線ずれ補正部173と、画像生成部175とを含む。
画像取得部11は、表示装置20に表示させる各視点画像の生成元である原画像を外部から取得する。なお、前述したとおり、画像取得部11は、放送として配信された原画像を、アンテナ30を介して受信してもよいし、外部メディアに記録された原画像を当該外部メディアから読み出してもよい。
また、画像取得部11は、原画像中の各画素に対して設定された、異なる視点画像間(例えば、左目用画像と右目用画像との間)の視差の分布を示す視差マップを取得する。このとき、画像取得部11は、原画像と同様に、視差マップを外部から取得してもよい。また、他の一例として、画像取得部11は、取得した原画像を解析することで、当該解析結果に基づき視差マップを生成してもよい。
画像取得部11は、取得した原画像及び視差マップを光線ずれ検出部171に出力する。
位置情報取得部13は、視聴者の位置情報を、例えば、視聴位置検出装置40(図1参照)から取得する。位置情報取得部13は、取得した位置情報に基づき、表示装置20の表示パネル25に対する視聴者の位置(特に、奥行き方向の位置)を特定し、特定した視聴者の位置を光線ずれ検出部171に通知する。これにより、光線ずれ検出部171は、表示パネル25に対する視聴者の位置を認識することが可能となる。
なお、表示装置20の表示パネル25に対する視聴者の位置情報が取得できれば、視聴位置検出装置40が画像処理装置10に内蔵されていてもよい。この場合には、位置情報取得部13が、視聴位置検出装置40として動作してもよい。
クロストーク情報取得部15は、表示装置20のクロストーク情報を取得する。なお、当該クロストーク情報は、前述したように、例えば、表示装置20の構成に基づきあらかじめ生成し、クロストーク情報取得部15が読み出し可能な位置(例えば、画像処理装置10や表示装置20内の記憶部)に記憶させておくとよい。
また、表示パネル25の各画素から光の漏れ込みを測定することで、表示装置20のクロストーク情報をあらかじめ取得することも可能である。また、当該測定は、例えば、当該表示装置20の表示パネル25のキャリブレーション等のタイミングで行われるように構成してもよい。この場合には、当該測定の結果に基づき、あらかじめ記憶されたクロストーク情報が更新されるように画像処理装置10または表示装置20を構成してもよい。
クロストーク情報取得部15は、取得した表示装置20のクロストーク情報を光線ずれ検出部171に出力する。
光線ずれ検出部171は、画像取得部11から原画像及び視差マップを取得する。また、光線ずれ検出部171は、位置情報取得部13から、表示装置20の表示パネル25に対する視聴者の位置(特に、奥行き方向の位置)の通知を受ける。これにより、光線ずれ検出部171は、表示パネル25に対する視聴者の位置を認識することが可能となる。また、光線ずれ検出部171は、クロストーク情報取得部15から、表示装置20のクロストーク情報を取得する。
光線ずれ検出部171は、取得したクロストーク情報と、認識した表示パネル25に対する視聴者の位置とに基づき、当該視聴者の位置(奥行き方向の位置)に対応した各仮想視点におけるクロストークの影響を算出する。以下に、光線ずれ検出部171による、クロストークの影響の算出に係る処理の詳細について、図16を参照しながら説明する。図16は、本実施形態に係る画像処理装置10の詳細な動作、即ち、光線ずれ検出部171による、クロストークの影響の算出に係る処理の詳細について説明するための図である。
図16において、横方向で示されたx方向は、表示装置20の表示パネル25に対する水平方向を示しており、図面に対して垂直な方向で示されたy方向は、表示装置20の表示パネル25に対する垂直方向を示している。また、縦方向で示されたz方向は、表示装置20の表示パネル25に対する奥行き方向を示している。なお、図16では、表示パネル25の位置をz=0の位置とし、表示パネル25の奥側(バリア23側)はzが負値となり、表示パネル25の手前側はzが正値となるものとして示している。
また、図16において、参照符号Bは、表示パネル25とバリア23との間のz方向に沿った距離を示している。そのため、バリア23のz座標は、z=−Bで示される。
参照符号Mは、最適視聴位置、即ち、表示パネル25に対してあらかじめ設定された奥行き方向の位置を示している。また、参照符号ML1は、最適視聴位置Mとは異なる位置に設定された視点を示している。なお、本説明では、視点ML1の位置が、視聴者の位置を示しているものとして説明する。
また、参照符号Lは、最適視聴位置Mと表示パネル25との間の奥行き方向の距離を示している。即ち、最適視聴位置Mのz座標は、z=Lで示される。また、参照符号Zは、視点Mと表示パネル25との間の奥行き方向の距離を示している。即ち、視点ML1のz座標は、z=Zで示される。
また、図16に示す例では、P0(0,0)の位置(画素)の正面手前側における最適視聴位置Mに対応する座標(即ち、座標P0からz方向に距離Lだけ離れた座標)を、P2(0,L)として示している。また、図16に示す例では、最適視聴位置Mとは異なる位置に設定された視点ML1の座標を、P(X,Z)として示している。
ここで、座標P(X,−B)に位置するスリットから、手前側(表示パネル25側)に向けて出射された光に着目する。ここで、座標P(x,−B)から、最適視聴位置Mに対応する座標P2(0,L)に向けて出射された光が通過する表示パネル25の画素の座標をP1(x,0)とする。同様に、座標P(x,−B)から、視点ML1に対応する座標P(X,Z)に向けて出射された光が通過する表示パネル25の画素の座標をP1’(x’,0)とする。
このとき、座標P(X,−B)から出射され座標P1’(x’,0)を通過した光の、xz平面上におけるz軸に対する角度をθとした場合に、角度θは、以下に示す(式1)及び(式2)に基づき算出することが可能である。
Figure 2015154091
Figure 2015154091
なお、距離Lは、位置情報取得部13から通知された視聴者の位置に基づき算出することが可能である。
また、角度θは、座標P1’(x’,0)から座標P(X,Z)(即ち、視点ML1)に向けた方向に相当する。そのため、角度θと表示装置20のクロストーク情報とから、座標P1’(x’,0)から座標P(X,Z)に、どのくらいの強度の光が到達するか、即ち、座標P1’(x’,0)に位置する画素から出力される光線のインデックスを算出することが可能である。
ここで、視聴者の位置が最適視聴位置Mの場合のインデックスマップにおける、k視点目の座標(x,y)に対応した画素のインデックスをi(x,y)とした場合に、インデックスi(x,y)は、以下に示す(式3)で表される。
Figure 2015154091
また、座標P1’(x’,0)に位置する画素から出力される光線のインデックスをi’(x,y)とする。このとき、インデックスをi’(x,y)は、当該画素の最適視聴距離Mに基づくインデックスi(x,y)と、視聴位置P(X,Z)と視点kによって定まる角度θ(X,Z)と、仮想視点の数Nと、全ての視点mの漏れ込み光線強度E(θ(X,Z))とから、以下に示す(式4)で表される。
Figure 2015154091
以上のような特性を利用して、光線ずれ検出部171は、取得したクロストーク情報と、表示パネル25に対する視聴者の位置とに基づき、クロストークの影響を加味して、各仮想視点で観測されるインデックス(換言すると、視点画像)を算出する。このとき、例えば、図6に示すような算出結果が得られる。なお、図6に示す例は、前述したように、一の仮想視点についてのみ示したデータであり、光線ずれ検出部171は、各仮想視点に対して図6に示すようなデータを生成する。なお、以降では、クロストークの影響を加味して算出された、各仮想視点で観測されるインデックスを示すデータを、「クロストークの解析結果」と呼ぶ場合がある。
光線ずれ検出部171は、算出したクロストークの解析結果と、原画像及び視差マップとを、光線ずれ補正部173に出力する。
光線ずれ補正部173は、光線ずれ補正部173は、最適視聴位置Mに応じて事前に定義されたインデックスマップに基づき、視聴者の位置に応じたインデックスマップを生成する。なお、最適視聴位置Mに基づくインデックスマップは、光線ずれ補正部173と後述する画像生成部175とが読み出し可能な位置にあらかじめ記憶させておくとよい。最適視聴位置Mに基づくインデックスマップは、例えば、図4に示すようなレンダリングルールに基づき定義することが可能である。以下に、光線ずれ補正部173の動作の詳細について説明する。
光線ずれ補正部173は、クロストークの解析結果と、原画像及び視差マップとを、光線ずれ検出部171から取得する。
光線ずれ補正部173は、取得したクロストークの解析結果に基づき、クロストークの影響を打ち消し、各仮想視点において所定のインデックス視点画像のみが観測されるように(即ち、インデックスのずれをキャンセルするように)レンダリングルールを設定する。
具体的には、補正された(ずれがキャンセルされた)インデックスをj(x,y)とした場合、当該インデックスj(x,y)は、前述した(式3)及び(式4)に基づき、以下に示す(式5)で表される。
Figure 2015154091
なお、(式5)において、i(x,y)が、図4に示したインデックスのうちのいずれかの視点(例えば、視点v4)のインデックスに相当し、i’(x,y)が、図6に示した、当該視点において実際に観測されるインデックスに相当する。そのため、(式5)に基づき、インデックスj(x,y)として、各視点について、図6に示すようなインデックスの分布が、上下左右それぞれについて反転したように、各インデックスが分布することとなる。
即ち、光線ずれ補正部173は、最適視聴位置Mに基づくインデックスマップの各画素に対応するインデックスi(x,y)が、ずれがキャンセルされたインデックスj(x,y)に変換されるように、(式3)〜(式5)に基づきレンダリングルールを設定する。例えば、光線ずれ補正部173により、図11に示すようなレンダリングルールが設定される。
そして、光線ずれ補正部173は、最適視聴位置Mに基づくインデックスマップにより各画素に関連付けられたインデックスを、設定したレンダリングルールに基づき算出されるインデックスに変換する。これにより、あらかじめ記憶された最適視聴位置Mに基づくインデックスマップの各インデックスが、検出された視聴者の位置に応じたインデックスに変換されて、当該視聴者の位置に応じたインデックスマップが生成される。
なお、検出された視聴者の位置が最適視聴位置Mに対応している場合には、光線ずれ補正部173は、インデックスルールの設定や、インデックスマップの変換を、必ずしも行わなくてもよいことは言うまでもない。
光線ずれ補正部173は、生成した視聴者の位置に基づくインデックスマップと、原画像及び視差マップとを画像生成部175に出力する。
画像生成部175は、視聴者の位置に基づくインデックスマップと、原画像及び視差マップとを光線ずれ補正部173から取得する。
画像生成部175は、取得した視聴者の位置に基づくインデックスマップ、原画像、及び視差マップに基づき、当該インデックスマップに含まれる各インデックスに対応する視点画像を生成する。
このとき、例えば、画像生成部175は、事前に定義された最適視聴位置Mに基づくインデックスマップと、取得した原画像及び視差マップとに基づき、各インデックスに対応した視点画像を仮生成する。これにより、例えば、9つの仮想視点が設定されている場合には、当該仮想視点それぞれに対応する視点画像、即ち、9つの視点画像が仮生成される。
最適視聴位置Mに基づくインデックスマップに基づき視点画像を仮生成した後、画像生成部175は、仮生成した各仮想視点を合成することで、取得した視聴者の位置に基づくインデックスマップの各インデックスに対応する視点画像を生成する。
もちろん、画像生成部175は、視聴者の位置に基づくインデックスマップ、原画像、及び視差マップに基づき、当該インデックスマップの各インデックスに対応する視点画像を直接生成してもよい。この場合には、例えば、画像生成部175は、各インデックスの値に基づき画素値を取得(または算出)し、取得した画素値に基づき各視点画像を生成すればよい。
また、画像生成部175は、視聴者の位置に基づくインデックスマップの各インデックスのうち、一部のインデックスについて視点画像を生成し、他の一部については、当該一部のインデックスについて生成された視点画像を合成することで生成してもよい。
画像生成部175は、視聴者の位置に基づくインデックスマップに基づき生成した各視点画像を基に、各画素に設定されたインデックスに対応した画像が表示された多視点画像を生成する。
なお、上記では、説明をわかりやすくするために各視点画像を生成し、生成した視点画像に基づき多視点画像を生成する例について説明したが、画像生成部175は、インデックスマップ、原画像、及び視差マップに基づき多視点画像を直接生成してもよい。
この場合には、画像生成部175は、多視点画像の各画素の画素値を、当該画素に設定されたインデックスに基づき算出すればよい。また、画像生成部175は、インデックスマップ、原画像、及び視差マップに基づき一部の画素の画素値を算出し、他の画素の画素値については、当該他の画素のインデックスに基づき、算出された一部の画素の画素値を合成することで算出してもよい。
画像生成部175は、生成した多視点画像を表示装置20に出力する。これにより、生成された多視点画像が表示装置20の表示パネル25に表示される。
[4.3.処理の流れ]
次に、図17を参照しながら、本実施形態に係る画像処理装置10の一連の処理の流れについて説明する。図17は、本実施形態に係る画像処理装置の一連の処理の流れについて説明するためのフローチャートである。
(ステップS101)
まず、画像取得部11は、表示装置20に表示させる各視点画像の生成元である原画像を外部から取得する。なお、画像取得部11は、放送として配信された原画像を、アンテナ30を介して受信してもよいし、外部メディアに記録された原画像を当該外部メディアから読み出してもよい。
(ステップS103)
また、画像取得部11は、原画像中の各画素に対して設定された、異なる視点画像間の視差の分布を示す視差マップを取得する。このとき、画像取得部11は、原画像と同様に、視差マップを外部から取得してもよい。また、他の一例として、画像取得部11は、取得した原画像を解析することで、当該解析結果に基づき視差マップを生成してもよい。
画像取得部11は、取得した原画像及び視差マップを光線ずれ検出部171に出力する。
(ステップS105)
また、画像処理装置10は、最適視聴位置Mに基づき事前に定義されたインデックスマップを、光線ずれ補正部173と画像生成部175とが読み出し可能な位置にあらかじめ記憶している。
(ステップS107)
位置情報取得部13は、視聴者の位置情報を、例えば、視聴位置検出装置40(図1参照)から取得する。位置情報取得部13は、取得した位置情報に基づき、表示装置20の表示パネル25に対する視聴者の位置(特に、奥行き方向の位置)を特定し、特定した視聴者の位置を光線ずれ検出部171に通知する。これにより、光線ずれ検出部171は、表示パネル25に対する視聴者の位置を認識することが可能となる。
(ステップS109)
クロストーク情報取得部15は、表示装置20のクロストーク情報を取得する。なお、当該クロストーク情報は、前述したように、例えば、表示装置20の構成に基づきあらかじめ生成し、クロストーク情報取得部15が読み出し可能な位置(例えば、画像処理装置10内の記憶部や表示装置20)に記憶させておくとよい。
クロストーク情報取得部15は、取得した表示装置20のクロストーク情報を光線ずれ検出部171に出力する。
光線ずれ検出部171は、画像取得部11から原画像及び視差マップを取得する。また、光線ずれ検出部171は、位置情報取得部13から、表示装置20の表示パネル25に対する視聴者の位置(特に、奥行き方向の位置)の通知を受ける。これにより、光線ずれ検出部171は、表示パネル25に対する視聴者の位置を認識することが可能となる。また、光線ずれ検出部171は、クロストーク情報取得部15から、表示装置20のクロストーク情報を取得する。
光線ずれ検出部171は、取得したクロストーク情報と、認識した表示パネル25に対する視聴者の位置とに基づき、当該視聴者の位置(奥行き方向の位置)に対応した各仮想視点におけるクロストークの影響を算出する。そして、光線ずれ検出部171は、算出したクロストークの影響を加味して、各仮想視点で観測されるインデックス(換言すると、視点画像)を算出する。
光線ずれ検出部171は、クロストークの影響を加味して算出した各仮想視点で観測されるインデックスを示すデータ(即ち、クロストークの解析結果)と、原画像及び視差マップとを、光線ずれ補正部173に出力する。
(ステップS111)
光線ずれ補正部173は、クロストークの解析結果と、原画像及び視差マップとを、光線ずれ検出部171から取得する。
光線ずれ補正部173は、取得したクロストークの解析結果に基づき、クロストークの影響を打ち消し、各仮想視点において所定のインデックス視点画像のみが観測されるように(即ち、インデックスのずれをキャンセルするように)レンダリングルールを設定する。
そして、光線ずれ補正部173は、最適視聴位置Mに基づくインデックスマップにより各画素に関連付けられたインデックスを、設定したレンダリングルールに基づき算出されるインデックスに変換する。これにより、あらかじめ記憶された最適視聴位置Mに基づくインデックスマップが、検出された視聴者の位置に応じたインデックスマップに変換される。即ち、光線ずれ補正部173により、検出された視聴者の位置に応じたインデックスマップが生成される。
なお、検出された視聴者の位置が最適視聴位置Mに対応している場合には、光線ずれ補正部173は、インデックスルールの設定や、インデックスマップの変換を、必ずしも行わなくてもよいことは言うまでもない。
光線ずれ補正部173は、生成した視聴者の位置に基づくインデックスマップと、原画像及び視差マップとを画像生成部175に出力する。
(ステップS120)
画像生成部175は、取得した視聴者の位置に基づくインデックスマップ、原画像、及び視差マップに基づき、当該インデックスマップに含まれる各インデックスに対応する視差画像を生成する。そして、画像生成部175は、視聴者の位置に基づくインデックスマップに基づき生成した各視点画像を基に、各画素に設定されたインデックスに対応した画像が表示された多視点画像を生成する。
ここで、画像生成部175の動作の一例について、図18を参照しながら詳しく説明する。図18は、画像生成部175による多視点画像の生成に係る処理の一例を示したフローチャートである。
(ステップS121)
例えば、画像生成部175は、事前に定義された最適視聴位置Mに基づくインデックスマップと、取得した原画像及び視差マップとに基づき、各インデックスに対応した視点画像を仮生成する。これにより、例えば、9つの仮想視点が設定されている場合には、当該仮想視点それぞれに対応する視点画像、即ち、9つの視点画像が仮生成される。
(ステップS123)
最適視聴位置Mに基づくインデックスマップに基づき視点画像を仮生成した後、画像生成部175は、仮生成した各仮想視点を合成することで、取得した視聴者の位置に基づくインデックスマップの各インデックスに対応する視点画像を生成する。
そして、画像生成部175は、視聴者の位置に基づくインデックスマップに基づき生成した各視点画像を基に、各画素に設定されたインデックスに対応した画像が表示された多視点画像を合成する。これにより、視聴者の位置に基づくインデックスマップに基づく多視点画像が生成される。
また、多視点画像の生成方法は図18に基づき上記に説明した方法には限定されない。例えば、図19は、画像生成部175による多視点画像の生成に係る処理の他の一例を示したフローチャートである。
(ステップS125)
図19に示す例では、画像生成部175は、視聴者の位置に基づくインデックスマップ、原画像、及び視差マップに基づき、当該インデックスマップの各インデックスに対応する視点画像を直接生成する。この場合には、例えば、画像生成部175は、各インデックスの値に基づき画素値を取得(または算出)し、取得した画素値に基づき各視点画像を生成すればよい。
(ステップS127)
画像生成部175は、視聴者の位置に基づくインデックスマップに基づき生成した各視点画像を基に、各画素に設定されたインデックスに対応した画像が表示された多視点画像を生成する。
なお、上記では、説明をわかりやすくするために各視点画像を生成し、生成した視点画像に基づき多視点画像を生成する例について説明したが、画像生成部175は、インデックスマップ、原画像、及び視差マップに基づき多視点画像を直接生成してもよい。
この場合には、多視点画像の各画素の画素値を、当該画素に設定されたインデックスに基づき算出すればよい。また、この場合には、画像生成部175は、インデックスマップ、原画像、及び視差マップに基づき一部の画素の画素値を算出し、他の画素の画素値については、当該他の画素のインデックスに基づき、算出された一部の画素の画素値を合成することで算出してもよい。
(ステップS113)
ここで、再度図17を参照する。画像生成部175は、生成した多視点画像を表示装置20に出力する。これにより、生成された多視点画像が表示装置20の表示パネル25に表示される。
[4.4.まとめ]
以上説明したように、本実施形態に係る画像処理装置10は、視聴者の位置を示す位置情報と表示装置20のクロストーク情報とに基づき、視聴者の位置に応じたクロストークの影響を打ち消すようにインデックスを生成し、各画素に関連付ける。そして、画像処理装置10は、生成した各インデックスに対応する視点画像を生成し、生成した視点画像を、当該視点画像に対応するインデックスが関連付けられた画素に表示させる。このような構成により、本実施形態に係る画像処理装置10は、最適視聴位置Mとは異なる位置に視聴者が位置する場合においても、観測される視点画像のずれ(インデックスのずれ)に伴うボケや二重像の発生を抑制することが可能となる。
<5.変形例>
[5.1.概要]
次に、変形例に係る画像処理装置10aについて説明する。所謂、裸眼3Dディスプレイのような表示装置20は、それぞれ視差の異なる視点画像が観測される仮想視点を複数配置して1つの正規領域を形成している。例えば、v0〜v8で示された9つの仮想視点が設定されている場合には、仮想視点v0〜v8を、表示パネル25に対して水平方向に並べることで1つの正規領域が形成される。そして、表示パネル25に対して水平方向に正規領域を繰り返し複数配置することで、視点画像が周期的に出現するようにしている場合がある。
一方で、ユーザが表示パネル25に対して水平方向に頭を動かした場合等、ユーザの左右の眼に対して、隣接する異なる正規領域に対応して視点画像がそれぞれ入力された場合に逆視現象が生じる場合がある。具体的な一例として、隣接する正規領域間では、一方の正規領域の仮想視点v8と、他方の正規領域の仮想視点v0とが隣接することとなる。このようにして観測される仮想視点v0に対応する視点画像と、仮想視点v8のそれぞれに対応する視点画像とは、視差値の差が大きい場合が少なくはなく、視点の歪みとして視聴者に観測される場合がある。
そこで、変形例に係る画像処理装置10aでは、例えば、隣接する各仮想視点に対応した視差画像間において視差値が所定の閾値以下となるように、光線ずれ補正部173により生成された視聴者の位置に応じたインデックスマップをさらに変換する。そして、画像処理装置10aは、変換されたインデックスマップに基づき多視点画像を生成することで、逆視現象等に伴う視点の歪みの発生を低減する。以下に、変形例に係る画像処理装置10aについて、より詳細に説明する。
[5.2.構成]
図20を参照しながら、変形例に係る画像処理装置10aの構成について説明する。図20に示すように、変形例に係る画像処理装置10aは、画像取得部11と、位置情報取得部13と、クロストーク情報取得部15と、画像処理部17aとを含む。
なお、画像取得部11、位置情報取得部13、及びクロストーク情報取得部15の動作は、前述した実施形態に係る画像処理装置10(図15参照)と同様のため詳細な説明は省略する。
また、画像処理部17aは、インデックス変換部177を含む点で、前述した実施形態に係る画像処理装置10と異なる。そのため、以降では、画像処理部17aのうち、特に、前述した実施形態に係る画像処理装置10の画像処理部17と異なる部分に着目して説明し、その他については詳細な説明は省略する。
光線ずれ検出部171は、クロストーク情報と、表示パネル25に対する視聴者の位置とに基づき、クロストークの影響を加味して、各仮想視点で観測されるインデックス(換言すると、視点画像)を算出する。
光線ずれ検出部171は、クロストークの影響を加味して算出した各仮想視点で観測されるインデックスを示すデータ(即ち、クロストークの解析結果)と、原画像及び視差マップとを、光線ずれ補正部173に出力する。
光線ずれ補正部173は、クロストークの解析結果と、原画像及び視差マップとを、光線ずれ検出部171から取得する。
光線ずれ補正部173は、取得したクロストークの解析結果に基づき、クロストークの影響を打ち消し、各仮想視点において所定のインデックス視点画像のみが観測されるように(即ち、インデックスのずれをキャンセルするように)レンダリングルールを設定する。
そして、光線ずれ補正部173は、最適視聴位置Mに基づくインデックスマップにより各画素に関連付けられたインデックスを、設定したレンダリングルールに基づき算出されるインデックスに変換する。これにより、あらかじめ記憶された最適視聴位置Mに基づくインデックスマップが、検出された視聴者の位置に応じたインデックスマップに変換される。即ち、光線ずれ補正部173により、検出された視聴者の位置に応じたインデックスマップが生成される。ここまでの処理は、前述した実施形態に係る画像処理装置10の画像処理部17と同様である。
光線ずれ補正部173は、生成した視聴者の位置に基づくインデックスマップと、原画像及び視差マップとをインデックス変換部177に出力する。
インデックス変換部177は、視聴者の位置に基づくインデックスマップと、原画像及び視差マップとを光線ずれ補正部173から取得する。
インデックス変換部177は、取得したインデックスマップで示された各画素に対応するインデックスを、隣接する仮想視点それぞれで観測される視点画像の差が閾値以下となるように変換する。具体的な一例として、インデックス変換部177は、取得したインデックスマップで示された各画素に対応するインデックスを、隣接する画素それぞれに対応付けられたインデックス間の差が閾値以下となるように変換する。
ここで、取得されたインデックスマップが示す視点kに対応した座標(x,y)における画素のインデックスをj(x,y)、当該インデックスj(x,y)がインデックス変換部177により変換されたインデックスをj’(x,y)とする。このとき、インデックス変換部177は、取得したインデックマップに基づくインデックスj(x,y)を、以下に示す(式6)及び(式7)に基づき変換する。
Figure 2015154091
Figure 2015154091
図21は、インデックス変換のルールの一例について模式的に示した図であり、前述した(式6)及び(式7)に基づく変換ルールを示している。図21の横軸は、変換前、即ち、取得されたインデックスマップに基づくインデックスj(x,y)を示している。また、縦軸は、変換後のインデックスj’(x,y)を示している。即ち、図21は、前述した(式6)及び(式7)に基づきインデックスの変換を行った場合における、変換前のインデックスj(x,y)と、変換後のインデックスj’(x,y)との対応関係を示している。なお、図21に示す例は、9つの仮想視点が設定され、インデックスの値として1〜9が設定されているものとして示している。
図21に示すように、インデックスを変換することで、例えば、変換前のインデックスマップに基づく仮想視点v8及びv0のそれぞれに対応する視差画像のように、視差値が大きい視差画像が観測される事態(例えば、逆視現象の発生)を防止することが可能となる。
なお、(式6)及び(式7)と、図21とで示されたインデックス変換のルールはあくまで一例であり、隣接する仮想視点それぞれで観測される視点画像の差が閾値以下となるように変換可能であれば、その態様は特に限定されない。
インデックス変換部177は、前述したインデックス変換のルールに基づき、インデックスが変換されたインデックスマップと、原画像及び視差マップとを画像生成部175に出力する。なお、以降の処理は、前述した実施形態に係る画像処理装置10の画像処理部17と同様である。即ち、画像生成部175は、インデックス変換部177から取得したインデックスマップと、原画像及び視差マップとに基づき多視点画像を生成し、生成した多視点画像を表示装置20に表示させる。
[5.3.処理の流れ]
次に、図22を参照しながら、変形例に係る画像処理装置10aの動作について説明する。図22は、変形例に係る画像処理装置10aの一連の処理の流れについて説明するためのフローチャートである。なお、変形例に係る画像処理装置10aは、ステップS130に係る処理が追加されている点で、前述した実施形態に係る画像処理装置10と異なる。そのため、以降では、ステップS130に係る処理に着目して説明し、前述した実施形態に係る画像処理装置10と同様の処理については、詳細な説明は省略する。
(ステップS101〜S109)
光線ずれ検出部171は、クロストーク情報と、表示パネル25に対する視聴者の位置とに基づき、クロストークの影響を加味して、各仮想視点で観測されるインデックス(換言すると、視点画像)を算出する。
光線ずれ検出部171は、クロストークの影響を加味して算出した各仮想視点で観測されるインデックスを示すデータ(即ち、クロストークの解析結果)と、原画像及び視差マップとを、光線ずれ補正部173に出力する。
(ステップS111)
光線ずれ補正部173は、クロストークの解析結果と、原画像及び視差マップとを、光線ずれ検出部171から取得する。
光線ずれ補正部173は、取得したクロストークの解析結果に基づき、クロストークの影響を打ち消し、各仮想視点において所定のインデックス視点画像のみが観測されるように(即ち、インデックスのずれをキャンセルするように)レンダリングルールを設定する。
そして、光線ずれ補正部173は、最適視聴位置Mに基づくインデックスマップにより各画素に関連付けられたインデックスを、設定したレンダリングルールに基づき算出されるインデックスに変換する。これにより、あらかじめ記憶された最適視聴位置Mに基づくインデックスマップが、検出された視聴者の位置に応じたインデックスマップに変換される。即ち、光線ずれ補正部173により、検出された視聴者の位置に応じたインデックスマップが生成される。ここまでの処理は、前述した実施形態に係る画像処理装置10の画像処理部17と同様である。
光線ずれ補正部173は、生成した視聴者の位置に基づくインデックスマップと、原画像及び視差マップとをインデックス変換部177に出力する。
(ステップS130)
インデックス変換部177は、視聴者の位置に基づくインデックスマップと、原画像及び視差マップとを光線ずれ補正部173から取得する。
インデックス変換部177は、取得したインデックスマップで示された各画素に対応するインデックスを、あらかじめ決められたインデックス変換のルールに基づき、隣接する画素それぞれに対応付けられたインデックス間の差が所定の閾値未満となるように変換する。例えば、図21は、インデックス変換のルールの一例を示している。
インデックス変換部177は、前述したインデックス変換のルールに基づき、インデックスが変換されたインデックスマップと、原画像及び視差マップとを画像生成部175に出力する。
なお、ステップS120以降の処理は、前述した実施形態に係る画像処理装置10の画像処理部17(図17〜図19)と同様である。即ち、画像生成部175は、インデックス変換部177から取得したインデックスマップと、原画像及び視差マップとに基づき多視点画像を生成し、生成した多視点画像を表示装置20に表示させる。
[5.4.まとめ]
以上説明したように、変形例に係る画像処理装置10aは、視聴者の位置に基づくインデックスマップにおける各画素に対応付けられたインデックスを、隣接する仮想視点それぞれで観測される視点画像の差が閾値以下となるように変換する。このような構成により、変形例に係る画像処理装置10aは、例えば、変換前のインデックスマップに基づく仮想視点v8及びv0のそれぞれに対応する視差画像のように、視差値が大きい視差画像が観測される事態を防止することが可能となる。即ち、画像処理装置10aは、例えば逆視現象等に伴う視点の歪みの発生を低減することが可能となる。
<6.ハードウェア構成>
次に、図23を参照して、本実施形態に係る画像処理装置10のハードウェア構成の一例について説明する。図23は、本実施形態に係る画像処理装置10のハードウェア構成の一例を示した図である。
図23に示すように、本実施形態に係る画像処理装置10は、プロセッサ901と、メモリ903と、ストレージ905と、操作デバイス907と、表示デバイス909と、通信デバイス911と、バス913とを含む。
プロセッサ901は、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)又はSoC(System on Chip)であってよく、画像処理装置10の様々な処理を実行する。プロセッサ901は、例えば、各種演算処理を実行するための電子回路により構成することが可能である。なお、前述した画像取得部11、位置情報取得部13、クロストーク情報取得部15、及び画像処理部17は、プロセッサ901により構成され得る。
メモリ903は、RAM(Random Access Memory)及びROM(Read Only Memory)を含み、プロセッサ901により実行されるプログラム及びデータを記憶する。ストレージ905は、半導体メモリ又はハードディスクなどの記憶媒体を含み得る。
操作デバイス907は、ユーザが所望の操作を行うための入力信号を生成する機能を有する。操作デバイス907は、例えばボタン及びスイッチなどユーザが情報を入力するための入力部と、ユーザによる入力に基づいて入力信号を生成し、プロセッサ901に供給する入力制御回路などから構成されてよい。
表示デバイス909は、出力装置の一例であり、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、有機EL(OLED:Organic Light Emitting Diode)ディスプレイ装置などの表示装置であってよい。表示デバイス909は、ユーザに対して画面を表示することにより情報を提供することができる。なお、前述した表示装置20を、当該表示デバイス909として構成してもよいし、表示装置20とは別に表示デバイス909を設けてもよい。
通信デバイス911は、画像処理装置10が備える通信手段であり、ネットワークを介して外部装置と通信する。通信デバイス911は、無線通信用のインタフェースであり、通信アンテナ、RF(Radio Frequency)回路、ベースバンドプロセッサなどを含んでもよい。
通信デバイス911は、外部装置から受信した信号に各種の信号処理を行う機能を有し、受信したアナログ信号から生成したデジタル信号をプロセッサ901に供給することが可能である。
バス913は、プロセッサ901、メモリ903、ストレージ905、操作デバイス907、表示デバイス909、及び通信デバイス911を相互に接続する。バス913は、複数の種類のバスを含んでもよい。
また、コンピュータに内蔵されるCPU、ROM及びRAMなどのハードウェアを、上記した画像処理装置10が有する構成と同等の機能を発揮させるためのプログラムも作成可能である。また、当該プログラムを記録した、コンピュータに読み取り可能な記憶媒体も提供され得る。
<7.適用例>
上記に示した実施形態に係る画像処理装置の適用例について、以下に具体的な例を挙げて説明する。
例えば、図24は、テレビジョン装置の外観構成を表している。このテレビジョン装置は、例えば、フロントパネル411およびフィルターガラス412を含む映像表示画面部410(表示装置20)を備えている。なお、テレビジョン装置の筐体内に設けられた、映像表示画面部410への画像の表示に係るデバイス(例えば、CPUやGPUのようなプロセッサ)が、上述した実施形態に係る画像処理装置10に相当する。テレビジョン装置として本開示による表示装置を用いることにより、最適視聴位置とは異なる位置に視聴者が位置する場合においても、観測される視点画像のずれに伴うボケや二重像の発生を抑制することが可能となり、テレビジョン装置に貢献することができる。
また、本実施形態に係る画像処理装置10は、例えば、タブレット端末に適用することも可能である。この場合には、タブレット端末の筐体内に設けられた、当該タブレット端末の表示画面部への画像の表示に係るデバイス(例えば、CPUやGPUのようなプロセッサ)が、上述した実施形態に係る画像処理装置10に相当する。タブレット端末として本開示による表示装置を用いることにより、ボケや二重像の発生による観察者の疲労感を抑制することが可能となり、タブレット端末に貢献することができる。
なお、上記に示した各適用例はあくまで一例であり、本実施形態に係る画像処理装置を適用可能な構成を限定するものではないことは、言うまでもない。
<8.まとめ>
以上説明したように、本実施形態に係る画像処理装置は、視聴者の位置を示す位置情報と表示装置20のクロストーク情報とに基づき、視聴者の位置に応じたクロストークの影響を打ち消すようにインデックスを生成し、各画素に関連付ける。そして、画像処理装置10は、生成した各インデックスに対応する視点画像を生成し、生成した視点画像を、当該視点画像に対応するインデックスが関連付けられた画素に表示させる。このような構成により、本実施形態に係る画像処理装置10は、最適視聴位置Mとは異なる位置に視聴者が位置する場合においても、観測される視点画像のずれ(インデックスのずれ)に伴うボケや二重像の発生を抑制することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
原画像を取得することと、
表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得することと、
前記表示部のクロストーク特性を示すクロストーク情報を取得することと、
プロセッサに、あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成させることと、
前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力することと、
を含む、画像処理方法。
(2)
前記インデックスマップに基づき出力される前記第2の視点画像の数が、あらかじめ設定された複数の視点それぞれに対応する前記第1の視点画像の数よりも多い、前記(1)に記載の画像処理方法。
(3)
前記第1の視点画像は、前記奥行き方向における所定の視聴位置に基づく前記複数の視点それぞれにおいて、互いに異なる視点画像が観測されるようにあらかじめ設定され、
前記所定の視聴位置で観測される前記第1の視点画像と、前記クロストーク特性に応じて前記位置情報が示す位置で観測される前記第1の視点画像との間のずれ量に基づき、前記インデックスマップに含まれる前記制御情報が生成される、前記(1)または(2)に記載の画像処理方法。
(4)
前記ずれ量は、前記位置情報が示す位置における、前記クロストーク情報が示すクロストークの大きさに基づき推定される、前記(3)に記載の画像処理装置。
(5)
前記インデックスマップに含まれる各制御情報は、推定された前記ずれ量に基づき、前記クロストークが打ち消されるように生成される、前記(4)に記載の画像処理装置。
(6)
前記インデックスマップは、前記所定の視聴位置に基づく前記複数の視点それぞれにおいて、互いに異なる視点画像が観測されるようにあらかじめ設定されたインデックスマップに含まれる各インデックスが、前記ずれ量に基づき変換されることで生成される、前記(3)〜(5)のいずれか一項に記載の画像処理方法。
(7)
前記インデックスマップに含まれる各制御情報は、隣接する仮想視点それぞれで観測される視点画像の差が閾値以下となるように変換されて、
当該制御情報が変換されたインデックスマップに基づき前記第2の視点画像が出力される、前記(1)〜(6)のいずれか一項に記載の画像処理方法。
(8)
前記インデックスマップに含まれる前記制御情報それぞれに対応した前記第2の視点画像は、前記第1の視点画像を合成することで生成される、前記(1)〜(7)のいずれか一項に記載の画像処理方法。
(9)
前記インデックスマップに含まれる前記制御情報それぞれに対応した前記第2の視点画像は、前記原画像を基に生成される、前記(1)〜(7)のいずれか一項に記載の画像処理方法。
(10)
前記クロストーク情報は、あらかじめ前記表示部に関連付けられて記憶されている、前記(1)〜(9)のいずれか一項に記載の画像処理方法。
(11)
原画像を取得する画像取得部と、
表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得する位置情報取得部と、
前記表示部のクロストーク特性を示すクロストーク情報を取得するクロストーク情報取得部と、
あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成するインデックスマップ生成部と、
前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力する画像生成部と、
を備える、画像処理装置。
(12)
原画像を取得する画像取得部と、
表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得する位置情報取得部と、
前記表示部のクロストーク特性を示すクロストーク情報を取得するクロストーク情報取得部と、
あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成するインデックスマップ生成部と、
前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力する画像生成部と、
を備える、電子機器。
10、10a 画像処理装置
11 画像取得部
13 位置情報取得部
15 クロストーク情報取得部
17、17a 画像処理部
171 検出部
173 補正部
175 画像生成部
177 インデックス変換部
20 表示装置
21 バックライト
23 バリア
25 表示パネル
30 アンテナ
40 視聴位置検出装置

Claims (12)

  1. 原画像を取得することと、
    表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得することと、
    前記表示部のクロストーク特性を示すクロストーク情報を取得することと、
    プロセッサに、あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成させることと、
    前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力することと、
    を含む、画像処理方法。
  2. 前記インデックスマップに基づき出力される前記第2の視点画像の数が、あらかじめ設定された複数の視点それぞれに対応する前記第1の視点画像の数よりも多い、請求項1に記載の画像処理方法。
  3. 前記第1の視点画像は、前記奥行き方向における所定の視聴位置に基づく前記複数の視点それぞれにおいて、互いに異なる視点画像が観測されるようにあらかじめ設定され、
    前記所定の視聴位置で観測される前記第1の視点画像と、前記クロストーク特性に応じて前記位置情報が示す位置で観測される前記第1の視点画像との間のずれ量に基づき、前記インデックスマップに含まれる前記制御情報が生成される、請求項1に記載の画像処理方法。
  4. 前記ずれ量は、前記位置情報が示す位置における、前記クロストーク情報が示すクロストークの大きさに基づき推定される、請求項3に記載の画像処理装置。
  5. 前記インデックスマップに含まれる各制御情報は、推定された前記ずれ量に基づき、前記クロストークが打ち消されるように生成される、請求項4に記載の画像処理装置。
  6. 前記インデックスマップは、前記所定の視聴位置に基づく前記複数の視点それぞれにおいて、互いに異なる視点画像が観測されるようにあらかじめ設定されたインデックスマップに含まれる各インデックスが、前記ずれ量に基づき変換されることで生成される、請求項3に記載の画像処理方法。
  7. 前記インデックスマップに含まれる各制御情報は、隣接する仮想視点それぞれで観測される視点画像の差が閾値以下となるように変換されて、
    当該制御情報が変換されたインデックスマップに基づき前記第2の視点画像が出力される、請求項1に記載の画像処理方法。
  8. 前記インデックスマップに含まれる前記制御情報それぞれに対応した前記第2の視点画像は、前記第1の視点画像を合成することで生成される、請求項1に記載の画像処理方法。
  9. 前記インデックスマップに含まれる前記制御情報それぞれに対応した前記第2の視点画像は、前記原画像を基に生成される、請求項1に記載の画像処理方法。
  10. 前記クロストーク情報は、あらかじめ前記表示部に関連付けられて記憶されている、請求項1に記載の画像処理方法。
  11. 原画像を取得する画像取得部と、
    表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得する位置情報取得部と、
    前記表示部のクロストーク特性を示すクロストーク情報を取得するクロストーク情報取得部と、
    あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成するインデックスマップ生成部と、
    前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力する画像生成部と、
    を備える、画像処理装置。
  12. 原画像を取得する画像取得部と、
    表示部に対する視聴者の奥行き方向の位置を示す位置情報を取得する位置情報取得部と、
    前記表示部のクロストーク特性を示すクロストーク情報を取得するクロストーク情報取得部と、
    あらかじめ設定された複数の視点それぞれに対応する、前記原画像に基づく互いに異なる第1の視点画像のうち、いずれかの前記第1の視点画像が、前記位置情報が示す位置においてクロストークが打ち消されて観測されるように、取得した前記位置情報と前記クロストーク情報とに基づき、前記表示部の各画素と、前記位置情報に基づく前記複数の視点それぞれとの対応関係を示す制御情報を含むインデックスマップを生成するインデックスマップ生成部と、
    前記原画像と前記インデックスマップとに基づき、当該インデックスマップに含まれる前記制御情報それぞれに対応した第2の視点画像を出力する画像生成部と、
    を備える、電子機器。

JP2014023395A 2014-02-10 2014-02-10 画像処理方法、画像処理装置、及び電子機器 Pending JP2015154091A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014023395A JP2015154091A (ja) 2014-02-10 2014-02-10 画像処理方法、画像処理装置、及び電子機器
US14/612,568 US9838664B2 (en) 2014-02-10 2015-02-03 Image processing method, image processing device, and electronic apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014023395A JP2015154091A (ja) 2014-02-10 2014-02-10 画像処理方法、画像処理装置、及び電子機器

Publications (1)

Publication Number Publication Date
JP2015154091A true JP2015154091A (ja) 2015-08-24

Family

ID=53776096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014023395A Pending JP2015154091A (ja) 2014-02-10 2014-02-10 画像処理方法、画像処理装置、及び電子機器

Country Status (2)

Country Link
US (1) US9838664B2 (ja)
JP (1) JP2015154091A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132298A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5397190B2 (ja) 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015095779A (ja) 2013-11-12 2015-05-18 ソニー株式会社 画像処理装置、画像処理方法及び電子機器
US10853625B2 (en) 2015-03-21 2020-12-01 Mine One Gmbh Facial signature methods, systems and software
US11501406B2 (en) 2015-03-21 2022-11-15 Mine One Gmbh Disparity cache
WO2016154123A2 (en) 2015-03-21 2016-09-29 Mine One Gmbh Virtual 3d methods, systems and software
EP3721378A4 (en) * 2017-12-05 2021-08-18 Mine One GmbH DISPARITY CACHE MEMORY

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006262191A (ja) 2005-03-17 2006-09-28 Victor Co Of Japan Ltd 複数視点立体映像表示方法及び複数視点立体映像表示装置並びに複数視点立体映像表示プログラム
KR101615111B1 (ko) * 2009-06-16 2016-04-25 삼성전자주식회사 다시점 영상 표시 장치 및 방법
KR20110041753A (ko) * 2009-10-16 2011-04-22 삼성전자주식회사 시점간 크로스톡 저감 장치 및 방법
KR101768101B1 (ko) * 2009-10-30 2017-08-30 엘지전자 주식회사 정보 표시 장치 및 그 방법
JP5397190B2 (ja) 2009-11-27 2014-01-22 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
US8565516B2 (en) * 2010-02-05 2013-10-22 Sony Corporation Image processing apparatus, image processing method, and program
KR102140080B1 (ko) * 2013-09-27 2020-07-31 삼성전자주식회사 다시점 영상 디스플레이 장치 및 제어 방법
EP2853936A1 (en) * 2013-09-27 2015-04-01 Samsung Electronics Co., Ltd Display apparatus and method
JP2015095779A (ja) 2013-11-12 2015-05-18 ソニー株式会社 画像処理装置、画像処理方法及び電子機器
JP2015132995A (ja) 2014-01-14 2015-07-23 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP2015149547A (ja) 2014-02-05 2015-08-20 ソニー株式会社 画像処理方法、画像処理装置、及び電子機器
JP2015154101A (ja) 2014-02-10 2015-08-24 ソニー株式会社 画像処理方法、画像処理装置及び電子機器
JP2015156607A (ja) 2014-02-21 2015-08-27 ソニー株式会社 画像処理装置、画像処理装置、及び電子機器
JP2015162718A (ja) 2014-02-26 2015-09-07 ソニー株式会社 画像処理方法、画像処理装置及び電子機器

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021132298A1 (ja) * 2019-12-27 2021-07-01 ソニーグループ株式会社 情報処理装置、情報処理方法及びプログラム
US11727833B2 (en) 2019-12-27 2023-08-15 Sony Group Corporation Information processing apparatus and information processing method for suppressing crosstalk while suppressing degradation in image quality

Also Published As

Publication number Publication date
US9838664B2 (en) 2017-12-05
US20150229901A1 (en) 2015-08-13

Similar Documents

Publication Publication Date Title
JP2015154091A (ja) 画像処理方法、画像処理装置、及び電子機器
JP6308513B2 (ja) 立体画像表示装置、画像処理装置及び立体画像処理方法
US10237539B2 (en) 3D display apparatus and control method thereof
JP4793451B2 (ja) 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
US9838673B2 (en) Method and apparatus for adjusting viewing area, and device capable of three-dimension displaying video signal
US10694173B2 (en) Multiview image display apparatus and control method thereof
TWI521941B (zh) Stereoscopic image display device and method
JP2014230019A (ja) 焦点可変レンズを有するビューア、および映像表示システム
TW201322733A (zh) 影像處理裝置、立體影像顯示裝置、影像處理方法及影像處理程式
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
US9760263B2 (en) Image processing device, image processing method, and stereoscopic image display device
US20140071237A1 (en) Image processing device and method thereof, and program
JP2013065951A (ja) 表示装置、表示方法、及びプログラム
US20130162630A1 (en) Method and apparatus for displaying stereoscopic image contents using pixel mapping
JP2015050482A (ja) 画像処理装置、立体画像表示装置、画像処理方法およびプログラム
CN103297791B (zh) 图像显示装置及图像显示方法
US20130257870A1 (en) Image processing apparatus, stereoscopic image display apparatus, image processing method and computer program product
CN102843571B (zh) 多视角立体显示器影像合成方法
JP2013009864A (ja) 3次元画像処理装置
CN102780900B (zh) 一种多人多视角立体显示器影像显示方法
JP4892105B1 (ja) 映像処理装置、映像処理方法および映像表示装置
US20140362197A1 (en) Image processing device, image processing method, and stereoscopic image display device
JP2015149547A (ja) 画像処理方法、画像処理装置、及び電子機器
JP5323222B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2014089521A (ja) 検出装置、映像表示システムおよび検出方法