JPWO2013128765A1 - 画像処理装置、画像処理方法およびコンピュータプログラム - Google Patents
画像処理装置、画像処理方法およびコンピュータプログラム Download PDFInfo
- Publication number
- JPWO2013128765A1 JPWO2013128765A1 JP2014501975A JP2014501975A JPWO2013128765A1 JP WO2013128765 A1 JPWO2013128765 A1 JP WO2013128765A1 JP 2014501975 A JP2014501975 A JP 2014501975A JP 2014501975 A JP2014501975 A JP 2014501975A JP WO2013128765 A1 JPWO2013128765 A1 JP WO2013128765A1
- Authority
- JP
- Japan
- Prior art keywords
- parallax
- image
- images
- statistical information
- processing apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/144—Processing image signals for flicker reduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/156—Mixing image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/172—Processing image signals image signals comprising non-image signal components, e.g. headers or format information
- H04N13/183—On-screen display [OSD] information, e.g. subtitles or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/261—Image signal generators with monoscopic-to-stereoscopic image conversion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0092—Image segmentation from stereoscopic image signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0096—Synchronisation or controlling aspects
Abstract
【課題】ユーザの目に疲労感を与えないように、複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能な画像処理装置を提供する。【解決手段】複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、各前記3D画像に対して前記視差解析部が生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換する視差制御部と、を備える、画像処理装置が提供される。【選択図】図1
Description
本開示は、画像処理装置、画像処理方法およびコンピュータプログラムに関する。
画像を立体的に見せることが出来る3D画像の表示に関する技術が広く開発されている。また、複数の3D画像の合成表示に関する技術も提案されている(特許文献1参照)。特許文献1に記載された技術は、3Dの主画像に3Dの副画像を合成してその合成画像を表示する場合、3Dの主画像の画面に垂直な方向である奥行き方向における3D主画像の位置が、奥行き方向における副画像の位置から離れすぎたり、近づきすぎたりすることがあると、ユーザの目に疲労感を与えてしまうので、その疲労感を軽減するための技術である。
特許文献1に記載された技術は、3Dの主画像と3Dの副画像とのそれぞれの統計情報を用いて、主画像および副画像の奥行き方向の位置間隔が所定範囲内になるように補正するものである。
しかし、3Dの主画像または3Dの副画像の画像全体を奥行き方向にシフトさせて補正すると、各画像の視差のダイナミックレンジは変えられないので、場合によっては、ある3D画像に他の3D画像がめり込んで表示されてしまう等の矛盾のある画像が生成されてしまうという問題があった。
そこで、本開示は、上記問題に鑑みてなされたものであり、本開示の目的とするところは、ユーザの目に疲労感を与えないように、複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能な、新規かつ改良された画像処理装置、画像処理方法およびコンピュータプログラムを提供することにある。
本開示によれば、複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、各前記3D画像に対して前記視差解析部が生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換する視差制御部と、を備える、画像処理装置が提供される。
かかる構成によれば、視差検出部は、供給されてくる複数の3D画像のそれぞれに対して視差を検出し、視差解析部は、各3D画像に対して視差検出部が検出した視差を用いて、各3D画像に対して視差の統計情報を生成する。そして視差制御部は、各3D画像に対して視差解析部が生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各3D画像が重ならないように視差を変換する。その結果、かかる画像処理装置は、ユーザの目に疲労感を与えないように、複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能となる。
また本開示によれば、複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、を備える、画像処理方法が提供される。
また本開示によれば、コンピュータに、複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、ユーザの目に疲労感を与えないように、複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能な、新規かつ改良された画像処理装置、画像処理方法およびコンピュータプログラムを提供することができる。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.第1の実施形態>
[画像処理装置の構成例]
[画像処理装置の動作]
<2.第2の実施形態>
[画像処理装置の構成例]
[画像処理装置の動作]
<3.まとめ>
<1.第1の実施形態>
[画像処理装置の構成例]
[画像処理装置の動作]
<2.第2の実施形態>
[画像処理装置の構成例]
[画像処理装置の動作]
<3.まとめ>
<1.第1の実施形態>
[画像処理装置の構成例]
まず、本開示の第1の実施形態にかかる画像処理装置の機能構成例を説明する。図1は、本開示の第1の実施形態にかかる画像処理装置の機能構成を示す説明図である。以下、図1を用いて本開示の第1の実施形態にかかる画像処理装置の機能構成について説明する。
[画像処理装置の構成例]
まず、本開示の第1の実施形態にかかる画像処理装置の機能構成例を説明する。図1は、本開示の第1の実施形態にかかる画像処理装置の機能構成を示す説明図である。以下、図1を用いて本開示の第1の実施形態にかかる画像処理装置の機能構成について説明する。
画像処理装置100は、例えば、BD(Blu−Ray(商標)Disc)などの記録媒体から読み出されたり、ネットワークなどを介して外部の装置から受信されたりした主画像データ、副画像データ等を受信する。なお、本明細書で使用されるとき、「主画像データ」という用語は一画面のための所定のサイズの3Dの主画像の画像データを指し、「副画像データ」という用語は一画面のための所定サイズの3Dの副画像の画像データを指す。主画像は、例えば3D画像のメインとなる画像であり、副画像はそのメインとなる画像に付随して表示される字幕、エフェクト等からなる画像である。また、主画像の中に一部に表示されるものを副画像としても良い。画像処理装置100は、3Dの主画像と、3Dの副画像とを合成して、合成画像データを生成する。
図1に示したように、画像処理装置100は、視差検出部110a、110bと、視差解析部120a、120bと、視差制御部130と、画像変換部140a、140bと、画像重畳部150と、ディスプレイ160と、を含んで構成される。
視差検出部110aは、外部から入力された主画像データを構成する、左目用の主画像の画像データと右目用の主画像の画像データとを用いて、3Dの主画像の視差を画素ごとに検出する。視差の検出は、例えば、特開2011−055022号で開示されている技術を用いても良い。視差検出部110aは、3Dの主画像の視差を画素毎に検出すると、検出した視差についてのデータを視差解析部120aに供給する。なお、視差は、単一の画素からではなく、複数の画素を含むブロックから検出されてもよい。
同様に、視差検出部110bは、外部から入力された副画像データを構成する、左目用の主画像の画像データと右目用の副画像の画像データとを用いて、3Dの副画像の視差を画素ごとに検出する。視差検出部110bは、3Dの副画像の視差を画素毎に検出すると、検出した視差についてのデータを視差解析部120bに供給する。
視差解析部120aは、視差検出部110aが検出した3Dの主画像の視差の情報を解析して、3Dの主画像の視差統計情報を生成する。視差解析部120aは、視差の統計情報として、例えば、特開2011−055022号で開示されている技術を用いて視差分布を生成してもよく、または、主画像の各画素の視差を表す視差マップを生成してもよい。視差マップの生成には、例えば、特開2006−114023号公報に記載されている技術を用いても良い。視差解析部120aは、3Dの主画像の視差統計情報を生成すると、生成した視差統計情報を視差制御部130に供給する。
同様に、視差解析部120bは、視差検出部110bが検出した3Dの副画像の視差の情報を解析して、視差の統計情報を生成する。視差解析部120bは、3Dの副画像の視差統計情報を生成すると、生成した視差統計情報を視差制御部130に供給する。
図2は、視差解析部120a、120bが生成する視差統計情報の例を示す説明図である。視差解析部120a、120bは、3Dの主画像および副画像の視差の情報を解析して、図2に示したような視差統計情報を生成する。図2では、ディスプレイ面より奥側に再頻度の視差が存在している例が示されている。
視差制御部130は、外部から入力される3Dの主画像の画像サイズ、表示サイズ、および表示位置を受信する。また、視差制御部130は、外部から入力される3Dの副画像の画像サイズ、表示サイズ、および表示位置を受信する。表示位置の情報としては、3D画像として超えてはいけない手前側および奥側の視差の基準値の情報が、視差制御部130に供給される。
人は、画面の奥側の視差が目幅よりも広くついた3D画像を見ることはできない。従って、少なくとも3D画像における画面の奥側の視差は目幅を超えないようにしなければならない。また、人が3Dとして融像できるためには、画面の手前側の視差量も考慮する必要がある。この値は個人差があり一様に決める事はできないが、3Dコンソーシアムが策定した、3D映像の安全ガイドライン(3DC安全ガイドライン)では、3D映像を表示するテレビでは、視差角を1度以内に収めると目に易しい映像であるとされている(http://www.3dc.gr.jp/jp/scmt_wg_rep/guide_index.html)。つまり、3D画像の視差は、あるレンジの中に収める必要がある。そのレンジについての情報が視差制御部130に供給される。ここでは、超えてはいけない画面手前側の視差の基準値をdisp_min、画面奥側の視差の基準値をdisp_maxとする。
そして視差制御部130は、視差解析部120aから供給される3Dの主画像の統計情報、および視差解析部120bから供給される3Dの副画像の統計情報を用いて、めり込みなどの矛盾が起きないように、主画像・副画像それぞれの視差(奥行き)を調整するための補正方法および補正量を求める。視差制御部130による、主画像・副画像それぞれの視差(奥行き)を調整するための補正方法および補正量の求め方については、後に詳述する。視差制御部130は、3Dの主画像・副画像それぞれの視差(奥行き)を調整するための補正方法および補正量を求めると、その補正方法および補正量の情報を画像変換部140a、140bに供給する。3Dの主画像・副画像の補正方法については後に詳述する。
画像変換部140aは、視差制御部130が求めた、3Dの主画像の視差(奥行き)を調整するための補正方法および補正量に基づいて、3Dの主画像を加工する。画像変換部140aは、3Dの主画像を加工すると、加工後の3Dの主画像を画像重畳部150へ供給する。
同様に、画像変換部140bは、視差制御部130が求めた、3Dの副画像の視差(奥行き)を調整するための補正方法および補正量に基づいて、3Dの副画像を加工する。画像変換部140bは、3Dの副画像を加工すると、加工後の3Dの副画像を画像重畳部150へ供給する。
画像重畳部150は、画像変換部140aによって加工された3Dの主画像と、画像変換部140bによって加工された3Dの副画像とを重畳する。画像重畳部150は、3Dの主画像と副画像とを重畳すると、重畳して得られる表示画像データをディスプレイ160に供給する。
ディスプレイ160は、3D画像を表示することが可能な3Dディスプレイで形成される。ディスプレイ160は、画像重畳部150から供給される表示画像データを用いて、左目用の画面と右目用の画面を時分割で表示する。このとき、ユーザは、例えば、左目用の画面と右目用の画面の切り替えに同期したシャッタ付き眼鏡を装着してディスプレイ160に表示される画像を見る。ユーザは、左目用の画面を左目だけで見て、右目用の画面を右目だけで見る。これにより、ユーザは、3Dの主画像と副画像とが重畳された3D画像を見ることができる。
なお、ディスプレイ160は、ユーザに裸眼で3D画像として認識できるような3Dディスプレイで形成されていても良い。そのような3Dディスプレイとしては、例えばパララックスバリア方式(視差バリア方式)、レンティキュラ方式を用いたもの等がある。
以上、図1を用いて本開示の第1の実施形態にかかる画像処理装置の機能構成について説明した。次に、本開示の第1の実施形態にかかる画像処理装置の動作について説明する。
[画像処理装置の動作]
図3は、本開示の第1の実施形態にかかる画像処理装置100の動作を示す流れ図である。以下、図3を用いて本開示の第1の実施形態にかかる画像処理装置100の動作について説明する。
図3は、本開示の第1の実施形態にかかる画像処理装置100の動作を示す流れ図である。以下、図3を用いて本開示の第1の実施形態にかかる画像処理装置100の動作について説明する。
本開示の第1の実施形態にかかる画像処理装置100は、複数の3D画像データ(例えば、3Dの主画像データおよび副画像データ)を受信すると、それぞれの3D画像の視差を計算する(ステップS101)。3D画像の視差の計算は、視差検出部110a、110bが実行する。視差の検出は、上述したように、例えば、特開2011−055022号で開示されている技術を用いても良い。なお、視差の情報が、3D画像データと共に送られてくる情報等によって既知である場合には、このステップS101の視差計算処理はスキップしても良い。
上記ステップS101で、複数の3D画像データについてそれぞれの3D画像の視差を計算すると、続いて画像処理装置100は、それぞれの3D画像の視差の情報を解析して、3D画像の視差統計情報を生成する(ステップS102)。3D画像の視差統計情報の生成は、視差解析部120a、120bが実行する。視差解析部120a、120bは、視差の統計情報として、例えば、特開2011−055022号で開示されている技術を用いて視差分布を生成してもよく、または、主画像の各画素の視差を表す視差マップを生成してもよい。視差マップの生成には、例えば、特開2006−114023号公報に記載されている技術を用いても良い。
上記ステップS102で、複数の3D画像データについて、3D画像の視差の情報を解析して、3D画像の視差統計情報を生成すると、続いて画像処理装置100は、3D画像の視差統計情報と、画像サイズ、表示サイズ、および表示位置の情報とを用いて、3D画像の補正方法と補正量とを計算する(ステップS103)。それぞれの3D画像の補正方法と補正量との計算は、視差制御部130が実行する。
上記ステップS103で、それぞれの3D画像の補正方法と補正量とを計算すると、続いて画像処理装置100は、上記ステップS103で計算した3D画像の補正方法と補正量とに基づいて3D画像を変換する(ステップS104)。3D画像の変換は、画像変換部140a、140bが実行する。
上記ステップS104で、それぞれの3D画像に対して、上記ステップS103で計算した3D画像の補正方法と補正量とに基づいて変換を実行すると、続いて画像処理装置100は、複数の3D画像を合成し、1つの3D画像として表示するための表示画像データを生成する(ステップS105)。
本開示の第1の実施形態にかかる画像処理装置100は、図3に示したような動作を行うことによって、ユーザの目に疲労感を与えないように複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能となる。
続いて、上記ステップS103における、3D画像の補正方法および補正量の計算方法について、詳細に説明する。
図4は、本開示の第1の実施形態にかかる画像処理装置100の動作を示す流れ図である。図4に示した流れ図は、図3のステップS103に示した、3D画像の補正方法および補正量の計算について詳細に示したものである。以下の説明では、図4に示した動作は視差制御部130が行うとして説明する。以下、図4を用いて本開示の第1の実施形態にかかる画像処理装置100の動作について説明する。
3D画像の補正方法および補正量を計算するには、まず視差制御部130は、まずは、複数の3D画像の視差統計情報を、それぞれの表示サイズに応じた統計情報に変換する(ステップS111)。例えば、画像サイズの2倍のサイズを表示サイズとするならば、視差統計情報(視差量)も2倍にする。
図5は、視差制御部130が、3D画像の視差統計情報を、それぞれの表示サイズに応じた統計情報に変換する場合の例を示す説明図である。例えば、視差解析部120a(または視差解析部120b)によって、視差統計情報が図5の左側のグラフのように求められた場合に、オリジナルの画像サイズの2倍のサイズが表示サイズであるときは、視差制御部130は、図5の右側に示したように、視差統計情報における視差量を2倍に変換する。視差制御部130は、この統計情報の変換を全ての3D画像に対して実行する。
上記ステップS111で、視差制御部130が複数の3D画像の視差統計情報をそれぞれの表示サイズに応じた統計情報に変換すると、次に視差制御部130は、変換後の複数の3D画像それぞれの視差のレンジを求める(ステップS112)。視差のレンジとは、最も手前側の視差と最も奥側の視差のレンジを表し、奥行のダイナミックレンジに相当する。視差解析部120a、120bが求めた統計情報が視差分布であれば、視差分布の横軸の有効幅が視差のレンジとなる。視差解析部120a、120bが求めた視差統計情報が視差マップならば、マップの中の最も手前側の視差と最も奥側の視差が視差のレンジとなる。
なお視差制御部130は、視差のレンジを求める際に、ノイズによる影響や視差検出の精度や誤検出を考慮して、視差のレンジを決めてもよい。例えば、視差解析部120a、120bが求めた統計情報が視差分布ならば、視差制御部130は、ある度数以下の視差、もしくは全体の度数に占める割合がある一定値以下の視差は、ノイズ等の影響と考えて視差のレンジに含めない閾値処理を行ってもよく、また、視差制御部130は、主要な視差分布に対して孤立している視差分布は視差のレンジに含めない除外処理を行なってもよい。
図6は、視差解析部120a、120bが求めた統計情報の例を示す説明図である。図6では、視差解析部120a、120bが求めた統計情報で、主要な視差分布に対して孤立している視差分布が存在している様子が例示されている。視差制御部130は、主要な視差分布に対して、孤立している視差分布は視差のレンジに含めない除外処理を行なってもよい。
また視差制御部130は、視差のレンジを求める際に、最も度数が多い視差を優遇して、その視差を中心に一定の広がりを持たせて視差のレンジを決める最頻度中心処理を行なってもよい。最も度数が多い視差には、その画像における主要被写体などが含まれる可能性が高いと考えられるからである。
図7は、視差解析部120a、120bが求めた統計情報の例を示す説明図である。図7では、視差解析部120a、120bが求めた統計情報における最も度数が多い視差を中心に一定の広がりを持たせて視差のレンジを決める様子が例示されている。
なお、視差解析部120a、120bが求めた統計情報が視差マップである場合にも同様に、閾値処理や除外処理、最頻度中心処理によって視差レンジを求めても良い。
上記ステップS112で、視差制御部130が、変換後の複数の3D画像それぞれの視差のレンジを求めると、続いて視差制御部130は、各3D画像について求めた視差レンジが、他の3D画像の視差レンジと重ならないように補正量を計算する(ステップS113)。
図8は、各3D画像について求めた視差レンジが、他の3D画像の視差レンジと重ならないように補正量を計算する例を示す説明図である。例えば、図8に示したように、主画像の3D画像の手前に副画像の3D画像を合成して3D表示する場合に、主画像データの視差レンジが−10〜30、副画像データのレンジが−20から0であるならば、−10〜0の視差レンジが重なっていることになる。
従って、視差制御部130は、主画像の3D画像を奥側に10だけ、または副画像の3D画像を手前側に−10だけ補正する。または、視差制御部130は、主画像と副画像の合計の補正量が10となるように、主画像を奥側へ、副画像を手前側へ、それぞれ補正してもよい。なお、副画像の3D画像は動かさずに、主画像の3D画像の視差を移動させるようにしても良い。
なお、この補正量とは、左右の画像を、ディスプレイ面に対して垂直方向にシフトする視差の値を表す。視差制御部130は、3D画像全体をディスプレイ面に対して垂直方向にシフトする事で視差を変化させる。
しかし、人は、画面の奥側の視差が目幅よりも広くついた3D画像を見ることはできない。従って、少なくとも3D画像における画面の奥側の視差は目幅を超えないようにしなければならない。また、人が3Dとして融像できるためには、画面の手前側の視差量も考慮する必要がある。従って、各3D画像について求めた視差レンジが、他の3D画像の視差レンジと重ならないように補正量を計算するといっても、合成後の画像が3D画像として視認出来なくなってしまっては意味が無い。従って、合成後の画像が3D画像として視認出来るように補正量を決定することが望ましい。
上記ステップS113で、視差制御部130が、各3D画像について求めた視差レンジが、他の3D画像の視差レンジと重ならないように補正量を計算すると、続いて視差制御部130は、3D画像として超えてはいけない画面手前側の視差の基準値disp_min、および画面奥側の視差の基準値disp_maxを取得する(ステップS114)。
このdisp_min、disp_maxの値は、ディスプレイ160のサイズや、ユーザの3D画像の視聴環境に応じて適宜設定される値である。また、disp_min、disp_maxの値はユーザが適宜設定できるようにしてもよい。
上記ステップS114で、視差制御部130がdisp_min、disp_maxの値を取得すると、続いて視差制御部130は、取得したdisp_min、disp_maxの値の範囲内に、上記ステップS113で決定した補正量によって補正される3D画像の視差レンジが収まっているかどうかを判断する(ステップS115)。
上記ステップS115の判断の結果、disp_min、disp_maxの値の範囲内に、上記ステップS113で決定した補正量によって補正される3D画像の視差レンジを収めることが出来れば、視差制御部130は、disp_min、disp_maxの値の範囲内に収めるような補正量を計算する。
図9および図10は、各3D画像について求めた視差レンジが、他の3D画像の視差レンジと重ならないように、かつdisp_min、disp_maxの範囲を超えないように補正量を計算する例を示す説明図である。
例えば、図9に示したように、主画像の3D画像の手前に副画像の3D画像を合成して3D表示する場合に、主画像データの視差レンジが−10〜30、副画像データの視差レンジが−20〜0、disp_min=−20、disp_max=50とすると、副画像を手前側にシフトさせると、disp_minを超えて手前側に画像が表示されてしまう。従ってこのような場合は、視差制御部130は、主画像を10だけ奥へシフトするように制御する。
また例えば、図10に示したように、主画像の3D画像の手前に副画像の3D画像を合成して3D表示する場合に、主画像データの視差レンジが−10〜30、副画像データの視差レンジが−20〜0、disp_min=−30、disp_max=30とすると、主画像を画面の奥側にシフトさせると、disp_maxを超えて奥側に画像が表示されてしまう。従ってこのような場合は、視差制御部130は、副画像だけを10だけ手前へシフトするように制御する。
また視差制御部130は、disp_minとdisp_maxの値を変える事で、副画像または主画像のいずれか一方の視差を固定して、もう一方の画像の視差を変えるように制御してもよい。
一方、上記ステップS115の判断の結果、複数の3D画像の視差が重ならないように、かつ、disp_min、disp_maxの値の範囲内に、上記ステップS113で決定した補正量によって補正される3D画像の視差レンジを収めることが出来ない場合は、画像全体をディスプレイ160のディスプレイ面の垂直方向にシフトさせて視差を変更させる補正方法では対応できない。従ってそのような場合は、視差制御部130は、補正方法を2D/3D変換に決定する(ステップS117)。2D/3D変換は、2D画像から擬似的に3D画像を生成するものであり、本実施例では、視差制御部130は、3D画像のどちらか一方の視点の画像から、疑似的に3D画像を生成する。
2D/3D変換は、視差(奥行)のダイナミックレンジを自由に変えることができるので、disp_min,disp_maxの値の範囲内に視差レンジを収めることができる。図11は、オリジナルの3D画像とdisp_min,disp_maxとの関係例を示す説明図である。図11には、オリジナルの3D画像の視差レンジをdisp_min、disp_maxの値の範囲内に収めることができない状態が例示されている。このような場合には、視差制御部130は2D/3D変換を行なって、3D画像の視差レンジをdisp_min、disp_maxの値の範囲内に収めるようにする。
図12は、オリジナルの3D画像に対して2D/3D変換を行なって、3D画像の視差レンジをdisp_min、disp_maxの値の範囲内に収める場合の例を示す説明図である。図12には、視差レンジをdisp_min、disp_maxの値の範囲内に収めるように左目用の画像を3D画像に変換する状態が例示されている。このように、2D/3D変換は、視差(奥行)のダイナミックレンジを自由に変えることができるので、オリジナルの3D画像では視差レンジをdisp_min、disp_maxの値の範囲内に収めることができない場合でも、disp_min,disp_maxの値の範囲内に視差レンジを収めることができる。
なお、2D/3D変換は主画像または副画像のどちらか一方の画像に対して処理してもよいし、両方とも変換してもよい。また、2D/3D変換の際には、視差統計情報の分布状態を維持しつつ、2D画像から3D画像へ変換してもよい。
以上、図4を用いて本開示の第1の実施形態にかかる画像処理装置100の動作について説明した。このように3D画像の視差を補正することで、ユーザの目に疲労感を与えないように複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能となる。
なお、本実施形態では、視差制御部130がdisp_min、disp_maxを取得して、このdisp_min、disp_maxの範囲内に収まるよう3D画像の視差を補正していたが、本開示はかかる例に限定されるものではない。例えば、3D視聴に適した視聴距離はディスプレイ160の画面サイズに依存するものと言われており、例えば、3D視聴に適した視聴距離は、画面の縦辺の長さの3倍であるとされている。従って、視差制御部130は、3D画像の視差を補正する際に、ディスプレイ160の画面サイズ、とりわけ、縦辺の長さの情報や、目幅(特に両眼の瞳孔間の間隔)、視差角を考慮してもよい。
以上説明したように本開示の第1の実施形態にかかる画像処理装置100は、複数の3D画像を合成して1つの3D画像を生成する際に、それぞれの3D画像の視差の統計情報を求め、その統計情報に基づいて各3D画像の視差のレンジを求め、各3D画像の視差のレンジが重ならないように補正方法および補正方法を決定する。補正方法および補正量を決定するに際しては、3D画像として超えてはいけない画面手前側の視差の基準値disp_min、および画面奥側の視差の基準値disp_maxの範囲内に収まるように補正方法および補正量を決定する。
このように各3D画像に対して補正方法および補正量を決定し、各3D画像を合成することで、ユーザの目に疲労感を与えないような3D画像を生成することが出来ると共に、ある3D画像に別の3D画像が重なって表示されるめり込み等の矛盾のある画像の生成を防ぐことが可能となる。
<2.第2の実施形態>
上述した本開示の第1の実施形態では、画像全体の視差をシフトさせることで、めり込み等の矛盾のある画像の生成を防いでいた。本開示の第2の実施形態では、各画像に対し、画面に含まれている被写体等のオブジェクトの領域を検出し、オブジェクト単位で視差の解析および制御を行うことでめり込み等の矛盾のある画像の生成を防ぐ場合について説明する。
上述した本開示の第1の実施形態では、画像全体の視差をシフトさせることで、めり込み等の矛盾のある画像の生成を防いでいた。本開示の第2の実施形態では、各画像に対し、画面に含まれている被写体等のオブジェクトの領域を検出し、オブジェクト単位で視差の解析および制御を行うことでめり込み等の矛盾のある画像の生成を防ぐ場合について説明する。
図13は、本開示の第2の実施形態にかかる画像処理装置の機能構成を示す説明図である。以下、図13を用いて本開示の第2の実施形態にかかる画像処理装置の機能構成について説明する。
画像処理装置200は、本開示の第1の実施形態にかかる画像処理装置100と同様に、例えば、BD(Blu−Ray(商標)Disc)などの記録媒体から読み出されたり、ネットワークなどを介して外部の装置から受信されたりした主画像データ、副画像データ等を受信する。画像処理装置200は、3Dの主画像と、3Dの副画像とを合成して、合成画像データを生成する。
図13に示したように、画像処理装置200は、視差検出部210a、210bと、オブジェクト領域検出部215a、215bと、視差解析部220a、220bと、視差制御部230と、画像変換部240a、240bと、画像重畳部250と、ディスプレイ260と、を含んで構成される。
視差検出部210aは、視差検出部110aと同様に、外部から入力された主画像データを構成する、左目用の主画像の画像データと右目用の主画像の画像データとを用いて、3Dの主画像の視差を画素ごとに検出する。視差検出部210bは、視差検出部110bと同様に、外部から入力された副画像データを構成する、左目用の主画像の画像データと右目用の副画像の画像データとを用いて、3Dの副画像の視差を画素ごとに検出する。
オブジェクト領域検出部215aは、外部から入力された主画像データに対して、被写体などのオブジェクトの領域を検出する。オブジェクト領域検出部215aは、オブジェクトの領域を、例えば特開2011−34178号公報などに記載されている、グラフカットを利用したセグメンテーション技術を利用して検出する。オブジェクト領域検出部215aは、検出した主画像のオブジェクトの領域の情報を視差解析部220aへ送る。
同様に、オブジェクト領域検出部215bは、外部から入力された副画像データに対して、被写体などのオブジェクトの領域を検出する。オブジェクト領域検出部215bは、検出した副画像のオブジェクトの領域の情報を視差解析部220bへ送る。
視差解析部220aは、視差検出部210aが検出した3Dの主画像の視差の情報を、オブジェクト領域検出部215aが検出した主画像のオブジェクト単位で解析して、3Dの主画像の視差統計情報を主画像のオブジェクト単位で生成する。視差解析部220aは、視差の統計情報として、視差解析部120aと同様に、例えば、特開2011−055022号で開示されている技術を用いて視差分布を生成してもよく、または、主画像の各画素の視差を表す視差マップを生成してもよい。視差マップの生成には、例えば、特開2006−114023号公報に記載されている技術を用いても良い。視差解析部220aは、3Dの主画像の視差統計情報を主画像のオブジェクト単位で生成すると、生成した視差統計情報を視差制御部230に供給する。
同様に、視差解析部220bは、視差検出部210bが検出した3Dの副画像の視差の情報を、オブジェクト領域検出部215bが検出した副画像のオブジェクト単位で解析して、視差の統計情報を生成する。視差解析部220bは、3Dの副画像の視差統計情報をオブジェクト単位で生成すると、生成した視差統計情報を視差制御部230に供給する。
視差制御部230は、視差制御部130と同様に、外部から入力される3Dの主画像の画像サイズ、表示サイズ、および表示位置を受信する。また、視差制御部230は、視差制御部130と同様に、外部から入力される3Dの副画像の画像サイズ、表示サイズ、および表示位置を受信する。表示位置の情報としては、3D画像として超えてはいけない手前側および奥側の視差の基準値の情報が、視差制御部230に供給される。
そして視差制御部230は、視差解析部220aから供給される3Dの主画像のオブジェクト単位の視差統計情報、および視差解析部220bから供給される3Dの副画像のオブジェクト単位の視差統計情報を用いて、めり込みなどの矛盾が起きないように、主画像・副画像それぞれの視差(奥行き)を調整するための補正方法および補正量を、それぞれの画像のオブジェクト単位で求める。
視差制御部230による、主画像・副画像それぞれの視差(奥行き)を調整するための補正方法および補正量の求め方については、基本的には視差制御部130による処理と同様であるが、視差制御部230は、補正方法および補正量を画像単位、かつオブジェクト単位で求めるところが異なる。視差制御部230は、3Dの主画像・副画像のオブジェクト単位でのそれぞれの視差(奥行き)を調整するための補正方法および補正量を求めると、その補正方法および補正量の情報を画像変換部240a、240bに供給する。
画像変換部240aは、画像変換部140aと同様に、視差制御部230が求めた、3Dの主画像のオブジェクト単位での視差(奥行き)を調整するための補正方法および補正量に基づいて、3Dの主画像を加工する。画像変換部240aは、3Dの主画像を加工すると、加工後の3Dの主画像を画像重畳部250へ供給する。
画像変換部240bは、画像変換部240aと同様に、視差制御部230が求めた、3Dの副画像のオブジェクト単位での視差(奥行き)を調整するための補正方法および補正量に基づいて、3Dの副画像を加工する。画像変換部240bは、3Dの副画像を加工すると、加工後の3Dの副画像を画像重畳部250へ供給する。
画像重畳部250は、画像重畳部150と同様に、画像変換部240aによって加工された3Dの主画像と、画像変換部240bによって加工された3Dの副画像とを重畳する。画像重畳部250は、3Dの主画像と副画像とを重畳すると、重畳して得られる表示画像データをディスプレイ260に供給する。
ディスプレイ260は、3D画像を表示することが可能な3Dディスプレイで形成される。ディスプレイ260は、ディスプレイ160と同様に、画像重畳部250から供給される表示画像データを用いて、左目用の画面と右目用の画面を時分割で表示する。このとき、ユーザは、例えば、左目用の画面と右目用の画面の切り替えに同期したシャッタ付き眼鏡を装着してディスプレイ260に表示される画像を見る。ユーザは、左目用の画面を左目だけで見て、右目用の画面を右目だけで見る。これにより、ユーザは、3Dの主画像と副画像とが重畳された3D画像を見ることができる。
なお、ディスプレイ260は、ユーザに裸眼で3D画像として認識できるような3Dディスプレイで形成されていても良い。そのような3Dディスプレイとしては、例えばパララックスバリア方式(視差バリア方式)、レンティキュラ方式を用いたもの等がある。
以上、図13を用いて本開示の第2の実施形態にかかる画像処理装置の機能構成について説明した。次に、本開示の第2の実施形態にかかる画像処理装置の動作について説明する。
[画像処理装置の動作]
図14は、本開示の第2の実施形態にかかる画像処理装置200の動作を示す流れ図である。以下、図14を用いて本開示の第2の実施形態にかかる画像処理装置200の動作について説明する。
図14は、本開示の第2の実施形態にかかる画像処理装置200の動作を示す流れ図である。以下、図14を用いて本開示の第2の実施形態にかかる画像処理装置200の動作について説明する。
本開示の第2の実施形態にかかる画像処理装置200は、複数の3D画像データ(例えば、3Dの主画像データおよび副画像データ)を受信すると、それぞれの3D画像に含まれるオブジェクトの領域を計算する(ステップS201)。オブジェクトの領域の計算は、オブジェクト領域検出部215a、215bが実行する。
また画像処理装置200は、ステップS201でのオブジェクトの領域の計算の後に、またその前に、また並行して、それぞれの3D画像の視差を計算する(ステップS202)。3D画像の視差の計算は、視差検出部210a、210bが実行する。
上記ステップS201で、複数の3D画像データについてそれぞれオブジェクトの領域を求め、上記ステップS202で、複数の3D画像データについてそれぞれの3D画像の視差を計算すると、続いて画像処理装置200は、それぞれの3D画像の視差の情報をオブジェクト単位で解析して、3D画像の視差統計情報をオブジェクト単位で生成する(ステップS203)。3D画像の視差統計情報の生成は、視差解析部220a、220bが実行する。
上記ステップS203で、複数の3D画像データについて、3D画像の視差の情報をオブジェクト単位で解析して、3D画像の視差統計情報をオブジェクト単位で生成すると、続いて画像処理装置200は、3D画像の視差統計情報と、画像サイズ、表示サイズ、および表示位置の情報とを用いて、3D画像の補正方法と補正量とをオブジェクト単位で計算する(ステップS204)。それぞれの3D画像のオブジェクト単位の、補正方法と補正量との計算は、視差制御部230が実行する。
本実施形態では、オブジェクト単位で補正方法と補正量を求めるので、第1の実施形態と異なる処理について詳述する。画像平面上で重ならないオブジェクトは、各3D画像において、視差のレンジをどのように変えても、めり込みなどの矛盾が起こらない。従って本実施形態では、視差制御部230は、画像平面上において重なり合う領域を有しているオブジェクト群に対して、めり込みなどの矛盾がないように補正方法および補正量を求める。
また、例えば、3つのオブジェクトA、B、Cがある場合に、オブジェクトAとオブジェクトBとは重なり合う領域はないが、オブジェクトCはオブジェクトA、Bとも重なり合う領域があるときは、視差制御部230は、重なる数が多いオブジェクトであるオブジェクトCから補正方法および補正量を求めてもよく、その後で、オブジェクトA、Bの補正方法および補正量を求めるようにしてもよい。
また視差制御部230は、オブジェクト単位で補正方法と補正量とを求める際には、各オブジェクトの奥行き方向の位置関係を考慮に入れて求めても良い。例えば、ある3D画像に2つのオブジェクトA、Bが映っている場合に、オブジェクトAはオブジェクトBより後ろに位置することができないような場面があるならば、視差制御部230は、オブジェクトAはオブジェクトBよりも後ろに、またはオブジェクトBはオブジェクトAより前に位置することがないように、補正方法と補正量とを求めてもよい。
図15は、3D画像におけるオブジェクトの位置関係の例を示す説明図である。図15の左側は、ディスプレイ260に表示される画面イメージを示し、図15の右側は3D画像におけるオブジェクトの位置関係をディスプレイ260の上側から俯瞰して見たイメージを示している。
図15には、オブジェクトとして家と花が存在している。そして、家は花より前に位置することが出来ないような位置関係であるとする。この場合、視差制御部230は、花は家よりも後ろに、または家は花より前に位置することがないように、補正方法と補正量とを求める。
なお、位置関係の情報は、画像データと共に視差制御部230に供給してもよく、視差制御部230が、画像データをシーン解析することによって得るようにしてもよい。
上記ステップS204で、それぞれの3D画像の補正方法と補正量とをオブジェクト単位で計算すると、続いて画像処理装置200は、上記ステップS204で計算した3D画像のオブジェクト単位の補正方法と補正量とに基づいて3D画像を変換する(ステップS205)。3D画像の変換は、画像変換部240a、240bが実行する。
補正方法が、ディスプレイ260のディスプレイ面に対して垂直方向のシフトならば、各オブジェクトのシフト補正量に応じて、画像中の当該オブジェクトの領域をシフトする。また補正方法が2D/3D変換ならば、画像中の当該オブジェクトの領域を2D/3D変換する。もちろん、2つの補正方法が同時に行われるようにしても良い。
また、いずれの補正方法もオブジェクトの境界に存在しない領域(オクルージョン領域)が発生するので、他の視点の画像情報から補完したり、同一視点の時間方向の画像情報から補完したり、現画像の空間方向の情報(近隣の画像情報)から補完したり(インペインティング)してもよい。
上記ステップS205で、それぞれの3D画像に対して、上記ステップS204で計算した3D画像のオブジェクト単位の補正方法と補正量とに基づいて変換を実行すると、続いて画像処理装置200は、複数の3D画像を合成し、1つの3D画像として表示するための表示画像データを生成する(ステップS206)。
本開示の第2の実施形態にかかる画像処理装置200は、図14に示したような動作を行うことによって、ユーザの目に疲労感を与えないように複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能となる。そして、本開示の第2の実施形態にかかる画像処理装置200は、オブジェクト単位での補正方法および補正量を算出するので、より柔軟に画像の視差レンジを変更することができる。
<3.まとめ>
以上説明したように本開示の各実施形態によれば、ユーザの目に疲労感を与えないように複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能となる。本開示の第1の実施形態では、各3D画像に対して、画面単位で補正方法および補正量を決定し、また本開示の第2の実施形態では、各3D画像に対して、画面単位かつオブジェクト単位で補正方法および補正量を決定する。その際に、3D画像として超えてはいけない画面手前側の視差の基準値および画面奥側の視差の基準値の範囲内に収まるように補正方法および補正量を決定することで、合成時にめり込みが無い、自然な3D画像を生成することができる。
以上説明したように本開示の各実施形態によれば、ユーザの目に疲労感を与えないように複数の3D画像を合成する際に、矛盾のある画像の生成を防ぐことが可能となる。本開示の第1の実施形態では、各3D画像に対して、画面単位で補正方法および補正量を決定し、また本開示の第2の実施形態では、各3D画像に対して、画面単位かつオブジェクト単位で補正方法および補正量を決定する。その際に、3D画像として超えてはいけない画面手前側の視差の基準値および画面奥側の視差の基準値の範囲内に収まるように補正方法および補正量を決定することで、合成時にめり込みが無い、自然な3D画像を生成することができる。
なお、上記各実施形態では、3Dの主画像と3Dの副画像の2つの3D画像を合成する際の処理について例示したが、本開示はかかる例に限定されない。3つ以上の3D画像を、ユーザの目に疲労感を与えないように合成する場合にも同様に適用できることは言うまでもない。
また上記各実施形態では、画像処理装置100、200にディスプレイ160、260が含まれている場合について説明したが、本開示はかかる例に限定されない。画像処理装置は3D画像の合成までを実行し、3D画像の表示は別装置が実行してもよい。また、画像処理装置100、200が実行した処理は、3D画像を表示する3Dディスプレイとネットワークで接続されたサーバ群が実行し、3D画像を合成して得られる画像データを、3Dディスプレイがネットワークを通じて該サーバ群から受信するようにしても良い。
また上記各実施形態で示した処理は、ハードウェアによって行われるようにしても良く、ソフトウェアによって行われるようにしても良い。上記各実施形態で示した処理をソフトウェアによって実行する場合には、画像処理装置100、200に内蔵されたCPU等の制御装置が、ROM、HDD、SSDその他の記録媒体に格納されたコンピュータプログラムを順次読みだして実行するようにしてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1)
複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、
各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、
各前記3D画像に対して前記視差解析部が生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換する視差制御部と、
を備える、画像処理装置。
(2)
前記視差制御部によって視差を変換しても視差のレンジが所定の範囲内に収まらない場合に、前記複数の3D画像の少なくともいずれか1つの3D画像について2D/3D変換処理を行う画像変換部をさらに備える、前記(1)に記載の画像処理装置。
(3)
供給される各前記3D画像に対して画像中のオブジェクトの領域を検出するオブジェクト領域検出部をさらに備え、
前記視差解析部は、前記オブジェクト領域検出部が各前記3D画像に対して検出したオブジェクト単位で視差の統計情報を生成し、前記視差制御部は、前記視差解析部がオブジェクト単位で生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像に含まれるオブジェクトが重ならないように視差を変換する、前記(1)に記載の画像処理装置。
(4)
前記視差制御部によって視差を変換しても視差のレンジが所定の範囲内に収まらない場合に、前記オブジェクト領域検出部が検出した前記オブジェクトの少なくとも1つについて2D/3D変換処理を行う画像変換部をさらに備える、前記(3)に記載の画像処理装置。
(5)
前記視差制御部は、3D画像の表示に際し手前側と奥行側との限界の視差の範囲内において視差を変換する、前記(1)から(4)のいずれかに記載の画像処理装置。
(6)
前記視差制御部は、3D画像を表示しようとする画面のサイズを考慮して視差を変換する、前記(1)から(5)に記載の画像処理装置。
(7)
前記視差制御部は、3D画像を表示しようとする画面の縦辺の長さを考慮して視差を変換する、前記(6)に記載の画像処理装置。
(8)
複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、
各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、
各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、
を備える、画像処理方法。
(9)
コンピュータに、
複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、
各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、
各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、
を実行させる、コンピュータプログラム。
(1)
複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、
各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、
各前記3D画像に対して前記視差解析部が生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換する視差制御部と、
を備える、画像処理装置。
(2)
前記視差制御部によって視差を変換しても視差のレンジが所定の範囲内に収まらない場合に、前記複数の3D画像の少なくともいずれか1つの3D画像について2D/3D変換処理を行う画像変換部をさらに備える、前記(1)に記載の画像処理装置。
(3)
供給される各前記3D画像に対して画像中のオブジェクトの領域を検出するオブジェクト領域検出部をさらに備え、
前記視差解析部は、前記オブジェクト領域検出部が各前記3D画像に対して検出したオブジェクト単位で視差の統計情報を生成し、前記視差制御部は、前記視差解析部がオブジェクト単位で生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像に含まれるオブジェクトが重ならないように視差を変換する、前記(1)に記載の画像処理装置。
(4)
前記視差制御部によって視差を変換しても視差のレンジが所定の範囲内に収まらない場合に、前記オブジェクト領域検出部が検出した前記オブジェクトの少なくとも1つについて2D/3D変換処理を行う画像変換部をさらに備える、前記(3)に記載の画像処理装置。
(5)
前記視差制御部は、3D画像の表示に際し手前側と奥行側との限界の視差の範囲内において視差を変換する、前記(1)から(4)のいずれかに記載の画像処理装置。
(6)
前記視差制御部は、3D画像を表示しようとする画面のサイズを考慮して視差を変換する、前記(1)から(5)に記載の画像処理装置。
(7)
前記視差制御部は、3D画像を表示しようとする画面の縦辺の長さを考慮して視差を変換する、前記(6)に記載の画像処理装置。
(8)
複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、
各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、
各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、
を備える、画像処理方法。
(9)
コンピュータに、
複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、
各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、
各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、
を実行させる、コンピュータプログラム。
100 :画像処理装置
110a :視差検出部
110b :視差検出部
120a :視差解析部
120b :視差解析部
130 :視差制御部
140a :画像変換部
140b :画像変換部
150 :画像重畳部
160 :ディスプレイ
200 :画像処理装置
210a :視差検出部
210b :視差検出部
215a :オブジェクト領域検出部
215b :オブジェクト領域検出部
220a :視差解析部
220b :視差解析部
230 :視差制御部
240a :画像変換部
240b :画像変換部
250 :画像重畳部
260 :ディスプレイ
110a :視差検出部
110b :視差検出部
120a :視差解析部
120b :視差解析部
130 :視差制御部
140a :画像変換部
140b :画像変換部
150 :画像重畳部
160 :ディスプレイ
200 :画像処理装置
210a :視差検出部
210b :視差検出部
215a :オブジェクト領域検出部
215b :オブジェクト領域検出部
220a :視差解析部
220b :視差解析部
230 :視差制御部
240a :画像変換部
240b :画像変換部
250 :画像重畳部
260 :ディスプレイ
Claims (9)
- 複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、
各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、
各前記3D画像に対して前記視差解析部が生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換する視差制御部と、
を備える、画像処理装置。 - 前記視差制御部によって視差を変換しても視差のレンジが所定の範囲内に収まらない場合に、前記複数の3D画像の少なくともいずれか1つの3D画像について2D/3D変換処理を行う画像変換部をさらに備える、請求項1に記載の画像処理装置。
- 供給される各前記3D画像に対して画像中のオブジェクトの領域を検出するオブジェクト領域検出部をさらに備え、
前記視差解析部は、前記オブジェクト領域検出部が各前記3D画像に対して検出したオブジェクト単位で視差の統計情報を生成し、前記視差制御部は、前記視差解析部がオブジェクト単位で生成した視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像に含まれるオブジェクトが重ならないように視差を変換する、請求項1に記載の画像処理装置。 - 前記視差制御部によって視差を変換しても視差のレンジが所定の範囲内に収まらない場合に、前記オブジェクト領域検出部が検出した前記オブジェクトの少なくとも1つについて2D/3D変換処理を行う画像変換部をさらに備える、請求項3に記載の画像処理装置。
- 前記視差制御部は、3D画像の表示に際し手前側と奥行側との限界の視差の範囲内において視差を変換する、請求項1に記載の画像処理装置。
- 前記視差制御部は、3D画像を表示しようとする画面のサイズを考慮して視差を変換する、請求項1に記載の画像処理装置。
- 前記視差制御部は、3D画像を表示しようとする画面の縦辺の長さを考慮して視差を変換する、請求項6に記載の画像処理装置。
- 複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、
各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、
各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、
を備える、画像処理方法。 - コンピュータに、
複数の3D画像が供給され、各前記3D画像に対して視差を検出することと、
各前記3D画像に対して前記検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成することと、
各前記3D画像に対して前記生成された視差の統計情報を用いて、視差のレンジが所定の範囲内に収まるように各前記3D画像が重ならないように視差を変換することと、
を実行させる、コンピュータプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014501975A JPWO2013128765A1 (ja) | 2012-02-27 | 2012-12-25 | 画像処理装置、画像処理方法およびコンピュータプログラム |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039715 | 2012-02-27 | ||
JP2012039715 | 2012-02-27 | ||
JP2014501975A JPWO2013128765A1 (ja) | 2012-02-27 | 2012-12-25 | 画像処理装置、画像処理方法およびコンピュータプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2013128765A1 true JPWO2013128765A1 (ja) | 2015-07-30 |
Family
ID=49081984
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014501975A Pending JPWO2013128765A1 (ja) | 2012-02-27 | 2012-12-25 | 画像処理装置、画像処理方法およびコンピュータプログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20150030235A1 (ja) |
EP (1) | EP2822280A4 (ja) |
JP (1) | JPWO2013128765A1 (ja) |
CN (1) | CN104137537B (ja) |
WO (1) | WO2013128765A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5982751B2 (ja) | 2011-08-04 | 2016-08-31 | ソニー株式会社 | 画像処理装置、および画像処理方法、並びにプログラム |
US10057558B2 (en) * | 2015-09-04 | 2018-08-21 | Kabushiki Kaisha Toshiba | Electronic apparatus and method for stereoscopic display |
CN108961318B (zh) * | 2018-05-04 | 2020-05-15 | 上海芯仑光电科技有限公司 | 一种数据处理方法及计算设备 |
CN111476837B (zh) | 2019-01-23 | 2023-02-24 | 上海科技大学 | 自适应立体匹配优化方法及其装置、设备和存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209614A (ja) * | 1999-01-14 | 2000-07-28 | Sony Corp | 立体映像システム |
JP2011096263A (ja) * | 2010-11-22 | 2011-05-12 | Fujifilm Corp | 3次元表示装置および方法並びにプログラム |
JP2011151517A (ja) * | 2010-01-20 | 2011-08-04 | Jvc Kenwood Holdings Inc | 映像処理装置 |
JP2011166761A (ja) * | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2011211754A (ja) * | 2011-07-15 | 2011-10-20 | Fujifilm Corp | 画像処理装置および方法並びにプログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7330584B2 (en) | 2004-10-14 | 2008-02-12 | Sony Corporation | Image processing apparatus and method |
WO2009020277A1 (en) * | 2007-08-06 | 2009-02-12 | Samsung Electronics Co., Ltd. | Method and apparatus for reproducing stereoscopic image using depth control |
US8390674B2 (en) * | 2007-10-10 | 2013-03-05 | Samsung Electronics Co., Ltd. | Method and apparatus for reducing fatigue resulting from viewing three-dimensional image display, and method and apparatus for generating data stream of low visual fatigue three-dimensional image |
US8284236B2 (en) * | 2009-02-19 | 2012-10-09 | Sony Corporation | Preventing interference between primary and secondary content in a stereoscopic display |
JP5338478B2 (ja) * | 2009-05-25 | 2013-11-13 | ソニー株式会社 | 受信装置、シャッタメガネ、および送受信システム |
CN102474638B (zh) * | 2009-07-27 | 2015-07-01 | 皇家飞利浦电子股份有限公司 | 组合3d视频与辅助数据 |
JP2011034178A (ja) | 2009-07-30 | 2011-02-17 | Sony Corp | 画像処理装置および画像処理方法、並びにプログラム |
JP5444955B2 (ja) | 2009-08-31 | 2014-03-19 | ソニー株式会社 | 立体画像表示システム、視差変換装置、視差変換方法およびプログラム |
US20110316972A1 (en) * | 2010-06-29 | 2011-12-29 | Broadcom Corporation | Displaying graphics with three dimensional video |
MX2013000348A (es) * | 2010-07-12 | 2013-03-08 | Koninkl Philips Electronics Nv | Datos auxiliares en radiodifusion de video de tres dimensiones. |
US8861836B2 (en) * | 2011-01-14 | 2014-10-14 | Sony Corporation | Methods and systems for 2D to 3D conversion from a portrait image |
EP2495979A1 (en) * | 2011-03-01 | 2012-09-05 | Thomson Licensing | Method, reproduction apparatus and system for display of stereoscopic 3D video information |
-
2012
- 2012-12-25 CN CN201280070231.9A patent/CN104137537B/zh not_active Expired - Fee Related
- 2012-12-25 WO PCT/JP2012/083437 patent/WO2013128765A1/ja active Application Filing
- 2012-12-25 EP EP12870240.4A patent/EP2822280A4/en not_active Ceased
- 2012-12-25 JP JP2014501975A patent/JPWO2013128765A1/ja active Pending
- 2012-12-25 US US14/379,539 patent/US20150030235A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000209614A (ja) * | 1999-01-14 | 2000-07-28 | Sony Corp | 立体映像システム |
JP2011151517A (ja) * | 2010-01-20 | 2011-08-04 | Jvc Kenwood Holdings Inc | 映像処理装置 |
JP2011166761A (ja) * | 2010-02-05 | 2011-08-25 | Sony Corp | 画像処理装置、画像処理方法、およびプログラム |
JP2011096263A (ja) * | 2010-11-22 | 2011-05-12 | Fujifilm Corp | 3次元表示装置および方法並びにプログラム |
JP2011211754A (ja) * | 2011-07-15 | 2011-10-20 | Fujifilm Corp | 画像処理装置および方法並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
EP2822280A4 (en) | 2015-08-12 |
CN104137537B (zh) | 2016-12-14 |
CN104137537A (zh) | 2014-11-05 |
US20150030235A1 (en) | 2015-01-29 |
EP2822280A1 (en) | 2015-01-07 |
WO2013128765A1 (ja) | 2013-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101502362B1 (ko) | 영상처리 장치 및 방법 | |
US20130038600A1 (en) | System and Method of Processing 3D Stereoscopic Image | |
US9544580B2 (en) | Image processing method and image processing apparatus | |
JP5387905B2 (ja) | 画像処理装置および方法、並びにプログラム | |
US9710955B2 (en) | Image processing device, image processing method, and program for correcting depth image based on positional information | |
US20110109731A1 (en) | Method and apparatus for adjusting parallax in three-dimensional video | |
KR20140038366A (ko) | 움직임 패럴랙스를 가지는 3-차원 디스플레이 | |
JP5784729B2 (ja) | マルチビュー生成のためのレンダリング装置およびその方法 | |
JP2014131266A (ja) | 深さ情報を取得する方法及びディスプレイ装置 | |
WO2013128765A1 (ja) | 画像処理装置、画像処理方法およびコンピュータプログラム | |
JP5627498B2 (ja) | 立体画像生成装置及び方法 | |
JP5647741B2 (ja) | 画像信号処理装置および画像信号処理方法 | |
US20140085434A1 (en) | Image signal processing device and image signal processing method | |
US9064338B2 (en) | Stereoscopic image generation method and stereoscopic image generation system | |
US9269177B2 (en) | Method for processing image and apparatus for processing image | |
JP5830705B2 (ja) | 画像信号処理装置および画像信号処理方法 | |
JP2012109725A (ja) | 立体映像処理装置および立体映像処理方法 | |
KR101192121B1 (ko) | 양안시차 및 깊이 정보를 이용한 애너그리프 영상 생성 방법 및 장치 | |
US9641821B2 (en) | Image signal processing device and image signal processing method | |
JP5962125B2 (ja) | 表示装置、同期方法及びプログラム | |
KR101526868B1 (ko) | 스테레오 영상에 대한 다시점 영상 생성 장치 및 방법 | |
JP2013172367A (ja) | 画像処理装置、画像処理方法およびコンピュータプログラム | |
JP5431393B2 (ja) | 立体画像生成装置及び方法 | |
KR101932990B1 (ko) | 입체 영상 표시 장치 및 그 구동 방법 | |
JP6056459B2 (ja) | 奥行き推定データ生成装置、擬似立体画像生成装置、奥行き推定データ生成方法及び奥行き推定データ生成プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151027 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20160729 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20161220 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170905 |