JP2013172367A - 画像処理装置、画像処理方法およびコンピュータプログラム - Google Patents

画像処理装置、画像処理方法およびコンピュータプログラム Download PDF

Info

Publication number
JP2013172367A
JP2013172367A JP2012035969A JP2012035969A JP2013172367A JP 2013172367 A JP2013172367 A JP 2013172367A JP 2012035969 A JP2012035969 A JP 2012035969A JP 2012035969 A JP2012035969 A JP 2012035969A JP 2013172367 A JP2013172367 A JP 2013172367A
Authority
JP
Japan
Prior art keywords
image
parallax
importance
analysis
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012035969A
Other languages
English (en)
Inventor
Kohei Miyamoto
浩平 宮本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012035969A priority Critical patent/JP2013172367A/ja
Publication of JP2013172367A publication Critical patent/JP2013172367A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】3D画像を解析し、視差補正の際に適切な視差補正を適切な3D画像に対して実行することが可能な画像処理装置を提供する。
【解決手段】複数の3D画像が供給され、各3D画像に対して視差を検出する視差検出部と、各3D画像に対して視差検出部が検出した視差を用いて、各3D画像に対して視差の統計情報を生成する視差解析部と、各3D画像に対して所定の画像解析処理を実行する画像解析部と、画像解析部による所定の画像解析処理の結果および視差解析部が生成した視差の統計情報を用いて各3D画像の重要度を計算する重要度計算部と、各3D画像に対して視差解析部が生成した視差の統計情報及び重要度計算部が計算した各3D画像の重要度を用いて各3D画像の視差を変換する視差制御部と、を備える、画像処理装置が提供される。
【選択図】図1

Description

本開示は、画像処理装置、画像処理方法およびコンピュータプログラムに関する。
画像を立体的に見せることが出来る3D画像の表示に関する技術が広く開発されている。また、複数の3D画像の合成表示に関する技術も提案されている(特許文献1参照)。特許文献1に記載された技術は、3Dの主画像に3Dの副画像を合成してその合成画像を表示する場合、3Dの主画像の画面に垂直な方向である奥行き方向における3D主画像の位置が、奥行き方向における副画像の位置から離れすぎたり、近づきすぎたりすることがあると、ユーザの目に疲労感を与えてしまうので、その疲労感を軽減するための技術である。
特開2011−166761号公報
特許文献1に記載された技術は、3Dの主画像と3Dの副画像とのそれぞれの統計情報を用いて、主画像および副画像の奥行き方向の位置間隔が所定範囲内になるように補正するものである。
しかし、特許文献1に記載された技術は、3Dの主画像と3Dの副画像とを同条件で視差補正しているので、例えばテキストやユーザインタフェースなどを3Dの副画像とした場合に、3Dの副画像があるブレンド値をもって3Dの主画像に合成されると、主画像に対して適切でない視差補正が行われるという問題があった。
そこで、本開示の目的とするところは、3D画像を解析し、視差補正の際に適切な視差補正を適切な3D画像に対して実行することが可能な、新規かつ改良された画像処理装置、画像処理方法およびコンピュータプログラムを提供することにある。
本開示によれば、複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、各前記3D画像に対して所定の画像解析処理を実行する画像解析部と、前記画像解析部による前記所定の画像解析処理の結果および前記視差解析部が生成した視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算部と、各前記3D画像に対して前記視差解析部が生成した視差の統計情報及び前記重要度計算部が計算した各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御部と、を備える、画像処理装置が提供される。
また本開示によれば、複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出ステップと、各前記3D画像に対して前記視差検出ステップで検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析ステップと、各前記3D画像に対して所定の画像解析処理を実行する画像解析ステップと、前記画像解析ステップによる前記所定の画像解析処理の結果および前記視差解析ステップで生成された視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算ステップと、各前記3D画像に対して前記視差解析ステップで生成された視差の統計情報及び前記重要度計算ステップで計算された各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御ステップと、を備える、画像処理方法が提供される。
また本開示によれば、コンピュータに、複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出ステップと、各前記3D画像に対して前記視差検出ステップで検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析ステップと、各前記3D画像に対して所定の画像解析処理を実行する画像解析ステップと、前記画像解析ステップによる前記所定の画像解析処理の結果および前記視差解析ステップで生成された視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算ステップと、各前記3D画像に対して前記視差解析ステップで生成された視差の統計情報及び前記重要度計算ステップで計算された各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御ステップと、を実行させる、コンピュータプログラムが提供される。
以上説明したように本開示によれば、3D画像を解析し、視差補正の際に適切な視差補正を適切な3D画像に対して実行することが可能な、新規かつ改良された画像処理装置、画像処理方法およびコンピュータプログラムを提供することができる。
本開示の一実施形態にかかる画像処理装置の機能構成を示す説明図である。 本開示の一実施形態にかかる画像処理装置100の動作を示す流れ図である。 2つの3D画像の輝度分布の例を示す説明図である。 映像をブロック分割して、ブロック毎に解析データを計算する例を示す説明図である。 視差の統計情報の一例をグラフで示す説明図である。 解析データの補正例を示す説明図である。 2つの3D画像を合成する際の、解析データ補正値の計算方法を示す説明図である。 2つの3D画像を合成する際のブレンド値の違いによる出力結果の違いについて示す説明図である。 視差補正方法の一例をグラフで示す説明図である。 視差補正方法の一例をグラフで示す説明図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
<1.本開示の一実施形態>
[画像処理装置の構成例]
[画像処理装置の動作]
<2.まとめ>
<1.本開示の一実施形態>
[画像処理装置の構成例]
まず、本開示の一実施形態にかかる画像処理装置の機能構成例を説明する。図1は、本開示の一実施形態にかかる画像処理装置の機能構成を示す説明図である。以下、図1を用いて本開示の一実施形態にかかる画像処理装置の機能構成について説明する。
画像処理装置100は、例えば、BD(Blu−Ray(商標)Disc)などの記録媒体から読み出されたり、ネットワークなどを介して外部の装置から受信されたりした主画像データ、副画像データ等を受信する。なお、本明細書で使用されるとき、「主画像データ」という用語は一画面のための所定のサイズの3Dの主画像の画像データを指し、「副画像データ」という用語は一画面のための所定サイズの3Dの副画像の画像データを指す。主画像は、例えば3D画像のメインとなる画像であり、副画像はそのメインとなる画像に付随して表示される字幕、エフェクト等からなる画像である。また、主画像の中に一部に表示されるものを副画像としても良い。また副画像としては、他にもトランジションなどで合成される際の片方の映像であってもよい。
画像処理装置100は、2つの3D画像を合成して、合成画像データを生成する。そして画像処理装置100は、2つの3D画像を合成する際に、画像データを解析して、どちらの3D画像の視差を変更すべきかを判断する。これにより本実施形態にかかる画像処理装置100は、3D画像を解析し、視差補正の際に適切な視差補正を適切な3D画像に対して実行することができる。以下の説明では、画像処理装置100は、第1の3D画像と第2の3D画像とを合成して出力するものとする。
図1に示したように、本開示の一実施形態にかかる画像処理装置100は、視差検出部110a、110bと、視差解析部120a、120bと、画像解析部130a、130bと、解析データ補正部140と、解析データ蓄積部150と、重要度計算部160と、画像補正部170a、170bと、画像合成部180と、表示部190と、を含んで構成される。
視差検出部110aは、外部から入力された第1の3D画像データを構成する、左目用の画像の画像データと右目用の画像の画像データとを用いて、第1の3D画像の視差を画素ごとに検出する。視差の検出は、例えば、特開2011−055022号で開示されている技術を用いても良い。視差検出部110aは、第1の3D画像の視差を画素毎に検出すると、検出した視差についてのデータを視差解析部120aに供給する。なお、視差は、単一の画素からではなく、複数の画素を含むブロックから検出されてもよい。
同様に、視差検出部110bは、外部から入力された第2の3D画像データを構成する、左目用の画像データと右目用の画像データとを用いて、第2の3D画像の視差を画素ごとに検出する。視差検出部110bは、第2の3D画像の視差を画素毎に検出すると、検出した視差についてのデータを視差解析部120bに供給する。
なお、視差の情報が、3D画像データと共に送られてくる情報等によって既知である場合には、この視差検出部110a、110bの視差計算処理はスキップしても良い。
視差解析部120aは、視差検出部110aが検出した第1の3D画像の視差の情報を解析して、第1の3D画像の視差統計情報を生成する。視差解析部120aは、視差の統計情報として、例えば、特開2011−055022号で開示されている技術を用いて視差分布を生成してもよく、または、第1の3D画像の各画素の視差を表す視差マップを生成してもよい。視差分布から取得できる解析データとしては、例えば、視差の最大値、最小値、最頻値、中央値、平均値などがある。視差マップの生成には、例えば、特開2006−114023号公報に記載されている技術を用いても良い。視差解析部120aは、第1の3D画像の視差統計情報を生成すると、生成した視差統計情報を解析データ補正部140に供給する。
同様に、視差解析部120bは、視差検出部110bが検出した第2の3D画像の視差の情報を解析して、視差の統計情報を生成する。視差解析部120bは、第2の3D画像の視差統計情報を生成すると、生成した視差統計情報を解析データ補正部140に供給する。
画像解析部130aは、外部から入力された第1の3D画像データに対して画像解析処理を実行する。画像解析部130aは、画像解析処理として、例えば、画像の輝度分布の計算、エッジ分布の検出等の解析処理を実行する。画像解析部130aが実行する画像解析処理は、後述の重要度計算部160における重要度の計算処理の精度を高めるために利用する副次的なデータを計算するものである。必ずしも全ての画像解析を行う必要は無い。逆に言えば、この重要度に影響すると思われるデータなら、画像解析部130aの画像解析処理に、輝度分布、エッジ分布に限らず様々な情報を出来る限り盛り込んでもよい。画像の輝度分布やエッジ分布から求められる解析データで重要度の計算に有用なものとしては、例えば、散布度を判断する標準偏差などがある。また、映像をブロック分割して、ブロック毎に解析データを計算し、重みをつけるようにしてもよい。画像解析部130aは、第1の3D画像データに対する画像解析処理の結果を解析データ補正部140に供給する。
同様に、画像解析部130bは、外部から入力された第2の3D画像データに対して画像解析処理を実行する。画像解析部130bは、画像解析処理として、例えば、画像の輝度分布の計算、エッジ分布の検出等の解析処理を実行する。画像解析部130bは、第2の3D画像データに対する画像解析処理の結果を解析データ補正部140に供給する。
解析データ補正部140は、視差解析部120a、120bで求められた視差の解析データと、画像解析部130a、130で求めた画像解析データとを、3D画像の出力情報を基に補正する。3D画像の出力情報には、3D画像の出力サイズ、3D画像の貼り付け位置(画面上のどの領域を利用するか)、3D画像の拡大・縮小の情報が含まれていてもよい。解析データ補正部140は、これらの情報を基に、3D画像の利用領域を計算し、解析データを補正する。解析データ補正部140は、補正後の解析データを解析データ蓄積部150および重要度計算部160に供給する。
解析データ蓄積部150は、解析データ補正部140で補正された、第1の3D画像および第2の3D画像に対する解析データを蓄積する。解析データ蓄積部150が蓄積する解析データのフレーム数は、3D画像が静止画の場合は0であり、3D画像が動画の場合は、画像処理装置100の記憶容量や性能に合わせて適宜増減させてもよい。解析データ蓄積部150で蓄積された解析データは、重要度計算部160によって適宜読み出される。
重要度計算部160は、解析データ補正部140で補正された現フレームの解析データと、過去の解析データとを基に、それぞれの3D画像の重要度を計算する。重要度計算部160は、それぞれの3D画像の重要度を計算するに際しては、それぞれの3D画像の解析データに重み付けを行って加算する。重要度計算部160による重要度の計算の詳細については、後に詳述する。重要度計算部160は、それぞれの3D画像の重要度を計算すると、重要度の情報を画像補正部170a、170に供給する。
画像補正部170aは、重要度計算部160が求めた重要度の値に基づいて、第1の3D画像に対して視差補正処理や画像補正処理を行う。同様に、画像補正部170bは、重要度計算部160が求めた重要度の値に基づいて、第2の3D画像に対して視差補正処理や画像補正処理を行う。画像補正部170a、170bによる視差補正の方法には、例えば、重要度の低い映像だけを補正する方法や、重要度に応じてそれぞれの3D画像の補正量を変える方法等がある。画像補正部170a、170bは、それぞれ、補正後の3D画像を画像合成部180に供給する。
画像合成部180は、画像補正部170a、170bがそれぞれ出力する、補正後の第1の3D画像および第2の3D画像を合成する。画像合成部180は、合成時の情報(例えばブレンド値)を用いて合成を行い、最終出力映像を作成する。画像合成部180は、補正後の第1の3D画像および第2の3D画像を合成すると、最終出力映像を表示部190へ供給する。
表示部190は、3D画像を表示することが可能な3Dディスプレイで形成される。表示部190は、画像合成部180から供給される最終出力映像を用いて、左目用の画面と右目用の画面を時分割で表示する。このとき、ユーザは、例えば、左目用の画面と右目用の画面の切り替えに同期したシャッタ付き眼鏡を装着して表示部190に表示される画像を見る。ユーザは、左目用の画面を左目だけで見て、右目用の画面を右目だけで見る。これにより、ユーザは、第1の3D画像と第2の3D画像とが重畳された3D画像を見ることができる。
なお、表示部190は、ユーザに裸眼で3D画像として認識できるような3Dディスプレイで形成されていても良い。そのような3Dディスプレイとしては、例えばパララックスバリア方式(視差バリア方式)、レンティキュラ方式を用いたもの等がある。また、図1では、画像処理装置100に表示部190が含まれる構成としたが、本開示はかかる例に限定されるものではない。表示部190は、画像処理装置100とは別の装置であっても良い。すなわち、画像処理装置100は複数の3D画像の合成までを行うように構成されていても良い。
以上、図1を用いて本開示の一実施形態にかかる画像処理装置100の機能構成について説明した。続いて、本開示の一実施形態にかかる画像処理装置100の動作について説明する。
[画像処理装置の動作]
図2は、本開示の一実施形態にかかる画像処理装置100の動作を示す流れ図である。図2に示した流れ図は、画像処理装置100において複数の3D画像の合成を行う際の動作について示したものである。以下、図2を用いて本開示の一実施形態にかかる画像処理装置100の動作について説明する。
画像処理装置100に複数の3D画像が供給されると、画像処理装置100は、供給された3D画像の画像解析を行う(ステップS101)。本実施形態では、画像処理装置100には2つの3D画像(第1の3D画像および第2の3D画像)が供給されるものとする。ステップS101の画像解析として、例えば、供給された3D画像の輝度分布の計算やエッジ分布の検出等の処理が実行される。そして、ステップS101の画像解析は、本実施形態では画像解析部130a、130bが実行する。
このステップS101で実行される画像解析処理は、後述の重要度の計算処理の精度を高めるために利用する副次的なデータを計算するものである。必ずしも全ての画像解析を行う必要は無い。逆に言えば、この重要度に影響すると思われるデータなら、ステップS101で実行される画像解析処理に、輝度分布、エッジ分布に限らず様々な情報を出来る限り盛り込んでもよい。画像の輝度分布やエッジ分布から求められる解析データで重要度の計算に有用なものとしては、例えば、散布度を判断する標準偏差などがある。
図3は、2つの3D画像の輝度分布の例を示す説明図である。2つの3D画像に対して、ステップS101の画像解析処理の結果、図3に示すような輝度分布が得られたとする。画像Aの輝度分布と画像Bの輝度分布とを比較した場合、画像Aの方が輝度分布の標準偏差が大きい。このような場合に、標準偏差の大きい画像のほうが、より重要度が高いとして、後述の重要度の計算処理に反映されても良い。
また、画像解析部130a、130bは、映像をブロック分割して、ブロック毎に解析データを計算し、各ブロックに対して重みをつけるようにしてもよい。図4は、映像をブロック分割して、ブロック毎に解析データを計算する例を示す説明図である。図4に示した例は、画像を9つの領域に分割し、視差分布をそれぞれ求める場合についての例である。このように、ブロック毎に解析データを計算し、例えば、人間の注視する部分が概ね中央に来ることを考慮して中央の解析データに重み付けをつけるようにしてもよい。
また、ステップS101における画像解析と並行して、画像処理装置100は、供給された3D画像の視差検出を行う(ステップS102)。視差の検出は、例えば、特開2011−055022号で開示されている技術を用いても良い。ステップS102の視差検出は、本実施形態では視差検出部110a、110bが実行する。なお、画像処理装置100に供給される3D画像の視差の情報が、3D画像に付随して送られてくるなどして予め分かっている場合は、画像処理装置100は、このステップS102の処理をスキップしてもよい。
ステップS102における3D画像の視差検出が完了すると、続いて画像処理装置100は、ステップS102で得られる視差情報を解析して、視差の統計情報を生成する(ステップS103)。ステップS103の統計情報の生成は、本実施形態では視差解析部120a、120bが実行する。画像処理装置100は、視差の統計情報として、例えば、特開2011−055022号で開示されている技術を用いて視差分布を生成してもよく、または、各3D画像の各画素の視差を表す視差マップを生成してもよい。視差分布から取得できる解析データとしては、例えば、視差の最大値、最小値、最頻値、中央値、平均値などがある。また画像処理装置100は、視差マップの生成に、例えば、特開2006−114023号公報に記載されている技術を用いても良い。
図5は、上記ステップS103で得られる視差の統計情報の一例をグラフで示す説明図である。画像処理装置100は、図5に示したように、視差の統計情報として、視差の最大値、最小値、最頻値、中央値、平均値などの情報を得るようにしても良い。
上記ステップS101で3D画像の解析を行い、上記ステップS103で視差の統計情報を生成すると、続いて画像処理装置100は、これらの処理で得られる情報を基に、上記ステップS101で得られる解析データの補正を行う(ステップS104)。ステップS104の解析データの補正は、本実施形態では解析データ補正部140が実行する。解析データ補正部140は、3D画像の出力情報を基に解析データを補正する。3D画像の出力情報には、3D画像の出力サイズ、3D画像の貼り付け位置(画面上のどの領域を利用するか)、3D画像の拡大・縮小の情報が含まれていてもよい。解析データ補正部140は、これらの情報を基に、3D画像の利用領域を計算し、解析データを補正する。
図6は、上記ステップS104における解析データの補正例を示す説明図である。図6に示したのは、補正前の視差の統計情報を、3D画像の表示部190における表示位置や、3D画像の拡大・縮小の情報を用いて補正する場合の例である。このように、3D画像の表示部190における表示位置や、3D画像の拡大・縮小の情報を用いて、上記ステップS103で得られる視差の統計情報を、表示部190に表示する際の3D画像の視差の統計情報に変換する。表示部190に表示する際の3D画像の視差の統計情報を得ることで、画像処理装置100は、複数の3D画像間で視差の範囲が重なりあう領域を把握できる。従って、視差の範囲が重ならないように、複数の3D画像の内の少なくともいずれか1つについて視差を補正すれば良いことになる。
上記ステップS104で解析データを補正すると、続いて画像処理装置100は、複数の3D画像を合成する際の合成情報と、上記ステップS104での補正後の解析データとを基に、各3D画像の重要度を計算する(ステップS105)。ステップS105の重要度の計算処理は、本実施形態では重要度計算部160が実行する。ステップS105における重要度の計算に際しては、解析データ蓄積部150に蓄積された過去フレームの解析データを用いても良い。画像処理装置100は、ステップS105で3D画像の重要度を計算することで、重要度の高低によって、視差の補正対象となる画像を適切に決定することができる。
まず、現フレームの解析データのみを用いて重要度を計算する例を説明する。フレームの解析データのみを用いて重要度を計算する際には、重要度計算部160は、まず視差解析データを用いた重要度計算の中間値を計算する。本実施形態では、重要度計算部160は、視差解析部120a、120bが生成した視差の統計情報における最大値、最小値、最頻値、中央値、平均値の少なくともいずれか1つの値を用いて重要度の中間値を算出する。重要度計算部160は、この中間値を1次元の変数d(0〜1.0の範囲の値を取り、値が大きいほど重要度への寄与が高いものとする)で表すと、dの計算式は、例えば最大値、最小値、最頻値、中央値、平均値の値を用いた場合に、視差の最大値を100、最小値を0、その間の値を取る最頻値、中央値、平均値の値をそれぞれ、dx、dy、dzとして、以下の数式1で表すことが出来る。
Figure 2013172367
数式1において、α,β,γは、それぞれ解析データを補正する値で、これらの値は、映像の合成する対象によって自動で設定してもよいし、ユーザが任意に設定してもよい。
映像の合成する対象によってα,β,γの値を自動で設定する場合の例を説明する。図7は、2つの3D画像を合成する際の、解析データ補正値の計算方法を示す説明図である。図7に示した例は、テキストで構成される画像Aと、通常の映像で構成される画像Bとを合成する場合について示したものである。
図7に示したように、テキストと通常の映像とを合成する場合は、テキストの映像の視差分布は1箇所に集中していることが多いので、外れ値の影響を受けにくい最頻値、中央値の重みを大きくし、平均値の重みを小さくするようにしてもよい。
同様に、重要度計算部160は、画像解析データを用いた重要度計算の中間値を計算する。重要度計算部は、各3D画像に対して画像解析部130a、130bが取得した各3D画像の輝度分布、エッジ分布の少なくともいずれかの標準偏差の値を用いて重要度の中間値を算出する。この中間値を1次元の変数i(0〜1.0の範囲の値を取り、値が大きいほど重要度への寄与が高いものとする)で表すと、iの計算式は、輝度分布やエッジ分布の標準偏差の値をix,iyとして、以下の数式2で表すことが出来る。
Figure 2013172367
数式2において、δ,εは解析データを補正する値で、上述した視差解析データを用いた重要度計算の中間値の計算の時と同様に、映像の合成対象によって自動で設定してもよく、ユーザが任意に設定してもよい。
さらに、重要度計算部160は、重要度を算出するに際して、合成時の合成情報を利用してもよい。この合成時の合成情報とは、例えば0〜1.0の範囲の値を取るブレンド値であり、このブレンド値の値が1.0であれば非透過の画像であることを示す。
図8は、2つの3D画像を合成する際のブレンド値の違いによる出力結果の違いについて示す説明図である。図8に示したのは、2つの3D画像を、ブレンド値0.4で合成する場合と、ブレンド値1.0で合成する場合の例である。ブレンド値が0.4であれば、画像Aと画像Bとを合成する際に、画像Bが透けて見える様に画像Aを合成し、ブレンド値が1.0であれば、画像Bが透けて見えない様に画像Aを合成する。
重要度計算部160は、このブレンド値をkとして、上述したように求められるd、i、kを用いて重要度fを計算する。重要度fの計算式は、例えば以下の数式3の様に表すことが出来る。
Figure 2013172367
数式3において、μ,θは重要度fを補正するための値である。これらの値も、映像の合成対象によって自動で設定してもよく、ユーザが任意に設定してもよい。重要度計算部160は、このように視差解析データを用いた重要度計算の中間値、画像解析データを用いた重要度計算の中間値およびブレンド値を用いて、各3D画像の重要度fを算出することができる。
次に、過去のフレームの解析データも用いて重要度を計算する例を説明する。重要度計算部160において重要度fの計算式を求める際に、現フレームの重要度をf(t)、過去フレームの重要度をf(t1),f(t2),...とすると、重要度計算部160において計算される重要度fは、例えば以下の数式4で算出することができる。
Figure 2013172367
数式4において、α、βは過去フレームの重要度を補正する値で、例えば、現フレームから遠くなるほど値が小さくなるようにしてもよい。そして、重要度計算部160は全ての3D画像について重要度fの値を計算する。全ての3D画像について重要度fの値が求められることで、各3D画像の重要度の値の比較が可能となる。
もちろん、ここに挙げたものは重要度の計算の一例であり、重要度の計算はかかる例に限定されるものではない。
上記ステップS105で、複数の3D画像を合成する際の合成情報と、上記ステップS104での補正後の解析データとを基に、各3D画像の重要度fを計算すると、続いて画像処理装置100は、上記ステップS105で求めた重要度fの値を基に、各3D画像に対して視差補正や画像補正を行う(ステップS106)。各3D画像に対する視差補正や画像補正は、画像補正部170a、170bが実行する。
上記ステップS106における視差補正方法として、例えば、重要度の低い3D画像だけを補正するようにしてもよく、重要度に応じてそれぞれの3D画像の補正量を変えるようにしてもよい。
図9は、上記ステップS106における視差補正方法の一例をグラフで示す説明図である。図9に示した視差補正方法は、重要度の低い3D画像に対してのみ視差を補正する例についてのものである。
図9には、画像Aと画像Bの2つの3D画像の視差の統計情報がグラフで示されている。そして、画像Aと画像Bには視差が被る領域が存在する。この画像A及び画像Bに対してそれぞれ重要度fx、fyが計算された結果、画像Aの重要度が画像Bの重要度に比べて低い場合(すなわちfx<fyの場合)、画像補正部170a、170bは、重要度の低い3D画像である画像Aについてのみ視差を補正する。そして、視差の補正量がcであれば、画像補正部170a、170bは、画像Aについて、画像Bの視差の範囲と重ならないように、手前側に補正量cだけ視差を補正する。
図10は、上記ステップS106における視差補正方法の一例をグラフで示す説明図である。図10に示した視差補正方法は、重要度に応じてそれぞれの3D画像の補正量を変える例についてのものである。
図10には、画像Aと画像Bの2つの3D画像の視差の統計情報がグラフで示されている。そして、画像Aと画像Bには視差が被る領域が存在する。この画像A及び画像Bに対してそれぞれ重要度fx、fyが計算されると、画像補正部170a、170bは、その重要度に応じて補正量を変更する。図10に示した例では、手前側をマイナス方向として、画像Aの補正量は−c×fx/(fx+fy)、画像Bの補正量はc×fy/(fx+fy)とする。
また上記ステップS106における画像補正に関しては、例えば、画像データのデコード処理にフィードバックするようにしてもよい。例えば、重要度を計算した結果、重要度の低いと算出された映像については、デコードの際のデコード品質を下げるようにしてもよい。
上記ステップS106で、重要度fの値を基に、各3D画像に対して視差補正や画像補正を行うと、続いて画像処理装置100は、3D画像を合成する際の合成情報に基づいて3D画像の合成を行う(ステップS107)。このステップS107の3D画像の合成処理は、画像合成部180が、3D画像を合成する際の合成情報を用いて実行する。このステップS107において合成された3D画像は、表示部190に供給されて、合成された3D画像として表示部190で表示される。
以上、図2を用いて本開示の一実施形態にかかる画像処理装置100の動作について説明した。なお、図2に示した流れ図において、ステップS101における3D画像の解析処理と、ステップS102における3D画像の視差検出処理およびステップS103における3D画像の視差解析処理とは並行して実行されても良い。
<2.まとめ>
以上説明したように本開示の一実施形態に係る画像処理装置100は、複数の3D画像を合成して表示する際に、視差が重なり合わないように少なくとも1つの3D画像の視差を補正する。そして3D画像の視差を補正する際には、各3D画像の重要度を、画像解析の結果に基づいて算出し、その重要度の情報を用いて、補正対象の3D画像の決定及び視差の補正量の決定を行う。
このように、各3D画像の重要度を決定し、重要度に基づいて補正対象の3D画像の決定及び視差の補正量の決定を行うことで、本開示の一実施形態に係る画像処理装置100は、視差補正の際に、適切な視差補正を適切な3D画像に対して実行することが可能となり、視差補正には適切ではない3D画像に対する視差補正を防ぐことができる。
なお、上記各実施形態では、2つの3D画像を合成する際の処理について例示したが、本開示はかかる例に限定されない。3つ以上の3D画像を、ユーザの目に疲労感を与えないように合成する場合にも同様に適用できることは言うまでもない。
また上記各実施形態では、画像処理装置100に表示部190が含まれている場合について説明したが、本開示はかかる例に限定されない。画像処理装置は3D画像の合成までを実行し、3D画像の表示は別装置が実行してもよい。また、画像処理装置100が実行した処理は、3D画像を表示する3Dディスプレイとネットワークで接続されたサーバ群が実行し、3D画像を合成して得られる画像データを、3Dディスプレイがネットワークを通じて該サーバ群から受信するようにしても良い。
また上記各実施形態で示した処理は、ハードウェアによって行われるようにしても良く、ソフトウェアによって行われるようにしても良い。上記各実施形態で示した処理をソフトウェアによって実行する場合には、画像処理装置100に内蔵されたCPU等の制御装置が、ROM、HDD、SSDその他の記録媒体に格納されたコンピュータプログラムを順次読みだして実行するようにしてもよい。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
なお、本技術は以下のような構成も取ることができる。
(1)
複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、
各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、
各前記3D画像に対して所定の画像解析処理を実行する画像解析部と、
前記画像解析部による前記所定の画像解析処理の結果および前記視差解析部が生成した視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算部と、
各前記3D画像に対して前記視差解析部が生成した視差の統計情報及び前記重要度計算部が計算した各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御部と、
を備える、画像処理装置。
(2)
前記重要度計算部は、各前記3D画像に対して前記視差解析部が生成した視差の統計情報における最頻値、中央値、平均値の値を用いて重要度の中間値を算出する、前記(1)に記載の画像処理装置。
(3)
前記重要度計算部は、各前記3D画像に対して前記画像解析部が取得した輝度分布およびエッジ分布の標準偏差の値を用いて重要度の中間値を算出する、前記(1)または(2)に記載の画像処理装置。
(4)
前記重要度計算部は、各前記3D画像の合成時の情報を用いて重要度の中間値を算出する、前記(1)から(3)のいずれかに記載の画像処理装置。
(5)
前記画像解析部は、各前記3D画像を複数の領域に分割して領域ごとに重み付けを行なって前記所定の画像解析処理を実行する、前記(1)から(4)のいずれかに記載の画像処理装置。
(6)
前記重要度計算部は、前記画像解析部が取得した前記複数の3D画像の現フレームの前記所定の画像解析処理の結果を用いて各前記3D画像の重要度を計算する、前記(1)から(5)のいずれかに記載の画像処理装置。
(7)
前記重要度計算部は、前記画像解析部が取得した前記複数の3D画像の過去のフレームの前記所定の画像解析処理の結果を用いて各前記3D画像の重要度を計算する、前記(1)から(6)のいずれかに記載の画像処理装置。
(8)
複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出ステップと、
各前記3D画像に対して前記視差検出ステップで検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析ステップと、
各前記3D画像に対して所定の画像解析処理を実行する画像解析ステップと、
前記画像解析ステップによる前記所定の画像解析処理の結果および前記視差解析ステップで生成された視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算ステップと、
各前記3D画像に対して前記視差解析ステップで生成された視差の統計情報及び前記重要度計算ステップで計算された各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御ステップと、
を備える、画像処理方法。
(9)
コンピュータに、
複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出ステップと、
各前記3D画像に対して前記視差検出ステップで検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析ステップと、
各前記3D画像に対して所定の画像解析処理を実行する画像解析ステップと、
前記画像解析ステップによる前記所定の画像解析処理の結果および前記視差解析ステップで生成された視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算ステップと、
各前記3D画像に対して前記視差解析ステップで生成された視差の統計情報及び前記重要度計算ステップで計算された各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御ステップと、
を実行させる、コンピュータプログラム。
100 :画像処理装置
110a :視差検出部
110b :視差検出部
120a :視差解析部
120b :視差解析部
130a :画像解析部
130b :画像解析部
140 :解析データ補正部
150 :解析データ蓄積部
160 :重要度計算部
170a :画像補正部
170b :画像補正部
180 :画像合成部
190 :表示部

Claims (9)

  1. 複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出部と、
    各前記3D画像に対して前記視差検出部が検出した視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析部と、
    各前記3D画像に対して所定の画像解析処理を実行する画像解析部と、
    前記画像解析部による前記所定の画像解析処理の結果および前記視差解析部が生成した視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算部と、
    各前記3D画像に対して前記視差解析部が生成した視差の統計情報及び前記重要度計算部が計算した各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御部と、
    を備える、画像処理装置。
  2. 前記重要度計算部は、各前記3D画像に対して前記視差解析部が生成した視差の統計情報における最大値、最小値、最頻値、中央値、平均値の少なくともいずれかの値を用いて重要度の中間値を算出する、請求項1に記載の画像処理装置。
  3. 前記重要度計算部は、各前記3D画像に対して前記画像解析部が取得した各前記3D画像の輝度分布、エッジ分布の少なくともいずれかの標準偏差の値を用いて重要度の中間値を算出する、請求項1に記載の画像処理装置。
  4. 前記重要度計算部は、各前記3D画像の合成時の情報を用いて重要度の中間値を算出する、請求項1に記載の画像処理装置。
  5. 前記画像解析部は、各前記3D画像を複数の領域に分割して領域ごとに重み付けを行なって前記所定の画像解析処理を実行する、請求項1に記載の画像処理装置。
  6. 前記重要度計算部は、前記画像解析部が取得した前記複数の3D画像の現フレームの前記所定の画像解析処理の結果を用いて各前記3D画像の重要度を計算する、請求項1に記載の画像処理装置。
  7. 前記重要度計算部は、前記画像解析部が取得した前記複数の3D画像の過去のフレームの前記所定の画像解析処理の結果を用いて各前記3D画像の重要度を計算する、請求項1に記載の画像処理装置。
  8. 複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出ステップと、
    各前記3D画像に対して前記視差検出ステップで検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析ステップと、
    各前記3D画像に対して所定の画像解析処理を実行する画像解析ステップと、
    前記画像解析ステップによる前記所定の画像解析処理の結果および前記視差解析ステップで生成された視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算ステップと、
    各前記3D画像に対して前記視差解析ステップで生成された視差の統計情報及び前記重要度計算ステップで計算された各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御ステップと、
    を備える、画像処理方法。
  9. コンピュータに、
    複数の3D画像が供給され、各前記3D画像に対して視差を検出する視差検出ステップと、
    各前記3D画像に対して前記視差検出ステップで検出された視差を用いて、各前記3D画像に対して視差の統計情報を生成する視差解析ステップと、
    各前記3D画像に対して所定の画像解析処理を実行する画像解析ステップと、
    前記画像解析ステップによる前記所定の画像解析処理の結果および前記視差解析ステップで生成された視差の統計情報を用いて各前記3D画像の重要度を計算する重要度計算ステップと、
    各前記3D画像に対して前記視差解析ステップで生成された視差の統計情報及び前記重要度計算ステップで計算された各前記3D画像の重要度を用いて各前記3D画像の視差を変換する視差制御ステップと、
    を実行させる、コンピュータプログラム。

JP2012035969A 2012-02-22 2012-02-22 画像処理装置、画像処理方法およびコンピュータプログラム Pending JP2013172367A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012035969A JP2013172367A (ja) 2012-02-22 2012-02-22 画像処理装置、画像処理方法およびコンピュータプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012035969A JP2013172367A (ja) 2012-02-22 2012-02-22 画像処理装置、画像処理方法およびコンピュータプログラム

Publications (1)

Publication Number Publication Date
JP2013172367A true JP2013172367A (ja) 2013-09-02

Family

ID=49266032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012035969A Pending JP2013172367A (ja) 2012-02-22 2012-02-22 画像処理装置、画像処理方法およびコンピュータプログラム

Country Status (1)

Country Link
JP (1) JP2013172367A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536742A (ja) * 2014-10-14 2017-12-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元画像の視差の処理

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536742A (ja) * 2014-10-14 2017-12-07 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 三次元画像の視差の処理

Similar Documents

Publication Publication Date Title
JP6309210B2 (ja) 深さ映像生成方法及び装置、深さ映像処理方法及び装置
KR101210625B1 (ko) 빈공간 채움 방법 및 이를 수행하는 3차원 비디오 시스템
US8588515B2 (en) Method and apparatus for improving quality of depth image
Du et al. A metric of visual comfort for stereoscopic motion
US20130038606A1 (en) Image processing apparatus, image processing method, and program
JP2013172190A (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2013005259A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US20120162200A1 (en) Map converting method, map converting apparatus, and computer program product for map conversion
KR20100040593A (ko) 영상처리 장치 및 방법
US20140015923A1 (en) Stereo Matching for 3D Encoding and Quality Assessment
US9367900B2 (en) Image noise removing apparatus and image noise removing method
US20130293533A1 (en) Image processing apparatus and image processing method
US20130083162A1 (en) Depth fusion method and apparatus using the same
KR101105359B1 (ko) 깊이 영상에 기반한 3차원 영상의 피로도 측정 방법 및 장치
EP2744207A1 (en) Image processing device, image processing unit, and program
KR101970562B1 (ko) 3차원 입체 영상의 깊이지도 보정장치 및 보정방법
WO2023086134A1 (en) Temporal filtering weight computation
WO2013128765A1 (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
KR102039741B1 (ko) 영상 워핑을 위한 장치 및 방법
JP5627498B2 (ja) 立体画像生成装置及び方法
JP2013172367A (ja) 画像処理装置、画像処理方法およびコンピュータプログラム
JP2014016792A (ja) 画像処理装置および方法、並びにプログラム
JP5636993B2 (ja) 画像処理方法、画像処理装置および表示装置
KR20150037203A (ko) 3차원 입체 영상용 깊이지도 보정장치 및 보정방법
JP5647741B2 (ja) 画像信号処理装置および画像信号処理方法