JP2012109725A - 立体映像処理装置および立体映像処理方法 - Google Patents

立体映像処理装置および立体映像処理方法 Download PDF

Info

Publication number
JP2012109725A
JP2012109725A JP2010256000A JP2010256000A JP2012109725A JP 2012109725 A JP2012109725 A JP 2012109725A JP 2010256000 A JP2010256000 A JP 2010256000A JP 2010256000 A JP2010256000 A JP 2010256000A JP 2012109725 A JP2012109725 A JP 2012109725A
Authority
JP
Japan
Prior art keywords
image
interest
eye
enhancer
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2010256000A
Other languages
English (en)
Inventor
Toru Koike
徹 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010256000A priority Critical patent/JP2012109725A/ja
Publication of JP2012109725A publication Critical patent/JP2012109725A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】入力映像からユーザの所望の注目オブジェクトを検出し、検出した注目オブジェクトと他のオブジェクトとの間の奥行き方向の位置関係に応じたエンハンサ処理を行う立体映像処理装置を提供する。
【解決手段】立体映像処理装置が、入力画像に含まれるオブジェクトを検出し、オブジェクトの視差量を算出する。立体映像処理装置が、オブジェクトの画像と予め登録された注目対象の画像との相関度に基づき、ユーザが注目する注目オブジェクトを決定する。立体映像処理装置が、注目オブジェクトの視差量と、他のオブジェクトの視差量とに基づき、注目オブジェクトと他のオブジェクトとの奥行き方向の位置関係を判断する。そして、立体映像処理装置が、上記奥行き方向の位置関係に基づき、エンハンサ処理のパラメータを生成し、このパラメータを用いて、入力画像に対してエンハンサ処理を実行する。
【選択図】図1

Description

本発明は、立体映像処理装置および立体映像処理方法に関する。
人間の左右の眼における視差を利用して、左右の眼に異なる映像を見せることで、この人間が擬似的に3次元(以下、3D)映像を視聴できるようにする画像処理方式が提案されている。このような画像処理方式のうち、眼鏡を用いた方式として、偏光を利用した偏光方式、カラースペクトラム特性の違いを利用した分光方式、左右の映像を時分割表示し、シャッタ式眼鏡を用いて左右の眼に異なる映像を見せる時分割方式が実用化されている。
映像を立体視する際の奥行き感を強調させる技術の例として、特許文献1は、奥行き量に応じてエンハンサ処理のゲイン量を調整して奥行き感を強調し、映像の臨場感を高める画像処理装置を開示している。また、人間の視覚特性として、人間が、奥行きの異なる複数の物体を観察する際に、自然視の状態では、注視物体の位置に調節点があり、その注視物体にピントが合っている。注視物体にピントがあっている場合には、周辺の物体は注視物体と奥行きが異なるので、ぼけた状態で感知される。上記人間の視覚特性を利用した立体映像処理装置として、例えば、特許文献2は、ユーザの眼球の注目方向の検出結果に基づいて、ユーザが注目する注視領域を決定し、決定した注視領域に対して輪郭強調処理を行う立体映像処理装置を開示している。
特開2008−021163号公報 特開平11−155154号公報
特許文献1が開示する画像処理装置は、奥行き量が小さい画像領域、すなわち、ユーザに対して近い画像領域に対して、エンハンサ処理のゲインを大きくする。エンハンサ処理は、画像の鮮鋭度を調整する処理である。また、この画像処理装置は、奥行き量が大きい画像領域、すなわち、ユーザに対して遠い画像領域に対して、エンハンサ処理のゲインを小さくする。従って、例えば表示対象の映像中に、注目オブジェクトの手前(ユーザ側)に他のオブジェクトが存在する場合には、注目オブジェクトがぼけた状態で表示されてしまう。注目オブジェクトは、ユーザが注目したいオブジェクトや、映像作成者がユーザに注目させるために強調表示したいオブジェクトである。
また、特許文献2が開示する立体映像処理装置は、ユーザの眼球の注目方向の検出結果に基づいて注視領域を決定する。従って、この立体映像処理装置が決定する注視領域のオブジェクトは、ユーザが注目したいオブジェクトや、映像作成者がユーザに注目させるために強調表示したいオブジェクト、つまり、ユーザの所望の注目オブジェクトではない場合がある。その結果、このような場合には、映像の臨場感が損なわれてしまう。
本発明は、入力映像からユーザの所望の注目オブジェクトを検出し、検出した注目オブジェクトと他のオブジェクトとの間の奥行き方向の位置関係に応じたエンハンサ処理を行う立体映像処理装置の提供を目的とする。
本発明の一実施形態の立体映像処理装置は、左眼用画像と右眼用画像とを入力する画像入力手段と、前記左眼用画像と前記右眼用画像に含まれるオブジェクトを検出するオブジェクト検出手段と、前記検出されたオブジェクトの視差量を算出する視差算出手段と、前記オブジェクトの画像と予め登録された注目対象の画像との相関度を算出し、算出した相関度に基づいて、ユーザが注目するオブジェクトである注目オブジェクトを決定する注目オブジェクト決定手段と、前記注目オブジェクトの前記視差量と、前記注目オブジェクト以外のオブジェクトの前記視差量とに基づいて、前記注目オブジェクトと該注目オブジェクト以外のオブジェクトとの奥行き方向の位置関係を判断し、前記判断した奥行き方向の位置関係に基づいて、前記左眼用画像と前記右眼用画像とに対して実行するエンハンサ処理のパラメータを生成するパラメータ生成手段と、前記生成されたパラメータを用いて、前記左眼用画像と前記右眼用画像とに対して前記エンハンサ処理を実行するエンハンサ処理手段とを備える。
本発明の立体映像処理装置によれば、入力映像からユーザの所望の注目オブジェクトを検出し、検出した注目オブジェクトと他のオブジェクトとの間の奥行き方向の位置関係に応じたエンハンサ処理を行うことができる。その結果、例えば、注目オブジェクトの手前に他のオブジェクトが存在しても、立体映像の臨場感を保ちながら、ユーザに立体映像を視聴させることが可能となる。
実施例1の立体映像処理装置の構成を示す図である。 画像入力部が入力する映像の例を示す図である。 注目オブジェクトの決定処理の具体例を説明する図である。 実施例1の立体映像処理装置の動作例を説明するフローチャートである。 エンハンサゲインの特性とエンハンサ処理とを説明する図である。 実施例2の立体映像処理装置の構成を示す図である。
図1は、本発明の実施例1の立体映像処理装置の構成を示す図である。図1に示す立体映像処理装置は、画像入力部1、左オブジェクト検出部2、右オブジェクト検出部3、視差算出部4、注目オブジェクト決定部5、パラメータ生成部6、左眼用画像処理部7、右眼用画像処理部8、立体映像表示部9を備える。また、立体映像処理装置は、CPU(Central Processing Unit )10、メモリ11を備える。CPU10は、バス12で接続された各処理部に指示して、立体映像処理装置全体を制御する。
画像入力部1は、左眼用画像と右眼用画像を含む映像を入力する。すなわち、画像入力部1は、左眼用画像と右眼用画像とを入力する画像入力手段として機能する。左眼用画像は、ユーザの左眼に提示される画像である。右眼用画像は、ユーザの右眼に提示される画像である。左眼用画像と右眼用画像とは、両眼視差を有する。
左オブジェクト検出部2は、画像入力部1が入力した左眼用画像に含まれるオブジェクトを検出する。右オブジェクト検出部3は、画像入力部1が入力した右眼用画像に含まれるオブジェクトを検出する。左オブジェクト検出部2、右オブジェクト検出部3は、それぞれ、左眼用画像、右眼用画像から、公知のパターンマッチング法を用いてオブジェクトを検出する。検出されるオブジェクトの種類は、例えば、人、車、木、山等である。また、左オブジェクト検出部2は、検出したオブジェクトの左眼用画像における位置情報を算出する。右オブジェクト検出部3は、検出したオブジェクトの右眼用画像における位置情報を算出する。
図2は、画像入力部が入力する映像の例を示す図である。入力される映像は、図2(A)に示す左眼用画像100と図2(B)に示す右眼用画像101とが映像フレームに交互に配置された構成を有する。図2(A),(B)に示す例では、左眼用画像100及び右眼用画像101をユーザに立体視させた際の、各々の画像に含まれるオブジェクトの位置は、表示画面に対してユーザ側から人B(102)、人A(103)、山(104)の順である。すなわち、ユーザ側から奥行き方向に、人B(102)、人A(103)、山(104)の順にオブジェクトが並んでいる。ユーザ側から奥行き方向の位置が遠いオブジェクトほどオブジェクトの視差量が小さく、奥行き方向の位置が近いオブジェクトほどオブジェクトの視差量が大きい。オブジェクトの視差量は、オブジェクトの左目画像と右眼用画像とにおける位置に応じて決まる視差の量である。
図1に戻って、視差算出部4は、左オブジェクト検出部2、右オブジェクト検出部3が検出したオブジェクトの視差量を算出する視差算出手段として機能する。具体的には、視差算出部4は、左オブジェクト検出部2が検出したオブジェクトと右オブジェクト検出部3が検出したオブジェクトとを比較して、オブジェクト同士の類似度を算出する。視差算出部4は、オブジェクトの類似度を算出するための公知の技術を用いて、オブジェクト同士の類似度を算出する。
視差算出部4が算出したオブジェクト同士の類似度が予め決められた閾値以上である場合、視差算出部4は、これらのオブジェクトが同一のオブジェクトであると判断する。そして、視差算出部4は、左オブジェクト検出部2、右オブジェクト検出部3がそれぞれ算出したオブジェクトの位置情報を用いて、上記同一のオブジェクトと判断したオブジェクトの視差量を算出する。視差算出部4は、例えば、算出したオブジェクトの視差量を、右眼用画像、左眼用画像それぞれにおける当該オブジェクトの位置情報と対応付けて記憶する。
視差算出部4が算出したオブジェクトの視差量が正の値の場合は、オブジェクトは、表示画面を基準としてユーザ側に存在するように立体視されるとし、視差量がゼロの場合は、表示画面上に存在するように立体視されるとする。視差算出部4が算出したオブジェクトの視差量が負の値の場合は、オブジェクトは、表示画面を基準として奥に存在するように立体視されるとする。視差算出部4は、算出・記憶したオブジェクトの視差量をパラメータ生成部6、注目オブジェクト決定部5に渡す。
注目オブジェクト決定部5は、以下の処理を行って注目オブジェクトを決定する注目オブジェクト決定手段として機能する。注目オブジェクトは、ユーザが注目するオブジェクトである。注目オブジェクトが、映像作成者がユーザに注目させるために強調表示したいオブジェクトであってもよい。注目オブジェクト決定部5は、画像入力部1が入力した画像に含まれるオブジェクトの画像と予めメモリ11に記憶された注目対象の画像との相関度を算出する。相関度は、双方の画像が一致する度合いである。注目対象の画像は、ユーザが注目したい画像、またはユーザに注目させたい画像である。
注目オブジェクト決定部5は、算出した相関度に基づいて、注目オブジェクトを決定する。これにより、ユーザの所望の注目オブジェクトを検出することが可能となる。注目オブジェクト決定部5が、算出した相関度と、処理対象のオブジェクトの視差量とに基づいて、注目オブジェクトを決定するようにしてもよい。また、注目オブジェクト決定部5が、算出した相関度と、処理対象のオブジェクトの視差量と、注目優先度とに基づいて、注目オブジェクトを決定するようにしてもよい。
注目優先度は、注目オブジェクトの決定に関する優先度である。注目優先度は、オブジェクトの種類に応じて予め決められている。このために、注目優先度とオブジェクトの種類との対応情報が所定の記憶部に予め記憶されている。注目優先度が高い種類のオブジェクトほど、優先的に注目オブジェクトに決定される。注目オブジェクト決定部5は、決定した注目オブジェクトをパラメータ生成部6に渡す。
図3は、注目オブジェクトの決定処理の具体例を説明する図である。図3中のテーブルが含むオブジェクト名は、画像入力部1が入力した画像に含まれるオブジェクトの名称を示す。この例では、各々のオブジェクト名は、図2(A)に示す右眼用画像101に含まれる人A、B、山というオブジェクトに対応している。
注目優先度は、オブジェクトの種類に応じて予め決められた優先度である。この例では、「人」という種類のオブジェクトの注目優先度は10に設定されている。また、「山」という種類のオブジェクトの注目優先度は3に設定されている。相関度は、右眼用画像101に含まれるオブジェクトの画像と、注目対象の画像との相関度である。注目オブジェクト決定部5は、例えば、オブジェクトの画像と注目対象の画像とを、所定の画像領域毎に比較して、比較画像間の差分絶対値和を求める。注目オブジェクト決定部5は、求めた差分絶対値和に基づいて、相関度を求める。差分絶対値和が小さいほどオブジェクトの画像と注目対象の画像との相関度が高くなる。図3中に示す相関度は、正規化された値を持つ。視差量は、オブジェクトの視差量である。図3中に示す視差量は、正規化された値である。注目度は、ユーザにオブジェクトを注目させる度合いを示す。
注目オブジェクト決定部5は、例えば、以下の式(1)に従って、右眼用画像101に含まれる各々のオブジェクトの注目度を算出する。
注目度=注目優先度×相関度+視差量・・・式(1)
注目オブジェクト決定部5は、上記式(1)に適用する注目優先度を、例えば以下のようにして決定する。注目オブジェクト決定部5は、右オブジェクト検出部3から右眼用画像に含まれる処理対象のオブジェクトの位置情報と、このオブジェクトの種類を取得する。そして、注目オブジェクト決定部5は、予め記憶部に記憶された、注目優先度とオブジェクトの種類との対応情報に基づいて、上記取得したオブジェクトの種類に対応する注目優先度をこのオブジェクトの注目優先度として決定する。
また、注目オブジェクト決定部5は、右オブジェクト検出部3から取得した処理対象のオブジェクトの位置情報に対応する視差量を視差算出部4から取得し、取得した視差量を上記式(1)に適用する視差量とする。例えば、図3に示すように、人Aの注目優先度は10であり、相関度は10であり、視差量は10である。従って、式(1)に従って算出される人Aの注目度は120である。同様に、算出される人B、山の注目度は、図3に示すように、それぞれ、−24、60である。
この例では、注目オブジェクト決定部5は、注目度が所定の閾値以上であるオブジェクトを注目オブジェクトとして決定する。例えば閾値を70とすると、図3に示すオブジェクトのうち、注目度が120である人Aが注目オブジェクトとして決定される。
図3を参照して、注目オブジェクト決定部5が、注目優先度、相関度、視差量という3つのパラメータを用いて注目度を算出し、この注目度に基づいて注目オブジェクトを決定する方法について説明したが、注目オブジェクトの決定方法は、この方法に限られない。注目オブジェクト決定部5は、オブジェクトの画像とユーザが登録した画像との相関度を用いて注目オブジェクトを決定すればよい。例えば、注目オブジェクト決定部5は、注目優先度と相関度とから注目オブジェクトを決定してもよく、単に相関度が所定の閾値以上であるものを注目オブジェクトとしてもよい。また、注目優先度、相関度、視差量の求め方は、図3を参照して説明した方法に限られない。また、この例では、右眼用画像101を用いて注目オブジェクトを決定する方法を説明したが、注目オブジェクト決定部5が、左眼用画像100を用いて注目オブジェクトを決定してもよい。
図1に戻って、パラメータ生成部6は、左眼用画像と前記右眼用画像とに対して実行するエンハンサ処理のパラメータを生成するパラメータ生成手段として機能する。エンハンサ処理は、画像の鮮鋭度を調整する処理である。後述する左眼用画像処理部7、右眼用画像処理部8がエンハンサ処理を実行する。本実施例では、エンハンサ処理のパラメータは、エンハンサゲインである。エンハンサゲインは、左眼用画像処理部7、右眼用画像処理部8が実行する、画像領域毎のエンハンサ処理のゲインである。
パラメータ生成部6は、注目オブジェクト決定部5から、決定された注目オブジェクトを通知される。また、パラメータ生成部6は、視差算出部4からオブジェクトの視差量を取得する。そして、パラメータ生成部6は、以下の処理を行って、左眼用画像と右眼用画像とに対して実行するエンハンサゲイン(エンハンサ処理のパラメータ)を生成するパラメータ生成手段として機能する。パラメータ生成部6は、注目オブジェクトの視差量と、注目オブジェクト以外のオブジェクトの視差量とに基づいて、注目オブジェクトと該注目オブジェクト以外のオブジェクトとの奥行き方向の位置関係を判断する。そして、パラメータ生成部6は、上記判断した奥行き方向の位置関係に基づいて、画像領域毎にエンハンサゲインを生成する。
具体的には、パラメータ生成部6は、注目オブジェクトの手前に該注目オブジェクト以外のオブジェクトがあるかを判断する。注目オブジェクトの手前に該注目オブジェクト以外のオブジェクトがない場合、パラメータ生成部6は、エンハンサゲインの特性として第1の特性を決定し、決定した第1の特性を有するエンハンサゲインを生成する。第1の特性は、視差量が大きいオブジェクトほど鮮鋭度が強調されるようにする特性である。注目オブジェクトの手前に該注目オブジェクト以外のオブジェクトがある場合、パラメータ生成部6は、エンハンサゲインの特性として第2の特性を決定し、決定した第2の特性を有するエンハンサゲインを生成する。第2の特性は、注目オブジェクトの鮮鋭度が強調され、該注目オブジェクト以外のオブジェクトの鮮鋭度が落ちるようにする特性である。
左眼用画像処理部7と右眼用画像処理部8は、決定されたエンハンサゲインを用いて、左眼用画像と右眼用画像とに対してエンハンサ処理を実行するエンハンサ処理手段として機能する。左眼用画像処理部7は、パラメータ生成部6から、パラメータ生成部6が生成したエンハンサゲインを受け取る。また、左眼用画像処理部7は、画像入力部1から、画像入力部1が入力した左眼用画像を受け取る。そして、左眼用画像処理部7は、受け取ったエンハンサゲインを用いて、左眼用画像に対して画像領域毎にエンハンサ処理を実行する。これにより、左眼用画像の鮮鋭度が、エンハンサゲインの特性に応じた鮮鋭度に制御される。左眼用画像処理部7は、エンハンサ処理後の左眼用画像を立体映像表示部9に渡す。
また、右眼用画像処理部8は、パラメータ生成部6から、パラメータ生成部6が生成したエンハンサゲインを受け取る。また、右眼用画像処理部8は、画像入力部1から、画像入力部1が入力した右眼用画像を受け取る。そして、右眼用画像処理部8は、受け取ったエンハンサゲインを用いて、右眼用画像に対して画像領域毎にエンハンサ処理を実行する。これにより、右眼用画像の鮮鋭度が、エンハンサゲインの特性に応じた鮮鋭度に制御される。右眼用画像処理部8は、エンハンサ処理後の右眼用画像を立体映像表示部9に渡す。
左眼用画像処理部7と右眼用画像処理部8は、オブジェクトが検出されない画像領域に対しては、例えば、視差量が最小であるオブジェクトのエンハンサゲインのゲイン量を決定し、当該ゲイン量以下のエンハンサゲインを適用する。また、左眼用画像処理部7と右眼用画像処理部8は、オブジェクトとオブジェクトとの境界部分に対しては、鮮鋭度の段差を無くすように小領域を設定し、予め決められた当該小領域用のゲイン量を持つエンハンサゲインを適用する。
立体映像表示部9は、左眼用画像処理部7から受け取った左眼用画像と、右眼用画像処理部8から受け取った右眼用画像とを、例えば時分割で交互に表示画面上に表示する。例えば、ユーザが装着したシャッタ式眼鏡が、左眼用画像と右眼用画像の表示タイミングに同期してシャッタの開閉を制御することにより、左眼用画像がユーザの左眼に提示され、右眼用画像がユーザの右眼に提示される。これにより、ユーザに映像を立体視させることができる。
図4は、実施例1の立体映像処理装置の動作例を説明するフローチャートである。パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがあるかを判断する(ステップS1)。注目オブジェクトの視差量より大きい視差量のオブジェクトがある場合、パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがあると判断する。注目オブジェクトの視差量より大きい視差量のオブジェクトがない場合、パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがないと判断する。
パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがないと判断した場合、パラメータ生成部6は、エンハンサゲインの特性として強調特性Aを選択する(ステップS2)。強調特性Aは、前述した第1の特性を有する。そして、パラメータ生成部6は、強調特性Aを有するエンハンサゲインを生成する。パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがあると判断した場合、パラメータ生成部6は、エンハンサゲインの特性として強調特性Bを選択する(ステップS3)。強調特性Bは、前述した第2の特性を有する。そして、パラメータ生成部6は、強調特性Bを有するエンハンサゲインを生成する。次に、左眼用画像処理部7、右眼用画像処理部8が、生成されたエンハンサゲインを用いて、エンハンサ処理を実行する(ステップS4)。
図5は、エンハンサゲインの特性とエンハンサ処理とを説明する図である。図5(A)は、エンハンサゲインの強調特性Aを示す。図5(B)は、エンハンサゲインの強調特性Bを示す。図5(A)、(B)に示すグラフの縦軸はエンハンサゲイン、横軸は視差量を示す。この例では、原点Pに近いほど視差量が大きい(奥行きが小さい)。また、原点Pから遠いほど視差量が小さい(奥行きが大きい)。
図5(A)に示すように、強調特性Aは、エンハンサゲインが、奥行きが大きくなるほど減衰する特性である。ここで、処理対象の画像が図5(B)に示す画像200であり、注目オブジェクトが人B(202)である場合を想定する。この場合には、図4のステップS1において、パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがないと判断する。そして、図4のステップS3において、強調特性Aを選択する。従って、画像200に対して強調特性Aを有するエンハンサ処理が実行されると、人B(202)の鮮鋭度が強調され、人A(201)、山(203)の鮮鋭度が落とされる。その結果、立体映像表示部9は、人B(202)にユーザの焦点が合い、人A(201)、山(203)がぼかされている画像を表示する。
一方、処理対象の画像が図5(D)に示す画像300であり、注目オブジェクトが人A(301)である場合を想定する。この場合には、図4のステップS1において、パラメータ生成部6が、注目オブジェクトの手前に注目オブジェクト以外のオブジェクトがあると判断する。そして、図4のステップS2において、強調特性Bを選択する。ここで、図5(C)に示すように、強調特性Bは、注目オブジェクトである人Aの鮮鋭度が強調され、注目オブジェクト以外のオブジェクトの鮮鋭度が落ちるようにする特性である。
従って、画像300に対して強調特性Bを有するエンハンサ処理が実行されると、人A(301)の鮮鋭度が強調され、人B(302)、山(303)の鮮鋭度が落とされる。その結果、立体映像表示部9は、人A(301)にユーザの焦点が合い、人B(302)、山(303)がぼかされている画像を表示する。
以上説明した実施例1の立体映像処理装置によれば、入力映像からユーザの所望の注目オブジェクトを検出し、検出した注目オブジェクトと他のオブジェクトとの間の奥行き方向の位置関係に応じたエンハンサ処理を行うことができる。例えば、この立体映像処理装置は、注目オブジェクトの手前に他のオブジェクトが存在する場合に、注目オブジェクトの鮮鋭度を強調し、その他のオブジェクトをぼかす。従って、この立体映像処理装置によれば、注目オブジェクトの手前に他のオブジェクトが存在しても、立体映像の臨場感を保ちながら、ユーザに立体映像を視聴させることが可能となる。また、この立体映像処理装置によれば、注目オブジェクトだけに焦点を合わせてユーザに立体視させることで、視聴時のユーザの疲労を低減する効果を奏することもできる。
図6は、本発明の実施例2の立体映像処理装置の構成を示す図である。図6に示す立体映像処理装置は、画像入力部21、左オブジェクト検出部22、右オブジェクト検出部23、視差算出部24、パラメータ生成部25、左眼用画像処理部26、右眼用画像処理部27、立体映像表示部28を備える。また、立体映像処理装置は、CPU(Central Processing Unit )29、メモリ30を備える。CPU29は、バス31で接続された各処理部に指示して、立体映像処理装置全体を制御する。
画像入力部21は、図1に示す画像入力部1と同様の機能を有する。左オブジェクト検出部22、右オブジェクト検出部23は、それぞれ、図1に示す左オブジェクト検出部2、右オブジェクト検出部3と同様の機能を有する。視差算出部24は、図1に示す視差算出部4と同様の機能を有する。左眼用画像処理部26、右眼用画像処理部27は、それぞれ、図1に示す左眼用画像処理部7、右眼用画像処理部8と同様の機能を有する。立体映像表示部28は、図1に示す立体映像表示部9と同様の機能を有する。
パラメータ生成部25は、カメラ等の撮像装置から立体映像処理装置に入力された撮影画像のフォーカス情報を受け付ける。フォーカス情報は、例えば、フォーカスの合っている度合いを示す評価値である。パラメータ生成部25は、入力されたフォーカス情報に基づいて、例えば最も合焦の度合いが高いオブジェクトを注目オブジェクトとして決定する。パラメータ生成部25が注目オブジェクトを決定した後の処理は、図4に示すフローチャートが示す処理と同様である。
なお、フォーカスの合っている部分は他の部分と比較して高周波成分が多く含まれる。従って、立体映像処理装置が、カメラからのフォーカス情報ではなく画像の空間周波数成分を取得してフォーカス情報の代わりとしてもよい。さらに、ユーザが注目オブジェクトを直接指示するようにしてもよい。実施例2の立体映像処理装置によれば、注目オブジェクトの手前に他のオブジェクトが存在しても、立体映像の臨場感を保ちながら、ユーザに立体映像を視聴させることが可能となる。
(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。この場合、そのプログラム、及び該プログラムを記憶した記憶媒体は本発明を構成することになる。
1 画像入力部
2 左オブジェクト検出部
3 右オブジェクト検出部
4 視差算出部
5 注目オブジェクト決定部
6 パラメータ生成部
7 左眼用画像処理部
8 右眼用画像処理部
9 立体映像表示部

Claims (6)

  1. 左眼用画像と右眼用画像とを入力する画像入力手段と、
    前記左眼用画像と前記右眼用画像に含まれるオブジェクトを検出するオブジェクト検出手段と、
    前記検出されたオブジェクトの視差量を算出する視差算出手段と、
    前記オブジェクトの画像と予め登録された注目対象の画像との相関度を算出し、算出した相関度に基づいて、ユーザが注目するオブジェクトである注目オブジェクトを決定する注目オブジェクト決定手段と、
    前記注目オブジェクトの前記視差量と、前記注目オブジェクト以外のオブジェクトの前記視差量とに基づいて、前記注目オブジェクトと該注目オブジェクト以外のオブジェクトとの奥行き方向の位置関係を判断し、前記判断した奥行き方向の位置関係に基づいて、前記左眼用画像と前記右眼用画像とに対して実行するエンハンサ処理のパラメータを生成するパラメータ生成手段と、
    前記生成されたパラメータを用いて、前記左眼用画像と前記右眼用画像とに対して前記エンハンサ処理を実行するエンハンサ処理手段とを備える
    ことを特徴とする立体映像処理装置。
  2. 前記パラメータ生成手段は、前記注目オブジェクトの手前に該注目オブジェクト以外のオブジェクトがない場合に、前記視差量が大きいオブジェクトほど鮮鋭度が強調されるようにする前記パラメータを生成することを特徴とする請求項1に記載の立体映像処理装置。
  3. 前記パラメータ生成手段は、前記注目オブジェクトの手前に該注目オブジェクト以外のオブジェクトがある場合に、前記注目オブジェクトの鮮鋭度が強調され、該注目オブジェクト以外のオブジェクトの鮮鋭度が落ちるようにする前記パラメータを生成する
    ことを特徴とする請求項1に記載の立体映像処理装置。
  4. 前記注目オブジェクト決定手段は、前記オブジェクトの画像と予め登録された注目対象の画像との相関度と、該オブジェクトの前記視差量とに基づいて、前記注目オブジェクトを決定する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の立体映像処理装置。
  5. 前記注目オブジェクト決定手段は、前記オブジェクトの画像と予め登録された注目対象の画像との相関度と、該オブジェクトの前記視差量と、該オブジェクトの種類に応じて決まる優先度とに基づいて、前記注目オブジェクトを決定する
    ことを特徴とする請求項1乃至3のいずれか1項に記載の立体映像処理装置。
  6. 左眼用画像と右眼用画像とを入力する画像入力工程と、
    前記左眼用画像と前記右眼用画像に含まれるオブジェクトを検出するオブジェクト検出工程と、
    前記検出されたオブジェクトの視差量を算出する視差算出工程と、
    前記オブジェクトの画像と予め登録された注目対象の画像との相関度を算出し、算出した相関度に基づいて、ユーザが注目するオブジェクトである注目オブジェクトを決定する注目オブジェクト決定工程と、
    前記注目オブジェクトの前記視差量と、前記注目オブジェクト以外のオブジェクトの前記視差量とに基づいて、前記注目オブジェクトと該注目オブジェクト以外のオブジェクトとの奥行き方向の位置関係を判断し、前記判断した奥行き方向の位置関係に基づいて、前記左眼用画像と前記右眼用画像とに対して実行するエンハンサ処理のパラメータを生成するパラメータ生成工程と、
    前記生成されたパラメータを用いて、前記左眼用画像と前記右眼用画像とに対して前記エンハンサ処理を実行するエンハンサ処理工程とを有する
    ことを特徴とする立体映像処理方法。
JP2010256000A 2010-11-16 2010-11-16 立体映像処理装置および立体映像処理方法 Pending JP2012109725A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010256000A JP2012109725A (ja) 2010-11-16 2010-11-16 立体映像処理装置および立体映像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010256000A JP2012109725A (ja) 2010-11-16 2010-11-16 立体映像処理装置および立体映像処理方法

Publications (1)

Publication Number Publication Date
JP2012109725A true JP2012109725A (ja) 2012-06-07

Family

ID=46494893

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010256000A Pending JP2012109725A (ja) 2010-11-16 2010-11-16 立体映像処理装置および立体映像処理方法

Country Status (1)

Country Link
JP (1) JP2012109725A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105228A1 (ja) * 2016-12-06 2018-06-14 シャープ株式会社 画像処理装置、表示装置、画像処理装置の制御方法、および制御プログラム
JP2019146149A (ja) * 2018-02-15 2019-08-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2021245930A1 (ja) * 2020-06-05 2021-12-09 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018105228A1 (ja) * 2016-12-06 2018-06-14 シャープ株式会社 画像処理装置、表示装置、画像処理装置の制御方法、および制御プログラム
JP2019146149A (ja) * 2018-02-15 2019-08-29 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP7356218B2 (ja) 2018-02-15 2023-10-04 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2021245930A1 (ja) * 2020-06-05 2021-12-09 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Similar Documents

Publication Publication Date Title
JP4875762B2 (ja) 画像処理装置、画像表示装置および画像撮像装置
JP4793451B2 (ja) 信号処理装置、画像表示装置、信号処理方法およびコンピュータプログラム
CN106484116B (zh) 媒体文件的处理方法和装置
EP3398004B1 (en) Configuration for rendering virtual reality with an adaptive focal plane
US9729845B2 (en) Stereoscopic view synthesis method and apparatus using the same
US20120176366A1 (en) Scaling pixel depth values of user-controlled virtual object in three-dimensional scene
CN105894567B (zh) 放缩三维场景中的用户控制的虚拟对象的像素深度值
JP2013172190A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US8692870B2 (en) Adaptive adjustment of depth cues in a stereo telepresence system
JP2011113363A (ja) 画像処理装置、画像処理方法、およびプログラム
KR20130125777A (ko) 적응 시차를 갖는 3d 디스플레이를 위한 방법 및 시스템
EP3001681B1 (en) Device, method and computer program for 3d rendering
JP5175910B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP2022183177A (ja) ヘッドマウントディスプレイ装置
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP2012109725A (ja) 立体映像処理装置および立体映像処理方法
WO2013133057A1 (ja) 画像処理装置および方法、並びにプログラム
KR20120133710A (ko) 비대칭 양안 카메라 모듈을 이용한 입체 3d 영상 생성 장치 및 그 방법
KR101172507B1 (ko) 시점 조정 3차원 영상 제공 장치 및 방법
JP5402070B2 (ja) 画像提示システム、画像処理装置、プログラムおよび画像提示方法
JP2016532147A (ja) 眼科レンズの視覚的効果を特定する方法
JP2015149547A (ja) 画像処理方法、画像処理装置、及び電子機器
KR101894092B1 (ko) 입체영상 자막처리방법과 이를 이용한 자막처리부
Wang et al. Study of center-bias in the viewing of stereoscopic image and a framework for extending 2D visual attention models to 3D
TWI628619B (zh) 立體影像產生方法及其裝置