JP2014035597A - 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法 - Google Patents

画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法 Download PDF

Info

Publication number
JP2014035597A
JP2014035597A JP2012175320A JP2012175320A JP2014035597A JP 2014035597 A JP2014035597 A JP 2014035597A JP 2012175320 A JP2012175320 A JP 2012175320A JP 2012175320 A JP2012175320 A JP 2012175320A JP 2014035597 A JP2014035597 A JP 2014035597A
Authority
JP
Japan
Prior art keywords
frame
area
image
depth information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012175320A
Other languages
English (en)
Inventor
Ikuko Tsubaki
郁子 椿
Takeaki Suenaga
健明 末永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012175320A priority Critical patent/JP2014035597A/ja
Publication of JP2014035597A publication Critical patent/JP2014035597A/ja
Pending legal-status Critical Current

Links

Abstract

【課題】2次元動画を3次元動画に変換した場合に奥行きの不自然な変動を防止することができる画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法を提供する。
【解決手段】オブジェクト追跡部12は、一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出する。オブジェクト内奥行き情報生成部142は、抽出されたオブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成する。背景奥行き情報生成部141は、抽出されたオブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成する。立体画像生成部15は、生成されたオブジェクト領域奥行き情報及び背景領域奥行き情報を用いて視差を有する多視点画像を生成する。
【選択図】図1

Description

本発明は、2次元動画を3次元動画に変換する画像処理装置、該画像処理装置を実現するためのコンピュータプログラム、該コンピュータプログラムを記録した記録媒体及び画像処理方法に関する。
二眼ステレオ方式の立体画像表示装置では、左眼用画像と右眼用画像を用いて立体表示を行う。左眼用画像と右眼用画像の間における被写体の座標の横方向のずれを視差と呼び、視差に応じて被写体が画面から飛び出すような感覚、あるいは画面の奥にあるような感覚を見る者に与えることができる。視差は奥行き方向に知覚される距離と対応している。
多眼方式の立体画像表示装置は、互いに視差を有する複数枚の画像を用いて立体表示を行う。この複数枚の画像をそれぞれ視点画像と呼ぶ。二眼ステレオ方式の立体画像表示装置の場合も左眼用画像と右眼用画像をそれぞれ視点画像と呼ぶことができる。
立体画像を撮影する方法としては、複数のカメラユニットを横に並べた二眼式カメラや多眼式カメラによって撮影する方法が知られている。二眼式または多眼式カメラを構成する各カメラユニットで撮影された画像をそれぞれ視点画像として立体画像表示装置で表示すると、立体感のある画像が観察される。視差は、被写体とカメラとの距離に応じて異なる。
このような二眼式または多眼式カメラを用いて立体画像を撮影する以外にも、立体画像を作成する技術が検討されており、通常のカメラによる撮影で得られた2次元画像から、画像処理によって立体画像を作成する技術は2D3D変換と呼ばれている。二眼ステレオ式立体画像表示用の2D3D変換の代表的な方法は、2次元画像の解析によって各画素の奥行き値を生成し、その奥行き値に基づいて左眼用画像と右眼用画像を作成する。多眼式立体画像表示用の場合は、各画素の奥行き値を生成した後、その奥行き値に基づいて、表示に必要な全ての視点画像を作成する。
各画素の奥行き値の生成には様々な方法があるが、特許文献1に開示される2次元映像を3次元映像に変換する装置では、遠近に関する画像特徴量を用いて画面内の全領域をその画面に含まれている物体毎にグループ分けを行い、各グループの奥行き情報を生成している。
また、別の例としては、2次元画像から特徴情報の抽出によって複数のオブジェクトを抽出し、さらに複数のオブジェクトを分割し、複数のオブジェクトの奥行き順序を決定することにより、重畳する物体を分離して、物体間の配置順序を明確にすることにより、立体画像の品質を改善する装置が開示されている(特許文献2参照)。
特開平11−8862号公報 特開2011−223566号公報
特許文献1、2のような従来の装置を動画に適用する場合、各フレームは、前のフレームの結果とは関係なく独立に処理が行われる。
しかしながら、オブジェクト(画面に含まれている物体)領域の抽出においては、画像上のノイズの影響などにより、本来オブジェクト領域に含まれる画素をオブジェクト領域外として扱い、あるいは、本来オブジェクト領域に含まれない画素を誤ってオブジェクト領域内の画素として抽出するというような誤抽出が生じる場合がある。各フレームで独立に処理を行った場合は、誤抽出の程度が各フレームで異なり、抽出したオブジェクト領域の境界が、本来の境界に対してフレーム毎に変動する場合がある。
このようなオブジェクト領域抽出結果から得られる各画素の奥行き値は、オブジェクト領域の境界近傍で、オブジェクトの本来の動きとは関係なく奥行き値がフレーム毎に不自然に変動するという問題があった。
本発明は、斯かる事情に鑑みてなされたものであり、2次元動画を3次元動画に変換した場合に奥行きの不自然な変動を防止することができる画像処理装置、該画像処理装置を実現するためのコンピュータプログラム、該コンピュータプログラムを記録した記録媒体及び画像処理方法を提供することを目的とする。
本発明に係る画像処理装置は、2次元動画を3次元動画に変換する画像処理装置において、複数のフレームの一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出するオブジェクト領域追跡手段と、前記オブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成するオブジェクト領域奥行き生成手段と、前記オブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成する背景領域奥行き生成手段と、前記オブジェクト領域奥行き情報及び前記背景領域奥行き情報を用いて多視点画像を生成する多視点画像生成手段とを備えることを特徴とする。
本発明に係る画像処理装置は、前記オブジェクト領域追跡手段は、前記一のフレームのオブジェクト領域内の画素値で表される特徴量及び前記他のフレームの探索領域内の画素値で表される特徴量の類似度に基づいて、前記他のフレームのオブジェクト領域を抽出することを特徴とする。
本発明に係る画像処理装置は、前記オブジェクト領域追跡手段は、前記一のフレームのオブジェクト領域内の画素値及び前記他のフレームの探索領域内の画素値を用いて表される尤度に基づいて、前記他のフレームのオブジェクト領域を抽出することを特徴とする。
本発明に係る画像処理装置は、前記一のフレームは、開始フレームであることを特徴とする。
本発明に係る画像処理装置は、前記一のフレームは、ユーザが選択した任意のフレームであることを特徴とする。
本発明に係る画像処理装置は、前記オブジェクト領域追跡手段は、各フレームの1つ前又は1つ後のフレームのオブジェクト領域情報を用いて前記各フレームのオブジェクト領域を抽出することを特徴とする。
本発明に係る画像処理装置は、前記一のフレームのフレーム画像内の画素値に基づいてオブジェクト領域を抽出する抽出手段を備えることを特徴とする。
本発明に係る画像処理装置は、前記オブジェクト領域追跡手段は、任意のフレーム画像上でオブジェクト領域を追跡することができない場合、新たなオブジェクト領域を抽出するようにしてあることを特徴とする。
本発明に係るコンピュータプログラムは、コンピュータに、2次元動画を3次元動画に変換させるためのコンピュータプログラムにおいて、コンピュータに、複数のフレームの一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出するステップと、前記オブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成するステップと、前記オブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成するステップと、前記オブジェクト領域奥行き情報及び前記背景領域奥行き情報を用いて多視点画像を生成するステップとを実行させることを特徴とする。
本発明に係る記録媒体は、前述の発明に係るコンピュータプログラムを記録してあることを特徴とする。
本発明に係る画像処理方法は、2次元動画を3次元動画に変換する画像処理装置による画像処理方法において、複数のフレームの一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出するステップと、前記オブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成するステップと、前記オブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成するステップと、前記オブジェクト領域奥行き情報及び前記背景領域奥行き情報を用いて多視点画像を生成するステップとを含むことを特徴とする。
本発明にあっては、オブジェクト領域追跡手段は、一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出する。オブジェクト領域情報は、例えば、フレーム画像(2次元動画のフレームの画像)上のオブジェクト領域を表す画像であるオブジェクトマスクである。そして、オブジェクト領域追跡手段は、一のフレームのオブジェクト領域を占める物体が、他のフレームにおいて占める領域をそのフレームのオブジェクト領域として抽出し、各フレームのオブジェクトマスクを作成する。
オブジェクト領域奥行き生成手段は、抽出されたオブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成する。奥行き情報(奥行きマップ)は、フレーム画像の各画素の奥行き値を示す画像である。すなわち、オブジェクト領域奥行き生成手段は、各フレーム画像及びオブジェクトマスクを用いて、オブジェクト領域内の各画素の奥行き値、すなわちオブジェクト領域奥行きマップを生成する。また、背景領域奥行き生成手段は、抽出されたオブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成する。すなわち、背景領域奥行き生成手段は、各フレーム画像に基づいて、背景領域の各画素の奥行き値、すなわち背景奥行きマップを生成する。
多視点画像生成手段は、オブジェクト領域奥行き生成手段及び背景領域奥行き生成手段が生成した奥行き情報を用いて視差を有する多視点画像を生成する。
上述の構成により、各フレームでのオブジェクト領域を抽出するために、一のフレームのオブジェクト領域を利用するので、全くこれらの情報がない状態で、2次元画像からオブジェクト領域を抽出する場合に比べて、オブジェクト領域の誤検出(本来オブジェクト領域に含まれる画素を背景領域として誤検出し、あるいは本来背景領域である画素を誤ってオブジェクト領域の画素として抽出すること)を防止することができる。そして、奥行き値がフレーム毎に不自然に変動する事態を防止することができる。
本発明にあっては、オブジェクト領域追跡手段は、一のフレームのオブジェクト領域内の画素値で表される特徴量及び他のフレームの探索領域内の画素値で表される特徴量の類似度に基づいて、他のフレームのオブジェクト領域を抽出する。例えば、オブジェクト領域及び探索領域の対応する画素の輝度値の差分の絶対値を各領域の全画素それぞれについて算出し、算出した差分の絶対値を合計した合計値を特徴量として求め、合計値が最も小さいときに最も類似するとすることができる。上述の構成により、奥行き値がフレーム毎に不自然に変動する事態を防止することができる。
本発明にあっては、オブジェクト領域追跡手段は、一のフレームのオブジェクト領域内の画素値及び他のフレームの探索領域内の画素値を用いて表される尤度に基づいて、他のフレームのオブジェクト領域を抽出する。尤度は、例えば、他のフレームの探索領域内においてオブジェクト領域内であるかに応じて、探索領域を中心領域、探索領域、非探索領域に分けて求めることができる。上述の構成により、奥行き値がフレーム毎に不自然に変動する事態を防止することができる。
本発明にあっては、一のフレームは、開始フレームである。
本発明にあっては、一のフレームは、ユーザが選択した任意のフレームである。
本発明にあっては、オブジェクト領域追跡手段は、各フレームの1つ前又は1つ後のフレームのオブジェクト領域情報を用いて各フレームのオブジェクト領域を抽出する。オブジェクト追跡を行う際に1つ前のフレーム画像と1つ前のフレームで生成したオブジェクト領域の情報、あるいは1つ後のフレーム画像と1つ後のフレームで生成したオブジェクト領域の情報を用いるので、時間の経過とともにオブジェクトの形状又は位置が変化する場合でも、現フレームと前フレーム間、あるいは現フレームと後フレーム間では変化が比較的小さく、精度よくオブジェクトを追跡することが可能となる。
本発明にあっては、一のフレームのフレーム画像内の画素値に基づいてオブジェクト領域を抽出する抽出手段を備える。ユーザが予め作成したオブジェクトマスクを入力する必要がなくなる。
本発明にあっては、オブジェクト領域追跡手段は、任意のフレーム画像上でオブジェクト領域を追跡することができない場合、新たなオブジェクト領域を抽出する。例えば、シーン(場面)が変わることにより、変わる前まで追跡していたオブジェクトが消えてしまい追跡することができない場合には、変わった次のシーン(場面)で新たにオブジェクト抽出を行ってオブジェクトマスクを生成することにより、シーン(場面)が変わった後もオブジェクト領域を追跡することができる。
本発明によれば、2次元動画を3次元動画に変換した場合に奥行きの不自然な変動を防止することができる。
実施の形態1の画像処理装置の構成を示すブロック図である。 開始フレームオブジェクトマスクの一例を示す説明図である。 開始フレームオブジェクトマスクの一例を示す説明図である。 開始フレームオブジェクトマスクの一例を示す説明図である。 オブジェクト領域の追跡結果の一例を示す説明図である。 オブジェクト追跡部の構成例を示すブロック図である。 探索領域マスクの一例を示す説明図である。 奥行き情報生成部において奥行きマップを生成する過程を示す説明図である。 奥行き情報生成部において奥行きマップを生成する過程を示す説明図である。 奥行き情報生成部において奥行きマップを生成する過程を示す説明図である。 奥行き情報生成部において奥行きマップを生成する過程を示す説明図である。 奥行き情報生成部において奥行きマップを生成する過程を示す説明図である。 右眼用画像の生成手順の一例を示すフローチャートである。 実施の形態1の画像処理装置のオブジェクト追跡処理により奥行き値の不自然な動きを防止する一例を示す説明図である。 画像処理装置が生成した奥行き値の一例を示す説明図である。 実施の形態1の画像処理装置の処理手順の一例を示すフローチャートである。 実施の形態2の画像処理装置の処理手順の一例を示すフローチャートである。 実施の形態3の追跡元に用いるフレームの一例を示す説明図である。 実施の形態3の画像処理装置の処理手順の一例を示すフローチャートである。 実施の形態3の画像処理装置の処理手順の一例を示すフローチャートである。 実施の形態4の画像処理装置の構成を示すブロック図である。 実施の形態1〜4の画像処理装置の機能を実現するコンピュータの一例を示す説明図である。
(実施の形態1)
以下、本発明を実施の形態を示す図面に基づいて説明する。図1は実施の形態1の画像処理装置100の構成を示すブロック図である。画像処理装置100は、装置全体を制御する制御部10、入力部11、オブジェクト追跡部12、記憶部13、奥行き情報生成部14、立体画像生成部15、出力部16などを備える。また、奥行き情報生成部14は、背景奥行き情報生成部141、オブジェクト内奥行き情報生成部142、奥行き情報合成部143などを備える。
画像処理装置100は、2次元動画を3次元動画に変換するための画像処理を行うものである。
入力部11は、2次元動画を外部の装置から取得し、フレーム画像を順次オブジェクト追跡部12へ出力する。入力部11は、2次元動画の最初のフレームのフレーム画像(開始フレーム画像とも称する)を記憶部13に記憶する。
また、入力部11は、外部の装置から開始オブジェクトマスクを取得し、記憶部13に記憶する。オブジェクトマスクとは、フレーム画像上のオブジェクト領域を表す画像であり、画像サイズはフレーム画像と同一である。例えば、オブジェクト領域内の画素値を1、オブジェクト領域外の画素値を0とすることで、オブジェクト領域を表す。開始フレームオブジェクトマスクとは、開始フレームのオブジェクトマスクである。
開始フレームオブジェクトマスクは、予めユーザが作成する。ユーザは、画像編集ソフトウェア等を用い、開始フレーム画像内の前景として表示させたい物体の領域を抽出し、開始フレームオブジェクトマスクを作成する。ユーザが注目した1つの物体が占める領域だけを抽出してもよいし、複数の物体が占める領域を抽出してもよい。図2、図3及び図4は開始フレームオブジェクトマスクの一例を示す説明図である。図2は、開始フレーム画像の例であり、地面の上にうさぎと木が立っているシーンである。図3は、うさぎの領域を抽出したオブジェクトマスクであり、1つの物体が占める領域を抽出した例である。白がオブジェクト領域内、黒がオブジェクト領域外を表す。図4は、うさぎと木の領域を抽出したオブジェクトマスクであり、2つの物体が占める領域を抽出した例である。
なお、オブジェクトマスクで抽出された領域をオブジェクト領域、それ以外を背景領域と呼ぶ。
オブジェクト追跡部12は、開始フレームのオブジェクト領域を占める物体が、他のフレームにおいて占める領域をそのフレームのオブジェクト領域として抽出し、各フレームのオブジェクトマスクを作成する。オブジェクト領域は、静止している場合もあるが、時間経過とともに移動や変形が連続的に生じる場合もある。オブジェクト領域の抽出は、各フレームにおいて、開始フレームのオブジェクト領域の近傍を探索し、開始フレームのオブジェクト領域と類似度が高い領域を抽出することによって行う。このように、オブジェクト領域が分かっているフレームにおけるオブジェクト領域の情報を用いて、他のフレームのオブジェクト領域を抽出する処理をオブジェクト追跡と呼ぶ。
オブジェクト追跡部12は、まず、記憶部13から開始フレーム画像及び開始フレームオブジェクトマスクを読み出す。開始フレームのフレーム番号を1とする。次に、開始フレームの次のフレーム(フレーム番号2)のフレーム画像を入力部11から取得する。これを現フレーム画像とする。そして、オブジェクト追跡によって現フレーム画像のオブジェクト領域を抽出し、現フレームのオブジェクトマスクを生成する。現フレームのオブジェクトマスクとフレーム画像は、奥行き情報生成部14へ出力する。なお、開始フレームのフレーム番号を1、次のフレームのフレーム番号を2とする。
同様に、オブジェクト追跡部12は、フレーム番号3のフレーム画像を入力部11から取得し、これを現フレーム画像とする。そして、オブジェクト追跡によって現フレーム画像のオブジェクト領域を抽出し、現フレーム(フレーム番号3)のオブジェクトマスクを生成する。現フレームのオブジェクトマスクとフレーム画像は、奥行き情報生成部14へ出力する。オブジェクト追跡部12は、フレーム番号4以降のフレームについても同様の処理を繰り返す。
次に、オブジェクト追跡処理の詳細について説明する。オブジェクト追跡は様々な方法が知られているが、例として、テンプレートマッチングを用いた方法を説明する。各フレームにおける処理は、まず、現フレーム画像、及び開始フレーム画像それぞれを各画素が輝度値で表される輝度画像に変換する。
現フレームと開始フレームの輝度画像をそれぞれF(x,y)、G(x,y)とする。(x,y)は座標を表す。
次に、開始フレームオブジェクトマスクをMg(x,y)とし、オブジェクトが存在する領域の左端及び右端のx座標を求め、それぞれXS、XEとする。また、オブジェクトが存在する領域の上端及び下端のy座標を求め、それぞれYS、YEとする。
そして、式(1)、式(2)、式(3)を満たす(u,v)を求め、求めた(u,v)を用いて、式(4)によって現フレームのオブジェクトマスクMf(x,y)を生成する。開始フレームオブジェクトマスク、現フレームオブジェクトマスクとも、オブジェクトマスクの画素値1はオブジェクト領域、画素値0は背景領域を示している。
式(2)、式(3)において、Δは探索範囲を表す正の定数である。u、vはそれぞれ整数とする。また、式(1)において、座標(x+u,y+v)が現フレーム画像内からはみ出る場合は、画像端処理として、画像内の最も近い画素の座標に置き換える。
オブジェクト追跡部12は、式(2)、(3)を満たす全ての(u,v)について、開始フレーム画像においてオブジェクト領域内の座標(x,y)の輝度値と、現フレーム画像の座標(x+u,y+v)の輝度値との差分の絶対値を算出し、開始フレームのオブジェクト領域内の全画素それぞれについて算出した差分の絶対値を合計した合計値を求める。そして、合計値が最も小さいときのベクトル(u,v)を求める。これが式(1)の意味である。(u,v)は、オブジェクト領域全体が、開始フレームから現フレームへ移動した際の動きベクトルを示しており、合計値が最も小さい(u,v)を選択するというのは、最も類似度が高くなる(u,v)を選択することに相当する。
このようにして求められたベクトル(u,v)を用いて、開始フレームオブジェクトマスクを、式(4)のように、ベクトル(u,v)だけ移動させることにより、現フレームでのオブジェクトマスクを生成することができる。
図5はオブジェクト領域の追跡結果の一例を示す説明図である。図5の左列はフレーム画像、右列はオブジェクトマスクを示し、上段は開始フレーム、中段はフレーム番号2、下段はフレーム番号3である。フレーム番号2のオブジェクトマスクは、開始フレーム画像と、開始フレームオブジェクトマスクと、フレーム番号2のフレーム画像とを入力してオブジェクト追跡処理を行って得られた例である。同様に、フレーム番号3のオブジェクトマスクは、開始フレーム画像と、開始フレームオブジェクトマスクと、フレーム番号3のフレーム画像とを入力してオブジェクト追跡処理を行って得られた例である。開始フレームオブジェクトマスクで抽出されているうさぎの領域が、フレーム番号2とフレーム番号3のオブジェクトマスクにおいても抽出されていることが分かる。
上述したテンプレートマッチングを用いた方法は、オブジェクト領域のフレーム間の動きが平行移動の場合に精度よく求めることができる。回転等の他の動きや、変形を伴う場合にも適している手法の例を次に示す。
図6はオブジェクト追跡部12の構成例を示すブロック図である。オブジェクト追跡部12は、探索領域設定部511と、尤度算出部512と、領域抽出部513と、後処理部514とを有している。探索領域設定部511は、開始フレームオブジェクトマスクを読み込み、探索領域マスクを作成する。
図7は探索領域マスクの一例を示す説明図である。図7Aは開始フレームオブジェクトマスクの例であり、図7Bは、図7Aから作成した探索領域マスクの例である。探索領域マスクは、探索領域、中心領域、非探索領域の3つの領域から構成される。探索領域マスクの作成方法は、まず、開始フレームオブジェクトマスクのオブジェクト領域の輪郭の近傍を探索領域とし、次に、探索領域よりも内側の領域を中心領域とする。残りの領域を非探索領域とする。
探索領域は、図7Bに粗い斜線で示した領域であり、開始フレームオブジェクトマスクのオブジェクト領域の輪郭から距離が探索距離以下にある画素を抽出したものである。開始フレーム画像においてオブジェクト領域の画素と背景領域の画素の両方が含まれる。尤度算出部512において、現フレーム画像のオブジェクト領域であるか背景領域であるかが確定していない領域として扱われる。探索距離は予め与えられた定数値である。
中心領域は、図7Bに白色(斜線なし)で示した領域であり、開始フレーム画像のオブジェクト領域にあり、かつ、開始フレーム画像のオブジェクト領域の輪郭から距離が探索距離より大きい画素を抽出したものである。尤度算出部512において、現フレーム画像においてオブジェクト領域であることが確定した領域として扱われる。
非探索領域は、図7Bに細かい斜線で示した領域であり、開始フレーム画像の背景領域にあり、かつ、開始フレーム画像のオブジェクト領域の輪郭から距離が探索距離より大きい画素を抽出したものである。尤度算出部512において、現フレーム画像において背景領域であることが確定した領域として扱われる。
尤度算出部512は、現フレーム画像の各画素について、オブジェクト領域に含まれる尤度P(x,y)を求める。以下の(1)〜(3)の手順で行う。(1)探索領域マスクにおいて非探索領域の画素は、尤度P(x,y)を0とする。(2)探索領域マスクにおいて中心領域の画素は、尤度P(x,y)を1とする。(3)探索領域マスクにおいて探索領域の画素は、(5)式で尤度P(x,y)を算出する。
H(x,y)は開始フレームオブジェクトマスク、F(x,y)、Fp (x,y)はそれぞれ現フレーム画像、開始フレーム画像を示す。(5)式はフィルタ演算となっており、g(l,σ)はガウス関数、σs , σc はフィルタの特性を制御する定数である。2B+1はウィンドウサイズ、αは定数である。
現フレーム画像のある画素(x,y)を注目画素と呼ぶと、(5)式は、各注目画素について、その周囲に正方形のウィンドウを設定し、開始フレームオブジェクトマスクのウィンドウ内に含まれる画素の中でオブジェクト領域内にある画素数をカウントするものである。ただし、注目画素との色の類似度が高く、注目画素と距離が近い画素ほど、高い重みを付けてカウントしている。Q(x,y)は正規化するための係数である。ls は注目画素との距離、lc は色の類似度を示している。{r,g,b}は、フレーム画像の3つの色成分を示す。また、(5)式において、Q(x,y)がαより小さい場合は、注目画素の近傍に、開始フレーム画像で色が似ている画素が無いと判断し、尤度を0とする。
領域抽出部513では、尤度算出部512で算出した尤度P(x,y)の閾値処理により、閾値以上の画素をオブジェクト領域、閾値未満の画素を背景領域と判定する。閾値は予め定めた定数とする。全ての画素について判定を行い、現フレームのオブジェクトマスクを作成する。
後処理部514では、領域抽出部で作成したオブジェクトマスクの補正のために2つの処理を行う。1つは、穴埋め処理による補正であり、周囲をオブジェクト領域内と判定された画素で囲まれている画素は、オブジェクト領域内にあると判定し直す処理である。これは判定の誤りを減らす効果がある。もう1つは、フレーム間での平滑化処理による補正である。フレーム間での平滑化処理は、例えば、現フレームの1つ前のフレームで生成されたオブジェクトマスクと、現フレームの2つ前のフレームで生成されたオブジェクトマスクと、現フレームで穴埋め処理を行ったオブジェクトマスクの3つを用い、現フレームと、2つ前のフレームが両方ともオブジェクト領域内である画素は、1つ前のフレームもオブジェクト領域内であると修正し、逆に、現フレームと、2つ前のフレームが両方とも背景領域である画素は、1つ前のフレームも背景領域と修正する。これはメディアンフィルタに相当する。1つ前のフレームのオブジェクトマスクを修正するため、出力が1フレーム遅延する。また、2つ前のフレームのオブジェクトマスクを保持しておく必要がある。
以上の方法で、回転等の平行移動以外の動きや、変形を伴う場合にもオブジェクト追跡を行うことができる。ただし、ここで示した式と性質が類似の他の式を用いて計算されてもよい。例えば(7)式は、ガウス関数を用いたが、指数関数などの他の関数であってもよい。また、開始フレーム画像のオブジェクト領域内の画素値や画像特徴量との類似度を元にして、現フレーム画像でのオブジェクト領域を抽出する手法であればよく、(5)式のように尤度を定義しなくてもよい。また、計算量削減のために、後処理部514は省略してもよい。
オブジェクト追跡処理は、上述の例に限定されるものではなく、Mean Shift法、特徴点追跡を用いた手法など、いずれの手法を用いてもよい。
オブジェクト追跡部12は、生成したオブジェクトマスクを奥行き情報生成部14へ出力する。
奥行き情報生成部14は、オブジェクト追跡部12が出力した各フレームのオブジェクトマスク及び各フレーム画像を用いて、各フレーム画像の奥行きマップを生成する。各フレームの奥行きマップとフレーム画像は、立体画像生成部15へ出力する。
奥行きマップは、フレーム画像の各画素の奥行き値を示す画像であり、画像サイズはフレーム画像と同一である。例えば、奥行き値を画素値が0から255の範囲で示し、最も手前側の位置を画素値255で表し、最も奥側の位置を画素値0とすることで奥行き値を表す。
背景奥行き情報生成部141は、各フレーム画像に基づいて、背景領域の各画素の奥行き値、すなわち背景奥行きマップを生成する。
背景奥行きマップは、例えば、消失点位置を推定し、消失点位置に基づいて生成する。消失点位置の推定は、例えば、画像全体で特徴点を抽出し、それらを通る直線をハフ変換で検出し、検出した直線の交点に基づいて算出することができる。奥行き値の生成は、例えば、式(10)、式(11)を用いて消失点位置を最も奥側とし、各画素について、消失点位置からの距離に比例する奥行き値を与える。Kb(x,y)は背景奥行きマップを表す。(X,Y)は消失点の座標であり、M,Nはそれぞれ横、縦の画像サイズである。bmin,bmaxは、背景奥行きマップの奥行き値の最小値と最大値であり、予め与えられた定数とする。背景奥行きマップは、背景領域の中だけで算出し、オブジェクト領域においては、特に値を定めない。
なお、背景奥行きマップ生成部は、消失点を用いた手法に限らず、例えば全体を一定値とするなど、他のいかなる方法を用いてもよい。
オブジェクト内奥行き情報生成部142は、各フレームのフレーム画像及びオブジェクトマスクを用いて、オブジェクト領域内の各画素の奥行き値、すなわちオブジェクト領域奥行きマップを生成する。例えば、オブジェクト領域内の全体に一定値を与える。この際、一定値は予め定められた定数とする。予め定められた一定値は、フレームごとに変化する値であってもよい。その他の例として、画像特徴量に基づいて奥行き値を生成する。例えば、コントラストを用い、コントラストの大きさに比例した奥行き値を与える。この際は、予め定められたオブジェクト領域奥行きマップの奥行き値の最小値と最大値の範囲内の値を用いて奥行き値を生成する。オブジェクト領域奥行きマップは、オブジェクト領域の中だけで算出し、背景領域においては、特に値を定めない。
奥行き情報合成部143は、背景奥行き情報生成部141で生成した背景奥行きマップに、オブジェクト内奥行き情報生成部142で生成したオブジェクト領域奥行きマップを重畳させることで両者を合成してフレーム画像全体の奥行きマップを生成する。
図8ないし図12は奥行き情報生成部14において奥行きマップを生成する過程を示す説明図である。図8は、フレーム画像の例であり、図9は、図8に対して生成されたオブジェクトマスクである。図10は、背景奥行きマップ生成部で作成された背景奥行きマップの例である。×印が推定された消失点の位置であり、消失点を最も奥側とし、他の画素については消失点からの距離に応じた奥行き値が与えられている。オブジェクト領域内については値を設定しておらず、黒で示している。図11は、オブジェクト内奥行き生成部で作成されたオブジェクト領域奥行きマップの例であり、オブジェクト領域に一定の奥行き値を与えている。背景領域については値を設定しておらず、黒で示している。図12は、奥行き情報合成部で生成された奥行きマップの例である。図10に図11を重畳して、画像全体に奥行き値が設定された奥行きマップが生成されている。
なお、前述の例では、背景奥行き情報生成部141は、背景領域にだけ値を持つ背景奥行きマップを生成する構成であるが、これに限定されるものではなく、背景奥行き情報生成部でオブジェクト領域にも奥行き値を与え、オブジェクト領域奥行きマップを生成する際に、背景奥行きマップのオブジェクト領域の奥行き値に所定値を加算又は減算して生成する構成とすることもできる。
立体画像生成部15は、多視点画像を生成する生成手段としての機能を有する。立体画像生成部15は、奥行き情報生成部14が出力した奥行きマップ及びフレーム画像を用いて視差を有する多視点画像を生成する。視点が2つの場合は、多視点画像は、左眼用画像及び右眼用画像とすることができる。
まず、視点が2つの場合について、生成方法を説明する。例として、左眼用画像にフレーム画像をそのまま用い、右眼用画像を生成する場合を説明する。
最初に奥行きマップから視差マップを生成する。例えば、D(x,y)=β・K(x,y)+γによって求める。
D(x,y)は生成する視差マップ、K(x,y)は奥行き情報生成部14で得られた奥行きマップである。βとγは予め与えられた定数である。この視差マップ生成は、上述のように奥行きマップの線形変換によって行ったが、これに限らず、反比例などの他の変換によって求めてもよい。
次に、フレーム画像の各画素について、その座標の視差値を視差マップから読み取り、生成する右眼用画像において、視差値分だけ座標を移動させた画素に画素値をコピーする。この処理をフレーム画像の全ての画素について行うが、同一の画素に複数の画素値が割り当てられる場合は、zバッファ法に基づき、視差値が飛び出し方向に最大の画素の画素値を用いる。
図13は右眼用画像の生成手順の一例を示すフローチャートである。以下、図13を参照しながら生成手順を説明する。(x,y)は画像内の座標を示すが、図13では各行での処理であり、yは一定である。F、G、Dはそれぞれフレーム画像、生成する右眼用画像、視差マップを示している。Zは、処理の過程において右眼用画像の各画素の視差値を保持するための配列であり、zバッファと呼ぶ。Wは画像の横方向の画素数である。
まず、ステップS1において、zバッファを初期値MINで初期化する。視差値は飛出し方向の場合に正値、奥行き方向の場合に負値をとるものとし、MINは、奥行き情報生成部14で生成した奥行き値の最小値から求められる視差値よりも小さい値とする。さらに、以降のステップで左端画素から順に処理を行うために、xに0を入力する。
ステップS2において、視差マップの視差値と、その視差値分だけ座標を移動させた画素のzバッファの値を比較し、視差値がzバッファの値より大きいか否かを判定する。視差値がzバッファの値よりも大きい場合は、ステップS3に進み、右眼用画像にフレーム画像の画素値を割り当てる。また、zバッファの値を更新する。
次にステップS4において、現在の座標が右端画素である場合は終了し、現在の座標が右端画素でない場合はステップS5に進み、右隣りの画素へ移動してステップS2に戻る。ステップS2において、視差値がzバッファの値以下の場合は、ステップS3を通らずにステップS4へ進む。これらの手順を全ての行で行う。
立体画像生成部15は、図13に示した処理の後、生成された右眼用画像について、画素値が割り当てられていない画素について補間処理を行い、画素値を割り当てる。補間処理は、画素値未割当の画素について、その左側で最も近傍の画素値割当済の画素と、その右側で最も近傍の画素値割当済の画素との画素値の平均値を用いて行う。この補間処理は、平均値を用いる方法に限らず、フィルタ処理などの他の方法であってもよい。
また、上述の例では、左眼用画像にフレーム画像をそのまま用い、右眼用画像を生成する場合について示したが、これに限らず、右眼用画像にフレーム画像をそのまま用い、左眼用画像を生成してもよい。また、左目用画像と右目用画像の両方を生成し、どちらにもフレーム画像をそのまま用いなくてもよい。
視点が3つ以上の多視点画像を生成する場合については、上述の2視点の場合と同様に、zバッファ法と補間処理を用いて全ての視点画像を生成する。
出力部16は、立体画像生成部15が生成した立体画像(視点数が2または3以上の多視点画像)を、例えば、出力部16に画像表示機能を具備させて、立体画像を表示させることもできる。また、出力部16は、立体画像生成部15が生成した立体画像を不図示の記録装置に記録することもできる。
このように、出力部16から立体画像を出力することにより、取得した2次元動画を3次元動画に変換することができる。
図14は実施の形態1の画像処理装置100のオブジェクト追跡処理により奥行き値の不自然な動きを防止する一例を示す説明図である。例として円形のオブジェクトが右方向に等速運動する場合を示している。×印はある画素の位置を示し、全ての×印は同じ画素(同じ座標)を示している。図14Aは実施の形態1によるオブジェクト追跡処理の一例を示し、図14Bは比較例として、従来のオブジェクト抽出処理の一例を示す。従来のオブジェクト抽出処理とは、各フレームでオブジェクトを抽出する場合に、2次元画像の情報だけを用い、開始フレームオブジェクトマスクを用いない手法である。
図14Aでは、フレーム番号1のオブジェクトマスク(開始フレームオブジェクトマスク)はユーザによって作成されて与えられる。
画像処理装置100は、フレーム番号2において、開始フレームオブジェクトマスクを利用して、オブジェクト追跡を行い、オブジェクト領域を抽出する。フレーム番号1でのオブジェクト領域の形状が分かっているため、オブジェクト追跡により正確にオブジェクト領域が抽出でき、円形のオブジェクト領域がフレーム番号2においても正しく抽出される。
同様に、画像処理装置100は、フレーム番号3以降において、開始フレームオブジェクトマスクを利用して、オブジェクト追跡を行い、オブジェクト領域を抽出する。フレーム番号1でのオブジェクト領域の形状が分かっているため、オブジェクト追跡により正確にオブジェクト領域が抽出でき、円形のオブジェクト領域がフレーム番号3以降においても正しく抽出される。フレーム番号1から3では、×印で示した画素は、抽出したオブジェクト領域内に存在している。フレーム番号4と5では、×印は背景領域に存在している。
これに対して、図14Bの比較例では、開始フレームオブジェクトマスクが与えられず、まず、フレーム番号1でオブジェクト領域を抽出する。そして、フレーム番号2において、フレーム番号1のオブジェクトマスクを利用することなく、新たにオブジェクト領域を抽出する。しかし、オブジェクト領域の抽出処理は容易ではなく、正しくオブジェクト領域を抽出することができない場合が多い。破線は、本来のオブジェクト領域を示し、実線は、オブジェクト抽出処理で抽出されたオブジェクト領域を示す。図14Bから分かるように、オブジェクト領域の輪郭が本来のオブジェクト領域の輪郭から少しずれてしまっている。
同様に、フレーム番号3以降において、フレーム番号1のオブジェクトマスクを利用することなく、新たにオブジェクト領域を抽出する。抽出したオブジェクト領域を破線で示している。フレーム番号3と4は、本来のオブジェクト領域の輪郭から大きくずれてしまった例である。フレーム番号1,2,4では、×印で示した画素は、抽出したオブジェクト領域内に存在している。フレーム番号3と5では、×印は背景領域に存在している。フレーム番号3では、×印は、本来はオブジェクト領域に存在するが、誤って背景領域と扱われている。フレーム番号4では、×印は、本来は背景領域に存在するが、誤ってオブジェクト領域と扱われている。
図15は画像処理装置100が生成した奥行き値の一例を示す説明図である。図15Aは、図14Aに×印で示した位置の画素について、画像処理装置100が生成した奥行き値の例である。×印は、フレーム番号1から3では抽出したオブジェクト領域に存在しているため、一定の奥行き値となっている。フレーム番号4と5では背景領域と判定されているため、フレーム番号1から3より小さい奥行き値となっている。
図15Bは、図14Bに×印で示した位置の画素について、画像処理装置100が生成した奥行き値の例である。×印は、フレーム番号1,2,4では抽出したオブジェクト領域に存在しているため、一定の奥行き値となっている。フレーム番号3と5では背景領域と判定されているため、小さい奥行き値となっている。フレーム番号3は、本来はオブジェクト領域であるが誤って背景領域と判定されているため、小さい奥行き値となっており、フレーム番号4は、本来は背景領域であるが誤ってオブジェクト領域と判定されているため、大きい奥行き値となっている。これにより、奥行き値が振動的に変動し、不自然となっている。
上述のように、本実施の形態1の画像処理装置では、各フレームでのオブジェクト領域を抽出するために、開始フレームのオブジェクト領域を利用するので、全くこれらの情報がない状態で、2次元画像からオブジェクト領域を抽出する場合に比べて、オブジェクト領域の誤検出(本来オブジェクト領域に含まれる画素を背景領域として誤検出し、あるいは本来背景領域である画素を誤ってオブジェクト領域の画素として抽出すること)を防止することができる。そして、奥行き値がフレーム毎に不自然に変動する事態を防止することができる。
次に、実施の形態1の画像処理装置100の動作について説明する。図16は実施の形態1の画像処理装置100の処理手順の一例を示すフローチャートである。以下、処理の主体を便宜上制御部10とする。
制御部10は、開始フレームオブジェクトマスクを取得する(S11)。制御部10は、フレーム番号1(最初のフレーム)のフレーム画像を取得する(S12)。
制御部10は、開始フレームオブジェクトマスクを用いて、フレーム番号1の奥行きマップを生成する(S13)。制御部10は、フレーム番号1のフレーム画像及びステップS13で生成した奥行きマップを用いて、フレーム1の多視点画像を生成する(S14)。制御部10は、変数NをN=1で初期化する(S15)。
制御部10は、フレーム番号N+1のフレーム画像を取得し(S16)、フレーム番号1のフレーム画像と開始フレームオブジェクトマスクを用いたオブジェクト追跡によってフレーム番号N+1のオブジェクトマスクを生成する(S17)。
制御部10は、フレーム番号N+1で生成したオブジェクトマスクを用いて、フレーム番号N+1の奥行きマップを生成する(S18)。制御部10は、フレーム番号N+1のフレーム画像及びステップS18で生成した奥行きマップを用いて、フレーム場号N+1の多視点画像を生成する(S19)。
制御部10は、フレーム残の有無を判定し(S20)、フレーム残ありの場合(S20でYES)、すなわち動画の途中のフレームである場合、N+1をNに置き換え(S21)、ステップS16以降の処理を繰り返す。フレーム残なしの場合(S20でNO)、制御部10は、処理を終了する。
上述の例では、全てのフレームでオブジェクト追跡を行う場合について示したが、これに限らず、オブジェクト領域が途中のフレームにおいて画像内に存在しなくなった場合は、そこで追跡処理を終了してもよい。オブジェクト領域が画像内に存在するかどうかの判定は、例えば、オブジェクトマスクにおいてオブジェクト領域に含まれる画素数をカウントし、その閾値処理によって行う。この処理は、例えば、ステップS17において行い、フレームNのオブジェクトマスクにおけるオブジェクト領域に含まれる画素数が閾値未満の場合は、追跡処理を行わずフレームN+1のオブジェクトマスク全体を背景領域とする。
上述のように、開始フレームオブジェクトマスクを用いて、オブジェクト追跡により、各フレームのオブジェクト領域を抽出する。なお、開始フレームオブジェクトマスクは、所望のオブジェクトを抽出して予め作成したものを取得することができ、フレーム番号1のフレーム画像とともに、所定の記憶部に記憶しておく。上述の構成により、オブジェクト領域を精度良く抽出することができるので、3次元動画において奥行きの不自然な変動を防止することができる。
(実施の形態2)
実施の形態1では、開始フレームを追跡元としてフレーム2以降の各フレームのオブジェクト追跡を行う構成であった。実施の形態2では、1つ前のフレームを追跡元として各フレームのオブジェクト追跡を行う点が異なる。なお、実施の形態2の画像処理装置の構成は実施の形態1と同様である。オブジェクト追跡部12の内容のみが実施の形態1と異なり、他の部分の処理は同じである。
図17は実施の形態2の画像処理装置100の処理手順の一例を示すフローチャートである。以下、処理の主体を便宜上制御部10とする。
制御部10は、開始フレームオブジェクトマスクを取得する(S31)。制御部10は、フレーム番号1(最初のフレーム)のフレーム画像を取得する(S32)。
制御部10は、開始フレームオブジェクトマスクを用いて、フレーム番号1の奥行きマップを生成する(S33)。制御部10は、フレーム番号1のフレーム画像及びステップS33で生成した奥行きマップを用いて、フレーム1の多視点画像を生成する(S34)。制御部10は、変数NをN=1で初期化する(S35)。
制御部10は、フレーム番号N+1のフレーム画像を取得し(S36)、フレーム番号Nのフレーム画像とフレーム番号Nのオブジェクトマスクを用いたオブジェクト追跡によってフレーム番号N+1のオブジェクトマスクを生成する(S37)。この際、フレーム番号N+1のフレーム画像とオブジェクトマスクを記憶部13に記憶しておく。
制御部10は、フレーム番号N+1で生成したオブジェクトマスクを用いて、フレーム番号N+1の奥行きマップを生成する(S38)。制御部10は、フレーム番号N+1のフレーム画像及びステップS38で生成した奥行きマップを用いて、フレーム場号N+1の多視点画像を生成する(S39)。
制御部10は、フレーム残の有無を判定し(S40)、フレーム残ありの場合(S40でYES)、すなわち動画の途中のフレームである場合、N+1をNに置き換え(S41)、ステップS36以降の処理を繰り返す。フレーム残なしの場合(S40でNO)、制御部10は、処理を終了する。
上述のように、実施の形態2では、オブジェクト追跡を行う際に1つ前のフレーム画像と1つ前のフレームで生成したオブジェクト領域の情報を用いるので、時間の経過とともにオブジェクトの形状又は位置が変化する場合でも、現フレームと1つ前のフレーム間では変化が比較的小さく、精度よくオブジェクトを追跡することが可能となる。
(実施の形態3)
実施の形態1及び2では、開始フレームのオブジェクトマスクが予め与えられ、オブジェクト追跡を行う構成であった。実施の形態3では、予めオブジェクトマスクが与えられるフレームが開始フレームではなく、途中のフレームである点が異なる。オブジェクトマスクが与えられる途中のフレームをキーフレームと呼び、与えられたオブジェクトマスクをキーフレームオブジェクトマスクと呼ぶ。なお、実施の形態3の画像処理装置の構成は実施の形態1と同様である。オブジェクト追跡部12の内容のみが実施の形態1と異なり、他の部分の処理は同じである。
図18は実施の形態3の追跡元に用いるフレームの一例を示す説明図である。フレーム番号1(開始フレーム)からフレーム番号E(終了フレーム)で構成される動画像において、ユーザが任意のフレーム(フレーム番号K)を選択し、それをキーフレームとする。ユーザは、画像編集ソフトウェア等を用い、キーフレーム画像内の前景として表示させたい物体の領域を抽出し、キーフレームオブジェクトマスクを作成する。
オブジェクト追跡部12は、まず、キーフレームから終了フレームまでの間のフレームにおいて、実施の形態2と同様に、1つ前のフレームを追跡元としてオブジェクト追跡を行い、オブジェクトマスクを生成する。その後、キーフレームから開始フレームまでの間のフレームにおいて、1つ後のフレーム(フレーム番号が1つ大きいフレーム)を追跡元として、フレーム番号を遡る方向へ向かって、順にオブジェクト追跡を行い、オブジェクトマスクを生成する。
図19及び図20は実施の形態3の画像処理装置100の処理手順の一例を示すフローチャートである。以下、処理の主体を便宜上制御部10とする。
制御部10は、キーフレームオブジェクトマスクを取得する(S51)。制御部10は、キーフレームのフレーム画像を取得する(S52)。制御部10は、キーフレームオブジェクトマスクを用いて、キーフレームの奥行きマップを生成する(S53)。
制御部10は、キーフレームのフレーム画像及びステップS53で生成した奥行きマップを用いて、キーフレームの多視点画像を生成する(S54)。制御部10は、変数NをN=Kで初期化する(S55)。
制御部10は、フレーム番号N+1のフレーム画像を取得し(S56)、フレーム番号Nのフレーム画像とフレーム番号Nのオブジェクトマスクを用いたオブジェクト追跡によってフレーム番号N+1のオブジェクトマスクを生成する(S57)。この際、フレーム番号N+1のフレーム画像とオブジェクトマスクを記憶部13に記憶しておく。
制御部10は、フレーム番号N+1で生成したオブジェクトマスクを用いて、フレーム番号N+1の奥行きマップを生成する(S58)。制御部10は、フレーム番号N+1のフレーム画像及びステップS58で生成した奥行きマップを用いて、フレーム番号N+1の多視点画像を生成する(S59)。
制御部10は、フレーム番号N+1が終了フレーム番号Eより小さいか否かを判定し、すなわちフレーム残の有無を判定し(S60)、フレーム残ありの場合(S60でYES)、すなわち動画の途中のフレームである場合、N+1をNに置き換え(S61)、ステップS56以降の処理を繰り返す。
フレーム残なしの場合(S60でNO)、制御部10は、変数NをN=Kで再度初期化する(S62)。
制御部10は、フレーム番号N−1のフレーム画像を取得し(S63)、フレーム番号Nのフレーム画像とフレーム番号Nのオブジェクトマスクを用いたオブジェクト追跡によってフレーム番号N−1のオブジェクトマスクを生成する(S64)。この際、フレーム番号N−1のフレーム画像とオブジェクトマスクを記憶部13に記憶しておく。
制御部10は、フレーム番号N−1で生成したオブジェクトマスクを用いて、フレーム番号N−1の奥行きマップを生成する(S65)。制御部10は、フレーム番号N−1のフレーム画像及びステップS65で生成した奥行きマップを用いて、フレーム番号N−1の多視点画像を生成する(S66)。
制御部10は、フレーム番号N−1が開始フレーム番号1より大きいか否かを判定し、すなわちフレーム残の有無を判定し(S67)、フレーム残ありの場合(S67でYES)、すなわち動画の途中のフレームである場合、N−1をNに置き換え(S68)、ステップS63以降の処理を繰り返す。フレーム残なしの場合(S67でNO)、制御部10は、処理を終了する。
上述の例では、1つ前のフレームまたは1つ後のフレームを追跡元としてオブジェクト追跡を行う場合について示したが、これに限らず、全てのフレームにおいてキーフレーム画像を追跡元としてもよい。
上述のように、実施の形態3では、ユーザがオブジェクトマスクを与えるフレームをキーフレームとし、終了フレームへ進む方向と、開始フレームへ遡る方向の両方にオブジェクト追跡を行うため、ユーザが任意のフレームのオブジェクトマスクを与えても全てのフレームでオブジェクトを追跡することが可能となる。
(実施の形態4)
図21は実施の形態4の画像処理装置110の構成を示すブロック図である。実施の形態1との相違点は、オブジェクト抽出部17を備える点である。オブジェクト抽出部17は、開始フレームオブジェクトマスクを外部の装置から取得する代わりに、画像処理装置110内で開始フレームオブジェクトマスクを生成するためのものである。他の部分の処理は図1の例と同じである。
オブジェクト抽出部17は、入力部11から2次元動画の最初のフレームのフレーム画像を取得し、取得したフレーム画像内の画素値に基づいてオブジェクト抽出処理を行い、開始フレームオブジェクトマスクを生成する。生成した開始フレームオブジェクトマスクは記憶部13に記憶する。
オブジェクト抽出処理は、例えば、色による領域分割を行い、予め定めた特定色領域を抽出してオブジェクト領域とする。
なお、オブジェクト抽出部17は、開始フレームとフレーム番号2のそれぞれのフレーム画像を取得し、開始フレームオブジェクトマスクを生成してもよい。この場合、オブジェクト抽出処理は、フレーム間差分の閾値処理により、画素値に変化があった画素を背景と異なる運動をするオブジェクトとみなし、オブジェクト領域として抽出することができる。他の例として、開始フレームとフレーム番号2の間のグローバルモーションを計算し、動きベクトルがグローバルモーションと異なる領域をオブジェクト領域として抽出することができる。オブジェクト抽出部17は、開始フレームオブジェクトマスクの生成を行うだけであって、その後のフレームでの処理は実施しない。
上述の実施の形態において、オブジェクト追跡部12が、任意のフレームでのフレーム画像上でオブジェクト領域を追跡することができない場合、オブジェクト抽出部17で当該任意のフレーム以降のフレーム画像上で新たなオブジェクト領域を抽出するようにしてもよい。例えば、シーン(場面)が変わることにより、変わる前まで追跡していたオブジェクトが消えてしまい追跡することができない場合には、変わった次のシーン(場面)で新たにオブジェクト抽出を行ってオブジェクトマスクを生成することにより、シーン(場面)が変わった後もオブジェクト領域を追跡することができる。
上述のように、実施の形態4で、オブジェクト抽出部を備えることによって、ユーザが予め作成したオブジェクトマスクを入力する必要がなくなる。
本実施の形態1〜4の画像処理装置100、110は、CPU、RAMなどを備えたコンピュータを用いて実現することもできる。図22は実施の形態1〜4の画像処理装置100、110の機能を実現するコンピュータ200の一例を示す説明図である。
本実施の形態の画像処理装置100、110は、コンピュータ200に実行させるためのプログラム(コンピュータプログラム)を記録したコンピュータ読み取り可能な記録媒体201に、上述のオブジェクト追跡処理、オブジェクト抽出処理、奥行き情報生成処理、立体画像生成処理などの各処理を記録しておく。そして、当該記録媒体201に記録したプログラムを光ディスク読取装置等で読み込ませることにより、コンピュータに備えられたRAMにロードし、コンピュータプログラムをCPUで実行することにより、コンピュータ上で画像処理部を実現することができる。また、当該コンピュータプログラムをインターネット等の通信ネットワーク202からダウンロードすることもできる。
この結果、前記処理を行うプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)を記録した記録媒体を持ち運び自在に提供することができる。なお、本実施の形態では、この記録媒体としては、マイクロコンピュータで処理が行われるために図示していないメモリ、例えばROMのようなものそのものがプログラムメディアであってもよいし、また、外部記憶装置としてプログラム読み取り装置が設けられ、そこに記録媒体を挿入することで読み取り可能なプログラムメディアであってもよい。
いずれの場合においても、格納されているプログラムはマイクロプロセッサがアクセスして実行させる構成であってもよいし、あるいは、いずれの場合もプログラムコードを読み出し、読み出されたプログラムコードは、マイクロコンピュータの図示されていないプログラム記憶エリアにダウンロードされて、そのプログラムが実行される方式であってもよい。このダウンロード用のプログラムは予め本体装置に格納されているものとする。ここで、前記プログラムメディアは、本体と分離可能に構成される記録媒体であり、磁気テープやカセットテープ等のテープ系、フレキシブルディスクやハードディスク等の磁気ディスクやCD−ROM/MO/MD/DVD等の光ディスクのディスク系、ICカード(メモリカードを含む)/光カード等のカード系、あるいはマスクROM、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read Only Memory)、フラッシュROM等による半導体メモリを含めた固定的にプログラムコードを担持する媒体であってもよい。前述の記録媒体は、画像処理装置やコンピュータシステムに備えられるプログラム読み取り装置により読み取られることで上述した画像処理方法が実行される。
本実施の形態の画像処理装置としては、例えば、ブルーレイ・DVDレコーダ、GPU(Graphics Processing Unit)又は3Dグラフィックスアクセラレータなどのような半導体チップ(IC)、2D3D変換ソフトウェアなどがある。また、画像処理装置と表示部とを備えた画像表示装置としては、例えば、テレビジョン受信機、サイネージなどのディスプレイ、タブレット(タブレット型の情報処理端末装置)、携帯電話機などがある。
上述の実施の形態において、2次元画像は、ビデオカメラ又はカメラ等の撮像装置で撮像された画像、コンピュータグラフィック(CG)で作成された画像などを含む。
10 制御部
11 入力部
12 オブジェクト追跡部
511 探索領域設定部
512 尤度算出部
513 領域抽出部
514 後処理部
13 記憶部
14 奥行き情報生成部
141 背景奥行き情報生成部
142 オブジェクト内奥行き情報生成部
143 奥行き情報合成部
15 立体画像生成部
16 出力部
17 オブジェクト抽出部

Claims (11)

  1. 2次元動画を3次元動画に変換する画像処理装置において、
    複数のフレームの一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出するオブジェクト領域追跡手段と、
    前記オブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成するオブジェクト領域奥行き生成手段と、
    前記オブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成する背景領域奥行き生成手段と、
    前記オブジェクト領域奥行き情報及び前記背景領域奥行き情報を用いて多視点画像を生成する多視点画像生成手段と
    を備えることを特徴とする画像処理装置。
  2. 前記オブジェクト領域追跡手段は、
    前記一のフレームのオブジェクト領域内の画素値で表される特徴量及び前記他のフレームの探索領域内の画素値で表される特徴量の類似度に基づいて、前記他のフレームのオブジェクト領域を抽出することを特徴とする請求項1に記載の画像処理装置。
  3. 前記オブジェクト領域追跡手段は、
    前記一のフレームのオブジェクト領域内の画素値及び前記他のフレームの探索領域内の画素値を用いて表される尤度に基づいて、前記他のフレームのオブジェクト領域を抽出することを特徴とする請求項1に記載の画像処理装置。
  4. 前記一のフレームは、開始フレームであることを特徴とする請求項1から請求項3までのいずれか1項に記載の画像処理装置。
  5. 前記一のフレームは、ユーザが選択した任意のフレームであることを特徴とする請求項1から請求項3までのいずれか1項に記載の画像処理装置。
  6. 前記オブジェクト領域追跡手段は、
    各フレームの1つ前又は1つ後のフレームのオブジェクト領域情報を用いて前記各フレームのオブジェクト領域を抽出することを特徴とする請求項1から請求項3までのいずれか1項に記載の画像処理装置。
  7. 前記一のフレームのフレーム画像内の画素値に基づいてオブジェクト領域を抽出する抽出手段を備えることを特徴とする請求項1から請求項6までのいずれか1項に記載の画像処理装置。
  8. 前記オブジェクト領域追跡手段は、
    任意のフレーム画像上でオブジェクト領域を追跡することができない場合、新たなオブジェクト領域を抽出するようにしてあることを特徴とする請求項1から請求項7までのいずれか1項に記載の画像処理装置。
  9. コンピュータに、2次元動画を3次元動画に変換させるためのコンピュータプログラムにおいて、
    コンピュータに、
    複数のフレームの一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出するステップと、
    前記オブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成するステップと、
    前記オブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成するステップと、
    前記オブジェクト領域奥行き情報及び前記背景領域奥行き情報を用いて多視点画像を生成するステップと
    を実行させることを特徴とするコンピュータプログラム。
  10. 請求項9に記載のコンピュータプログラムを記録してあることを特徴とするコンピュータでの読み取りが可能な記録媒体。
  11. 2次元動画を3次元動画に変換する画像処理装置による画像処理方法において、
    複数のフレームの一のフレームのオブジェクト領域情報を用いて他のフレームのオブジェクト領域を抽出するステップと、
    前記オブジェクト領域における奥行き情報を表すオブジェクト領域奥行き情報を生成するステップと、
    前記オブジェクト領域以外の領域である背景領域における奥行き情報を表す背景領域奥行き情報を生成するステップと、
    前記オブジェクト領域奥行き情報及び前記背景領域奥行き情報を用いて多視点画像を生成するステップと
    を含むことを特徴とする画像処理方法。
JP2012175320A 2012-08-07 2012-08-07 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法 Pending JP2014035597A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012175320A JP2014035597A (ja) 2012-08-07 2012-08-07 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012175320A JP2014035597A (ja) 2012-08-07 2012-08-07 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法

Publications (1)

Publication Number Publication Date
JP2014035597A true JP2014035597A (ja) 2014-02-24

Family

ID=50284577

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012175320A Pending JP2014035597A (ja) 2012-08-07 2012-08-07 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法

Country Status (1)

Country Link
JP (1) JP2014035597A (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113012272A (zh) * 2021-03-31 2021-06-22 北京奇艺世纪科技有限公司 一种图像处理方法、装置、电子设备及存储介质
CN113658226A (zh) * 2021-08-26 2021-11-16 中国人民大学 一种限高装置高度检测方法和系统
WO2022075649A1 (ko) * 2020-10-06 2022-04-14 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2022201305A1 (ja) * 2021-03-23 2022-09-29 日本電信電話株式会社 画像処理装置、方法およびプログラム
WO2022201319A1 (ja) * 2021-03-23 2022-09-29 日本電信電話株式会社 画像処理装置、方法およびプログラム
CN116109828A (zh) * 2023-03-23 2023-05-12 荣耀终端有限公司 图像处理方法和电子设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008535116A (ja) * 2005-04-07 2008-08-28 エヌエックスピー ビー ヴィ 3次元レンダリング用の方法及び装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008535116A (ja) * 2005-04-07 2008-08-28 エヌエックスピー ビー ヴィ 3次元レンダリング用の方法及び装置

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022075649A1 (ko) * 2020-10-06 2022-04-14 삼성전자주식회사 전자 장치 및 그 제어 방법
WO2022201305A1 (ja) * 2021-03-23 2022-09-29 日本電信電話株式会社 画像処理装置、方法およびプログラム
WO2022201319A1 (ja) * 2021-03-23 2022-09-29 日本電信電話株式会社 画像処理装置、方法およびプログラム
JP7456553B2 (ja) 2021-03-23 2024-03-27 日本電信電話株式会社 画像処理装置、方法およびプログラム
CN113012272A (zh) * 2021-03-31 2021-06-22 北京奇艺世纪科技有限公司 一种图像处理方法、装置、电子设备及存储介质
CN113658226A (zh) * 2021-08-26 2021-11-16 中国人民大学 一种限高装置高度检测方法和系统
CN113658226B (zh) * 2021-08-26 2023-09-05 中国人民大学 一种限高装置高度检测方法和系统
CN116109828A (zh) * 2023-03-23 2023-05-12 荣耀终端有限公司 图像处理方法和电子设备
CN116109828B (zh) * 2023-03-23 2023-08-18 荣耀终端有限公司 图像处理方法和电子设备

Similar Documents

Publication Publication Date Title
JP7002056B2 (ja) 三次元モデル生成装置及び三次元モデル生成方法
JP5156837B2 (ja) 領域ベースのフィルタリングを使用する奥行マップ抽出のためのシステムおよび方法
US10116867B2 (en) Method and apparatus for displaying a light field based image on a user's device, and corresponding computer program product
US9300947B2 (en) Producing 3D images from captured 2D video
US9137512B2 (en) Method and apparatus for estimating depth, and method and apparatus for converting 2D video to 3D video
JP6021541B2 (ja) 画像処理装置及び方法
JP5153940B2 (ja) 動き補償を用いた画像の奥行き抽出のためのシステムおよび方法
US9165401B1 (en) Multi-perspective stereoscopy from light fields
EP2618584A1 (en) Stereoscopic video creation device and stereoscopic video creation method
JP2014035597A (ja) 画像処理装置、コンピュータプログラム、記録媒体及び画像処理方法
US9154762B2 (en) Stereoscopic image system utilizing pixel shifting and interpolation
JP5755571B2 (ja) 仮想視点画像生成装置、仮想視点画像生成方法、制御プログラム、記録媒体、および立体表示装置
CN103313081A (zh) 图像处理设备和方法
CN102047288A (zh) 利用正向和反向深度预测进行图像的深度提取的系统和方法
CN102918861A (zh) 立体视觉强度调整装置、立体视觉强度调整方法、程序、集成电路、记录介质
US8289376B2 (en) Image processing method and apparatus
KR102082300B1 (ko) 삼차원 영상 생성 또는 재생을 위한 장치 및 방법
JP7184748B2 (ja) 場面の積層深度データを生成するための方法
KR20100109069A (ko) 시각적 관심맵 생성 장치 및 방법
JP6128748B2 (ja) 画像処理装置及び方法
JP2007053621A (ja) 画像生成装置
JP6033625B2 (ja) 多視点画像生成装置、画像生成方法、表示装置、プログラム、及び、記録媒体
Schmeing et al. Depth image based rendering
US20200267374A1 (en) Data recording apparatus, image capturing apparatus, data recording method, and storage medium
JP5627498B2 (ja) 立体画像生成装置及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150701

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20161115