JP2002190016A - 信号処理装置および方法、並びに記録媒体 - Google Patents
信号処理装置および方法、並びに記録媒体Info
- Publication number
- JP2002190016A JP2002190016A JP2000389044A JP2000389044A JP2002190016A JP 2002190016 A JP2002190016 A JP 2002190016A JP 2000389044 A JP2000389044 A JP 2000389044A JP 2000389044 A JP2000389044 A JP 2000389044A JP 2002190016 A JP2002190016 A JP 2002190016A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- area
- frame
- foreground
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Processing (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
る領域を検出する。 【解決手段】 静動判定部122−1乃至122−4
は、検出データに基づいて静動判定を行う。領域判定部
123−1乃至123−3は、静動判定の結果に基づい
て、現実世界における複数のオブジェクトが混ざり合っ
たサンプルデータを含む混合領域を検出する。
Description
び方法、並びに記録媒体に関し、特に、センサにより検
出した信号と現実世界との違いを考慮した信号処理装置
および方法、並びに記録媒体に関する。
し、画像、音声、温度、圧力、加速度、または、におい
に対応するデータなどの、センサが出力するサンプリン
グデータを処理する技術が広く利用されている。
動する物体をビデオカメラで撮像して得られる画像に
は、物体の移動速度が比較的速い場合、動きボケが生じ
ることになる。
するとき、移動する物体の画像自身の混ざり合いによる
動きボケのみならず、背景の画像と移動する物体の画像
との混ざり合いが生じる。
との混ざり合いが生じている領域を、検出することは、
考えられていなかった。
ものであり、背景の画像および移動する物体の画像など
複数のオブジェクトの混ざり合いが生じている領域を検
出することができるようにすることを目的とする。
理装置は、検出データに基づいて静動判定を行う静動判
定手段と、静動判定の結果に基づいて、現実世界におけ
る複数のオブジェクトが混ざり合ったサンプルデータを
含む混合領域を検出する検出手段とを含むことを特徴と
する。
ルデータが、基準時刻以前に、その値が時間の経過に対
応してほぼ一定の状態から、その値が時間の経過に対応
して変化している状態に移行したか否かを判定する第1
の判定手段と、判定の対象となるサンプルデータが、基
準時刻以後に、その値が時間の経過に対応して変化して
いる状態から、その値が時間の経過に対応してほぼ一定
の状態に移行するか否かを判定する第2の判定手段とを
含み、検出手段は、第1の判定手段が、判定の対象とな
るサンプルデータが、基準時刻以前にその値が時間の経
過に対応してほぼ一定の状態から、その値が時間の経過
に対応して変化している状態に移行したと判定したと
き、または第2の判定手段が、判定の対象となるサンプ
ルデータが、基準時刻以後にその値が時間の経過に対応
して変化している状態から、その値が時間の経過に対応
してほぼ一定の状態に移行すると判定したとき、判定の
対象となるサンプルデータを、混合領域に属するサンプ
ルデータとして検出するようにすることができる。
判定の対象となる前記サンプルデータが、前記基準時刻
以前にその値が時間の経過に対応してほぼ一定の状態か
ら、その値が時間の経過に対応して変化している状態に
移行したと判定したとき、判定の対象となる前記サンプ
ルデータを、カバードバックグラウンド領域に属する前
記サンプルデータとして検出し、前記第2の判定手段
が、判定の対象となる前記サンプルデータが、前記基準
時刻以後にその値が時間の経過に対応して変化している
状態から、その値が時間の経過に対応してほぼ一定の状
態に移行すると判定したとき、判定の対象となる前記サ
ンプルデータを、アンカバードバックグラウンド領域に
属する前記サンプルデータとして検出するようにするこ
とができる。
ができる。
ータに基づいて静動判定を行う静動判定ステップと、静
動判定の結果に基づいて、現実世界における複数のオブ
ジェクトが混ざり合ったサンプルデータを含む混合領域
を検出する検出ステップとを含むことを特徴とする。
は、検出データに基づいて静動判定を行う静動判定ステ
ップと、静動判定の結果に基づいて、現実世界における
複数のオブジェクトが混ざり合ったサンプルデータを含
む混合領域を検出する検出ステップとを含むことを特徴
とする。
に記載の信号処理方法、および請求項6に記載の記録媒
体においては、検出データに基づいて静動判定が行わ
れ、静動判定の結果に基づいて、現実世界における複数
のオブジェクトが混ざり合ったサンプルデータを含む混
合領域が検出される。
る。同図に示すように、空間と時間軸を有する現実社会
1の情報である第1の信号がセンサ2により取得され、
データ化される。センサ2が取得したデータ3である検
出信号は、現実社会1の情報を、現実社会より低い次元
の時空間に射影して得られた情報である。従って、射影
して得られた情報は、射影により発生する歪みを有して
いる。換言すれば、センサ2が出力するデータ3は、現
実社会1の情報に対して歪みを有している。また、デー
タ3は、射影による歪みを有しているが、これを補正す
るための有意情報を含んでいる。
力したデータを信号処理部4において信号処理すること
で、その歪みが除去されるか、低減されるか、または調
整される。または、本発明においては、センサ2が出力
したデータを信号処理部4において信号処理すること
で、有意情報が抽出される。
の構成例を表している。センサ11は、例えば、ビデオ
カメラで構成され、現実社会の画像を撮像し、得られた
画像データを信号処理部12に出力する。信号処理部1
2は、例えば、パーソナルコンピュータなどで構成さ
れ、センサ11より入力されたデータを処理し、射影に
より発生する歪みの量を調整したり、射影により埋もれ
た有意情報の含まれる領域を特定したり、更に特定した
領域から有意情報を抽出したり、抽出した有意情報に基
づいて、入力されたデータを処理したりする。
混合比である。
れる領域を示す情報も有意情報と考えることができる。
ここでは、後述する領域情報が有意情報に相当する。
えば、後述する混合領域である。
うに構成される。CPU(Central Processing Uuit)21
は、ROM(Read Only Memory)22、または記憶部28
に記憶されているプログラムに従って各種の処理を実行
する。RAM(Random Access Memory)23には、CPU21
が実行するプログラムやデータなどが適宜記憶される。
これらのCPU21、ROM22、およびRAM23は、バス2
4により相互に接続されている。
力インタフェース25が接続されている。入出力インタ
フェース25には、キーボード、マウス、マイクロホン
などよりなる入力部26、ディスプレイ、スピーカなど
よりなる出力部27が接続されている。CPU21は、入
力部26から入力される指令に対応して各種の処理を実
行する。そして、CPU21は、処理の結果得られた画像
や音声等を出力部27に出力する。
る記憶部28は、例えばハードディスクなどで構成さ
れ、CPU21が実行するプログラムや各種のデータを記
憶する。通信部29は、インターネット、その他のネッ
トワークを介して外部の装置と通信する。この例の場
合、通信部29はセンサ11の出力を取り込む取得部と
して働く。
得し、記憶部28に記憶してもよい。
るドライブ30は、磁気ディスク51、光ディスク5
2、光磁気ディスク53、或いは半導体メモリ54など
が装着されたとき、それらを駆動し、そこに記録されて
いるプログラムやデータなどを取得する。取得されたプ
ログラムやデータは、必要に応じて記憶部28に転送さ
れ、記憶される。
ら、有意情報が埋もれている領域を特定したり、埋もれ
た有意情報を抽出する処理を行う信号処理装置について
より具体的な例を挙げて説明する。以下の例において、
CCDラインセンサまたはCCDエリアセンサがセンサに対応
し、領域情報や混合比が有意情報に対応し、混合領域に
おいて、前景と背景が混合していることや動きボケが歪
みに対応する。
である。
ェアで実現するか、ソフトウェアで実現するかは問わな
い。つまり、本明細書の各ブロック図は、ハードウェア
のブロック図と考えても、ソフトウェアによる機能ブロ
ック図と考えても良い。
る、現実世界におけるオブジェクトの動きと、センサ1
1の撮像の特性とにより生じる、動いているオブジェク
トに対応する画像に含まれている歪みをいう。
世界におけるオブジェクトに対応する画像を、画像オブ
ジェクトと称する。
オブジェクト抽出部101、領域特定部103、混合比
算出部104、および前景背景分離部105に供給され
る。
含まれる前景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像に含まれる前景のオブジェクトに対応
する画像オブジェクトの輪郭を検出することで、前景の
オブジェクトに対応する画像オブジェクトを粗く抽出す
る。
含まれる背景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像と、抽出された前景のオブジェクトに
対応する画像オブジェクトとの差から、背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出する。
は、内部に設けられている背景メモリに記憶されている
背景の画像と、入力画像との差から、前景のオブジェク
トに対応する画像オブジェクト、および背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出するように
してもよい。
ッチング法、勾配法、位相相関法、およびペルリカーシ
ブ法などの手法により、粗く抽出された前景のオブジェ
クトに対応する画像オブジェクトの動きベクトルを算出
して、算出した動きベクトルおよび動きベクトルの位置
情報(動きベクトルに対応する画素の位置を特定する情
報)を動きボケ抽出部106に供給する。
には、動き量vに対応する情報が含まれるている。
オブジェクトに画素を特定する画素位置情報と共に、画
像オブジェクト毎の動きベクトルを動きボケ調整部10
6に出力するようにしてもよい。
応する画像の位置の変化を画素間隔を単位として表す値
である。例えば、前景に対応するオブジェクトの画像
が、あるフレームを基準として次のフレームにおいて4
画素分離れた位置に表示されるように移動していると
き、前景に対応するオブジェクトの画像の動き量vは、
4とされる。
き検出部102は、動いているオブジェクトに対応した
動きボケ量の調整を動きボケ調整部106で行う場合に
用いられる。
素のそれぞれを、前景領域、背景領域、または混合領域
のいずれかに特定し、画素毎に前景領域、背景領域、ま
たは混合領域のいずれかに属するかを示す情報(以下、
領域情報と称する)を混合比算出部104、前景背景分
離部105、および動きボケ調整部106に供給する。
領域特定部103から供給された領域情報を基に、混合
領域63に含まれる画素に対応する混合比(以下、混合
比αと称する)を算出して、算出した混合比を前景背景
分離部105に供給する。
ように、画素値における、背景のオブジェクトに対応す
る画像の成分(以下、背景の成分とも称する)の割合を
示す値である。
3から供給された領域情報、および混合比算出部104
から供給された混合比αを基に、前景のオブジェクトに
対応する画像の成分(以下、前景の成分とも称する)の
みから成る前景成分画像と、背景の成分のみから成る背
景成分画像とに入力画像を分離して、前景成分画像を動
きボケ調整部106および選択部107に供給する。な
お、分離された前景成分画像を最終的な出力とすること
も考えられる。従来の混合領域を考慮しないで前景と背
景だけを特定し、分離していた方式に比べ正確な前景と
背景を得ることが出来る。
らわかる動き量vおよび領域情報を基に、前景成分画像
に含まれる1以上の画素を示す処理単位を決定する。処
理単位は、動きボケの量の調整の処理の対象となる1群
の画素を指定するデータである。
に入力された動きボケ調整量、前景背景分離部105か
ら供給された前景成分画像、動き検出部102から供給
された動きベクトルおよびその位置情報、並びに処理単
位を基に、前景成分画像に含まれる動きボケを除去す
る、動きボケの量を減少させる、または動きボケの量を
増加させるなど前景成分画像に含まれる動きボケの量を
調整して、動きボケの量を調整した前景成分画像を選択
部107に出力する。動きベクトルとその位置情報は使
わないこともある。
応した選択信号を基に、前景背景分離部105から供給
された前景成分画像、および動きボケ調整部106から
供給された動きボケの量が調整された前景成分画像のい
ずれか一方を選択して、選択した前景成分画像を出力す
る。
理部12に供給される入力画像について説明する。
ある。センサ11は、例えば、固体撮像素子であるCCD
(Charge-Coupled Device)エリアセンサを備えたCCDビ
デオカメラなどで構成される。現実世界における、前景
に対応するオブジェクトは、現実世界における、背景に
対応するオブジェクトと、センサ11との間を、例え
ば、図中の左側から右側に水平に移動する。
トを、背景に対応するオブジェクトと共に撮像する。セ
ンサ11は、撮像した画像を1フレーム単位で出力す
る。例えば、センサ11は、1秒間に30フレームから
成る画像を出力する。センサ11の露光時間は、1/3
0秒とすることができる。露光時間は、センサ11が入
力された光の電荷への変換を開始してから、入力された
光の電荷への変換を終了するまでの期間である。以下、
露光時間をシャッタ時間とも称する。
図6中において、A乃至Iは、個々の画素を示す。画素
は、画像に対応する平面上に配置されている。1つの画
素に対応する1つの検出素子は、センサ11上に配置さ
れている。センサ11が画像を撮像するとき、1つの検
出素子は、画像を構成する1つの画素に対応する画素値
を出力する。例えば、検出素子のX方向の位置は、画像
上の横方向の位置に対応し、検出素子のY方向の位置
は、画像上の縦方向の位置に対応する。
出素子は、シャッタ時間に対応する期間、入力された光
を電荷に変換して、変換された電荷を蓄積する。電荷の
量は、入力された光の強さと、光が入力されている時間
にほぼ比例する。検出素子は、シャッタ時間に対応する
期間において、入力された光から変換された電荷を、既
に蓄積されている電荷に加えていく。すなわち、検出素
子は、シャッタ時間に対応する期間、入力される光を積
分して、積分された光に対応する量の電荷を蓄積する。
検出素子は、時間に対して、積分効果があるとも言え
る。
路により、電圧値に変換され、電圧値は更にデジタルデ
ータなどの画素値に変換されて出力される。従って、セ
ンサ11から出力される個々の画素値は、前景または背
景に対応するオブジェクトの空間的に広がりを有するあ
る部分を、シャッタ時間について積分した結果である、
1次元の空間に射影された値を有する。
の蓄積の動作により、出力信号に埋もれてしまった有意
な情報、例えば、混合比αを抽出する。信号処理部12
は、前景の画像オブジェクト自身が混ざり合うことによ
る生ずる歪みの量、例えば、動きボケの量などを調整す
る。また、信号処理部12は、前景の画像オブジェクト
と背景の画像オブジェクトとが混ざり合うことにより生
ずる歪みの量を調整する。
ェクトと、静止している背景に対応するオブジェクトと
を撮像して得られる画像を説明する図である。図8
(A)は、動きを伴う前景に対応するオブジェクトと、
静止している背景に対応するオブジェクトとを撮像して
得られる画像を示している。図8(A)に示す例におい
て、前景に対応するオブジェクトは、画面に対して水平
に左から右に動いている。
つのラインに対応する画素値を時間方向に展開したモデ
ル図である。図8(B)の横方向は、図8(A)の空間
方向Xに対応している。
ち、背景のオブジェクトに対応する画像の成分のみか
ら、その画素値が構成されている。前景領域の画素は、
前景の成分、すなわち、前景のオブジェクトに対応する
画像の成分のみから、その画素値が構成されている。
景の成分から、その画素値が構成されている。混合領域
は、背景の成分、および前景の成分から、その画素値が
構成されているので、歪み領域ともいえる。混合領域
は、更に、カバードバックグラウンド領域およびアンカ
バードバックグラウンド領域に分類される。
域に対して、前景のオブジェクトの進行方向の前端部に
対応する位置の混合領域であり、時間の経過に対応して
背景成分が前景に覆い隠される領域をいう。
ンド領域は、前景領域に対して、前景のオブジェクトの
進行方向の後端部に対応する位置の混合領域であり、時
間の経過に対応して背景成分が現れる領域をいう。
カバードバックグラウンド領域若しくはアンカバードバ
ックグラウンド領域を含む画像が、領域特定部103、
混合比算出部104、および前景背景分離部105に入
力画像として入力される。
域、混合領域、カバードバックグラウンド領域、および
アンカバードバックグラウンド領域を説明する図であ
る。図8に示す画像に対応する場合、背景領域は、静止
部分であり、前景領域は、動き部分であり、混合領域の
カバードバックグラウンド領域は、背景から前景に変化
する部分であり、混合領域のアンカバードバックグラウ
ンド領域は、前景から背景に変化する部分である。
ブジェクトおよび静止している背景に対応するオブジェ
クトを撮像した画像における、隣接して1列に並んでい
る画素の画素値を時間方向に展開したモデル図である。
例えば、隣接して1列に並んでいる画素として、画面の
1つのライン上に並んでいる画素を選択することができ
る。
している前景のオブジェクトに対応する画素の画素値で
ある。図10に示すB01乃至B04の画素値は、静止してい
る背景のオブジェクトに対応する画素の画素値である。
に向かって時間が経過する。図10中の矩形の上辺の位
置は、センサ11が入力された光の電荷への変換を開始
する時刻に対応し、図10中の矩形の下辺の位置は、セ
ンサ11が入力された光の電荷への変換を終了する時刻
に対応する。すなわち、図10中の矩形の上辺から下辺
までの距離は、シャッタ時間に対応する。
隔とが同一である場合を例に説明する。
空間方向Xに対応する。より具体的には、図10に示す
例において、図10中の”F01”と記載された矩形の左
辺から”B04”と記載された矩形の右辺までの距離は、
画素のピッチの8倍、すなわち、連続している8つの画
素の間隔に対応する。
クトが静止している場合、シャッタ時間に対応する期間
において、センサ11に入力される光は変化しない。
つ以上の同じ長さの期間に分割する。例えば、仮想分割
数を4とすると、図10に示すモデル図は、図11に示
すモデルとして表すことができる。仮想分割数は、前景
に対応するオブジェクトの動き量vなどに対応して設定
される。例えば、4である動き量vに対応して、仮想分
割数は、4とされ、シャッタ時間に対応する期間は4つ
に分割される。
初の、分割された期間に対応する。図中の上から2番目
の行は、シャッタが開いて2番目の、分割された期間に
対応する。図中の上から3番目の行は、シャッタが開い
て3番目の、分割された期間に対応する。図中の上から
4番目の行は、シャッタが開いて4番目の、分割された
期間に対応する。
ッタ時間をシャッタ時間/vとも称する。
るとき、センサ11に入力される光は変化しないので、
前景の成分F01/vは、画素値F01を仮想分割数で除した値
に等しい。同様に、前景に対応するオブジェクトが静止
しているとき、前景の成分F02/vは、画素値F02を仮想分
割数で除した値に等しく、前景の成分F03/vは、画素値F
03を仮想分割数で除した値に等しく、前景の成分F04/v
は、画素値F04を仮想分割数で除した値に等しい。
るとき、センサ11に入力される光は変化しないので、
背景の成分B01/vは、画素値B01を仮想分割数で除した値
に等しい。同様に、背景に対応するオブジェクトが静止
しているとき、背景の成分B02/vは、画素値B02を仮想分
割数で除した値に等しく、B03/vは、画素値B03を仮想分
割数で除した値に等しく、B04/vは、画素値B04を仮想分
割数で除した値に等しい。
静止している場合、シャッタ時間に対応する期間におい
て、センサ11に入力される前景のオブジェクトに対応
する光が変化しないので、シャッタが開いて最初の、シ
ャッタ時間/vに対応する前景の成分F01/vと、シャッタ
が開いて2番目の、シャッタ時間/vに対応する前景の成
分F01/vと、シャッタが開いて3番目の、シャッタ時間/
vに対応する前景の成分F01/vと、シャッタが開いて4番
目の、シャッタ時間/vに対応する前景の成分F01/vと
は、同じ値となる。F02/v乃至F04/vも、F01/vと同様の
関係を有する。
る場合、シャッタ時間に対応する期間において、センサ
11に入力される背景のオブジェクトに対応する光は変
化しないので、シャッタが開いて最初の、シャッタ時間
/vに対応する背景の成分B01/vと、シャッタが開いて2
番目の、シャッタ時間/vに対応する背景の成分B01/v
と、シャッタが開いて3番目の、シャッタ時間/vに対応
する背景の成分B01/vと、シャッタが開いて4番目の、
シャッタ時間/vに対応する背景の成分B01/vとは、同じ
値となる。B02/v乃至B04/vも、同様の関係を有する。
し、背景に対応するオブジェクトが静止している場合に
ついて説明する。
図中の右側に向かって移動する場合の、カバードバック
グラウンド領域を含む、1つのライン上の画素の画素値
を時間方向に展開したモデル図である。図12におい
て、前景の動き量vは、4である。1フレームは短い時
間なので、前景に対応するオブジェクトが剛体であり、
等速で移動していると仮定することができる。図12に
おいて、前景に対応するオブジェクトの画像は、あるフ
レームを基準として次のフレームにおいて4画素分右側
に表示されるように移動する。
ら4番目の画素は、前景領域に属する。図12におい
て、左から5番目乃至左から7番目の画素は、カバード
バックグラウンド領域である混合領域に属する。図12
において、最も右側の画素は、背景領域に属する。
と共に背景に対応するオブジェクトを覆い隠すように移
動しているので、カバードバックグラウンド領域に属す
る画素の画素値に含まれる成分は、シャッタ時間に対応
する期間のある時点で、背景の成分から、前景の成分に
替わる。
Mは、式(1)で表される。
ャッタ時間/vに対応する背景の成分を含み、3つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、1/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、3つのシャッタ時間/vに対
応する背景の成分を含み、1つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、3/4である。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から4番目の画素の、シャッタが開い
て最初の、シャッタ時間/vの前景の成分F07/vは、図1
2中の左から5番目の画素の、シャッタが開いて2番目
のシャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F07/vは、図12中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から3番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F06/vは、図12
中の左から4番目の画素の、シャッタが開いて2番目の
シャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F06/vは、図12中の左から5番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から6番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から2番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F05/vは、図12
中の左から3番目の画素の、シャッタが開いて2番目の
シャッタ時間/vのに対応する前景の成分に等しい。同様
に、前景の成分F05/vは、図12中の左から4番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から5番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の最も左側の画素の、シャッタが開いて最
初のシャッタ時間/vの前景の成分F04/vは、図12中の
左から2番目の画素の、シャッタが開いて2番目のシャ
ッタ時間/vに対応する前景の成分に等しい。同様に、前
景の成分F04/vは、図12中の左から3番目の画素の、
シャッタが開いて3番目のシャッタ時間/vに対応する前
景の成分と、図12中の左から4番目の画素の、シャッ
タが開いて4番目のシャッタ時間/vに対応する前景の成
分とに、それぞれ等しい。
領域は、このように動きボケを含むので、歪み領域とも
言える。
動する場合の、アンカバードバックグラウンド領域を含
む、1つのライン上の画素の画素値を時間方向に展開し
たモデル図である。図13において、前景の動き量v
は、4である。1フレームは短い時間なので、前景に対
応するオブジェクトが剛体であり、等速で移動している
と仮定することができる。図13において、前景に対応
するオブジェクトの画像は、あるフレームを基準として
次のフレームにおいて4画素分右側に移動する。
ら4番目の画素は、背景領域に属する。図13におい
て、左から5番目乃至左から7番目の画素は、アンカバ
ードバックグラウンドである混合領域に属する。図13
において、最も右側の画素は、前景領域に属する。
前景に対応するオブジェクトが時間の経過と共に背景に
対応するオブジェクトの前から取り除かれるように移動
しているので、アンカバードバックグラウンド領域に属
する画素の画素値に含まれる成分は、シャッタ時間に対
応する期間のある時点で、前景の成分から、背景の成分
に替わる。
M'は、式(2)で表される。
ャッタ時間/vに対応する背景の成分を含み、1つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、3/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、1つのシャッタ時間/vに対
応する背景の成分を含み、3つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、1/4である。
と、画素値Mは、式(3)で表される。
り、Fi/vは、前景の成分である。
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図13中の左から5番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F01/
vは、図13中の左から6番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。同様に、F01/vは、図13中の左から7番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図13中の左から8番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、等速で動くと仮定でき、かつ、仮想分割数が4であ
るので、例えば、図13中の左から6番目の画素の、シ
ャッタが開いて最初の、シャッタ時間/vの前景の成分F0
2/vは、図13中の左から7番目の画素の、シャッタが
開いて2番目のシャッタ時間/vに対応する前景の成分に
等しい。同様に、前景の成分F02/vは、図13中の左か
ら8番目の画素の、シャッタが開いて3番目のシャッタ
時間/vに対応する前景の成分に等しい。
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図13中の左から7番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F03/
vは、図13中の左から8番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。
割数は、4であるとして説明したが、仮想分割数は、動
き量vに対応する。動き量vは、一般に、前景に対応する
オブジェクトの移動速度に対応する。例えば、前景に対
応するオブジェクトが、あるフレームを基準として次の
フレームにおいて4画素分右側に表示されるように移動
しているとき、動き量vは、4とされる。動き量vに対応
し、仮想分割数は、4とされる。同様に、例えば、前景
に対応するオブジェクトが、あるフレームを基準として
次のフレームにおいて6画素分左側に表示されるように
移動しているとき、動き量vは、6とされ、仮想分割数
は、6とされる。
前景領域、背景領域、カバードバックグラウンド領域若
しくはアンカバードバックグラウンド領域から成る混合
領域と、分割されたシャッタ時間に対応する前景の成分
および背景の成分との関係を示す。
ているオブジェクトに対応する前景を含む画像から、前
景領域、背景領域、および混合領域の画素を抽出した例
を示す。図14に示す例において、前景に対応するオブ
ジェクトは、画面に対して水平に移動している。
ムであり、フレーム#n+2は、フレーム#n+1の次のフレー
ムである。
ら抽出した、前景領域、背景領域、および混合領域の画
素を抽出して、動き量vを4として、抽出された画素の
画素値を時間方向に展開したモデルを図15に示す。
ジェクトが移動するので、シャッタ時間/vの期間に対応
する、4つの異なる前景の成分から構成される。例え
ば、図15に示す前景領域の画素のうち最も左側に位置
する画素は、F01/v,F02/v,F03/v、およびF04/vから構成
される。すなわち、前景領域の画素は、動きボケを含ん
でいる。
るので、シャッタ時間に対応する期間において、センサ
11に入力される背景に対応する光は変化しない。この
場合、背景領域の画素値は、動きボケを含まない。
ンカバードバックグラウンド領域から成る混合領域に属
する画素の画素値は、前景の成分と、背景の成分とから
構成される。
ているとき、複数のフレームにおける、隣接して1列に
並んでいる画素であって、フレーム上で同一の位置の画
素の画素値を時間方向に展開したモデルについて説明す
る。例えば、オブジェクトに対応する画像が画面に対し
て水平に動いているとき、隣接して1列に並んでいる画
素として、画面の1つのライン上に並んでいる画素を選
択することができる。
ブジェクトを撮像した画像の3つのフレームの、隣接し
て1列に並んでいる画素であって、フレーム上で同一の
位置の画素の画素値を時間方向に展開したモデル図であ
る。フレーム#nは、フレーム#n-1の次のフレームであ
り、フレーム#n+1は、フレーム#nの次のフレームであ
る。他のフレームも同様に称する。
している背景のオブジェクトに対応する画素の画素値で
ある。背景に対応するオブジェクトが静止しているの
で、フレーム#n-1乃至フレームn+1において、対応する
画素の画素値は、変化しない。例えば、フレーム#n-1に
おけるB05の画素値を有する画素の位置に対応する、フ
レーム#nにおける画素、およびフレーム#n+1における画
素は、それぞれ、B05の画素値を有する。
ブジェクトと共に図中の右側に移動する前景に対応する
オブジェクトを撮像した画像の3つのフレームの、隣接
して1列に並んでいる画素であって、フレーム上で同一
の位置の画素の画素値を時間方向に展開したモデル図で
ある。図17に示すモデルは、カバードバックグラウン
ド領域を含む。
クトが、剛体であり、等速で移動すると仮定でき、前景
の画像が次のフレームにおいて4画素右側に表示される
ように移動するので、前景の動き量vは、4であり、仮
想分割数は、4である。
側の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F12/vとなり、図17中の左から2番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F12/vとなる。図17中の左から3番目
の画素の、シャッタが開いて3番目のシャッタ時間/vの
前景の成分、および図17中の左から4番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分は、F11/vとなり、図17中の左から2番目の画素
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分も、F11/vとなる。図17中の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F11/vとなる。
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分は、F10/vとなり、図17中の左から2番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分も、F10/vとなる。図17中のフレーム#n-1の最も
左側の画素の、シャッタが開いて4番目のシャッタ時間
/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#n-1の左から2番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B01/vとなる。図17中のフレーム#n-1の左から
3番目の画素の、シャッタが開いて最初および2番目の
シャッタ時間/vの背景の成分は、B02/vとなる。図17
中のフレーム#n-1の左から4番目の画素の、シャッタが
開いて最初乃至3番目のシャッタ時間/vの背景の成分
は、B03/vとなる。
側の画素は、前景領域に属し、左側から2番目乃至4番
目の画素は、カバードバックグラウンド領域である混合
領域に属する。
画素乃至12番目の画素は、背景領域に属し、その画素
値は、それぞれ、B04乃至B11となる。
素乃至5番目の画素は、前景領域に属する。フレーム#n
の前景領域における、シャッタ時間/vの前景の成分は、
F05/v乃至F12/vのいずれかである。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図17中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F12/vとなり、図17中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F12/vとなる。図17中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図17中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F12/vとな
る。
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分は、F11/vとなり、図17中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分も、F11/vとなる。図17中の左から7番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分は、F11/vとなる。
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分は、F10/vとなり、図17中の左から6番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分も、F10/vとなる。図17中のフレーム#nの左か
ら5番目の画素の、シャッタが開いて4番目のシャッタ
時間/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#nの左から6番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B05/vとなる。図17中のフレーム#nの左から7
番目の画素の、シャッタが開いて最初および2番目のシ
ャッタ時間/vの背景の成分は、B06/vとなる。図17中
のフレーム#nの左から8番目の画素の、シャッタが開い
て最初乃至3番目の、シャッタ時間/vの背景の成分は、
B07/vとなる。
6番目乃至8番目の画素は、カバードバックグラウンド
領域である混合領域に属する。
素乃至12番目の画素は、背景領域に属し、画素値は、
それぞれ、B08乃至B11となる。
画素乃至9番目の画素は、前景領域に属する。フレーム
#n+1の前景領域における、シャッタ時間/vの前景の成分
は、F01/v乃至F12/vのいずれかである。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図17中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F12/vとなり、図17中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F12/vとなる。図17中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図17中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
画素の、シャッタが開いて2番目のシャッタ時間/vの期
間の前景の成分は、F11/vとなり、図17中の左から1
0番目の画素の、シャッタが開いて3番目のシャッタ時
間/vの前景の成分も、F11/vとなる。図17中の左から
11番目の画素の、シャッタが開いて4番目の、シャッ
タ時間/vの前景の成分は、F11/vとなる。
画素の、シャッタが開いて3番目の、シャッタ時間/vの
前景の成分は、F10/vとなり、図17中の左から10番
目の画素の、シャッタが開いて4番目のシャッタ時間/v
の前景の成分も、F10/vとなる。図17中のフレーム#n+
1の左から9番目の画素の、シャッタが開いて4番目の
シャッタ時間/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#n+1の左から10番目の画
素の、シャッタが開いて最初のシャッタ時間/vの背景の
成分は、B09/vとなる。図17中のフレーム#n+1の左か
ら11番目の画素の、シャッタが開いて最初および2番
目のシャッタ時間/vの背景の成分は、B10/vとなる。図
17中のフレーム#n+1の左から12番目の画素の、シャ
ッタが開いて最初乃至3番目の、シャッタ時間/vの背景
の成分は、B11/vとなる。
ら10番目乃至12番目の画素は、カバードバックグラ
ウンド領域である混合領域に対応する。
成分を抽出した画像のモデル図である。
右側に移動するオブジェクトに対応する前景を撮像した
画像の3つのフレームの、隣接して1列に並んでいる画
素であって、フレーム上で同一の位置の画素の画素値を
時間方向に展開したモデル図である。図19において、
アンカバードバックグラウンド領域が含まれている。
クトは、剛体であり、かつ等速で移動していると仮定で
きる。前景に対応するオブジェクトが、次のフレームに
おいて4画素分右側に表示されるように移動しているの
で、動き量vは、4である。
側の画素の、シャッタが開いて最初の、シャッタ時間/v
の前景の成分は、F13/vとなり、図19中の左から2番
目の画素の、シャッタが開いて2番目のシャッタ時間/v
の前景の成分も、F13/vとなる。図19中の左から3番
目の画素の、シャッタが開いて3番目のシャッタ時間/v
の前景の成分、および図19中の左から4番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F13/vとなる。
画素の、シャッタが開いて最初のシャッタ時間/vの前景
の成分は、F14/vとなり、図19中の左から3番目の画
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分も、F14/vとなる。図19中の左から3番目の画
素の、シャッタが開いて最初の、シャッタ時間/vの前景
の成分は、F15/vとなる。
るので、図19中のフレーム#n-1の最も左側の画素の、
シャッタが開いて2番目乃至4番目の、シャッタ時間/v
の背景の成分は、B25/vとなる。図19中のフレーム#n-
1の左から2番目の画素の、シャッタが開いて3番目お
よび4番目の、シャッタ時間/vの背景の成分は、B26/v
となる。図19中のフレーム#n-1の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの背景の
成分は、B27/vとなる。
側の画素乃至3番目の画素は、アンカバードバックグラ
ウンド領域である混合領域に属する。
画素乃至12番目の画素は、前景領域に属する。フレー
ムの前景の成分は、F13/v乃至F24/vのいずれかである。
至左から4番目の画素は、背景領域に属し、画素値は、
それぞれ、B25乃至B28となる。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図19中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F13/vとなり、図19中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F13/vとなる。図19中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図19中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F13/vとな
る。
素の、シャッタが開いて最初のシャッタ時間/vの前景の
成分は、F14/vとなり、図19中の左から7番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F14/vとなる。図19中の左から8番目の画素
の、シャッタが開いて最初のシャッタ時間/vの前景の成
分は、F15/vとなる。
るので、図19中のフレーム#nの左から5番目の画素
の、シャッタが開いて2番目乃至4番目のシャッタ時間
/vの背景の成分は、B29/vとなる。図19中のフレーム#
nの左から6番目の画素の、シャッタが開いて3番目お
よび4番目のシャッタ時間/vの背景の成分は、B30/vと
なる。図19中のフレーム#nの左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの背景の成分
は、B31/vとなる。
番目の画素乃至7番目の画素は、アンカバードバックグ
ラウンド領域である混合領域に属する。
素乃至12番目の画素は、前景領域に属する。フレーム
#nの前景領域における、シャッタ時間/vの期間に対応す
る値は、F13/v乃至F20/vのいずれかである。
乃至左から8番目の画素は、背景領域に属し、画素値
は、それぞれ、B25乃至B32となる。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図19中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F13/vとなり、図19中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F13/vとなる。図19中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図19中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F13/vとなる。
の画素の、シャッタが開いて最初のシャッタ時間/vの前
景の成分は、F14/vとなり、図19中の左から11番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F14/vとなる。図19中の左から12番
目の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F15/vとなる。
るので、図19中のフレーム#n+1の左から9番目の画素
の、シャッタが開いて2番目乃至4番目の、シャッタ時
間/vの背景の成分は、B33/vとなる。図19中のフレー
ム#n+1の左から10番目の画素の、シャッタが開いて3
番目および4番目のシャッタ時間/vの背景の成分は、B3
4/vとなる。図19中のフレーム#n+1の左から11番目
の画素の、シャッタが開いて4番目のシャッタ時間/vの
背景の成分は、B35/vとなる。
9番目の画素乃至11番目の画素は、アンカバードバッ
クグラウンド領域である混合領域に属する。
の画素は、前景領域に属する。フレーム#n+1の前景領域
における、シャッタ時間/vの前景の成分は、F13/v乃至F
16/vのいずれかである。
成分を抽出した画像のモデル図である。
フレームの画素値を用いて、前景領域、背景領域、カバ
ードバックグラウンド領域、またはアンカバードバック
グラウンド領域に属することを示すフラグを画素毎に対
応付けて、領域情報として、混合比算出部104および
動きボケ調整部106に供給する。
画素値、および領域情報を基に、混合領域に含まれる画
素について画素毎に混合比αを算出し、算出した混合比
αを前景背景分離部105に供給する。
の画素値、領域情報、および混合比αを基に、前景の成
分のみからなる前景成分画像を抽出して、動きボケ調整
部106に供給する。
105から供給された前景成分画像、動き検出部102
から供給された動きベクトル、および領域特定部103
から供給された領域情報を基に、前景成分画像に含まれ
る動きボケの量を調整して、動きボケの量を調整した前
景成分画像を出力する。
処理部12による動きボケの量の調整の処理を説明す
る。ステップS101において、領域特定部103は、
入力画像を基に、入力画像の画素毎に前景領域、背景領
域、カバードバックグラウンド領域、またはアンカバー
ドバックグラウンド領域のいずれかに属するかを示す領
域情報を生成する領域特定の処理を実行する。領域特定
の処理の詳細は、図30のフローチャートを参照して後
述する。領域特定部103は、生成した領域情報を混合
比算出部104に供給する。
定部103は、入力画像を基に、入力画像の画素毎に前
景領域、背景領域、または混合領域(カバードバックグ
ラウンド領域、またはアンカバードバックグラウンド領
域の区別をしない)のいずれかに属するかを示す領域情
報を生成するようにしてもよい。この場合において、前
景背景分離部105および動きボケ調整部106は、動
きベクトルの方向を基に、混合領域がカバードバックグ
ラウンド領域であるか、またはアンカバードバックグラ
ウンド領域であるかを判定する。例えば、動きベクトル
の方向に対応して、前景領域、混合領域、および背景領
域と順に並んでいるとき、その混合領域は、カバードバ
ックグラウンド領域と判定され、動きベクトルの方向に
対応して、背景領域、混合領域、および前景領域と順に
並んでいるとき、その混合領域は、アンカバードバック
グラウンド領域と判定される。
104は、入力画像および領域情報を基に、混合領域に
含まれる画素毎に、混合比αを算出する。混合比算出の
処理の詳細は、図40のフローチャートを参照して後述
する。混合比算出部104は、算出した混合比αを前景
背景分離部105に供給する。
部105は、領域情報、および混合比αを基に、入力画
像から前景の成分を抽出して、前景成分画像として動き
ボケ調整部106に供給する。
部106は、動きベクトルおよび領域情報を基に、動き
方向に並ぶ連続した画素であって、アンカバードバック
グラウンド領域、前景領域、およびカバードバックグラ
ウンド領域のいずれかに属するものの画像上の位置を示
す処理単位を生成し、処理単位に対応する前景成分に含
まれる動きボケの量を調整する。動きボケの量の調整の
処理の詳細については、図57のフローチャートを参照
して後述する。
2は、画面全体について処理を終了したか否かを判定
し、画面全体について処理を終了していないと判定され
た場合、ステップS104に進み、処理単位に対応する
前景の成分を対象とした動きボケの量の調整の処理を繰
り返す。
いて処理を終了したと判定された場合、処理は終了す
る。
景を分離して、前景に含まれる動きボケの量を調整する
ことができる。すなわち、信号処理部12は、前景の画
素の画素値であるサンプルデータに含まれる動きボケの
量を調整することができる。
04、前景背景分離部105、および動きボケ調整部1
06のそれぞれの構成について説明する。
ブロック図である。フレームメモリ121は、入力され
た画像をフレーム単位で記憶する。フレームメモリ12
1は、処理の対象がフレーム#nであるとき、フレーム#n
の2つ前のフレームであるフレーム#n-2、フレーム#nの
1つ前のフレームであるフレーム#n-1、フレーム#n、フ
レーム#nの1つ後のフレームであるフレーム#n+1、およ
びフレーム#nの2つ後のフレームであるフレーム#n+2を
記憶する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+2の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n+1の画素の画素値をフレームメモリ1
21から読み出して、読み出した画素値の差の絶対値を
算出する。静動判定部122−1は、フレーム#n+2の画
素値とフレーム#n+1の画素値との差の絶対値が、予め設
定している閾値Thより大きいか否かを判定し、差の絶対
値が閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部123−1に供給する。フレーム#n
+2の画素の画素値とフレーム#n+1の画素の画素値との差
の絶対値が閾値Th以下であると判定された場合、静動判
定部122−1は、静止を示す静動判定を領域判定部1
23−1に供給する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+1の画素の画素値、およびフレーム#nの
対象となる画素の画素値をフレームメモリ121から読
み出して、画素値の差の絶対値を算出する。静動判定部
122−2は、フレーム#n+1の画素値とフレーム#nの画
素値との差の絶対値が、予め設定している閾値Thより大
きいか否かを判定し、画素値の差の絶対値が、閾値Thよ
り大きいと判定された場合、動きを示す静動判定を領域
判定部123−1および領域判定部123−2に供給す
る。フレーム#n+1の画素の画素値とフレーム#nの画素の
画素値との差の絶対値が、閾値Th以下であると判定され
た場合、静動判定部122−2は、静止を示す静動判定
を領域判定部123−1および領域判定部123−2に
供給する。
域特定の対象である画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-1の画素の画素値をフレームメモリ1
21から読み出して、画素値の差の絶対値を算出する。
静動判定部122−3は、フレーム#nの画素値とフレー
ム#n-1の画素値との差の絶対値が、予め設定している閾
値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部123−2および領域判定部123
−3に供給する。フレーム#nの画素の画素値とフレーム
#n-1の画素の画素値との差の絶対値が、閾値Th以下であ
ると判定された場合、静動判定部122−3は、静止を
示す静動判定を領域判定部123−2および領域判定部
123−3に供給する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n-1の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-2の画素の画素値をフレームメモリ1
21から読み出して、画素値の差の絶対値を算出する。
静動判定部122−4は、フレーム#n-1の画素値とフレ
ーム#n-2の画素値との差の絶対値が、予め設定している
閾値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部123−3に供給する。フレーム#n
-1の画素の画素値とフレーム#n-2の画素の画素値との差
の絶対値が、閾値Th以下であると判定された場合、静動
判定部122−4は、静止を示す静動判定を領域判定部
123−3に供給する。
2−1から供給された静動判定が静止を示し、かつ、静
動判定部122−2から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がアンカバードバックグラウンド領域に属すると
判定し、領域の判定される画素に対応するアンカバード
バックグラウンド領域判定フラグに、アンカバードバッ
クグラウンド領域に属することを示す”1”を設定す
る。
2−1から供給された静動判定が動きを示すか、また
は、静動判定部122−2から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素がアンカバードバックグラウンド領域に属
しないと判定し、領域の判定される画素に対応するアン
カバードバックグラウンド領域判定フラグに、アンカバ
ードバックグラウンド領域に属しないことを示す”0”
を設定する。
1”または”0”が設定されたアンカバードバックグラ
ウンド領域判定フラグを判定フラグ格納フレームメモリ
124に供給する。
2−2から供給された静動判定が静止を示し、かつ、静
動判定部122−3から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が静止領域に属すると判定し、領域の判定される
画素に対応する静止領域判定フラグに、静止領域に属す
ることを示す”1”を設定する。
2−2から供給された静動判定が動きを示すか、また
は、静動判定部122−3から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素が静止領域に属しないと判定し、領域の判
定される画素に対応する静止領域判定フラグに、静止領
域に属しないことを示す”0”を設定する。
1”または”0”が設定された静止領域判定フラグを判
定フラグ格納フレームメモリ124に供給する。
2−2から供給された静動判定が動きを示し、かつ、静
動判定部122−3から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が動き領域に属すると判定し、領域の判定される
画素に対応する動き領域判定フラグに、動き領域に属す
ることを示す”1”を設定する。
2−2から供給された静動判定が静止を示すか、また
は、静動判定部122−3から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素が動き領域に属しないと判定し、領域の判
定される画素に対応する動き領域判定フラグに、動き領
域に属しないことを示す”0”を設定する。
1”または”0”が設定された動き領域判定フラグを判
定フラグ格納フレームメモリ124に供給する。
2−3から供給された静動判定が動きを示し、かつ、静
動判定部122−4から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がカバードバックグラウンド領域に属すると判定
し、領域の判定される画素に対応するカバードバックグ
ラウンド領域判定フラグに、カバードバックグラウンド
領域に属することを示す”1”を設定する。
2−3から供給された静動判定が静止を示すか、また
は、静動判定部122−4から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素がカバードバックグラウンド領域に属しな
いと判定し、領域の判定される画素に対応するカバード
バックグラウンド領域判定フラグに、カバードバックグ
ラウンド領域に属しないことを示す”0”を設定する。
1”または”0”が設定されたカバードバックグラウン
ド領域判定フラグを判定フラグ格納フレームメモリ12
4に供給する。
領域判定部123−1から供給されたアンカバードバッ
クグラウンド領域判定フラグ、領域判定部123−2か
ら供給された静止領域判定フラグ、領域判定部123−
2から供給された動き領域判定フラグ、および領域判定
部123−3から供給されたカバードバックグラウンド
領域判定フラグをそれぞれ記憶する。
記憶しているアンカバードバックグラウンド領域判定フ
ラグ、静止領域判定フラグ、動き領域判定フラグ、およ
びカバードバックグラウンド領域判定フラグを合成部1
25に供給する。合成部125は、判定フラグ格納フレ
ームメモリ124から供給された、アンカバードバック
グラウンド領域判定フラグ、静止領域判定フラグ、動き
領域判定フラグ、およびカバードバックグラウンド領域
判定フラグを基に、各画素が、アンカバードバックグラ
ウンド領域、静止領域、動き領域、およびカバードバッ
クグラウンド領域のいずれかに属することを示す領域情
報を生成し、判定フラグ格納フレームメモリ126に供
給する。
合成部125から供給された領域情報を記憶すると共
に、記憶している領域情報を出力する。
3乃至図27を参照して説明する。
るとき、オブジェクトに対応する画像の画面上の位置
は、フレーム毎に変化する。図23に示すように、フレ
ーム#nにおいて、Yn(x,y)で示される位置に位置するオ
ブジェクトに対応する画像は、次のフレームであるフレ
ーム#n+1において、Yn+1(x,y)に位置する。
方向に隣接して1列に並ぶ画素の画素値を時間方向に展
開したモデル図を図24に示す。例えば、前景のオブジ
ェクトに対応する画像の動き方向が画面に対して水平で
あるとき、図24におけるモデル図は、1つのライン上
の隣接する画素の画素値を時間方向に展開したモデルを
示す。
ンは、フレーム#n+1におけるラインと同一である。
乃至13番目の画素に含まれているオブジェクトに対応
する前景の成分は、フレーム#n+1において、左から6番
目乃至17番目の画素に含まれる。
ウンド領域に属する画素は、左から11番目乃至13番
目の画素であり、アンカバードバックグラウンド領域に
属する画素は、左から2番目乃至4番目の画素である。
フレーム#n+1において、カバードバックグラウンド領域
に属する画素は、左から15番目乃至17番目の画素で
あり、アンカバードバックグラウンド領域に属する画素
は、左から6番目乃至8番目の画素である。
まれる前景の成分が、フレーム#n+1において4画素移動
しているので、動き量vは、4である。仮想分割数は、
動き量vに対応し、4である。
る混合領域に属する画素の画素値の変化について説明す
る。
量vが4であるフレーム#nにおいて、カバードバックグ
ラウンド領域に属する画素は、左から15番目乃至17
番目の画素である。動き量vが4であるので、1つ前の
フレーム#n-1において、左から15番目乃至17番目の
画素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ前のフレーム#n-2において、左から15番
目乃至17番目の画素は、背景の成分のみを含み、背景
領域に属する。
止しているので、フレーム#n-1の左から15番目の画素
の画素値は、フレーム#n-2の左から15番目の画素の画
素値から変化しない。同様に、フレーム#n-1の左から1
6番目の画素の画素値は、フレーム#n-2の左から16番
目の画素の画素値から変化せず、フレーム#n-1の左から
17番目の画素の画素値は、フレーム#n-2の左から17
番目の画素の画素値から変化しない。
ックグラウンド領域に属する画素に対応する、フレーム
#n-1およびフレーム#n-2の画素は、背景の成分のみから
成り、画素値が変化しないので、その差の絶対値は、ほ
ぼ0の値となる。従って、フレーム#nにおける混合領域
に属する画素に対応する、フレーム#n-1およびフレーム
#n-2の画素に対する静動判定は、静動判定部122−4
により、静止と判定される。
ンド領域に属する画素は、前景の成分を含むので、フレ
ーム#n-1における背景の成分のみから成る場合と、画素
値が異なる。従って、フレーム#nにおける混合領域に属
する画素、および対応するフレーム#n-1の画素に対する
静動判定は、静動判定部122−3により、動きと判定
される。
動判定部122−3から動きを示す静動判定の結果が供
給され、静動判定部122−4から静止を示す静動判定
の結果が供給されたとき、対応する画素がカバードバッ
クグラウンド領域に属すると判定する。
量vが4であるフレーム#nにおいて、アンカバードバッ
クグラウンド領域に含まれる画素は、左から2番目乃至
4番目の画素である。動き量vが4であるので、1つ後
のフレーム#n+1において、左から2番目乃至4番目の画
素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ後のフレーム#n+2において、左から2番目
乃至4番目の画素は、背景の成分のみを含み、背景領域
に属する。
止しているので、フレーム#n+2の左から2番目の画素の
画素値は、フレーム#n+1の左から2番目の画素の画素値
から変化しない。同様に、フレーム#n+2の左から3番目
の画素の画素値は、フレーム#n+1の左から3番目の画素
の画素値から変化せず、フレーム#n+2の左から4番目の
画素の画素値は、フレーム#n+1の左から4番目の画素の
画素値から変化しない。
ドバックグラウンド領域に属する画素に対応する、フレ
ーム#n+1およびフレーム#n+2の画素は、背景の成分のみ
から成り、画素値が変化しないので、その差の絶対値
は、ほぼ0の値となる。従って、フレーム#nにおける混
合領域に属する画素に対応する、フレーム#n+1およびフ
レーム#n+2の画素に対する静動判定は、静動判定部12
2−1により、静止と判定される。
ラウンド領域に属する画素は、前景の成分を含むので、
フレーム#n+1における背景の成分のみから成る場合と、
画素値が異なる。従って、フレーム#nにおける混合領域
に属する画素、および対応するフレーム#n+1の画素に対
する静動判定は、静動判定部122−2により、動きと
判定される。
動判定部122−2から動きを示す静動判定の結果が供
給され、静動判定部122−1から静止を示す静動判定
の結果が供給されたとき、対応する画素がアンカバード
バックグラウンド領域に属すると判定する。
103の判定条件を示す図である。フレーム#nの判定の
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n-2の画素と、フレーム#nの判定の対象となる画素
の画像上の位置と同一の位置にあるフレーム#n-1の画素
とが静止と判定され、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n-1の画
素と、フレーム#nの画素とが動きと判定されたとき、領
域特定部103は、フレーム#nの判定の対象となる画素
がカバードバックグラウンド領域に属すると判定する。
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが静止と判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが静止と判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が静止領域に属すると判定する。
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが動きと判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが動きと判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が動き領域に属すると判定する。
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n+1の画素とが動きと判定され、フレーム#nの判定
の対象となる画素の画像上の位置と同一の位置にあるフ
レーム#n+1の画素と、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n+2の画
素とが静止と判定されたとき、領域特定部103は、フ
レーム#nの判定の対象となる画素がアンカバードバック
グラウンド領域に属すると判定する。
の結果の例を示す図である。図28(A)において、カ
バードバックグラウンド領域に属すると判定された画素
は、白で表示されている。図28(B)において、アン
カバードバックグラウンド領域に属すると判定された画
素は、白で表示されている。
と判定された画素は、白で表示されている。図28
(D)において、静止領域に属すると判定された画素
は、白で表示されている。
126が出力する領域情報の内、混合領域を示す領域情
報を画像として示す図である。図29において、カバー
ドバックグラウンド領域またはアンカバードバックグラ
ウンド領域に属すると判定された画素、すなわち混合領
域に属すると判定された画素は、白で表示されている。
判定フラグ格納フレームメモリ126が出力する混合領
域を示す領域情報は、混合領域、および前景領域内のテ
クスチャの無い部分に囲まれたテクスチャの有る部分を
示す。
て、領域特定部103の領域特定の処理を説明する。ス
テップS121において、フレームメモリ121は、判
定の対象となるフレーム#nを含むフレーム#n-2乃至フレ
ーム#n+2の画像を取得する。
22−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、静止か否かを判定し、静止と判定された
場合、ステップS123に進み、静動判定部122−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、静止か否かを判定する。
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、ステップS124に進み、領域判定部12
3−2は、領域の判定される画素に対応する静止領域判
定フラグに、静止領域に属することを示す”1”を設定
する。領域判定部123−2は、静止領域判定フラグを
判定フラグ格納フレームメモリ124に供給し、手続き
は、ステップS125に進む。
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、または、ステップS123において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、動
きと判定された場合、フレーム#nの画素が静止領域には
属さないので、ステップS124の処理はスキップさ
れ、手続きは、ステップS125に進む。
22−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS126に進み、静動判定部122−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、動きか否かを判定する。
画素とフレーム#n+1の同一位置の画素とで、動きと判定
された場合、ステップS127に進み、領域判定部12
3−2は、領域の判定される画素に対応する動き領域判
定フラグに、動き領域に属することを示す”1”を設定
する。領域判定部123−2は、動き領域判定フラグを
判定フラグ格納フレームメモリ124に供給し、手続き
は、ステップS128に進む。
の画素とフレーム#nの同一位置の画素とで、静止と判定
された場合、または、ステップS126において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、静
止と判定された場合、フレーム#nの画素が動き領域には
属さないので、ステップS127の処理はスキップさ
れ、手続きは、ステップS128に進む。
22−4は、フレーム#n-2の画素とフレーム#n-1の同一
位置の画素とで、静止か否かを判定し、静止と判定され
た場合、ステップS129に進み、静動判定部122−
3は、フレーム#n-1の画素とフレーム#nの同一位置の画
素とで、動きか否かを判定する。
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、ステップS130に進み、領域判定部12
3−3は、領域の判定される画素に対応するカバードバ
ックグラウンド領域判定フラグに、カバードバックグラ
ウンド領域に属することを示す”1”を設定する。領域
判定部123−3は、カバードバックグラウンド領域判
定フラグを判定フラグ格納フレームメモリ124に供給
し、手続きは、ステップS131に進む。
の画素とフレーム#n-1の同一位置の画素とで、動きと判
定された場合、または、ステップS129において、フ
レーム#n-1の画素とフレーム#nの同一位置の画素とで、
静止と判定された場合、フレーム#nの画素がカバードバ
ックグラウンド領域には属さないので、ステップS13
0の処理はスキップされ、手続きは、ステップS131
に進む。
22−2は、フレーム#nの画素とフレーム#n+1の同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS132に進み、静動判定部122−1
は、フレーム#n+1の画素とフレーム#n+2の同一位置の画
素とで、静止か否かを判定する。
の画素とフレーム#n+2の同一位置の画素とで、静止と判
定された場合、ステップS133に進み、領域判定部1
23−1は、領域の判定される画素に対応するアンカバ
ードバックグラウンド領域判定フラグに、アンカバード
バックグラウンド領域に属することを示す”1”を設定
する。領域判定部123−1は、アンカバードバックグ
ラウンド領域判定フラグを判定フラグ格納フレームメモ
リ124に供給し、手続きは、ステップS134に進
む。
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、または、ステップS132において、フレ
ーム#n+1の画素とフレーム#n+2の同一位置の画素とで、
動きと判定された場合、フレーム#nの画素がアンカバー
ドバックグラウンド領域には属さないので、ステップS
133の処理はスキップされ、手続きは、ステップS1
34に進む。
03は、フレーム#nの全ての画素について領域を特定し
たか否かを判定し、フレーム#nの全ての画素について領
域を特定していないと判定された場合、手続きは、ステ
ップS122に戻り、他の画素について、領域特定の処
理を繰り返す。
全ての画素について領域を特定したと判定された場合、
ステップS135に進み、合成部125は、判定フラグ
格納フレームメモリ124に記憶されているアンカバー
ドバックグラウンド領域判定フラグ、およびカバードバ
ックグラウンド領域判定フラグを基に、混合領域を示す
領域情報を生成し、更に、各画素が、アンカバードバッ
クグラウンド領域、静止領域、動き領域、およびカバー
ドバックグラウンド領域のいずれかに属することを示す
領域情報を生成し、生成した領域情報を判定フラグ格納
フレームメモリ126に設定し、処理は終了する。
ムに含まれている画素のそれぞれについて、動き領域、
静止領域、アンカバードバックグラウンド領域、または
カバードバックグラウンド領域に属することを示す領域
情報を生成することができる。
バックグラウンド領域およびカバードバックグラウンド
領域に対応する領域情報に論理和を適用することによ
り、混合領域に対応する領域情報を生成して、フレーム
に含まれている画素のそれぞれについて、動き領域、静
止領域、または混合領域に属することを示すフラグから
成る領域情報を生成するようにしてもよい。
を有す場合、領域特定部103は、より正確に動き領域
を特定することができる。
情報を前景領域を示す領域情報として、また、静止領域
を示す領域情報を背景領域を示す領域情報として出力す
ることができる。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した領域を特定する処理を適用
することができる。例えば、背景領域に対応する画像が
一様に動いているとき、領域特定部103は、この動き
に対応して画像全体をシフトさせ、背景に対応するオブ
ジェクトが静止している場合と同様に処理する。また、
背景領域に対応する画像が局所毎に異なる動きを含んで
いるとき、領域特定部103は、動きに対応した画素を
選択して、上述の処理を実行する。
例を示すブロック図である。推定混合比処理部201
は、入力画像を基に、カバードバックグラウンド領域の
モデルに対応する演算により、画素毎に推定混合比を算
出して、算出した推定混合比を混合比決定部203に供
給する。
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を混合比決定部203に供給する。
間内に等速で動いていると仮定できるので、混合領域に
属する画素の混合比αは、以下の性質を有する。すなわ
ち、混合比αは、画素の位置の変化に対応して、直線的
に変化する。画素の位置の変化を1次元とすれば、混合
比αの変化は、直線で表現することができ、画素の位置
の変化を2次元とすれば、混合比αの変化は、平面で表
現することができる。
に対応するオブジェクトが剛体であり、等速で移動して
いると仮定が成り立つ。
ッタ時間内での動き量vの逆比となる。
想的な混合比αの混合領域における傾きlは、動き量vの
逆数として表すことができる。
は、背景領域において、1の値を有し、前景領域におい
て、0の値を有し、混合領域において、0を越え1未満
の値を有する。
7番目の画素の画素値C06は、フレーム#n-1の左から7
番目の画素の画素値P06を用いて、式(4)で表すこと
ができる。
の画素の画素値Mと、画素値P06を背景領域の画素の画素
値Bと表現する。すなわち、混合領域の画素の画素値Mお
よび背景領域の画素の画素値Bは、それぞれ、式(5)
および式(6)のように表現することができる。
る。動き量vが4なので、フレーム#nの左から7番目の
画素の混合比αは、0.5となる。
画素値Cを混合領域の画素値と見なし、フレーム#nの前
のフレーム#n-1の画素値Pを背景領域の画素値と見なす
ことで、混合比αを示す式(3)は、式(7)のように
書き換えられる。
分の和ΣiFi/vである。式(7)に含まれる変数は、混
合比αおよび前景の成分の和fの2つである。
域における、動き量vが4であり、時間方向の仮想分割
数が4である、画素値を時間方向に展開したモデルを図
34に示す。
て、上述したカバードバックグラウンド領域における表
現と同様に、注目しているフレーム#nの画素値Cを混合
領域の画素値と見なし、フレーム#nの後のフレーム#n+1
の画素値Nを背景領域の画素値と見なすことで、混合比
αを示す式(3)は、式(8)のように表現することが
できる。
として説明したが、背景のオブジェクトが動いている場
合においても、背景の動き量vに対応させた位置の画素
の画素値を利用することにより、式(4)乃至式(8)
を適用することができる。例えば、図33において、背
景に対応するオブジェクトの動き量vが2であり、仮想
分割数が2であるとき、背景に対応するオブジェクトが
図中の右側に動いているとき、式(6)における背景領
域の画素の画素値Bは、画素値P04とされる。
の変数を含むので、そのままでは混合比αを求めること
ができない。ここで、画像は一般的に空間的に相関が強
いので近接する画素同士でほぼ同じ画素値となる。
ので、前景の成分の和fを前または後のフレームから導
き出せるように式を変形して、混合比αを求める。
の画素値Mcは、式(9)で表すことができる。
式(9)の右辺第2項は、後のフレーム#n+1の画素値を
利用して、式(10)のように表すこととする。
て、式(11)が成立するとする。
(11)式(10)は、式(11)を利
用して、式(12)のように置き換えることができる。
ができる。
域に関係する前景の成分が等しいと仮定すると、混合領
域の全ての画素について、内分比の関係から式(14)
が成立する。
は、式(15)に示すように展開することができる。
式(8)は、式(16)に示すように展開することがで
きる。
C,N、およびPは、既知の画素値なので、式(15)お
よび式(16)に含まれる変数は、混合比αのみであ
る。式(15)および式(16)における、C,N、およ
びPの関係を図36に示す。Cは、混合比αを算出する、
フレーム#nの注目している画素の画素値である。Nは、
注目している画素と空間方向の位置が対応する、フレー
ム#n+1の画素の画素値である。Pは、注目している画素
と空間方向の位置が対応する、フレーム#n-1の画素の画
素値である。
れぞれに1つの変数が含まれることとなるので、3つの
フレームの画素の画素値を利用して、混合比αを算出す
ることができる。式(15)および式(16)を解くこ
とにより、正しい混合比αが算出されるための条件は、
混合領域に関係する前景の成分が等しい、すなわち、前
景のオブジェクトが静止しているとき撮像された前景の
画像オブジェクトにおいて、前景のオブジェクトの動き
の方向に対応する、画像オブジェクトの境界に位置する
画素であって、動き量vの2倍の数の連続している画素
の画素値が、一定であることである。
領域に属する画素の混合比αは、式(17)により算出
され、アンカバードバックグラウンド領域に属する画素
の混合比αは、式(18)により算出される。
を示すブロック図である。フレームメモリ221は、入
力された画像をフレーム単位で記憶し、入力画像として
入力されているフレームから1つ後のフレームをフレー
ムメモリ222および混合比演算部223に供給する。
をフレーム単位で記憶し、フレームメモリ221から供
給されているフレームから1つ後のフレームを混合比演
算部223に供給する。
合比演算部223に入力されているとき、フレームメモ
リ221は、フレーム#nを混合比演算部223に供給
し、フレームメモリ222は、フレーム#n-1を混合比演
算部223に供給する。
演算により、フレーム#nの注目している画素の画素値
C、注目している画素と空間的位置が対応する、フレー
ム#n+1の画素の画素値N、および注目している画素と空
間的位置が対応する、フレーム#n-1の画素の画素値Pを
基に、注目している画素の推定混合比を算出して、算出
した推定混合比を出力する。例えば、背景が静止してい
るとき、混合比演算部223は、フレーム#nの注目して
いる画素の画素値C、注目している画素とフレーム内の
位置が同じ、フレーム#n+1の画素の画素値N、および注
目している画素とフレーム内の位置が同じ、フレーム#n
-1の画素の画素値Pを基に、注目している画素の推定混
合比を算出して、算出した推定混合比を出力する。
入力画像を基に、推定混合比を算出して、混合比決定部
203に供給することができる。
合比処理部201が式(17)に示す演算により、注目
している画素の推定混合比を算出するのに対して、式
(18)に示す演算により、注目している画素の推定混
合比を算出する部分が異なることを除き、推定混合比処
理部201と同様なので、その説明は省略する。
算出された推定混合比の例を示す図である。図38に示
す推定混合比は、等速で動いているオブジェクトに対応
する前景の動き量vが11である場合の結果を、1ライ
ンに対して示すものである。
に示すように、ほぼ直線的に変化していることがわか
る。
域特定部103から供給された、混合比αの算出の対象
となる画素が、前景領域、背景領域、カバードバックグ
ラウンド領域、またはアンカバードバックグラウンド領
域のいずれかに属するかを示す領域情報を基に、混合比
αを設定する。混合比決定部203は、対象となる画素
が前景領域に属する場合、0を混合比αに設定し、対象
となる画素が背景領域に属する場合、1を混合比αに設
定し、対象となる画素がカバードバックグラウンド領域
に属する場合、推定混合比処理部201から供給された
推定混合比を混合比αに設定し、対象となる画素がアン
カバードバックグラウンド領域に属する場合、推定混合
比処理部202から供給された推定混合比を混合比αに
設定する。混合比決定部203は、領域情報を基に設定
した混合比αを出力する。
を示すブロック図である。選択部231は、領域特定部
103から供給された領域情報を基に、カバードバック
グラウンド領域に属する画素および、これに対応する前
および後のフレームの画素を推定混合比処理部232に
供給する。選択部231は、領域特定部103から供給
された領域情報を基に、アンカバードバックグラウンド
領域に属する画素および、これに対応する前および後の
フレームの画素を推定混合比処理部233に供給する。
から入力された画素値を基に、式(17)に示す演算に
より、カバードバックグラウンド領域に属する、注目し
ている画素の推定混合比を算出して、算出した推定混合
比を選択部234に供給する。
から入力された画素値を基に、式(18)に示す演算に
より、アンカバードバックグラウンド領域に属する、注
目している画素の推定混合比を算出して、算出した推定
混合比を選択部234に供給する。
給された領域情報を基に、対象となる画素が前景領域に
属する場合、0である推定混合比を選択して、混合比α
に設定し、対象となる画素が背景領域に属する場合、1
である推定混合比を選択して、混合比αに設定する。選
択部234は、対象となる画素がカバードバックグラウ
ンド領域に属する場合、推定混合比処理部232から供
給された推定混合比を選択して混合比αに設定し、対象
となる画素がアンカバードバックグラウンド領域に属す
る場合、推定混合比処理部233から供給された推定混
合比を選択して混合比αに設定する。選択部234は、
領域情報を基に選択して設定した混合比αを出力する。
る混合比算出部104は、画像の含まれる画素毎に混合
比αを算出して、算出した混合比αを出力することがで
きる。
1に構成を示す混合比算出部104の混合比αの算出の
処理を説明する。ステップS151において、混合比算
出部104は、領域特定部103から供給された領域情
報を取得する。ステップS152において、推定混合比
処理部201は、カバードバックグラウンド領域に対応
するモデルにより推定混合比の演算の処理を実行し、算
出した推定混合比を混合比決定部203に供給する。混
合比推定の演算の処理の詳細は、図41のフローチャー
トを参照して、後述する。
理部202は、アンカバードバックグラウンド領域に対
応するモデルにより推定混合比の演算の処理を実行し、
算出した推定混合比を混合比決定部203に供給する。
104は、フレーム全体について、混合比αを推定した
か否かを判定し、フレーム全体について、混合比αを推
定していないと判定された場合、ステップS152に戻
り、次の画素について混合比αを推定する処理を実行す
る。
について、混合比αを推定したと判定された場合、ステ
ップS155に進み、混合比決定部203は、画素が、
前景領域、背景領域、カバードバックグラウンド領域、
またはアンカバードバックグラウンド領域のいずれかに
属するかを示す、領域特定部103から供給された領域
情報を基に、混合比αを設定する。混合比決定部203
は、対象となる画素が前景領域に属する場合、0を混合
比αに設定し、対象となる画素が背景領域に属する場
合、1を混合比αに設定し、対象となる画素がカバード
バックグラウンド領域に属する場合、推定混合比処理部
201から供給された推定混合比を混合比αに設定し、
対象となる画素がアンカバードバックグラウンド領域に
属する場合、推定混合比処理部202から供給された推
定混合比を混合比αに設定し、処理は終了する。
特定部103から供給された領域情報、および入力画像
を基に、各画素に対応する特徴量である混合比αを算出
することができる。
混合比αの算出の処理は、図40のフローチャートで説
明した処理と同様なので、その説明は省略する。
る、カバードバックグラウンド領域に対応するモデルに
よる混合比推定の処理を図41のフローチャートを参照
して説明する。
223は、フレームメモリ221から、フレーム#nの注
目画素の画素値Cを取得する。
223は、フレームメモリ222から、注目画素に対応
する、フレーム#n-1の画素の画素値Pを取得する。
223は、入力画像に含まれる注目画素に対応する、フ
レーム#n+1の画素の画素値Nを取得する。
223は、フレーム#nの注目画素の画素値C、フレーム#
n-1の画素の画素値P、およびフレーム#n+1の画素の画素
値Nを基に、推定混合比を演算する。
223は、フレーム全体について、推定混合比を演算す
る処理を終了したか否かを判定し、フレーム全体につい
て、推定混合比を演算する処理を終了していないと判定
された場合、ステップS171に戻り、次の画素につい
て推定混合比を算出する処理を繰り返す。
について、推定混合比を演算する処理を終了したと判定
された場合、処理は終了する。
入力画像を基に、推定混合比を演算することができる。
バードバックグラウンド領域に対応するモデルによる混
合比推定の処理は、アンカバードバックグラウンド領域
のモデルに対応する式を利用した、図41のフローチャ
ートに示す処理と同様なので、その説明は省略する。
2および推定混合比処理部233は、図41に示すフロ
ーチャートと同様の処理を実行して推定混合比を演算す
るので、その説明は省略する。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した混合比αを求める処理を適
用することができる。例えば、背景領域に対応する画像
が一様に動いているとき、推定混合比処理部201は、
背景の動きに対応して画像全体をシフトさせ、背景に対
応するオブジェクトが静止している場合と同様に処理す
る。また、背景領域に対応する画像が局所毎に異なる背
景の動きを含んでいるとき、推定混合比処理部201
は、混合領域に属する画素に対応する画素として、背景
の動きに対応した画素を選択して、上述の処理を実行す
る。
出部104の構成は、一例である。
について、カバードバックグラウンド領域に対応するモ
デルによる混合比推定の処理のみを実行して、算出され
た推定混合比を混合比αとして出力するようにしてもよ
い。この場合において、混合比αは、カバードバックグ
ラウンド領域に属する画素について、背景の成分の割合
を示し、アンカバードバックグラウンド領域に属する画
素について、前景の成分の割合を示す。アンカバードバ
ックグラウンド領域に属する画素について、このように
算出された混合比αと1との差分の絶対値を算出して、
算出した絶対値を混合比αに設定すれば、信号処理部1
2は、アンカバードバックグラウンド領域に属する画素
について、背景の成分の割合を示す混合比αを求めるこ
とができる。
ての画素について、アンカバードバックグラウンド領域
に対応するモデルによる混合比推定の処理のみを実行し
て、算出された推定混合比を混合比αとして出力するよ
うにしてもよい。
する。図42は、前景背景分離部105の構成の一例を
示すブロック図である。前景背景分離部105に供給さ
れた入力画像は、分離部251、スイッチ252、およ
びスイッチ254に供給される。カバードバックグラウ
ンド領域を示す情報、およびアンカバードバックグラウ
ンド領域を示す、領域特定部103から供給された領域
情報は、分離部251に供給される。前景領域を示す領
域情報は、スイッチ252に供給される。背景領域を示
す領域情報は、スイッチ254に供給される。
αは、分離部251に供給される。
ド領域を示す領域情報、アンカバードバックグラウンド
領域を示す領域情報、および混合比αを基に、入力画像
から前景の成分を分離して、分離した前景の成分を合成
部253に供給するとともに、入力画像から背景の成分
を分離して、分離した背景の成分を合成部255に供給
する。
報を基に、前景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる前景に対応する画素のみを合
成部253に供給する。
報を基に、背景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる背景に対応する画素のみを合
成部255に供給する。
れた前景に対応する成分、スイッチ252から供給され
た前景に対応する画素を基に、前景成分画像を合成し、
合成した前景成分画像を出力する。前景領域と混合領域
とは重複しないので、合成部253は、例えば、前景に
対応する成分と、前景に対応する画素とに論理和の演算
を適用して、前景成分画像を合成する。
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、前景成分画像の合成の処理において、前景成分画
像を格納(上書き)する。従って、合成部253が出力
する前景成分画像の内、背景領域に対応する画素には、
画素値として0が格納されている。
れた背景に対応する成分、スイッチ254から供給され
た背景に対応する画素を基に、背景成分画像を合成し
て、合成した背景成分画像を出力する。背景領域と混合
領域とは重複しないので、合成部255は、例えば、背
景に対応する成分と、背景に対応する画素とに論理和の
演算を適用して、背景成分画像を合成する。
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、背景成分画像の合成の処理において、背景成分画
像を格納(上書き)する。従って、合成部255が出力
する背景成分画像の内、前景領域に対応する画素には、
画素値として0が格納されている。
れる入力画像、並びに前景背景分離部105から出力さ
れる前景成分画像および背景成分画像を示す図である。
であり、図43(B)は、図43(A)に対応する前景
領域に属する画素、背景領域に属する画素、および混合
領域に属する画素を含む1ラインの画素を時間方向に展
開したモデル図を示す。
うに、前景背景分離部105から出力される背景成分画
像は、背景領域に属する画素、および混合領域の画素に
含まれる背景の成分から構成される。
うに、前景背景分離部105から出力される前景成分画
像は、前景領域に属する画素、および混合領域の画素に
含まれる前景の成分から構成される。
部105により、背景の成分と、前景の成分とに分離さ
れる。分離された背景の成分は、背景領域に属する画素
と共に、背景成分画像を構成する。分離された前景の成
分は、前景領域に属する画素と共に、前景成分画像を構
成する。
対応する画素の画素値が0とされ、前景領域に対応する
画素および混合領域に対応する画素に意味のある画素値
が設定される。同様に、背景成分画像は、前景領域に対
応する画素の画素値が0とされ、背景領域に対応する画
素および混合領域に対応する画素に意味のある画素値が
設定される。
に属する画素から前景の成分、および背景の成分を分離
する処理について説明する。
ジェクトに対応する前景を含む、2つのフレームの前景
の成分および背景の成分を示す画像のモデルである。図
44に示す画像のモデルにおいて、前景の動き量vは4
であり、仮想分割数は、4とされている。
び左から14番目乃至18番目の画素は、背景の成分の
みから成り、背景領域に属する。フレーム#nにおいて、
左から2番目乃至4番目の画素は、背景の成分および前
景の成分を含み、アンカバードバックグラウンド領域に
属する。フレーム#nにおいて、左から11番目乃至13
番目の画素は、背景の成分および前景の成分を含み、カ
バードバックグラウンド領域に属する。フレーム#nにお
いて、左から5番目乃至10番目の画素は、前景の成分
のみから成り、前景領域に属する。
5番目の画素、および左から18番目の画素は、背景の
成分のみから成り、背景領域に属する。フレーム#n+1に
おいて、左から6番目乃至8番目の画素は、背景の成分
および前景の成分を含み、アンカバードバックグラウン
ド領域に属する。フレーム#n+1において、左から15番
目乃至17番目の画素は、背景の成分および前景の成分
を含み、カバードバックグラウンド領域に属する。フレ
ーム#n+1において、左から9番目乃至14番目の画素
は、前景の成分のみから成り、前景領域に属する。
に属する画素から前景の成分を分離する処理を説明する
図である。図45において、α1乃至α18は、フレー
ム#nにおける画素のぞれぞれに対応する混合比である。
図45において、左から15番目乃至17番目の画素
は、カバードバックグラウンド領域に属する。
値C15は、式(19)で表される。
混合比である。P15は、フレーム#n-1の左から15番目
の画素の画素値である。
5番目の画素の前景の成分の和f15は、式(20)で表
される。
素の前景の成分の和f16は、式(21)で表され、フレ
ーム#nの左から17番目の画素の前景の成分の和f17
は、式(22)で表される。
域に属する画素の画素値Cに含まれる前景の成分fcは、
式(23)で計算される。
る。
領域に属する画素から前景の成分を分離する処理を説明
する図である。図46において、α1乃至α18は、フ
レーム#nにおける画素のぞれぞれに対応する混合比であ
る。図46において、左から2番目乃至4番目の画素
は、アンカバードバックグラウンド領域に属する。
C02は、式(24)で表される。
合比である。N02は、フレーム#n+1の左から2番目の画
素の画素値である。
番目の画素の前景の成分の和f02は、式(25)で表さ
れる。
の和f03は、式(26)で表され、フレーム#nの左から
4番目の画素の前景の成分の和f04は、式(27)で表
される。
ド領域に属する画素の画素値Cに含まれる前景の成分fu
は、式(28)で計算される。
る。
含まれる、カバードバックグラウンド領域を示す情報、
およびアンカバードバックグラウンド領域を示す情報、
並びに画素毎の混合比αを基に、混合領域に属する画素
から前景の成分、および背景の成分を分離することがで
きる。
分離部251の構成の一例を示すブロック図である。分
離部251に入力された画像は、フレームメモリ301
に供給され、混合比算出部104から供給されたカバー
ドバックグラウンド領域およびアンカバードバックグラ
ウンド領域を示す領域情報、並びに混合比αは、分離処
理ブロック302に入力される。
をフレーム単位で記憶する。フレームメモリ301は、
処理の対象がフレーム#nであるとき、フレーム#nの1つ
前のフレームであるフレーム#n-1、フレーム#n、および
フレーム#nの1つ後のフレームであるフレーム#n+1を記
憶する。
フレーム#n、およびフレーム#n+1の対応する画素を分離
処理ブロック302に供給する。
クグラウンド領域およびアンカバードバックグラウンド
領域を示す領域情報、並びに混合比αを基に、フレーム
メモリ301から供給されたフレーム#n-1、フレーム#
n、およびフレーム#n+1の対応する画素の画素値に図4
5および図46を参照して説明した演算を適用して、フ
レーム#nの混合領域に属する画素から前景の成分および
背景の成分を分離して、フレームメモリ303に供給す
る。
領域処理部311、カバード領域処理部312、合成部
313、および合成部314で構成されている。
21は、混合比αを、フレームメモリ301から供給さ
れたフレーム#n+1の画素の画素値に乗じて、スイッチ3
22に出力する。スイッチ322は、フレームメモリ3
01から供給されたフレーム#nの画素(フレーム#n+1の
画素に対応する)がアンカバードバックグラウンド領域
であるとき、閉じられ、乗算器321から供給された混
合比αを乗じた画素値を演算器322および合成部31
4に供給する。スイッチ322から出力されるフレーム
#n+1の画素の画素値に混合比αを乗じた値は、フレーム
#nの対応する画素の画素値の背景の成分に等しい。
ら供給されたフレーム#nの画素の画素値から、スイッチ
322から供給された背景の成分を減じて、前景の成分
を求める。演算器323は、アンカバードバックグラウ
ンド領域に属する、フレーム#nの画素の前景の成分を合
成部313に供給する。
は、混合比αを、フレームメモリ301から供給された
フレーム#n-1の画素の画素値に乗じて、スイッチ332
に出力する。スイッチ332は、フレームメモリ301
から供給されたフレーム#nの画素(フレーム#n-1の画素
に対応する)がカバードバックグラウンド領域であると
き、閉じられ、乗算器331から供給された混合比αを
乗じた画素値を演算器333および合成部314に供給
する。スイッチ332から出力されるフレーム#n-1の画
素の画素値に混合比αを乗じた値は、フレーム#nの対応
する画素の画素値の背景の成分に等しい。
ら供給されたフレーム#nの画素の画素値から、スイッチ
332から供給された背景の成分を減じて、前景の成分
を求める。演算器333は、カバードバックグラウンド
領域に属する、フレーム#nの画素の前景の成分を合成部
313に供給する。
23から供給された、アンカバードバックグラウンド領
域に属する画素の前景の成分、および演算器333から
供給された、カバードバックグラウンド領域に属する画
素の前景の成分を合成して、フレームメモリ303に供
給する。
322から供給された、アンカバードバックグラウンド
領域に属する画素の背景の成分、およびスイッチ332
から供給された、カバードバックグラウンド領域に属す
る画素の背景の成分を合成して、フレームメモリ303
に供給する。
ク302から供給された、フレーム#nの混合領域の画素
の前景の成分と、背景の成分とをそれぞれに記憶する。
レーム#nの混合領域の画素の前景の成分、および記憶し
ているフレーム#nの混合領域の画素の背景の成分を出力
する。
り、画素値に含まれる前景の成分と背景の成分とを完全
に分離することが可能になる。
れた、フレーム#nの混合領域の画素の前景の成分と、前
景領域に属する画素とを合成して前景成分画像を生成す
る。合成部255は、分離部251から出力された、フ
レーム#nの混合領域の画素の背景の成分と、背景領域に
属する画素とを合成して背景成分画像を生成する。
る、前景成分画像の例と、背景成分画像の例を示す図で
ある。
応する、前景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景が分離される前
において、背景の成分のみから成っていたので、画素値
が0とされる。
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、背景の成分が0とされ、前景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、背景の成分が0と
され、前景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景の成分のみから成るの
で、そのまま残される。
応する、背景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景とが分離される
前において、背景の成分のみから成っていたので、その
まま残される。
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、前景の成分が0とされ、背景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、前景の成分が0と
され、背景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景と背景とが分離される前
において、前景の成分のみから成っていたので、画素値
が0とされる。
して、前景背景分離部105による前景と背景との分離
の処理を説明する。ステップS201において、分離部
251のフレームメモリ301は、入力画像を取得し、
前景と背景との分離の対象となるフレーム#nを、その前
のフレーム#n-1およびその後のフレーム#n+1と共に記憶
する。
の分離処理ブロック302は、混合比算出部104から
供給された領域情報を取得する。ステップS203にお
いて、分離部251の分離処理ブロック302は、混合
比算出部104から供給された混合比αを取得する。
領域処理部311は、領域情報および混合比αを基に、
フレームメモリ301から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、背景の
成分を抽出する。
領域処理部311は、領域情報および混合比αを基に、
フレームメモリ301から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、前景の
成分を抽出する。
処理部312は、領域情報および混合比αを基に、フレ
ームメモリ301から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、背景の成分を抽
出する。
処理部312は、領域情報および混合比αを基に、フレ
ームメモリ301から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、前景の成分を抽
出する。
は、ステップS205の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の前景の成分と、ス
テップS207の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の前景の成分とを合成する。合
成された前景の成分は、合成部253に供給される。更
に、合成部253は、スイッチ252を介して供給され
た前景領域に属する画素と、分離部251から供給され
た前景の成分とを合成して、前景成分画像を生成する。
は、ステップS204の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の背景の成分と、ス
テップS206の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の背景の成分とを合成する。合
成された背景の成分は、合成部255に供給される。更
に、合成部255は、スイッチ254を介して供給され
た背景領域に属する画素と、分離部251から供給され
た背景の成分とを合成して、背景成分画像を生成する。
は、前景成分画像を出力する。ステップS211におい
て、合成部255は、背景成分画像を出力し、処理は終
了する。
域情報および混合比αを基に、入力画像から前景の成分
と、背景の成分とを分離し、前景の成分のみから成る前
景成分画像、および背景の成分のみから成る背景成分画
像を出力することができる。
調整について説明する。
一例を示すブロック図である。動き検出部102から供
給された動きベクトルとその位置情報、および領域特定
部103から供給された領域情報は、処理単位決定部3
51およびモデル化部352に供給される。前景背景分
離部105から供給された前景成分画像は、足し込み部
354に供給される。
その位置情報、および領域情報を基に、動きベクトルと
共に、生成した処理単位をモデル化部352に供給す
る。処理単位決定部351は、生成した処理単位を足し
込み部354に供給する。
は、図51に例を示すように、前景成分画像のカバード
バックグラウンド領域に対応する画素から始まり、アン
カバードバックグラウンド領域に対応する画素までの動
き方向に並ぶ連続する画素、またはアンカバードバック
グラウンド領域に対応する画素から始まり、カバードバ
ックグラウンド領域に対応する画素までの動き方向に並
ぶ連続する画素を示す。処理単位は、例えば、左上点
(処理単位で指定される画素であって、画像上で最も左
または最も上に位置する画素の位置)および右下点の2
つのデータから成る。
入力された処理単位を基に、モデル化を実行する。より
具体的には、例えば、モデル化部352は、処理単位に
含まれる画素の数、画素値の時間方向の仮想分割数、お
よび画素毎の前景の成分の数に対応する複数のモデルを
予め記憶しておき、処理単位、および画素値の時間方向
の仮想分割数を基に、図52に示すような、画素値と前
景の成分との対応を指定するモデルを選択するようにし
ても良い。
2でありシャッタ時間内の動き量vが5であるときにお
いては、モデル化部352は、仮想分割数を5とし、最
も左に位置する画素が1つの前景の成分を含み、左から
2番目の画素が2つの前景の成分を含み、左から3番目
の画素が3つの前景の成分を含み、左から4番目の画素
が4つの前景の成分を含み、左から5番目の画素が5つ
の前景の成分を含み、左から6番目の画素が5つの前景
の成分を含み、左から7番目の画素が5つの前景の成分
を含み、左から8番目の画素が5つの前景の成分を含
み、左から9番目の画素が4つの前景の成分を含み、左
から10番目の画素が3つの前景の成分を含み、左から
11番目の画素が2つの前景の成分を含み、左から12
番目の画素が1つの前景の成分を含み、全体として8つ
の前景の成分から成るモデルを選択する。
あるモデルから選択するのではなく、動きベクトル、お
よび処理単位が供給されたとき、動きベクトル、および
処理単位を基に、モデルを生成するようにしてもよい。
程式生成部353に供給する。
から供給されたモデルを基に、方程式を生成する。図5
2に示す前景成分画像のモデルを参照して、前景の成分
の数が8であり、処理単位に対応する画素の数が12で
あり、動き量vが5であり、仮想分割数が5であるとき
の、方程式生成部353が生成する方程式について説明
する。
対応する前景成分がF01/v乃至F08/vであるとき、F01/v
乃至F08/vと画素値C01乃至C12との関係は、式(29)
乃至式(40)で表される。
変形して方程式を生成する。方程式生成部353が生成
する方程式を、式(41)乃至式(52)に示す。 C01=1・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (41) C02=1・F01/v+1・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (42) C03=1・F01/v+1・F02/v+1・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (43) C04=1・F01/v+1・F02/v+1・F03/v+1・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (44) C05=1・F01/v+1・F02/v+1・F03/v+1・F04/v+1・F05/v +0・F06/v+0・F07/v+0・F08/v (45) C06=0・F01/v+1・F02/v+1・F03/v+1・F04/v+1・F05/v +1・F06/v+0・F07/v+0・F08/v (46) C07=0・F01/v+0・F02/v+1・F03/v+1・F04/v+1・F05/v +1・F06/v+1・F07/v+0・F08/v (47) C08=0・F01/v+0・F02/v+0・F03/v+1・F04/v+1・F05/v +1・F06/v+1・F07/v+1・F08/v (48) C09=0・F01/v+0・F02/v+0・F03/v+0・F04/v+1・F05/v +1・F06/v+1・F07/v+1・F08/v (49) C10=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +1・F06/v+1・F07/v+1・F08/v (50) C11=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+1・F07/v+1・F08/v (51) C12=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+1・F08/v (52)
として表すこともできる。
において、jは、1乃至12のいずれか1つの値を有す
る。また、iは、前景値の位置を示す。この例におい
て、iは、1乃至8のいずれか1つの値を有する。aij
は、iおよびjの値に対応して、0または1の値を有す
る。
は、式(54)のように表すことができる。
である。
とができる。
の自乗和Eを式(56)に示すように定義する。
Eに対する、変数Fkによる偏微分の値が0になればよ
い。式(57)を満たすようにFkを求める。
あるから、式(58)を導くことができる。
(59)を得る。
か1つを代入して得られる8つの式に展開する。得られ
た8つの式を、行列により1つの式により表すことがで
きる。この式を正規方程式と呼ぶ。
成部353が生成する正規方程式の例を式(60)に示
す。
知であり、Fは未知である。また、A,vは、モデル化の時
点で既知だが、Cは、足し込み動作において画素値を入
力することで既知となる。
成分を算出することにより、画素Cに含まれている誤差
を分散させることができる。
れた正規方程式を足し込み部354に供給する。
1から供給された処理単位を基に、前景成分画像に含ま
れる画素値Cを、方程式生成部353から供給された行
列の式に設定する。足し込み部354は、画素値Cを設
定した行列を演算部355に供給する。
anの消去法)などの解法に基づく処理により、動きボケ
が除去された前景成分Fi/vを算出して、動きボケが除去
された前景の画素値である、0乃至8の整数のいずれか
のiに対応するFiを算出して、図53に例を示す、動き
ボケが除去された画素値であるFiから成る、動きボケが
除去された前景成分画像を動きボケ付加部356および
選択部357に出力する。
前景成分画像において、C03乃至C10のそれぞれにF01乃
至F08のそれぞれが設定されているのは、画面に対する
前景成分画像の位置を変化させないためであり、任意の
位置に対応させることができる。
なる値の動きボケ調整量v'、例えば、動き量vの半分の
値の動きボケ調整量v'や、動き量vと無関係の値の動き
ボケ調整量v'を与えることで、動きボケの量を調整する
ことができる。例えば、図54に示すように、動きボケ
付加部356は、動きボケが除去された前景の画素値Fi
を動きボケ調整量v'で除すことにより、前景成分Fi/v'
を算出して、前景成分Fi/v'の和を算出して、動きボケ
の量が調整された画素値を生成する。例えば、動きボケ
調整量v'が3のとき、画素値C02は、(F01)/v'とさ
れ、画素値C03は、(F01+F02)/v'とされ、画素値C04
は、(F01+F02+F03)/v'とされ、画素値C05は、(F02+F
03+F04)/v'とされる。
調整した前景成分画像を選択部357に供給する。
応した選択信号を基に、演算部355から供給された動
きボケが除去された前景成分画像、および動きボケ付加
部356から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
択信号および動きボケ調整量v'を基に、動きボケの量を
調整することができる。
単位に対応する画素の数が8であり、動き量vが4であ
るとき、動きボケ調整部106は、式(61)に示す行
列の式を生成する。
単位の長さに対応した数の式を立てて、動きボケの量が
調整された画素値であるFiを算出する。同様に、例え
ば、処理単位に含まれる画素の数が100あるとき、1
00個の画素に対応する式を生成して、Fiを算出する。
成を示す図である。図50に示す場合と同様の部分には
同一の番号を付してあり、その説明は省略する。
れた動きベクトルとその位置信号をそのまま処理単位決
定部351およびモデル化部352に供給するか、また
は動きベクトルの大きさを動きボケ調整量v'に置き換え
て、その大きさが動きボケ調整量v'に置き換えられた動
きベクトルとその位置信号を処理単位決定部351およ
びモデル化部352に供給する。
調整部106の処理単位決定部351乃至演算部355
は、動き量vと動きボケ調整量v'との値に対応して、動
きボケの量を調整することができる。例えば、動き量v
が5であり、動きボケ調整量v'が3であるとき、図56の
動きボケ調整部106の処理単位決定部351乃至演算
部355は、図52に示す動き量vが5である前景成分画
像に対して、3である動きボケ調整量v'対応する図54
に示すようなモデルに従って、演算を実行し、(動き量
v)/(動きボケ調整量v')=5/3、すなわちほぼ1.7の動
き量vに応じた動きボケを含む画像を算出する。なお、
この場合、算出される画像は、3である動き量vに対応し
た動きボケを含むのではないので、動きボケ付加部35
6の結果とは動き量vと動きボケ調整量v'の関係の意味
合いが異なる点に注意が必要である。
動き量vおよび処理単位に対応して、式を生成し、生成
した式に前景成分画像の画素値を設定して、動きボケの
量が調整された前景成分画像を算出する。
て、動きボケ調整部106による前景成分画像に含まれ
る動きボケの量の調整の処理を説明する。
部106の処理単位決定部351は、動きベクトルおよ
び領域情報を基に、処理単位を生成し、生成した処理単
位をモデル化部352に供給する。
部106のモデル化部352は、動き量vおよび処理単
位に対応して、モデルの選択や生成を行う。ステップS
253において、方程式生成部353は、選択されたモ
デルを基に、正規方程式を作成する。
54は、作成された正規方程式に前景成分画像の画素値
を設定する。ステップS255において、足し込み部3
54は、処理単位に対応する全ての画素の画素値の設定
を行ったか否かを判定し、処理単位に対応する全ての画
素の画素値の設定を行っていないと判定された場合、ス
テップS254に戻り、正規方程式への画素値の設定の
処理を繰り返す。
ての画素の画素値の設定を行ったと判定された場合、ス
テップS256に進み、演算部355は、足し込み部3
54から供給された画素値が設定された正規方程式を基
に、動きボケの量を調整した前景の画素値を算出して、
処理は終了する。
きベクトルおよび領域情報を基に、動きボケを含む前景
画像から動きボケの量を調整することができる。
含まれる動きボケの量を調整することができる。
の構成は、一例であり、唯一の構成ではない。
部12は、入力画像に含まれる動きボケの量を調整する
ことができる。図4に構成を示す信号処理部12は、埋
もれた情報である混合比αを算出して、算出した混合比
αを出力することができる。
成を示すブロック図である。
号を付してあり、その説明は適宜省略する。
出部104および合成部371に供給する。
景分離部105および合成部371に供給する。
合成部371に供給する。
供給された混合比α、領域特定部103から供給された
領域情報を基に、任意の背景画像と、前景背景分離部1
05から供給された前景成分画像とを合成して、任意の
背景画像と前景成分画像とが合成された合成画像を出力
する。
ある。背景成分生成部381は、混合比αおよび任意の
背景画像を基に、背景成分画像を生成して、混合領域画
像合成部382に供給する。
成部381から供給された背景成分画像と前景成分画像
とを合成することにより、混合領域合成画像を生成し
て、生成した混合領域合成画像を画像合成部383に供
給する。
景成分画像、混合領域画像合成部382から供給された
混合領域合成画像、および任意の背景画像を合成して、
合成画像を生成して出力する。
像を、任意の背景画像に合成することができる。
を任意の背景画像と合成して得られた画像は、単に画素
を合成した画像に比較し、より自然なものと成る。
理部12の機能の更に他の構成を示すブロック図であ
る。図4に示す信号処理部12が領域特定と混合比αの
算出を順番に行うのに対して、図60に示す信号処理部
12は、領域特定と混合比αの算出を並行して行う。
には同一の番号を付してあり、その説明は省略する。
景分離部402、領域特定部103、およびオブジェク
ト抽出部101に供給される。
画素がカバードバックグラウンド領域に属すると仮定し
た場合における推定混合比、および画素がアンカバード
バックグラウンド領域に属すると仮定した場合における
推定混合比を、入力画像に含まれる画素のそれぞれに対
して算出し、算出した画素がカバードバックグラウンド
領域に属すると仮定した場合における推定混合比、およ
び画素がアンカバードバックグラウンド領域に属すると
仮定した場合における推定混合比を前景背景分離部40
2に供給する。
例を示すブロック図である。
図31に示す推定混合比処理部201と同じである。図
61に示す推定混合比処理部202は、図31に示す推
定混合比処理部202と同じである。
に、カバードバックグラウンド領域のモデルに対応する
演算により、画素毎に推定混合比を算出して、算出した
推定混合比を出力する。
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を出力する。
01から供給された、画素がカバードバックグラウンド
領域に属すると仮定した場合における推定混合比、およ
び画素がアンカバードバックグラウンド領域に属すると
仮定した場合における推定混合比、並びに領域特定部1
03から供給された領域情報を基に、入力画像から前景
成分画像を生成し、生成した前景成分画像を動きボケ調
整部106および選択部107に供給する。
一例を示すブロック図である。
の部分には同一の番号を付してあり、その説明は省略す
る。
給された領域情報を基に、混合比算出部401から供給
された、画素がカバードバックグラウンド領域に属する
と仮定した場合における推定混合比、および画素がアン
カバードバックグラウンド領域に属すると仮定した場合
における推定混合比のいずれか一方を選択して、選択し
た推定混合比を混合比αとして分離部251に供給す
る。
れた混合比αおよび領域情報を基に、混合領域に属する
画素の画素値から前景の成分および背景の成分を抽出
し、抽出した前景の成分を合成部253に供給すると共
に、背景の成分を合成部255に供給する。
構成とすることができる。
て、出力する。合成部255は、背景成分画像を合成し
て出力する。
4に示す場合と同様の構成とすることができ、領域情報
および動きベクトルを基に、前景背景分離部402から
供給された前景成分画像に含まれる動きボケの量を調整
して、動きボケの量が調整された前景成分画像を出力す
る。
者の選択に対応した選択信号を基に、前景背景分離部4
02から供給された前景成分画像、および動きボケ調整
部106から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
部12は、入力画像に含まれる前景のオブジェクトに対
応する画像に対して、その画像に含まれる動きボケの量
を調整して出力することができる。図60に構成を示す
信号処理部12は、第1の実施例と同様に、埋もれた情
報である混合比αを算出して、算出した混合比αを出力
することができる。
と合成する信号処理部12の機能の他の構成を示すブロ
ック図である。図58に示す信号処理部12が領域特定
と混合比αの算出をシリアルに行うのに対して、図63
に示す信号処理部12は、領域特定と混合比αの算出を
パラレルに行う。
分には同一の番号を付してあり、その説明は省略する。
画像を基に、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比を、入力画像に含まれる画素の
それぞれに対して算出し、算出した画素がカバードバッ
クグラウンド領域に属すると仮定した場合における推定
混合比、および画素がアンカバードバックグラウンド領
域に属すると仮定した場合における推定混合比を前景背
景分離部402および合成部431に供給する。
合比算出部401から供給された、画素がカバードバッ
クグラウンド領域に属すると仮定した場合における推定
混合比、および画素がアンカバードバックグラウンド領
域に属すると仮定した場合における推定混合比、並びに
領域特定部103から供給された領域情報を基に、入力
画像から前景成分画像を生成し、生成した前景成分画像
を合成部431に供給する。
供給された、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比、領域特定部103から供給さ
れた領域情報を基に、任意の背景画像と、前景背景分離
部402から供給された前景成分画像とを合成して、任
意の背景画像と前景成分画像とが合成された合成画像を
出力する。
ある。図59のブロック図に示す機能と同様の部分には
同一の番号を付してあり、その説明は省略する。
給された領域情報を基に、混合比算出部401から供給
された、画素がカバードバックグラウンド領域に属する
と仮定した場合における推定混合比、および画素がアン
カバードバックグラウンド領域に属すると仮定した場合
における推定混合比のいずれか一方を選択して、選択し
た推定混合比を混合比αとして背景成分生成部381に
供給する。
択部441から供給された混合比αおよび任意の背景画
像を基に、背景成分画像を生成して、混合領域画像合成
部382に供給する。
は、背景成分生成部381から供給された背景成分画像
と前景成分画像とを合成することにより、混合領域合成
画像を生成して、生成した混合領域合成画像を画像合成
部383に供給する。
景成分画像、混合領域画像合成部382から供給された
混合領域合成画像、および任意の背景画像を合成して、
合成画像を生成して出力する。
像を、任意の背景画像に合成することができる。
の成分の割合として説明したが、画素値に含まれる前景
の成分の割合としてもよい。
向は左から右として説明したが、その方向に限定されな
いことは勿論である。
を有する現実空間の画像をビデオカメラを用いて2次元
空間と時間軸情報を有する時空間への射影を行った場合
を例としたが、本発明は、この例に限らず、より多くの
第1の次元の第1の情報を、より少ない第2の次元の第
2の情報に射影した場合に、その射影によって発生する
歪みを補正したり、有意情報を抽出したり、またはより
自然に画像を合成する場合に適応することが可能であ
る。
撮像素子である、例えば、BBD(Bucket Brigade Devic
e)、CID(Charge Injection Device)、またはCPD(Ch
arge Priming Device)などのセンサでもよく、また、
検出素子がマトリックス状に配置されているセンサに限
らず、検出素子が1列に並んでいるセンサでもよい。
した記録媒体は、図3に示すように、コンピュータとは
別に、ユーザにプログラムを提供するために配布され
る、プログラムが記録されている磁気ディスク51(フ
ロッピディスクを含む)、光ディスク52(CD-ROM(Com
paut Disk-Read Only Memory),DVD(Digital VersatileD
isk)を含む)、光磁気ディスク53(MD(Mini-Dis
k)を含む)、もしくは半導体メモリ54などよりなる
パッケージメディアにより構成されるだけでなく、コン
ピュータに予め組み込まれた状態でユーザに提供され
る、プログラムが記録されているROM22や、記憶部2
8に含まれるハードディスクなどで構成される。
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
装置、請求項5に記載の信号処理方法、および請求項6
に記載の記録媒体によれば、検出データに基づいて静動
判定が行われ、静動判定の結果に基づいて、現実世界に
おける複数のオブジェクトが混ざり合ったサンプルデー
タを含む混合領域が検出されるようにしたので、複数の
オブジェクトの混ざり合いが生じている領域を検出する
ことができるようになる。
ック図である。
ある。
止している背景に対応するオブジェクトとを撮像して得
られる画像を説明する図である。
クグラウンド領域、およびアンカバードバックグラウン
ド領域を説明する図である。
よび静止している背景に対応するオブジェクトを撮像し
た画像における、隣接して1列に並んでいる画素の画素
値を時間方向に展開したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
を抽出した例を示す図である。
の対応を示す図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
チャートである。
ある。
ときの画像を説明する図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
示す図である。
示す図である。
ある。
ック図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
図である。
ク図である。
ク図である。
トである。
ャートである。
ロック図である。
像を示す図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
である。
像の例を示す図である。
チャートである。
ロック図である。
シャッタ時間に対応する期間を分割したモデル図であ
る。
シャッタ時間に対応する期間を分割したモデル図であ
る。
シャッタ時間に対応する期間を分割したモデル図であ
る。
シャッタ時間に対応する期間を分割したモデル図であ
る。
ある。
含まれる動きボケの量の調整の処理を説明するフローチ
ャートである。
ック図である。
ブロック図である。
である。
図である。
ック図である。
22 ROM, 23 RAM, 26 入力部, 27 出
力部, 28 記憶部, 29 通信部, 51 磁気
ディスク, 52 光ディスク, 53 光磁気ディス
ク, 54 半導体メモリ, 101 オブジェクト抽
出部, 102 動き検出部, 103領域特定部,
104 混合比算出部, 105 前景背景分離部,
106動きボケ調整部, 107 選択部, 121
フレームメモリ, 122−1乃至122−4 静動判
定部, 123−1乃至123−3 領域判定部,12
4 判定フラグ格納フレームメモリ, 125 合成
部, 126 判定フラグ格納フレームメモリ, 20
1 推定混合比処理部, 202 推定混合比処理部,
203 混合比決定部, 221 フレームメモリ,
222 フレームメモリ, 223 混合比演算部,
231 選択部, 232 推定混合比処理部, 2
33 推定混合比処理部, 234 選択部, 251
分離部, 252 スイッチ, 253 合成部,
254 スイッチ, 255 合成部, 301 フレ
ームメモリ, 302 分離処理ブロック, 303
フレームメモリ, 311 アンカバード領域処理部,
312 カバード領域処理部, 313 合成部,
314 合成部, 351 処理単位決定部, 352
モデル化部, 353 方程式生成部, 354 足
し込み部, 355演算部, 356 動きボケ付加
部, 357 選択部, 361 選択部,371 合
成部, 381 背景成分生成部, 382 混合領域
画像合成部, 383 画像合成部, 401 混合比
算出部, 402 前景背景分離部, 421 選択
部, 431 合成部, 441 選択部
Claims (6)
- 【請求項1】 時間積分効果を有する所定の数の検出素
子から成るセンサによって所定の期間毎に取得された所
定の数のサンプルデータから成る所定期間毎の検出デー
タを処理する信号処理装置において、 前記検出データに基づいて静動判定を行う静動判定手段
と、 静動判定の結果に基づいて、現実世界における複数のオ
ブジェクトが混ざり合ったサンプルデータを含む混合領
域を検出する検出手段とを含むことを特徴とする信号処
理装置。 - 【請求項2】 前記静動判定手段は、 判定の対象となる前記サンプルデータが、基準時刻以前
に、その値が時間の経過に対応してほぼ一定の状態か
ら、その値が時間の経過に対応して変化している状態に
移行したか否かを判定する第1の判定手段と、 判定の対象となる前記サンプルデータが、前記基準時刻
以後に、その値が時間の経過に対応して変化している状
態から、その値が時間の経過に対応してほぼ一定の状態
に移行するか否かを判定する第2の判定手段とを含み、 前記検出手段は、前記第1の判定手段が、判定の対象と
なる前記サンプルデータが、前記基準時刻以前にその値
が時間の経過に対応してほぼ一定の状態から、その値が
時間の経過に対応して変化している状態に移行したと判
定したとき、または前記第2の判定手段が、判定の対象
となる前記サンプルデータが、前記基準時刻以後にその
値が時間の経過に対応して変化している状態から、その
値が時間の経過に対応してほぼ一定の状態に移行すると
判定したとき、判定の対象となる前記サンプルデータ
を、前記混合領域に属する前記サンプルデータとして検
出することを特徴とする請求項1に記載の信号処理装
置。 - 【請求項3】 前記検出手段は、前記第1の判定手段
が、判定の対象となる前記サンプルデータが、前記基準
時刻以前にその値が時間の経過に対応してほぼ一定の状
態から、その値が時間の経過に対応して変化している状
態に移行したと判定したとき、判定の対象となる前記サ
ンプルデータを、カバードバックグラウンド領域に属す
る前記サンプルデータとして検出し、前記第2の判定手
段が、判定の対象となる前記サンプルデータが、前記基
準時刻以後にその値が時間の経過に対応して変化してい
る状態から、その値が時間の経過に対応してほぼ一定の
状態に移行すると判定したとき、判定の対象となる前記
サンプルデータを、アンカバードバックグラウンド領域
に属する前記サンプルデータとして検出することを特徴
とする請求項2に記載の信号処理装置。 - 【請求項4】 前記検出データは、画像データであるこ
とを特徴とする請求項1に記載の信号処理装置。 - 【請求項5】 時間積分効果を有する所定の数の検出素
子から成るセンサによって所定の期間毎に取得された所
定の数のサンプルデータから成る所定期間毎の検出デー
タを処理する信号処理方法において、 前記検出データに基づいて静動判定を行う静動判定ステ
ップと、 静動判定の結果に基づいて、現実世界における複数のオ
ブジェクトが混ざり合ったサンプルデータを含む混合領
域を検出する検出ステップとを含むことを特徴とする信
号処理方法。 - 【請求項6】 時間積分効果を有する所定の数の検出素
子から成るセンサによって所定の期間毎に取得された所
定の数のサンプルデータから成る所定期間毎の検出デー
タを処理する信号処理用のプログラムであって、 前記検出データに基づいて静動判定を行う静動判定ステ
ップと、 静動判定の結果に基づいて、現実世界における複数のオ
ブジェクトが混ざり合ったサンプルデータを含む混合領
域を検出する検出ステップとを含むことを特徴とするコ
ンピュータが読み取り可能なプログラムが記録されてい
る記録媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000389044A JP4507045B2 (ja) | 2000-12-21 | 2000-12-21 | 信号処理装置および方法、並びに記録媒体 |
TW89128040A TWI237196B (en) | 1999-12-28 | 2000-12-27 | Signal processing equipment and method as well as recorded medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000389044A JP4507045B2 (ja) | 2000-12-21 | 2000-12-21 | 信号処理装置および方法、並びに記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002190016A true JP2002190016A (ja) | 2002-07-05 |
JP4507045B2 JP4507045B2 (ja) | 2010-07-21 |
Family
ID=18855681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000389044A Expired - Fee Related JP4507045B2 (ja) | 1999-12-28 | 2000-12-21 | 信号処理装置および方法、並びに記録媒体 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4507045B2 (ja) |
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002190028A (ja) * | 2000-12-21 | 2002-07-05 | Sony Corp | 信号処理装置および方法、並びに記録媒体 |
JP2002230557A (ja) * | 2001-02-05 | 2002-08-16 | Sony Corp | 画像処理装置および方法、並びに記録媒体 |
JP2002230556A (ja) * | 2001-02-01 | 2002-08-16 | Sony Corp | 画像処理装置および方法、並びに記録媒体 |
JP2002245463A (ja) * | 2001-02-19 | 2002-08-30 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2002366949A (ja) * | 2001-06-05 | 2002-12-20 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2002103635A1 (fr) * | 2001-06-15 | 2002-12-27 | Sony Corporation | Dispositif et procede de traitement d'images et dispositif de prises de vue |
WO2002103636A1 (fr) * | 2001-06-15 | 2002-12-27 | Sony Corporation | Dispositif et procede de traitement d'images et dispositif de saisie d'image |
WO2003001456A1 (fr) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Appareil et procede de traitement de l'image, et appareil de prise de vue |
WO2003001455A1 (fr) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Appareil et procede de traitement d'images et appareil de prise de vues |
WO2003001454A1 (en) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Image processing apparatus and method and image pickup apparatus |
WO2003001452A1 (fr) * | 2001-06-20 | 2003-01-03 | Sony Corporation | Dispositif et procede de traitement d'images, et imageur |
WO2003001453A1 (fr) * | 2001-06-25 | 2003-01-03 | Sony Corporation | Procede et dispositif de traitement d'images et dispositif de prise de vues |
WO2003003308A1 (en) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Communication apparatus and method |
WO2003003305A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'images et appareil de capture d'images |
WO2003003304A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'image et appareil de recuperation d'image |
WO2003003306A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'images |
WO2003003307A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'images, et appareil de capture d'images |
JP2003006653A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006658A (ja) * | 2001-06-19 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006651A (ja) * | 2001-06-22 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006656A (ja) * | 2001-06-22 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016446A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003233817A (ja) * | 2002-02-08 | 2003-08-22 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030040A (ja) * | 1998-07-14 | 2000-01-28 | Canon Inc | 画像処理装置及びコンピュータ読み取り可能な記憶媒体 |
-
2000
- 2000-12-21 JP JP2000389044A patent/JP4507045B2/ja not_active Expired - Fee Related
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000030040A (ja) * | 1998-07-14 | 2000-01-28 | Canon Inc | 画像処理装置及びコンピュータ読み取り可能な記憶媒体 |
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002190028A (ja) * | 2000-12-21 | 2002-07-05 | Sony Corp | 信号処理装置および方法、並びに記録媒体 |
JP4596201B2 (ja) * | 2001-02-01 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
JP2002230556A (ja) * | 2001-02-01 | 2002-08-16 | Sony Corp | 画像処理装置および方法、並びに記録媒体 |
JP2002230557A (ja) * | 2001-02-05 | 2002-08-16 | Sony Corp | 画像処理装置および方法、並びに記録媒体 |
JP4596202B2 (ja) * | 2001-02-05 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
JP2002245463A (ja) * | 2001-02-19 | 2002-08-30 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596203B2 (ja) * | 2001-02-19 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2002366949A (ja) * | 2001-06-05 | 2002-12-20 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596209B2 (ja) * | 2001-06-05 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2002103636A1 (fr) * | 2001-06-15 | 2002-12-27 | Sony Corporation | Dispositif et procede de traitement d'images et dispositif de saisie d'image |
WO2002103635A1 (fr) * | 2001-06-15 | 2002-12-27 | Sony Corporation | Dispositif et procede de traitement d'images et dispositif de prises de vue |
US7336818B2 (en) | 2001-06-15 | 2008-02-26 | Sony Corporation | Image processing device and method, and image-taking device |
US7715643B2 (en) | 2001-06-15 | 2010-05-11 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
JP4596215B2 (ja) * | 2001-06-19 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006658A (ja) * | 2001-06-19 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006650A (ja) * | 2001-06-20 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
US7612909B2 (en) | 2001-06-20 | 2009-11-03 | Sony Corporation | Image processing apparatus and method, and image-capturing apparatus based on the difference between a signal detected by a sensor and the real world |
JP4596216B2 (ja) * | 2001-06-20 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2003001452A1 (fr) * | 2001-06-20 | 2003-01-03 | Sony Corporation | Dispositif et procede de traitement d'images, et imageur |
JP2003006651A (ja) * | 2001-06-22 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596217B2 (ja) * | 2001-06-22 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596218B2 (ja) * | 2001-06-22 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006656A (ja) * | 2001-06-22 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596219B2 (ja) * | 2001-06-25 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2003001453A1 (fr) * | 2001-06-25 | 2003-01-03 | Sony Corporation | Procede et dispositif de traitement d'images et dispositif de prise de vues |
JP2003006652A (ja) * | 2001-06-25 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2003001454A1 (en) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Image processing apparatus and method and image pickup apparatus |
JP2003006648A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006657A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596221B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596220B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596222B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006653A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
US7221778B2 (en) | 2001-06-26 | 2007-05-22 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
US7536049B2 (en) | 2001-06-26 | 2009-05-19 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
WO2003001455A1 (fr) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Appareil et procede de traitement d'images et appareil de prise de vues |
US7340106B2 (en) | 2001-06-26 | 2008-03-04 | Sony Corporation | Image processing apparatus and method, and image-capturing apparatus |
WO2003001456A1 (fr) * | 2001-06-26 | 2003-01-03 | Sony Corporation | Appareil et procede de traitement de l'image, et appareil de prise de vue |
WO2003003306A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'images |
JP2003016453A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
US7352917B2 (en) | 2001-06-27 | 2008-04-01 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
US7619655B2 (en) | 2001-06-27 | 2009-11-17 | Sony Corporation | Communication apparatus and method |
US7260260B2 (en) | 2001-06-27 | 2007-08-21 | Sony Corporation | Image processing apparatus and method |
JP4596224B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US7181080B2 (en) | 2001-06-27 | 2007-02-20 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
US8164638B2 (en) | 2001-06-27 | 2012-04-24 | Sony Corporation | Communication system and method thereof |
JP2003016456A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016446A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596226B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US7477289B2 (en) | 2001-06-27 | 2009-01-13 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
JP2003016455A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 通信装置および方法、通信システム、記録媒体、並びにプログラム |
JP4596223B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596225B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016452A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003008991A (ja) * | 2001-06-27 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
WO2003003307A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'images, et appareil de capture d'images |
WO2003003304A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'image et appareil de recuperation d'image |
WO2003003305A1 (fr) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Appareil et procede de traitement d'images et appareil de capture d'images |
JP4596227B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 通信装置および方法、通信システム、記録媒体、並びにプログラム |
WO2003003308A1 (en) * | 2001-06-27 | 2003-01-09 | Sony Corporation | Communication apparatus and method |
JP2003233817A (ja) * | 2002-02-08 | 2003-08-22 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP4507045B2 (ja) | 2010-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4491965B2 (ja) | 信号処理装置および方法、並びに記録媒体 | |
JP4507044B2 (ja) | 画像処理装置および方法、並びに記録媒体 | |
JP4507045B2 (ja) | 信号処理装置および方法、並びに記録媒体 | |
KR100725192B1 (ko) | 신호 처리 장치 및 방법, 및 기록 매체 | |
JP4479098B2 (ja) | 信号処理装置および方法、並びに記録媒体 | |
US7154541B2 (en) | Image processing device | |
JP4596222B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
US7221778B2 (en) | Image processing apparatus and method, and image pickup apparatus | |
US20040081335A1 (en) | Image processing device and method, and imager | |
JP2003006653A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
US20030174899A1 (en) | Image processing apparatus | |
US20040028287A1 (en) | Image processing device | |
JP4596201B2 (ja) | 画像処理装置および方法、並びに記録媒体 | |
US7477761B2 (en) | Image processing apparatus and method, and image-capturing apparatus | |
US20040067040A1 (en) | Image processing apparatus and method, and image pickup apparatus | |
US20040028259A1 (en) | Image processing apparatus and method, and image pickup apparatus | |
JP2003006658A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP2002366949A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP2003016446A (ja) | 画像処理装置および方法、記録媒体、並びにプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091209 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100408 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100421 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130514 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |