JP2002230544A - 画像処理装置および方法、並びに記録媒体 - Google Patents
画像処理装置および方法、並びに記録媒体Info
- Publication number
- JP2002230544A JP2002230544A JP2001028223A JP2001028223A JP2002230544A JP 2002230544 A JP2002230544 A JP 2002230544A JP 2001028223 A JP2001028223 A JP 2001028223A JP 2001028223 A JP2001028223 A JP 2001028223A JP 2002230544 A JP2002230544 A JP 2002230544A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- foreground
- area
- frame
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 228
- 238000000034 method Methods 0.000 title claims description 122
- 230000014509 gene expression Effects 0.000 claims description 49
- 230000000694 effects Effects 0.000 claims description 7
- 238000003672 processing method Methods 0.000 claims description 5
- 230000010354 integration Effects 0.000 claims description 4
- 239000000203 mixture Substances 0.000 description 367
- 238000010586 diagram Methods 0.000 description 126
- 230000015654 memory Effects 0.000 description 84
- 238000000926 separation method Methods 0.000 description 54
- 230000003068 static effect Effects 0.000 description 38
- 230000002194 synthesizing effect Effects 0.000 description 37
- 238000001514 detection method Methods 0.000 description 30
- 238000002156 mixing Methods 0.000 description 21
- 230000015572 biosynthetic process Effects 0.000 description 18
- 238000003786 synthesis reaction Methods 0.000 description 18
- 238000000605 extraction Methods 0.000 description 12
- 239000000284 extract Substances 0.000 description 10
- 238000012937 correction Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 241000370685 Arge Species 0.000 description 1
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 101100280298 Homo sapiens FAM162A gene Proteins 0.000 description 1
- 101100293260 Homo sapiens NAA15 gene Proteins 0.000 description 1
- 102100026781 N-alpha-acetyltransferase 15, NatA auxiliary subunit Human genes 0.000 description 1
- 101100219325 Phaseolus vulgaris BA13 gene Proteins 0.000 description 1
- 102100023788 Protein FAM162A Human genes 0.000 description 1
- 238000010420 art technique Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G06T5/70—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
-
- G06T5/73—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
Abstract
の画素データからなる処理単位を決定する。方程式生成
部903は、処理単位に基づいて、複数の関係式からな
る連立方程式を生成する。演算部904は、連立方程式
を解くことで、動きボケ量の調整された前景オブジェク
ト成分を生成する。
Description
び方法、並びに記録媒体に関し、特に、センサにより検
出した信号と現実世界との違いを考慮した画像処理装置
および方法、並びに記録媒体に関する。
し、センサが出力するサンプリングデータを処理する技
術が広く利用されている。
動する物体をビデオカメラで撮像して得られる画像に
は、物体の移動速度が比較的速い場合、動きボケが生じ
ることになる。
に、例えば、電子シャッタの速度を速め、露光時間を短
くするようにしている。
うにシャッタ速度を速める方法は、撮像を行う前にビデ
オカメラのシャッタ速度を調整する必要がある。従っ
て、既に得られたボケた画像を補正して、鮮明な画像を
得ることはできない課題があった。
ものであり、ボケた画像などの検出信号に含まれる動き
ボケの量を調整することができるようにすることを目的
とする。
は、画像データにおいて前景オブジェクトを構成する前
景オブジェクト成分からなる前景領域、画像データにお
いて背景オブジェクトを構成する背景オブジェクト成分
からなる背景領域、および画像データにおいて前景オブ
ジェクト成分と背景オブジェクト成分とが混合された領
域であって、前景オブジェクトの動き方向先端部側に形
成されるカバードバックグラウンド領域および前景オブ
ジェクトの動き方向後端部側に形成されるアンカバード
バックグラウンド領域とを含む混合領域とを示す領域情
報、並びに画像データに基づいて、前景領域を中心とす
るカバードバックグラウンド領域の外側端部からアンカ
バードバックグラウンド領域の外側端部までの、前景オ
ブジェクトの動き方向と一致する少なくとも1つの直線
上の画素データからなる処理単位を決定する処理単位決
定手段と、処理単位に基づいて決定される処理単位内の
画素の画素値と、混合領域における前景オブジェクト成
分を設定した分割数で分割してなる未知数である分割値
とを設定することで、複数の関係式からなる連立方程式
を生成する連立方程式生成手段と、連立方程式を解くこ
とで、動きボケ量の調整された前景オブジェクト成分を
演算する演算手段とを含むことを特徴とする。
画素に含まれる前景オブジェクト成分を、隣の画素であ
って、直線上の混合領域の端部から2番目の画素に含ま
れる前景オブジェクト成分から減算すれば、2番目の画
素に対応する1つの前景オブジェクト成分が算出される
性質を利用して、連立方程式を端部の画素に対応する関
係式から順次解くことにより、動きボケ量の調整された
前景オブジェクト成分を演算するようにすることができ
る。
の動き量に応じた分割数を基に、連立方程式を生成する
ようにすることができる。
いて前景オブジェクトを構成する前景オブジェクト成分
からなる前景領域、画像データにおいて背景オブジェク
トを構成する背景オブジェクト成分からなる背景領域、
および画像データにおいて前景オブジェクト成分と背景
オブジェクト成分とが混合された領域であって、前景オ
ブジェクトの動き方向先端部側に形成されるカバードバ
ックグラウンド領域および前景オブジェクトの動き方向
後端部側に形成されるアンカバードバックグラウンド領
域とを含む混合領域とを示す領域情報、並びに画像デー
タに基づいて、前景領域を中心とするカバードバックグ
ラウンド領域の外側端部からアンカバードバックグラウ
ンド領域の外側端部までの、前景オブジェクトの動き方
向と一致する少なくとも1つの直線上の画素データから
なる処理単位を決定する処理単位決定ステップと、処理
単位に基づいて決定される処理単位内の画素の画素値
と、混合領域における前景オブジェクト成分を設定した
分割数で分割してなる未知数である分割値とを設定する
ことで、複数の関係式からなる連立方程式を生成する連
立方程式生成ステップと、連立方程式を解くことで、動
きボケ量の調整された前景オブジェクト成分を演算する
演算ステップとを含むことを特徴とする。
目の画素に含まれる前景オブジェクト成分を、隣の画素
であって、直線上の混合領域の端部から2番目の画素に
含まれる前景オブジェクト成分から減算すれば、2番目
の画素に対応する1つの前景オブジェクト成分が算出さ
れる性質を利用して、連立方程式を端部の画素に対応す
る関係式から順次解くことにより、動きボケ量の調整さ
れた前景オブジェクト成分を演算するようにすることが
できる。
クトの動き量に応じた分割数を基に、連立方程式を生成
するようにすることができる。
ータにおいて前景オブジェクトを構成する前景オブジェ
クト成分からなる前景領域、画像データにおいて背景オ
ブジェクトを構成する背景オブジェクト成分からなる背
景領域、および画像データにおいて前景オブジェクト成
分と背景オブジェクト成分とが混合された領域であっ
て、前景オブジェクトの動き方向先端部側に形成される
カバードバックグラウンド領域および前景オブジェクト
の動き方向後端部側に形成されるアンカバードバックグ
ラウンド領域とを含む混合領域とを示す領域情報、並び
に画像データに基づいて、前景領域を中心とするカバー
ドバックグラウンド領域の外側端部からアンカバードバ
ックグラウンド領域の外側端部までの、前景オブジェク
トの動き方向と一致する少なくとも1つの直線上の画素
データからなる処理単位を決定する処理単位決定ステッ
プと、処理単位に基づいて決定される処理単位内の画素
の画素値と、混合領域における前景オブジェクト成分を
設定した分割数で分割してなる未知数である分割値とを
設定することで、複数の関係式からなる連立方程式を生
成する連立方程式生成ステップと、連立方程式を解くこ
とで、動きボケ量の調整された前景オブジェクト成分を
演算する演算ステップとを含むことを特徴とする。
目の画素に含まれる前景オブジェクト成分を、隣の画素
であって、直線上の混合領域の端部から2番目の画素に
含まれる前景オブジェクト成分から減算すれば、2番目
の画素に対応する1つの前景オブジェクト成分が算出さ
れる性質を利用して、連立方程式を端部の画素に対応す
る関係式から順次解くことにより、動きボケ量の調整さ
れた前景オブジェクト成分を演算するようにすることが
できる。
クトの動き量に応じた分割数を基に、連立方程式を生成
するようにすることができる。
記録媒体においては、画像データにおいて前景オブジェ
クトを構成する前景オブジェクト成分からなる前景領
域、画像データにおいて背景オブジェクトを構成する背
景オブジェクト成分からなる背景領域、および画像デー
タにおいて前景オブジェクト成分と背景オブジェクト成
分とが混合された領域であって、前景オブジェクトの動
き方向先端部側に形成されるカバードバックグラウンド
領域および前景オブジェクトの動き方向後端部側に形成
されるアンカバードバックグラウンド領域とを含む混合
領域とを示す領域情報、並びに画像データに基づいて、
前景領域を中心とするカバードバックグラウンド領域の
外側端部からアンカバードバックグラウンド領域の外側
端部までの、前景オブジェクトの動き方向と一致する少
なくとも1つの直線上の画素データからなる処理単位が
決定され、処理単位に基づいて決定される処理単位内の
画素の画素値と、混合領域における前景オブジェクト成
分を設定した分割数で分割してなる未知数である分割値
とを設定することで、複数の関係式からなる連立方程式
が生成され、連立方程式を解くことで、動きボケ量の調
整された前景オブジェクト成分が演算される。
る。同図に示すように、空間と時間軸を有する現実社会
1の情報である第1の信号がセンサ2により取得され、
データ化される。センサ2が取得したデータ3である検
出信号は、現実社会1の情報を、現実社会より低い次元
の時空間に射影して得られた情報である。従って、射影
して得られた情報は、射影により発生する歪みを有して
いる。換言すれば、センサ2が出力するデータ3は、現
実社会1の情報に対して歪みを有している。また、デー
タ3は、射影による歪みを有しているが、これを補正す
るための有意情報を含んでいる。
力したデータを信号処理部4において信号処理すること
で、その歪みが除去されるか、低減されるか、または調
整される。または、本発明においては、センサ2が出力
したデータを信号処理部4において信号処理すること
で、有意情報が抽出される。
の構成例を表している。センサ11は、例えば、ビデオ
カメラで構成され、現実社会の画像を撮像し、得られた
画像データを信号処理部12に出力する。信号処理部1
2は、例えば、パーソナルコンピュータなどで構成さ
れ、センサ11より入力されたデータを処理し、射影に
より発生する歪みの量を調整したり、射影により埋もれ
た有意情報の含まれる領域を特定したり、更に特定した
領域から有意情報を抽出したり、抽出した有意情報に基
づいて、入力されたデータを処理したりする。
混合比である。
れる領域を示す情報も有意情報と考えることができる。
ここでは、後述する領域情報が有意情報に相当する。
えば、後述する混合領域である。
うに構成される。CPU(Central Processing Uuit)21
は、ROM(Read Only Memory)22、または記憶部28
に記憶されているプログラムに従って各種の処理を実行
する。RAM(Random Access Memory)23には、CPU21
が実行するプログラムやデータなどが適宜記憶される。
これらのCPU21、ROM22、およびRAM23は、バス2
4により相互に接続されている。
力インタフェース25が接続されている。入出力インタ
フェース25には、キーボード、マウス、マイクロホン
などよりなる入力部26、ディスプレイ、スピーカなど
よりなる出力部27が接続されている。CPU21は、入
力部26から入力される指令に対応して各種の処理を実
行する。そして、CPU21は、処理の結果得られた画像
や音声等を出力部27に出力する。
る記憶部28は、例えばハードディスクなどで構成さ
れ、CPU21が実行するプログラムや各種のデータを記
憶する。通信部29は、インターネット、その他のネッ
トワークを介して外部の装置と通信する。この例の場
合、通信部29はセンサ11の出力を取り込む取得部と
して働く。
得し、記憶部28に記憶してもよい。
るドライブ30は、磁気ディスク51、光ディスク5
2、光磁気ディスク53、或いは半導体メモリ54など
が装着されたとき、それらを駆動し、そこに記録されて
いるプログラムやデータなどを取得する。取得されたプ
ログラムやデータは、必要に応じて記憶部28に転送さ
れ、記憶される。
ら、有意情報が埋もれている領域を特定したり、埋もれ
た有意情報を抽出する処理を行う信号処理装置について
より具体的な例を挙げて説明する。以下の例において、
CCDラインセンサまたはCCDエリアセンサがセンサに対応
し、領域情報や混合比が有意情報に対応し、混合領域に
おいて、前景と背景が混合していることや動きボケが歪
みに対応する。
である。
ェアで実現するか、ソフトウェアで実現するかは問わな
い。つまり、本明細書の各ブロック図は、ハードウェア
のブロック図と考えても、ソフトウェアによる機能ブロ
ック図と考えても良い。
る、現実世界におけるオブジェクトの動きと、センサ1
1の撮像の特性とにより生じる、動いているオブジェク
トに対応する画像に含まれている歪みをいう。
世界におけるオブジェクトに対応する画像を、画像オブ
ジェクトと称する。
オブジェクト抽出部101、領域特定部103、混合比
算出部104、および前景背景分離部105に供給され
る。
含まれる前景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像に含まれる前景のオブジェクトに対応
する画像オブジェクトの輪郭を検出することで、前景の
オブジェクトに対応する画像オブジェクトを粗く抽出す
る。
含まれる背景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像と、抽出された前景のオブジェクトに
対応する画像オブジェクトとの差から、背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出する。
は、内部に設けられている背景メモリに記憶されている
背景の画像と、入力画像との差から、前景のオブジェク
トに対応する画像オブジェクト、および背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出するように
してもよい。
ッチング法、勾配法、位相相関法、およびペルリカーシ
ブ法などの手法により、粗く抽出された前景のオブジェ
クトに対応する画像オブジェクトの動きベクトルを算出
して、算出した動きベクトルおよび動きベクトルの位置
情報(動きベクトルに対応する画素の位置を特定する情
報)を領域特定部103および動きボケ抽出部106に
供給する。
には、動き量vに対応する情報が含まれるている。
オブジェクトに画素を特定する画素位置情報と共に、画
像オブジェクト毎の動きベクトルを動きボケ調整部10
6に出力するようにしてもよい。
応する画像の位置の変化を画素間隔を単位として表す値
である。例えば、前景に対応するオブジェクトの画像
が、あるフレームを基準として次のフレームにおいて4
画素分離れた位置に表示されるように移動していると
き、前景に対応するオブジェクトの画像の動き量vは、
4とされる。
き検出部102は、動いているオブジェクトに対応した
動きボケ量の調整を行う場合に必要となる。
素のそれぞれを、前景領域、背景領域、または混合領域
のいずれかに特定し、画素毎に前景領域、背景領域、ま
たは混合領域のいずれかに属するかを示す情報(以下、
領域情報と称する)を混合比算出部104、前景背景分
離部105、および動きボケ調整部106に供給する。
領域特定部103から供給された領域情報を基に、混合
領域63に含まれる画素に対応する混合比(以下、混合
比αと称する)を算出して、算出した混合比を前景背景
分離部105に供給する。
ように、画素値における、背景のオブジェクトに対応す
る画像の成分(以下、背景の成分とも称する)の割合を
示す値である。
3から供給された領域情報、および混合比算出部104
から供給された混合比αを基に、前景のオブジェクトに
対応する画像の成分(以下、前景の成分とも称する)の
みから成る前景成分画像と、背景の成分のみから成る背
景成分画像とに入力画像を分離して、前景成分画像を動
きボケ調整部106および選択部107に供給する。な
お、分離された前景成分画像を最終的な出力とすること
も考えられる。従来の混合領域を考慮しないで前景と背
景だけを特定し、分離していた方式に比べ正確な前景と
背景を得ることが出来る。
らわかる動き量vおよび領域情報を基に、前景成分画像
に含まれる1以上の画素を示す処理単位を決定する。処
理単位は、動きボケの量の調整の処理の対象となる1群
の画素を指定するデータである。
に入力された動きボケ調整量、前景背景分離部105か
ら供給された前景成分画像、動き検出部102から供給
された動きベクトルおよびその位置情報、並びに処理単
位を基に、前景成分画像に含まれる動きボケを除去す
る、動きボケの量を減少させる、または動きボケの量を
増加させるなど前景成分画像に含まれる動きボケの量を
調整して、動きボケの量を調整した前景成分画像を選択
部107に出力する。動きベクトルとその位置情報は使
わないこともある。
応した選択信号を基に、前景背景分離部105から供給
された前景成分画像、および動きボケ調整部106から
供給された動きボケの量が調整された前景成分画像のい
ずれか一方を選択して、選択した前景成分画像を出力す
る。
理部12に供給される入力画像について説明する。
ある。センサ11は、例えば、固体撮像素子であるCCD
(Charge-Coupled Device)エリアセンサを備えたCCDビ
デオカメラなどで構成される。現実世界における、前景
に対応するオブジェクトは、現実世界における、背景に
対応するオブジェクトと、センサ11との間を、例え
ば、図中の左側から右側に水平に移動する。
トを、背景に対応するオブジェクトと共に撮像する。セ
ンサ11は、撮像した画像を1フレーム単位で出力す
る。例えば、センサ11は、1秒間に30フレームから
成る画像を出力する。センサ11の露光時間は、1/3
0秒とすることができる。露光時間は、センサ11が入
力された光の電荷への変換を開始してから、入力された
光の電荷への変換を終了するまでの期間である。以下、
露光時間をシャッタ時間とも称する。
図6中において、A乃至Iは、個々の画素を示す。画素
は、画像に対応する平面上に配置されている。1つの画
素に対応する1つの検出素子は、センサ11上に配置さ
れている。センサ11が画像を撮像するとき、1つの検
出素子は、画像を構成する1つの画素に対応する画素値
を出力する。例えば、検出素子のX方向の位置は、画像
上の横方向の位置に対応し、検出素子のY方向の位置
は、画像上の縦方向の位置に対応する。
出素子は、シャッタ時間に対応する期間、入力された光
を電荷に変換して、変換された電荷を蓄積する。電荷の
量は、入力された光の強さと、光が入力されている時間
にほぼ比例する。検出素子は、シャッタ時間に対応する
期間において、入力された光から変換された電荷を、既
に蓄積されている電荷に加えていく。すなわち、検出素
子は、シャッタ時間に対応する期間、入力される光を積
分して、積分された光に対応する量の電荷を蓄積する。
検出素子は、時間に対して、積分効果があるとも言え
る。
路により、電圧値に変換され、電圧値は更にデジタルデ
ータなどの画素値に変換されて出力される。従って、セ
ンサ11から出力される個々の画素値は、前景または背
景に対応するオブジェクトの空間的に広がりを有するあ
る部分を、シャッタ時間について積分した結果である、
1次元の空間に射影された値を有する。
の蓄積の動作により、出力信号に埋もれてしまった有意
な情報、例えば、混合比αを抽出する。信号処理部12
は、前景の画像オブジェクト自身が混ざり合うことによ
る生ずる歪みの量、例えば、動きボケの量などを調整す
る。また、信号処理部12は、前景の画像オブジェクト
と背景の画像オブジェクトとが混ざり合うことにより生
ずる歪みの量を調整する。
ェクトと、静止している背景に対応するオブジェクトと
を撮像して得られる画像を説明する図である。図8
(A)は、動きを伴う前景に対応するオブジェクトと、
静止している背景に対応するオブジェクトとを撮像して
得られる画像を示している。図8(A)に示す例におい
て、前景に対応するオブジェクトは、画面に対して水平
に左から右に動いている。
つのラインに対応する画素値を時間方向に展開したモデ
ル図である。図8(B)の横方向は、図8(A)の空間
方向Xに対応している。
ち、背景のオブジェクトに対応する画像の成分のみか
ら、その画素値が構成されている。前景領域の画素は、
前景の成分、すなわち、前景のオブジェクトに対応する
画像の成分のみから、その画素値が構成されている。
景の成分から、その画素値が構成されている。混合領域
は、背景の成分、および前景の成分から、その画素値が
構成されているので、歪み領域ともいえる。混合領域
は、更に、カバードバックグラウンド領域およびアンカ
バードバックグラウンド領域に分類される。
域に対して、前景のオブジェクトの進行方向の前端部に
対応する位置の混合領域であり、時間の経過に対応して
背景成分が前景に覆い隠される領域をいう。
ンド領域は、前景領域に対して、前景のオブジェクトの
進行方向の後端部に対応する位置の混合領域であり、時
間の経過に対応して背景成分が現れる領域をいう。
カバードバックグラウンド領域若しくはアンカバードバ
ックグラウンド領域を含む画像が、領域特定部103、
混合比算出部104、および前景背景分離部105に入
力画像として入力される。
域、混合領域、カバードバックグラウンド領域、および
アンカバードバックグラウンド領域を説明する図であ
る。図8に示す画像に対応する場合、背景領域は、静止
部分であり、前景領域は、動き部分であり、混合領域の
カバードバックグラウンド領域は、背景から前景に変化
する部分であり、混合領域のアンカバードバックグラウ
ンド領域は、前景から背景に変化する部分である。
ブジェクトおよび静止している背景に対応するオブジェ
クトを撮像した画像における、隣接して1列に並んでい
る画素の画素値を時間方向に展開したモデル図である。
例えば、隣接して1列に並んでいる画素として、画面の
1つのライン上に並んでいる画素を選択することができ
る。
している前景のオブジェクトに対応する画素の画素値で
ある。図10に示すB01乃至B04の画素値は、静止してい
る背景のオブジェクトに対応する画素の画素値である。
に向かって時間が経過する。図10中の矩形の上辺の位
置は、センサ11が入力された光の電荷への変換を開始
する時刻に対応し、図10中の矩形の下辺の位置は、セ
ンサ11が入力された光の電荷への変換を終了する時刻
に対応する。すなわち、図10中の矩形の上辺から下辺
までの距離は、シャッタ時間に対応する。
隔とが同一である場合を例に説明する。
空間方向Xに対応する。より具体的には、図10に示す
例において、図10中の”F01”と記載された矩形の左
辺から”B04”と記載された矩形の右辺までの距離は、
画素のピッチの8倍、すなわち、連続している8つの画
素の間隔に対応する。
クトが静止している場合、シャッタ時間に対応する期間
において、センサ11に入力される光は変化しない。
つ以上の同じ長さの期間に分割する。例えば、仮想分割
数を4とすると、図10に示すモデル図は、図11に示
すモデルとして表すことができる。仮想分割数は、前景
に対応するオブジェクトのシャッタ時間内での動き量v
などに対応して設定される。例えば、4である動き量v
に対応して、仮想分割数は、4とされ、シャッタ時間に
対応する期間は4つに分割される。
初の、分割された期間に対応する。図中の上から2番目
の行は、シャッタが開いて2番目の、分割された期間に
対応する。図中の上から3番目の行は、シャッタが開い
て3番目の、分割された期間に対応する。図中の上から
4番目の行は、シャッタが開いて4番目の、分割された
期間に対応する。
ッタ時間をシャッタ時間/vとも称する。
るとき、センサ11に入力される光は変化しないので、
前景の成分F01/vは、画素値F01を仮想分割数で除した値
に等しい。同様に、前景に対応するオブジェクトが静止
しているとき、前景の成分F02/vは、画素値F02を仮想分
割数で除した値に等しく、前景の成分F03/vは、画素値F
03を仮想分割数で除した値に等しく、前景の成分F04/v
は、画素値F04を仮想分割数で除した値に等しい。
るとき、センサ11に入力される光は変化しないので、
背景の成分B01/vは、画素値B01を仮想分割数で除した値
に等しい。同様に、背景に対応するオブジェクトが静止
しているとき、背景の成分B02/vは、画素値B02を仮想分
割数で除した値に等しく、B03/vは、画素値B03を仮想分
割数で除した値に等しく、B04/vは、画素値B04を仮想分
割数で除した値に等しい。
静止している場合、シャッタ時間に対応する期間におい
て、センサ11に入力される前景のオブジェクトに対応
する光が変化しないので、シャッタが開いて最初の、シ
ャッタ時間/vに対応する前景の成分F01/vと、シャッタ
が開いて2番目の、シャッタ時間/vに対応する前景の成
分F01/vと、シャッタが開いて3番目の、シャッタ時間/
vに対応する前景の成分F01/vと、シャッタが開いて4番
目の、シャッタ時間/vに対応する前景の成分F01/vと
は、同じ値となる。F02/v乃至F04/vも、F01/vと同様の
関係を有する。
る場合、シャッタ時間に対応する期間において、センサ
11に入力される背景のオブジェクトに対応する光は変
化しないので、シャッタが開いて最初の、シャッタ時間
/vに対応する背景の成分B01/vと、シャッタが開いて2
番目の、シャッタ時間/vに対応する背景の成分B01/v
と、シャッタが開いて3番目の、シャッタ時間/vに対応
する背景の成分B01/vと、シャッタが開いて4番目の、
シャッタ時間/vに対応する背景の成分B01/vとは、同じ
値となる。B02/v乃至B04/vも、同様の関係を有する。
し、背景に対応するオブジェクトが静止している場合に
ついて説明する。
図中の右側に向かって移動する場合の、カバードバック
グラウンド領域を含む、1つのライン上の画素の画素値
を時間方向に展開したモデル図である。図12におい
て、前景の動き量vは、4である。1フレームは短い時
間なので、前景に対応するオブジェクトが剛体であり、
等速で移動していると仮定することができる。図12に
おいて、前景に対応するオブジェクトの画像は、あるフ
レームを基準として次のフレームにおいて4画素分右側
に表示されるように移動する。
ら4番目の画素は、前景領域に属する。図12におい
て、左から5番目乃至左から7番目の画素は、カバード
バックグラウンド領域である混合領域に属する。図12
において、最も右側の画素は、背景領域に属する。
と共に背景に対応するオブジェクトを覆い隠すように移
動しているので、カバードバックグラウンド領域に属す
る画素の画素値に含まれる成分は、シャッタ時間に対応
する期間のある時点で、背景の成分から、前景の成分に
替わる。
Mは、式(1)で表される。
ャッタ時間/vに対応する背景の成分を含み、3つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、1/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、3つのシャッタ時間/vに対
応する背景の成分を含み、1つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、3/4である。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から4番目の画素の、シャッタが開い
て最初の、シャッタ時間/vの前景の成分F07/vは、図1
2中の左から5番目の画素の、シャッタが開いて2番目
のシャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F07/vは、図12中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から3番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F06/vは、図12
中の左から4番目の画素の、シャッタが開いて2番目の
シャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F06/vは、図12中の左から5番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から6番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から2番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F05/vは、図12
中の左から3番目の画素の、シャッタが開いて2番目の
シャッタ時間/vのに対応する前景の成分に等しい。同様
に、前景の成分F05/vは、図12中の左から4番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から5番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の最も左側の画素の、シャッタが開いて最
初のシャッタ時間/vの前景の成分F04/vは、図12中の
左から2番目の画素の、シャッタが開いて2番目のシャ
ッタ時間/vに対応する前景の成分に等しい。同様に、前
景の成分F04/vは、図12中の左から3番目の画素の、
シャッタが開いて3番目のシャッタ時間/vに対応する前
景の成分と、図12中の左から4番目の画素の、シャッ
タが開いて4番目のシャッタ時間/vに対応する前景の成
分とに、それぞれ等しい。
領域は、このように動きボケを含むので、歪み領域とも
言える。
動する場合の、アンカバードバックグラウンド領域を含
む、1つのライン上の画素の画素値を時間方向に展開し
たモデル図である。図13において、前景の動き量v
は、4である。1フレームは短い時間なので、前景に対
応するオブジェクトが剛体であり、等速で移動している
と仮定することができる。図13において、前景に対応
するオブジェクトの画像は、あるフレームを基準として
次のフレームにおいて4画素分右側に移動する。
ら4番目の画素は、背景領域に属する。図13におい
て、左から5番目乃至左から7番目の画素は、アンカバ
ードバックグラウンドである混合領域に属する。図13
において、最も右側の画素は、前景領域に属する。
前景に対応するオブジェクトが時間の経過と共に背景に
対応するオブジェクトの前から取り除かれるように移動
しているので、アンカバードバックグラウンド領域に属
する画素の画素値に含まれる成分は、シャッタ時間に対
応する期間のある時点で、前景の成分から、背景の成分
に替わる。
M'は、式(2)で表される。
ャッタ時間/vに対応する背景の成分を含み、1つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、3/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、1つのシャッタ時間/vに対
応する背景の成分を含み、3つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、1/4である。
と、画素値Mは、式(3)で表される。
り、Fi/vは、前景の成分である。
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図13中の左から5番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F01/
vは、図13中の左から6番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。同様に、F01/vは、図13中の左から7番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図13中の左から8番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、等速で動くと仮定でき、かつ、仮想分割数が4であ
るので、例えば、図13中の左から6番目の画素の、シ
ャッタが開いて最初の、シャッタ時間/vの前景の成分F0
2/vは、図13中の左から7番目の画素の、シャッタが
開いて2番目のシャッタ時間/vに対応する前景の成分に
等しい。同様に、前景の成分F02/vは、図13中の左か
ら8番目の画素の、シャッタが開いて3番目のシャッタ
時間/vに対応する前景の成分に等しい。
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図13中の左から7番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F03/
vは、図13中の左から8番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。
割数は、4であるとして説明したが、仮想分割数は、動
き量vに対応する。動き量vは、一般に、前景に対応する
オブジェクトの移動速度に対応する。例えば、前景に対
応するオブジェクトが、あるフレームを基準として次の
フレームにおいて4画素分右側に表示されるように移動
しているとき、動き量vは、4とされる。動き量vに対応
し、仮想分割数は、4とされる。同様に、例えば、前景
に対応するオブジェクトが、あるフレームを基準として
次のフレームにおいて6画素分左側に表示されるように
移動しているとき、動き量vは、6とされ、仮想分割数
は、6とされる。
前景領域、背景領域、カバードバックグラウンド領域若
しくはアンカバードバックグラウンド領域から成る混合
領域と、分割されたシャッタ時間に対応する前景の成分
および背景の成分との関係を示す。
ているオブジェクトに対応する前景を含む画像から、前
景領域、背景領域、および混合領域の画素を抽出した例
を示す。図14に示す例において、前景に対応するオブ
ジェクトは、画面に対して水平に移動している。
ムであり、フレーム#n+2は、フレーム#n+1の次のフレー
ムである。
ら抽出した、前景領域、背景領域、および混合領域の画
素を抽出して、動き量vを4として、抽出された画素の
画素値を時間方向に展開したモデルを図15に示す。
ジェクトが移動するので、シャッタ時間/vの期間に対応
する、4つの異なる前景の成分から構成される。例え
ば、図15に示す前景領域の画素のうち最も左側に位置
する画素は、F01/v,F02/v,F03/v、およびF04/vから構成
される。すなわち、前景領域の画素は、動きボケを含ん
でいる。
るので、シャッタ時間に対応する期間において、センサ
11に入力される背景に対応する光は変化しない。この
場合、背景領域の画素値は、動きボケを含まない。
ンカバードバックグラウンド領域から成る混合領域に属
する画素の画素値は、前景の成分と、背景の成分とから
構成される。
ているとき、複数のフレームにおける、隣接して1列に
並んでいる画素であって、フレーム上で同一の位置の画
素の画素値を時間方向に展開したモデルについて説明す
る。例えば、オブジェクトに対応する画像が画面に対し
て水平に動いているとき、隣接して1列に並んでいる画
素として、画面の1つのライン上に並んでいる画素を選
択することができる。
ブジェクトを撮像した画像の3つのフレームの、隣接し
て1列に並んでいる画素であって、フレーム上で同一の
位置の画素の画素値を時間方向に展開したモデル図であ
る。フレーム#nは、フレーム#n-1の次のフレームであ
り、フレーム#n+1は、フレーム#nの次のフレームであ
る。他のフレームも同様に称する。
している背景のオブジェクトに対応する画素の画素値で
ある。背景に対応するオブジェクトが静止しているの
で、フレーム#n-1乃至フレームn+1において、対応する
画素の画素値は、変化しない。例えば、フレーム#n-1に
おけるB05の画素値を有する画素の位置に対応する、フ
レーム#nにおける画素、およびフレーム#n+1における画
素は、それぞれ、B05の画素値を有する。
ブジェクトと共に図中の右側に移動する前景に対応する
オブジェクトを撮像した画像の3つのフレームの、隣接
して1列に並んでいる画素であって、フレーム上で同一
の位置の画素の画素値を時間方向に展開したモデル図で
ある。図17に示すモデルは、カバードバックグラウン
ド領域を含む。
クトが、剛体であり、等速で移動すると仮定でき、前景
の画像が次のフレームにおいて4画素右側に表示される
ように移動するので、前景の動き量vは、4であり、仮
想分割数は、4である。
側の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F12/vとなり、図17中の左から2番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F12/vとなる。図17中の左から3番目
の画素の、シャッタが開いて3番目のシャッタ時間/vの
前景の成分、および図17中の左から4番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分は、F11/vとなり、図17中の左から2番目の画素
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分も、F11/vとなる。図17中の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F11/vとなる。
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分は、F10/vとなり、図17中の左から2番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分も、F10/vとなる。図17中のフレーム#n-1の最も
左側の画素の、シャッタが開いて4番目のシャッタ時間
/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#n-1の左から2番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B01/vとなる。図17中のフレーム#n-1の左から
3番目の画素の、シャッタが開いて最初および2番目の
シャッタ時間/vの背景の成分は、B02/vとなる。図17
中のフレーム#n-1の左から4番目の画素の、シャッタが
開いて最初乃至3番目のシャッタ時間/vの背景の成分
は、B03/vとなる。
側の画素は、前景領域に属し、左側から2番目乃至4番
目の画素は、カバードバックグラウンド領域である混合
領域に属する。
画素乃至12番目の画素は、背景領域に属し、その画素
値は、それぞれ、B04乃至B11となる。
素乃至5番目の画素は、前景領域に属する。フレーム#n
の前景領域における、シャッタ時間/vの前景の成分は、
F05/v乃至F12/vのいずれかである。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図17中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F12/vとなり、図17中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F12/vとなる。図17中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図17中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F12/vとな
る。
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分は、F11/vとなり、図17中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分も、F11/vとなる。図17中の左から7番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分は、F11/vとなる。
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分は、F10/vとなり、図17中の左から6番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分も、F10/vとなる。図17中のフレーム#nの左か
ら5番目の画素の、シャッタが開いて4番目のシャッタ
時間/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#nの左から6番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B05/vとなる。図17中のフレーム#nの左から7
番目の画素の、シャッタが開いて最初および2番目のシ
ャッタ時間/vの背景の成分は、B06/vとなる。図17中
のフレーム#nの左から8番目の画素の、シャッタが開い
て最初乃至3番目の、シャッタ時間/vの背景の成分は、
B07/vとなる。
6番目乃至8番目の画素は、カバードバックグラウンド
領域である混合領域に属する。
素乃至12番目の画素は、背景領域に属し、画素値は、
それぞれ、B08乃至B11となる。
画素乃至9番目の画素は、前景領域に属する。フレーム
#n+1の前景領域における、シャッタ時間/vの前景の成分
は、F01/v乃至F12/vのいずれかである。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図17中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F12/vとなり、図17中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F12/vとなる。図17中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図17中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
画素の、シャッタが開いて2番目のシャッタ時間/vの期
間の前景の成分は、F11/vとなり、図17中の左から1
0番目の画素の、シャッタが開いて3番目のシャッタ時
間/vの前景の成分も、F11/vとなる。図17中の左から
11番目の画素の、シャッタが開いて4番目の、シャッ
タ時間/vの前景の成分は、F11/vとなる。
画素の、シャッタが開いて3番目の、シャッタ時間/vの
前景の成分は、F10/vとなり、図17中の左から10番
目の画素の、シャッタが開いて4番目のシャッタ時間/v
の前景の成分も、F10/vとなる。図17中のフレーム#n+
1の左から9番目の画素の、シャッタが開いて4番目の
シャッタ時間/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#n+1の左から10番目の画
素の、シャッタが開いて最初のシャッタ時間/vの背景の
成分は、B09/vとなる。図17中のフレーム#n+1の左か
ら11番目の画素の、シャッタが開いて最初および2番
目のシャッタ時間/vの背景の成分は、B10/vとなる。図
17中のフレーム#n+1の左から12番目の画素の、シャ
ッタが開いて最初乃至3番目の、シャッタ時間/vの背景
の成分は、B11/vとなる。
ら10番目乃至12番目の画素は、カバードバックグラ
ウンド領域である混合領域に対応する。
成分を抽出した画像のモデル図である。
右側に移動するオブジェクトに対応する前景を撮像した
画像の3つのフレームの、隣接して1列に並んでいる画
素であって、フレーム上で同一の位置の画素の画素値を
時間方向に展開したモデル図である。図19において、
アンカバードバックグラウンド領域が含まれている。
クトは、剛体であり、かつ等速で移動していると仮定で
きる。前景に対応するオブジェクトが、次のフレームに
おいて4画素分右側に表示されるように移動しているの
で、動き量vは、4である。
側の画素の、シャッタが開いて最初の、シャッタ時間/v
の前景の成分は、F13/vとなり、図19中の左から2番
目の画素の、シャッタが開いて2番目のシャッタ時間/v
の前景の成分も、F13/vとなる。図19中の左から3番
目の画素の、シャッタが開いて3番目のシャッタ時間/v
の前景の成分、および図19中の左から4番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F13/vとなる。
画素の、シャッタが開いて最初のシャッタ時間/vの前景
の成分は、F14/vとなり、図19中の左から3番目の画
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分も、F14/vとなる。図19中の左から3番目の画
素の、シャッタが開いて最初の、シャッタ時間/vの前景
の成分は、F15/vとなる。
るので、図19中のフレーム#n-1の最も左側の画素の、
シャッタが開いて2番目乃至4番目の、シャッタ時間/v
の背景の成分は、B25/vとなる。図19中のフレーム#n-
1の左から2番目の画素の、シャッタが開いて3番目お
よび4番目の、シャッタ時間/vの背景の成分は、B26/v
となる。図19中のフレーム#n-1の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの背景の
成分は、B27/vとなる。
側の画素乃至3番目の画素は、アンカバードバックグラ
ウンド領域である混合領域に属する。
画素乃至12番目の画素は、前景領域に属する。フレー
ムの前景の成分は、F13/v乃至F24/vのいずれかである。
至左から4番目の画素は、背景領域に属し、画素値は、
それぞれ、B25乃至B28となる。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図19中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F13/vとなり、図19中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F13/vとなる。図19中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図19中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F13/vとな
る。
素の、シャッタが開いて最初のシャッタ時間/vの前景の
成分は、F14/vとなり、図19中の左から7番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F14/vとなる。図19中の左から8番目の画素
の、シャッタが開いて最初のシャッタ時間/vの前景の成
分は、F15/vとなる。
るので、図19中のフレーム#nの左から5番目の画素
の、シャッタが開いて2番目乃至4番目のシャッタ時間
/vの背景の成分は、B29/vとなる。図19中のフレーム#
nの左から6番目の画素の、シャッタが開いて3番目お
よび4番目のシャッタ時間/vの背景の成分は、B30/vと
なる。図19中のフレーム#nの左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの背景の成分
は、B31/vとなる。
番目の画素乃至7番目の画素は、アンカバードバックグ
ラウンド領域である混合領域に属する。
素乃至12番目の画素は、前景領域に属する。フレーム
#nの前景領域における、シャッタ時間/vの期間に対応す
る値は、F13/v乃至F20/vのいずれかである。
乃至左から8番目の画素は、背景領域に属し、画素値
は、それぞれ、B25乃至B32となる。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図19中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F13/vとなり、図19中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F13/vとなる。図19中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図19中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F13/vとなる。
の画素の、シャッタが開いて最初のシャッタ時間/vの前
景の成分は、F14/vとなり、図19中の左から11番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F14/vとなる。図19中の左から12番
目の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F15/vとなる。
るので、図19中のフレーム#n+1の左から9番目の画素
の、シャッタが開いて2番目乃至4番目の、シャッタ時
間/vの背景の成分は、B33/vとなる。図19中のフレー
ム#n+1の左から10番目の画素の、シャッタが開いて3
番目および4番目のシャッタ時間/vの背景の成分は、B3
4/vとなる。図19中のフレーム#n+1の左から11番目
の画素の、シャッタが開いて4番目のシャッタ時間/vの
背景の成分は、B35/vとなる。
9番目の画素乃至11番目の画素は、アンカバードバッ
クグラウンド領域である混合領域に属する。
の画素は、前景領域に属する。フレーム#n+1の前景領域
における、シャッタ時間/vの前景の成分は、F13/v乃至F
16/vのいずれかである。
成分を抽出した画像のモデル図である。
フレームの画素値を用いて、前景領域、背景領域、カバ
ードバックグラウンド領域、またはアンカバードバック
グラウンド領域に属することを示すフラグを画素毎に対
応付けて、領域情報として、混合比算出部104および
動きボケ調整部106に供給する。
画素値、および領域情報を基に、混合領域に含まれる画
素について画素毎に混合比αを算出し、算出した混合比
αを前景背景分離部105に供給する。
の画素値、領域情報、および混合比αを基に、前景の成
分のみからなる前景成分画像を抽出して、動きボケ調整
部106に供給する。
105から供給された前景成分画像、動き検出部102
から供給された動きベクトル、および領域特定部103
から供給された領域情報を基に、前景成分画像に含まれ
る動きボケの量を調整して、動きボケの量を調整した前
景成分画像を出力する。
処理部12による動きボケの量の調整の処理を説明す
る。ステップS11において、領域特定部103は、入
力画像を基に、入力画像の画素毎に前景領域、背景領
域、カバードバックグラウンド領域、またはアンカバー
ドバックグラウンド領域のいずれかに属するかを示す領
域情報を生成する領域特定の処理を実行する。領域特定
の処理の詳細は、後述する。領域特定部103は、生成
した領域情報を混合比算出部104に供給する。
部103は、入力画像を基に、入力画像の画素毎に前景
領域、背景領域、または混合領域(カバードバックグラ
ウンド領域、またはアンカバードバックグラウンド領域
の区別をしない)のいずれかに属するかを示す領域情報
を生成するようにしてもよい。この場合において、前景
背景分離部105および動きボケ調整部106は、動き
ベクトルの方向を基に、混合領域がカバードバックグラ
ウンド領域であるか、またはアンカバードバックグラウ
ンド領域であるかを判定する。例えば、動きベクトルの
方向に対応して、前景領域、混合領域、および背景領域
と順に並んでいるとき、その混合領域は、カバードバッ
クグラウンド領域と判定され、動きベクトルの方向に対
応して、背景領域、混合領域、および前景領域と順に並
んでいるとき、その混合領域は、アンカバードバックグ
ラウンド領域と判定される。
04は、入力画像および領域情報を基に、混合領域に含
まれる画素毎に、混合比αを算出する。混合比算出の処
理の詳細は、後述する。混合比算出部104は、算出し
た混合比αを前景背景分離部105に供給する。
105は、領域情報、および混合比αを基に、入力画像
から前景の成分を抽出して、前景成分画像として動きボ
ケ調整部106に供給する。
106は、動きベクトルおよび領域情報を基に、動き方
向に並ぶ連続した画素であって、アンカバードバックグ
ラウンド領域、前景領域、およびカバードバックグラウ
ンド領域のいずれかに属するものの画像上の位置を示す
処理単位を生成し、処理単位に対応する前景成分に含ま
れる動きボケの量を調整する。動きボケの量の調整の処
理の詳細については、後述する。
は、画面全体について処理を終了したか否かを判定し、
画面全体について処理を終了していないと判定された場
合、ステップS14に進み、処理単位に対応する前景の
成分を対象とした動きボケの量の調整の処理を繰り返
す。
て処理を終了したと判定された場合、処理は終了する。
景を分離して、前景に含まれる動きボケの量を調整する
ことができる。すなわち、信号処理部12は、前景の画
素の画素値であるサンプルデータに含まれる動きボケの
量を調整することができる。
04、前景背景分離部105、および動きボケ調整部1
06のそれぞれの構成について説明する。
を示すブロック図である。図22に構成を示す領域特定
部103は、動きベクトルを利用しない。フレームメモ
リ201は、入力された画像をフレーム単位で記憶す
る。フレームメモリ201は、処理の対象がフレーム#n
であるとき、フレーム#nの2つ前のフレームであるフレ
ーム#n-2、フレーム#nの1つ前のフレームであるフレー
ム#n-1、フレーム#n、フレーム#nの1つ後のフレームで
あるフレーム#n+1、およびフレーム#nの2つ後のフレー
ムであるフレーム#n+2を記憶する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+2の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n+1の画素の画素値をフレームメモリ2
01から読み出して、読み出した画素値の差の絶対値を
算出する。静動判定部202−1は、フレーム#n+2の画
素値とフレーム#n+1の画素値との差の絶対値が、予め設
定している閾値Thより大きいか否かを判定し、差の絶対
値が閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部203−1に供給する。フレーム#n
+2の画素の画素値とフレーム#n+1の画素の画素値との差
の絶対値が閾値Th以下であると判定された場合、静動判
定部202−1は、静止を示す静動判定を領域判定部2
03−1に供給する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+1の画素の画素値、およびフレーム#nの
対象となる画素の画素値をフレームメモリ201から読
み出して、画素値の差の絶対値を算出する。静動判定部
202−2は、フレーム#n+1の画素値とフレーム#nの画
素値との差の絶対値が、予め設定している閾値Thより大
きいか否かを判定し、画素値の差の絶対値が、閾値Thよ
り大きいと判定された場合、動きを示す静動判定を領域
判定部203−1および領域判定部203−2に供給す
る。フレーム#n+1の画素の画素値とフレーム#nの画素の
画素値との差の絶対値が、閾値Th以下であると判定され
た場合、静動判定部202−2は、静止を示す静動判定
を領域判定部203−1および領域判定部203−2に
供給する。
域特定の対象である画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-1の画素の画素値をフレームメモリ2
01から読み出して、画素値の差の絶対値を算出する。
静動判定部202−3は、フレーム#nの画素値とフレー
ム#n-1の画素値との差の絶対値が、予め設定している閾
値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部203−2および領域判定部203
−3に供給する。フレーム#nの画素の画素値とフレーム
#n-1の画素の画素値との差の絶対値が、閾値Th以下であ
ると判定された場合、静動判定部202−3は、静止を
示す静動判定を領域判定部203−2および領域判定部
203−3に供給する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n-1の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-2の画素の画素値をフレームメモリ2
01から読み出して、画素値の差の絶対値を算出する。
静動判定部202−4は、フレーム#n-1の画素値とフレ
ーム#n-2の画素値との差の絶対値が、予め設定している
閾値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部203−3に供給する。フレーム#n
-1の画素の画素値とフレーム#n-2の画素の画素値との差
の絶対値が、閾値Th以下であると判定された場合、静動
判定部202−4は、静止を示す静動判定を領域判定部
203−3に供給する。
2−1から供給された静動判定が静止を示し、かつ、静
動判定部202−2から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がアンカバードバックグラウンド領域に属すると
判定し、領域の判定される画素に対応するアンカバード
バックグラウンド領域判定フラグに、アンカバードバッ
クグラウンド領域に属することを示す”1”を設定す
る。
2−1から供給された静動判定が動きを示すか、また
は、静動判定部202−2から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素がアンカバードバックグラウンド領域に属
しないと判定し、領域の判定される画素に対応するアン
カバードバックグラウンド領域判定フラグに、アンカバ
ードバックグラウンド領域に属しないことを示す”0”
を設定する。
1”または”0”が設定されたアンカバードバックグラ
ウンド領域判定フラグを判定フラグ格納フレームメモリ
204に供給する。
2−2から供給された静動判定が静止を示し、かつ、静
動判定部202−3から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が静止領域に属すると判定し、領域の判定される
画素に対応する静止領域判定フラグに、静止領域に属す
ることを示す”1”を設定する。
2−2から供給された静動判定が動きを示すか、また
は、静動判定部202−3から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素が静止領域に属しないと判定し、領域の判
定される画素に対応する静止領域判定フラグに、静止領
域に属しないことを示す”0”を設定する。
1”または”0”が設定された静止領域判定フラグを判
定フラグ格納フレームメモリ204に供給する。
2−2から供給された静動判定が動きを示し、かつ、静
動判定部202−3から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が動き領域に属すると判定し、領域の判定される
画素に対応する動き領域判定フラグに、動き領域に属す
ることを示す”1”を設定する。
2−2から供給された静動判定が静止を示すか、また
は、静動判定部202−3から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素が動き領域に属しないと判定し、領域の判
定される画素に対応する動き領域判定フラグに、動き領
域に属しないことを示す”0”を設定する。
1”または”0”が設定された動き領域判定フラグを判
定フラグ格納フレームメモリ204に供給する。
2−3から供給された静動判定が動きを示し、かつ、静
動判定部202−4から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がカバードバックグラウンド領域に属すると判定
し、領域の判定される画素に対応するカバードバックグ
ラウンド領域判定フラグに、カバードバックグラウンド
領域に属することを示す”1”を設定する。
2−3から供給された静動判定が静止を示すか、また
は、静動判定部202−4から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素がカバードバックグラウンド領域に属しな
いと判定し、領域の判定される画素に対応するカバード
バックグラウンド領域判定フラグに、カバードバックグ
ラウンド領域に属しないことを示す”0”を設定する。
1”または”0”が設定されたカバードバックグラウン
ド領域判定フラグを判定フラグ格納フレームメモリ20
4に供給する。
領域判定部203−1から供給されたアンカバードバッ
クグラウンド領域判定フラグ、領域判定部203−2か
ら供給された静止領域判定フラグ、領域判定部203−
2から供給された動き領域判定フラグ、および領域判定
部203−3から供給されたカバードバックグラウンド
領域判定フラグをそれぞれ記憶する。
記憶しているアンカバードバックグラウンド領域判定フ
ラグ、静止領域判定フラグ、動き領域判定フラグ、およ
びカバードバックグラウンド領域判定フラグを合成部2
05に供給する。合成部205は、判定フラグ格納フレ
ームメモリ204から供給された、アンカバードバック
グラウンド領域判定フラグ、静止領域判定フラグ、動き
領域判定フラグ、およびカバードバックグラウンド領域
判定フラグを基に、各画素が、アンカバードバックグラ
ウンド領域、静止領域、動き領域、およびカバードバッ
クグラウンド領域のいずれかに属することを示す領域情
報を生成し、判定フラグ格納フレームメモリ206に供
給する。
合成部205から供給された領域情報を記憶すると共
に、記憶している領域情報を出力する。
3乃至図27を参照して説明する。
るとき、オブジェクトに対応する画像の画面上の位置
は、フレーム毎に変化する。図23に示すように、フレ
ーム#nにおいて、Yn(x,y)で示される位置に位置するオ
ブジェクトに対応する画像は、次のフレームであるフレ
ーム#n+1において、Yn+1(x,y)に位置する。
方向に隣接して1列に並ぶ画素の画素値を時間方向に展
開したモデル図を図24に示す。例えば、前景のオブジ
ェクトに対応する画像の動き方向が画面に対して水平で
あるとき、図24におけるモデル図は、1つのライン上
の隣接する画素の画素値を時間方向に展開したモデルを
示す。
ンは、フレーム#n+1におけるラインと同一である。
乃至13番目の画素に含まれているオブジェクトに対応
する前景の成分は、フレーム#n+1において、左から6番
目乃至17番目の画素に含まれる。
ウンド領域に属する画素は、左から11番目乃至13番
目の画素であり、アンカバードバックグラウンド領域に
属する画素は、左から2番目乃至4番目の画素である。
フレーム#n+1において、カバードバックグラウンド領域
に属する画素は、左から15番目乃至17番目の画素で
あり、アンカバードバックグラウンド領域に属する画素
は、左から6番目乃至8番目の画素である。
まれる前景の成分が、フレーム#n+1において4画素移動
しているので、動き量vは、4である。仮想分割数は、
動き量vに対応し、4である。
る混合領域に属する画素の画素値の変化について説明す
る。
量vが4であるフレーム#nにおいて、カバードバックグ
ラウンド領域に属する画素は、左から15番目乃至17
番目の画素である。動き量vが4であるので、1つ前の
フレーム#n-1において、左から15番目乃至17番目の
画素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ前のフレーム#n-2において、左から15番
目乃至17番目の画素は、背景の成分のみを含み、背景
領域に属する。
止しているので、フレーム#n-1の左から15番目の画素
の画素値は、フレーム#n-2の左から15番目の画素の画
素値から変化しない。同様に、フレーム#n-1の左から1
6番目の画素の画素値は、フレーム#n-2の左から16番
目の画素の画素値から変化せず、フレーム#n-1の左から
17番目の画素の画素値は、フレーム#n-2の左から17
番目の画素の画素値から変化しない。
ックグラウンド領域に属する画素に対応する、フレーム
#n-1およびフレーム#n-2の画素は、背景の成分のみから
成り、画素値が変化しないので、その差の絶対値は、ほ
ぼ0の値となる。従って、フレーム#nにおける混合領域
に属する画素に対応する、フレーム#n-1およびフレーム
#n-2の画素に対する静動判定は、静動判定部202−4
により、静止と判定される。
ンド領域に属する画素は、前景の成分を含むので、フレ
ーム#n-1における背景の成分のみから成る場合と、画素
値が異なる。従って、フレーム#nにおける混合領域に属
する画素、および対応するフレーム#n-1の画素に対する
静動判定は、静動判定部202−3により、動きと判定
される。
動判定部202−3から動きを示す静動判定の結果が供
給され、静動判定部202−4から静止を示す静動判定
の結果が供給されたとき、対応する画素がカバードバッ
クグラウンド領域に属すると判定する。
量vが4であるフレーム#nにおいて、アンカバードバッ
クグラウンド領域に含まれる画素は、左から2番目乃至
4番目の画素である。動き量vが4であるので、1つ後
のフレーム#n+1において、左から2番目乃至4番目の画
素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ後のフレーム#n+2において、左から2番目
乃至4番目の画素は、背景の成分のみを含み、背景領域
に属する。
止しているので、フレーム#n+2の左から2番目の画素の
画素値は、フレーム#n+1の左から2番目の画素の画素値
から変化しない。同様に、フレーム#n+2の左から3番目
の画素の画素値は、フレーム#n+1の左から3番目の画素
の画素値から変化せず、フレーム#n+2の左から4番目の
画素の画素値は、フレーム#n+1の左から4番目の画素の
画素値から変化しない。
ドバックグラウンド領域に属する画素に対応する、フレ
ーム#n+1およびフレーム#n+2の画素は、背景の成分のみ
から成り、画素値が変化しないので、その差の絶対値
は、ほぼ0の値となる。従って、フレーム#nにおける混
合領域に属する画素に対応する、フレーム#n+1およびフ
レーム#n+2の画素に対する静動判定は、静動判定部20
2−1により、静止と判定される。
ラウンド領域に属する画素は、前景の成分を含むので、
フレーム#n+1における背景の成分のみから成る場合と、
画素値が異なる。従って、フレーム#nにおける混合領域
に属する画素、および対応するフレーム#n+1の画素に対
する静動判定は、静動判定部202−2により、動きと
判定される。
動判定部202−2から動きを示す静動判定の結果が供
給され、静動判定部202−1から静止を示す静動判定
の結果が供給されたとき、対応する画素がアンカバード
バックグラウンド領域に属すると判定する。
103の判定条件を示す図である。フレーム#nの判定の
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n-2の画素と、フレーム#nの判定の対象となる画素
の画像上の位置と同一の位置にあるフレーム#n-1の画素
とが静止と判定され、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n-1の画
素と、フレーム#nの画素とが動きと判定されたとき、領
域特定部103は、フレーム#nの判定の対象となる画素
がカバードバックグラウンド領域に属すると判定する。
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが静止と判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが静止と判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が静止領域に属すると判定する。
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが動きと判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが動きと判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が動き領域に属すると判定する。
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n+1の画素とが動きと判定され、フレーム#nの判定
の対象となる画素の画像上の位置と同一の位置にあるフ
レーム#n+1の画素と、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n+2の画
素とが静止と判定されたとき、領域特定部103は、フ
レーム#nの判定の対象となる画素がアンカバードバック
グラウンド領域に属すると判定する。
の結果の例を示す図である。図28(A)において、カ
バードバックグラウンド領域に属すると判定された画素
は、白で表示されている。図28(B)において、アン
カバードバックグラウンド領域に属すると判定された画
素は、白で表示されている。
と判定された画素は、白で表示されている。図28
(D)において、静止領域に属すると判定された画素
は、白で表示されている。
206が出力する領域情報の内、混合領域を示す領域情
報を画像として示す図である。図29において、カバー
ドバックグラウンド領域またはアンカバードバックグラ
ウンド領域に属すると判定された画素、すなわち混合領
域に属すると判定された画素は、白で表示されている。
判定フラグ格納フレームメモリ206が出力する混合領
域を示す領域情報は、混合領域、および前景領域内のテ
クスチャの無い部分に囲まれたテクスチャの有る部分を
示す。
て、領域特定部103の領域特定の処理を説明する。ス
テップS201において、フレームメモリ201は、判
定の対象となるフレーム#nを含むフレーム#n-2乃至フレ
ーム#n+2の画像を取得する。
02−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、静止か否かを判定し、静止と判定された
場合、ステップS203に進み、静動判定部202−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、静止か否かを判定する。
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、ステップS204に進み、領域判定部20
3−2は、領域の判定される画素に対応する静止領域判
定フラグに、静止領域に属することを示す”1”を設定
する。領域判定部203−2は、静止領域判定フラグを
判定フラグ格納フレームメモリ204に供給し、手続き
は、ステップS205に進む。
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、または、ステップS203において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、動
きと判定された場合、フレーム#nの画素が静止領域には
属さないので、ステップS204の処理はスキップさ
れ、手続きは、ステップS205に進む。
02−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS206に進み、静動判定部202−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、動きか否かを判定する。
画素とフレーム#n+1の同一位置の画素とで、動きと判定
された場合、ステップS207に進み、領域判定部20
3−2は、領域の判定される画素に対応する動き領域判
定フラグに、動き領域に属することを示す”1”を設定
する。領域判定部203−2は、動き領域判定フラグを
判定フラグ格納フレームメモリ204に供給し、手続き
は、ステップS208に進む。
の画素とフレーム#nの同一位置の画素とで、静止と判定
された場合、または、ステップS206において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、静
止と判定された場合、フレーム#nの画素が動き領域には
属さないので、ステップS207の処理はスキップさ
れ、手続きは、ステップS208に進む。
02−4は、フレーム#n-2の画素とフレーム#n-1の同一
位置の画素とで、静止か否かを判定し、静止と判定され
た場合、ステップS209に進み、静動判定部202−
3は、フレーム#n-1の画素とフレーム#nの同一位置の画
素とで、動きか否かを判定する。
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、ステップS210に進み、領域判定部20
3−3は、領域の判定される画素に対応するカバードバ
ックグラウンド領域判定フラグに、カバードバックグラ
ウンド領域に属することを示す”1”を設定する。領域
判定部203−3は、カバードバックグラウンド領域判
定フラグを判定フラグ格納フレームメモリ204に供給
し、手続きは、ステップS211に進む。
の画素とフレーム#n-1の同一位置の画素とで、動きと判
定された場合、または、ステップS209において、フ
レーム#n-1の画素とフレーム#nの同一位置の画素とで、
静止と判定された場合、フレーム#nの画素がカバードバ
ックグラウンド領域には属さないので、ステップS21
0の処理はスキップされ、手続きは、ステップS211
に進む。
02−2は、フレーム#nの画素とフレーム#n+1の同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS212に進み、静動判定部202−1
は、フレーム#n+1の画素とフレーム#n+2の同一位置の画
素とで、静止か否かを判定する。
の画素とフレーム#n+2の同一位置の画素とで、静止と判
定された場合、ステップS213に進み、領域判定部2
03−1は、領域の判定される画素に対応するアンカバ
ードバックグラウンド領域判定フラグに、アンカバード
バックグラウンド領域に属することを示す”1”を設定
する。領域判定部203−1は、アンカバードバックグ
ラウンド領域判定フラグを判定フラグ格納フレームメモ
リ204に供給し、手続きは、ステップS214に進
む。
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、または、ステップS212において、フレ
ーム#n+1の画素とフレーム#n+2の同一位置の画素とで、
動きと判定された場合、フレーム#nの画素がアンカバー
ドバックグラウンド領域には属さないので、ステップS
213の処理はスキップされ、手続きは、ステップS2
14に進む。
03は、フレーム#nの全ての画素について領域を特定し
たか否かを判定し、フレーム#nの全ての画素について領
域を特定していないと判定された場合、手続きは、ステ
ップS202に戻り、他の画素について、領域特定の処
理を繰り返す。
全ての画素について領域を特定したと判定された場合、
ステップS215に進み、合成部205は、判定フラグ
格納フレームメモリ204に記憶されているアンカバー
ドバックグラウンド領域判定フラグ、およびカバードバ
ックグラウンド領域判定フラグを基に、混合領域を示す
領域情報を生成し、更に、各画素が、アンカバードバッ
クグラウンド領域、静止領域、動き領域、およびカバー
ドバックグラウンド領域のいずれかに属することを示す
領域情報を生成し、生成した領域情報を判定フラグ格納
フレームメモリ206に設定し、処理は終了する。
ムに含まれている画素のそれぞれについて、動き領域、
静止領域、アンカバードバックグラウンド領域、または
カバードバックグラウンド領域に属することを示す領域
情報を生成することができる。
バックグラウンド領域およびカバードバックグラウンド
領域に対応する領域情報に論理和を適用することによ
り、混合領域に対応する領域情報を生成して、フレーム
に含まれている画素のそれぞれについて、動き領域、静
止領域、または混合領域に属することを示すフラグから
成る領域情報を生成するようにしてもよい。
を有す場合、領域特定部103は、より正確に動き領域
を特定することができる。
情報を前景領域を示す領域情報として、また、静止領域
を示す領域情報を背景領域を示す領域情報として出力す
ることができる。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した領域を特定する処理を適用
することができる。例えば、背景領域に対応する画像が
一様に動いているとき、領域特定部103は、この動き
に対応して画像全体をシフトさせ、背景に対応するオブ
ジェクトが静止している場合と同様に処理する。また、
背景領域に対応する画像が局所毎に異なる動きを含んで
いるとき、領域特定部103は、動きに対応した画素を
選択して、上述の処理を実行する。
例を示すブロック図である。図31に示す領域特定部1
03は、動きベクトルを使用しない。背景画像生成部3
01は、入力画像に対応する背景画像を生成し、生成し
た背景画像を2値オブジェクト画像抽出部302に供給
する。背景画像生成部301は、例えば、入力画像に含
まれる背景のオブジェクトに対応する画像オブジェクト
を抽出して、背景画像を生成する。
方向に隣接して1列に並ぶ画素の画素値を時間方向に展
開したモデル図の例を図32に示す。例えば、前景のオ
ブジェクトに対応する画像の動き方向が画面に対して水
平であるとき、図32におけるモデル図は、1つのライ
ン上の隣接する画素の画素値を時間方向に展開したモデ
ルを示す。
ンは、フレーム#n-1およびフレーム#n+1におけるライン
と同一である。
乃至17番目の画素に含まれているオブジェクトに対応
する前景の成分は、フレーム#n-1において、左から2番
目乃至13番目の画素に含まれ、フレーム#n+1におい
て、左から10番目乃至21番目の画素に含まれる。
ラウンド領域に属する画素は、左から11番目乃至13
番目の画素であり、アンカバードバックグラウンド領域
に属する画素は、左から2番目乃至4番目の画素であ
る。フレーム#nにおいて、カバードバックグラウンド領
域に属する画素は、左から15番目乃至17番目の画素
であり、アンカバードバックグラウンド領域に属する画
素は、左から6番目乃至8番目の画素である。フレーム
#n+1において、カバードバックグラウンド領域に属する
画素は、左から19番目乃至21番目の画素であり、ア
ンカバードバックグラウンド領域に属する画素は、左か
ら10番目乃至12番目の画素である。
画素は、左から1番目の画素、および左から14番目乃
至21番目の画素である。フレーム#nにおいて、背景領
域に属する画素は、左から1番目乃至5番目の画素、お
よび左から18番目乃至21番目の画素である。フレー
ム#n+1において、背景領域に属する画素は、左から1番
目乃至9番目の画素である。
の例に対応する背景画像の例を図33に示す。背景画像
は、背景のオブジェクトに対応する画素から構成され、
前景のオブジェクトに対応する画像の成分を含まない。
景画像および入力画像の相関を基に、2値オブジェクト
画像を生成し、生成した2値オブジェクト画像を時間変
化検出部303に供給する。
02の構成を示すブロック図である。相関値演算部32
1は、背景画像生成部301から供給された背景画像お
よび入力画像の相関を演算し、相関値を生成して、生成
した相関値をしきい値処理部322に供給する。
(A)に示すように、X4を中心とした3×3の背景画
像の中のブロックと、図35(B)に示すように、背景
画像の中のブロックに対応するY4を中心とした3×3
の入力画像の中のブロックに、式(4)を適用して、Y
4に対応する相関値を算出する。
に対応して算出された相関値をしきい値処理部322に
供給する。
36(A)に示すように、X4を中心とした3×3の背
景画像の中のブロックと、図36(B)に示すように、
背景画像の中のブロックに対応するY4を中心とした3
×3の入力画像の中のブロックに、式(7)を適用し
て、Y4に対応する差分絶対値和を算出するようにして
もよい。
れた差分絶対値和を相関値として、しきい値処理部32
2に供給する。
値としきい値th0とを比較して、相関値がしきい値th0以
下である場合、2値オブジェクト画像の画素値に1を設
定し、相関値がしきい値th0より大きい場合、2値オブ
ジェクト画像の画素値に0を設定して、0または1が画素
値に設定された2値オブジェクト画像を出力する。しき
い値処理部322は、しきい値th0を予め記憶するよう
にしてもよく、または、外部から入力されたしきい値th
0を使用するようにしてもよい。
に対応する2値オブジェクト画像の例を示す図である。
2値オブジェクト画像において、背景画像と相関の高い
画素には、画素値に0が設定される。
示すブロック図である。フレームメモリ341は、フレ
ーム#nの画素について領域を判定するとき、2値オブジ
ェクト画像抽出部302から供給された、フレーム#n-
1、フレーム#n、およびフレーム#n+1の2値オブジェク
ト画像を記憶する。
1に記憶されているフレーム#n-1、フレーム#n、および
フレーム#n+1の2値オブジェクト画像を基に、フレーム
#nの各画素について領域を判定して、領域情報を生成
し、生成した領域情報を出力する。
する図である。フレーム#nの2値オブジェクト画像の注
目している画素が0であるとき、領域判定部342は、
フレーム#nの注目している画素が背景領域に属すると判
定する。
している画素が1であり、フレーム#n-1の2値オブジェ
クト画像の対応する画素が1であり、フレーム#n+1の2
値オブジェクト画像の対応する画素が1であるとき、領
域判定部342は、フレーム#nの注目している画素が前
景領域に属すると判定する。
している画素が1であり、フレーム#n-1の2値オブジェ
クト画像の対応する画素が0であるとき、領域判定部3
42は、フレーム#nの注目している画素がカバードバッ
クグラウンド領域に属すると判定する。
している画素が1であり、フレーム#n+1の2値オブジェ
クト画像の対応する画素が0であるとき、領域判定部3
42は、フレーム#nの注目している画素がアンカバード
バックグラウンド領域に属すると判定する。
に対応する2値オブジェクト画像について、時間変化検
出部303の判定した例を示す図である。時間変化検出
部303は、2値オブジェクト画像のフレーム#nの対応
する画素が0なので、フレーム#nの左から1番目乃至5
番目の画素を背景領域に属すると判定する。
ト画像のフレーム#nの画素が1であり、フレーム#n+1の
対応する画素が0なので、左から6番目乃至9番目の画
素をアンカバードバックグラウンド領域に属すると判定
する。
ト画像のフレーム#nの画素が1であり、フレーム#n-1の
対応する画素が1であり、フレーム#n+1の対応する画素
が1なので、左から10番目乃至13番目の画素を前景
領域に属すると判定する。
ト画像のフレーム#nの画素が1であり、フレーム#n-1の
対応する画素が0なので、左から14番目乃至17番目
の画素をカバードバックグラウンド領域に属すると判定
する。
ト画像のフレーム#nの対応する画素が0なので、左から
18番目乃至21番目の画素を背景領域に属すると判定
する。
て、領域判定部103の領域特定の処理を説明する。ス
テップS301において、領域判定部103の背景画像
生成部301は、入力画像を基に、例えば、入力画像に
含まれる背景のオブジェクトに対応する画像オブジェク
トを抽出して背景画像を生成し、生成した背景画像を2
値オブジェクト画像抽出部302に供給する。
クト画像抽出部302は、例えば、図35を参照して説
明した演算により、入力画像と背景画像生成部301か
ら供給された背景画像との相関値を演算する。ステップ
S303において、2値オブジェクト画像抽出部302
は、例えば、相関値としきい値th0とを比較することに
より、相関値およびしきい値th0から2値オブジェクト
画像を演算する。
部303は、領域判定の処理を実行して、処理は終了す
る。
ップS304に対応する領域判定の処理の詳細を説明す
る。ステップS321において、時間変化検出部303
の領域判定部342は、フレームメモリ341に記憶さ
れているフレーム#nにおいて、注目する画素が0である
か否かを判定し、フレーム#nにおいて、注目する画素が
0であると判定された場合、ステップS322に進み、
フレーム#nの注目する画素が背景領域に属すると設定し
て、処理は終了する。
おいて、注目する画素が1であると判定された場合、ス
テップS323に進み、時間変化検出部303の領域判
定部342は、フレームメモリ341に記憶されている
フレーム#nにおいて、注目する画素が1であり、かつ、
フレーム#n-1において、対応する画素が0であるか否か
を判定し、フレーム#nにおいて、注目する画素が1であ
り、かつ、フレーム#n-1において、対応する画素が0で
あると判定された場合、ステップS324に進み、フレ
ーム#nの注目する画素がカバードバックグラウンド領域
に属すると設定して、処理は終了する。
おいて、注目する画素が0であるか、または、フレーム#
n-1において、対応する画素が1であると判定された場
合、ステップS325に進み、時間変化検出部303の
領域判定部342は、フレームメモリ341に記憶され
ているフレーム#nにおいて、注目する画素が1であり、
かつ、フレーム#n+1において、対応する画素が0である
か否かを判定し、フレーム#nにおいて、注目する画素が
1であり、かつ、フレーム#n+1において、対応する画素
が0であると判定された場合、ステップS326に進
み、フレーム#nの注目する画素がアンカバードバックグ
ラウンド領域に属すると設定して、処理は終了する。
おいて、注目する画素が0であるか、または、フレーム#
n+1において、対応する画素が1であると判定された場
合、ステップS327に進み、時間変化検出部303の
領域判定部342は、フレーム#nの注目する画素を前景
領域と設定して、処理は終了する。
れた画像と対応する背景画像との相関値を基に、入力画
像の画素が前景領域、背景領域、カバードバックグラウ
ンド領域、およびアンカバードバックグラウンド領域の
いずれかに属するかを特定して、特定した結果に対応す
る領域情報を生成することができる。
示すブロック図である。図43に示す領域特定部103
は、動き検出部102から供給される動きベクトルとそ
の位置情報を使用する。図31に示す場合と同様の部分
には、同一の番号を付してあり、その説明は省略する。
画像抽出部302から供給された、N個のフレームの2
値オブジェクト画像を基に、ロバスト化された2値オブ
ジェクト画像を生成して、時間変化検出部303に出力
する。
明するブロック図である。動き補償部381は、動き検
出部102から供給された動きベクトルとその位置情報
を基に、N個のフレームの2値オブジェクト画像の動き
を補償して、動きが補償された2値オブジェクト画像を
スイッチ382に出力する。
補償部381の動き補償について説明する。例えば、フ
レーム#nの領域を判定するとき、図45に例を示すフレ
ーム#n-1、フレーム#n、およびフレーム#n+1の2値オブ
ジェクト画像が入力された場合、動き補償部381は、
動き検出部102から供給された動きベクトルを基に、
図46に例を示すように、フレーム#n-1の2値オブジェ
クト画像、およびフレーム#n+1の2値オブジェクト画像
を動き補償して、動き補償された2値オブジェクト画像
をスイッチ382に供給する。
き補償された2値オブジェクト画像をフレームメモリ3
83−1に出力し、2番目のフレームの動き補償された
2値オブジェクト画像をフレームメモリ383−2に出
力する。同様に、スイッチ382は、3番目乃至N−1
番目のフレームの動き補償された2値オブジェクト画像
のそれぞれをフレームメモリ383−3乃至フレームメ
モリ383−(N−1)のいずれかに出力し、N番目の
フレームの動き補償された2値オブジェクト画像をフレ
ームメモリ383−Nに出力する。
レームの動き補償された2値オブジェクト画像を記憶
し、記憶されている2値オブジェクト画像を重み付け部
384−1に出力する。フレームメモリ383−2は、
2番目のフレームの動き補償された2値オブジェクト画
像を記憶し、記憶されている2値オブジェクト画像を重
み付け部384−2に出力する。
レームメモリ383−(N−1)のそれぞれは、3番目
のフレーム乃至N−1番目のフレームの動き補償された
2値オブジェクト画像のいずれかを記憶し、記憶されて
いる2値オブジェクト画像を重み付け部384−3乃至
重み付け部384−(N−1)のいずれかに出力する。
フレームメモリ383−Nは、N番目のフレームの動き
補償された2値オブジェクト画像を記憶し、記憶されて
いる2値オブジェクト画像を重み付け部384−Nに出
力する。
383−1から供給された1番目のフレームの動き補償
された2値オブジェクト画像の画素値に予め定めた重み
w1を乗じて、積算部385に供給する。重み付け部38
4−2は、フレームメモリ383−2から供給された2
番目のフレームの動き補償された2値オブジェクト画像
の画素値に予め定めた重みw2を乗じて、積算部385に
供給する。
け部384−(N−1)のそれぞれは、フレームメモリ
383−3乃至フレームメモリ383−(N−1)のい
ずれかから供給された3番目乃至N−1番目のいずれか
のフレームの動き補償された2値オブジェクト画像の画
素値に予め定めた重みw3乃至重みw(N-1)のいずれかを乗
じて、積算部385に供給する。重み付け部384−N
は、フレームメモリ383−Nから供給されたN番目の
フレームの動き補償された2値オブジェクト画像の画素
値に予め定めた重みwNを乗じて、積算部385に供給す
る。
の動き補償され、それぞれ重みw1乃至wNのいずれかが乗
じられた、2値オブジェクト画像の対応する画素値を積
算して、積算された画素値を予め定めたしきい値th0と
比較することにより2値オブジェクト画像を生成する。
の2値オブジェクト画像からロバスト化された2値オブ
ジェト画像を生成して、時間変化検出部303に供給す
るので、図43に構成を示す領域特定部103は、入力
画像にノイズが含まれていても、図31に示す場合に比
較して、より正確に領域を特定することができる。
3の領域特定の処理について、図47のフローチャート
を参照して説明する。ステップS341乃至ステップS
343の処理は、図41のフローチャートで説明したス
テップS301乃至ステップS303とそれぞれ同様な
のでその説明は省略する。
361は、ロバスト化の処理を実行する。
部303は、領域判定の処理を実行して、処理は終了す
る。ステップS345の処理の詳細は、図42のフロー
チャートを参照して説明した処理と同様なのでその説明
は省略する。
て、図47のステップS344の処理に対応する、ロバ
スト化の処理の詳細について説明する。ステップS36
1において、動き補償部381は、動き検出部102か
ら供給される動きベクトルとその位置情報を基に、入力
された2値オブジェクト画像の動き補償の処理を実行す
る。ステップS362において、フレームメモリ383
−1乃至383−Nのいずれかは、スイッチ382を介
して供給された動き補償された2値オブジェクト画像を
記憶する。
361は、N個の2値オブジェクト画像が記憶されたか
否かを判定し、N個の2値オブジェクト画像が記憶され
ていないと判定された場合、ステップS361に戻り、
2値オブジェクト画像の動き補償の処理および2値オブ
ジェクト画像の記憶の処理を繰り返す。
ブジェクト画像が記憶されたと判定された場合、ステッ
プS364に進み、重み付け部384−1乃至384−
Nのそれぞれは、N個の2値オブジェクト画像のそれぞ
れにw1乃至wNのいずれかの重みを乗じて、重み付けす
る。
は、重み付けされたN個の2値オブジェクト画像を積算
する。
は、例えば、予め定められたしきい値th1との比較など
により、積算された画像から2値オブジェクト画像を生
成して、処理は終了する。
部103は、ロバスト化された2値オブジェクト画像を
基に、領域情報を生成することができる。
ームに含まれている画素のそれぞれについて、動き領
域、静止領域、アンカバードバックグラウンド領域、ま
たはカバードバックグラウンド領域に属することを示す
領域情報を生成することができる。
例を示すブロック図である。推定混合比処理部401
は、入力画像を基に、カバードバックグラウンド領域の
モデルに対応する演算により、画素毎に推定混合比を算
出して、算出した推定混合比を混合比決定部403に供
給する。
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を混合比決定部403に供給する。
間内に等速で動いていると仮定できるので、混合領域に
属する画素の混合比αは、以下の性質を有する。すなわ
ち、混合比αは、画素の位置の変化に対応して、直線的
に変化する。画素の位置の変化を1次元とすれば、混合
比αの変化は、直線で表現することができ、画素の位置
の変化を2次元とすれば、混合比αの変化は、平面で表
現することができる。
に対応するオブジェクトが剛体であり、等速で移動して
いると仮定が成り立つ。
ッタ時間内での動き量vの逆比となる。
想的な混合比αの混合領域における傾きlは、動き量vの
逆数として表すことができる。
は、背景領域において、1の値を有し、前景領域におい
て、0の値を有し、混合領域において、0を越え1未満
の値を有する。
7番目の画素の画素値C06は、フレーム#n-1の左から7
番目の画素の画素値P06を用いて、式(8)で表すこと
ができる。
の画素の画素値Mと、画素値P06を背景領域の画素の画素
値Bと表現する。すなわち、混合領域の画素の画素値Mお
よび背景領域の画素の画素値Bは、それぞれ、式(9)
および式(10)のように表現することができる。
る。動き量vが4なので、フレーム#nの左から7番目の
画素の混合比αは、0.5となる。
画素値Cを混合領域の画素値と見なし、フレーム#nの前
のフレーム#n-1の画素値Pを背景領域の画素値と見なす
ことで、混合比αを示す式(3)は、式(11)のよう
に書き換えられる。
成分の和ΣiFi/vである。式(11)に含まれる変数
は、混合比αおよび前景の成分の和fの2つである。
域における、動き量vが4であり、時間方向の仮想分割
数が4である、画素値を時間方向に展開したモデルを図
52に示す。
て、上述したカバードバックグラウンド領域における表
現と同様に、注目しているフレーム#nの画素値Cを混合
領域の画素値と見なし、フレーム#nの後のフレーム#n+1
の画素値Nを背景領域の画素値と見なすことで、混合比
αを示す式(3)は、式(12)のように表現すること
ができる。
として説明したが、背景のオブジェクトが動いている場
合においても、背景の動き量vに対応させた位置の画素
の画素値を利用することにより、式(8)乃至式(1
2)を適用することができる。例えば、図51におい
て、背景に対応するオブジェクトの動き量vが2であ
り、仮想分割数が2であるとき、背景に対応するオブジ
ェクトが図中の右側に動いているとき、式(10)にお
ける背景領域の画素の画素値Bは、画素値P04とされる。
2つの変数を含むので、そのままでは混合比αを求める
ことができない。ここで、画像は一般的に空間的に相関
が強いので近接する画素同士でほぼ同じ画素値となる。
ので、前景の成分の和fを前または後のフレームから導
き出せるように式を変形して、混合比αを求める。
の画素値Mcは、式(13)で表すことができる。
る。式(13)の右辺第2項は、後のフレーム#n+1の画
素値を利用して、式(14)のように表すこととする。
て、式(15)が成立するとする。
うに置き換えることができる。
ができる。
域に関係する前景の成分が等しいと仮定すると、混合領
域の全ての画素について、内分比の関係から式(18)
が成立する。
1)は、式(19)に示すように展開することができ
る。
式(12)は、式(20)に示すように展開することが
できる。
C,N、およびPは、既知の画素値なので、式(19)お
よび式(20)に含まれる変数は、混合比αのみであ
る。式(19)および式(20)における、C,N、およ
びPの関係を図54に示す。Cは、混合比αを算出する、
フレーム#nの注目している画素の画素値である。Nは、
注目している画素と空間方向の位置が対応する、フレー
ム#n+1の画素の画素値である。Pは、注目している画素
と空間方向の位置が対応する、フレーム#n-1の画素の画
素値である。
れぞれに1つの変数が含まれることとなるので、3つの
フレームの画素の画素値を利用して、混合比αを算出す
ることができる。式(19)および式(20)を解くこ
とにより、正しい混合比αが算出されるための条件は、
混合領域に関係する前景の成分が等しい、すなわち、前
景のオブジェクトが静止しているとき撮像された前景の
画像オブジェクトにおいて、前景のオブジェクトの動き
の方向に対応する、画像オブジェクトの境界に位置する
画素であって、動き量vの2倍の数の連続している画素
の画素値が、一定であることである。
領域に属する画素の混合比αは、式(21)により算出
され、アンカバードバックグラウンド領域に属する画素
の混合比αは、式(22)により算出される。
を示すブロック図である。フレームメモリ421は、入
力された画像をフレーム単位で記憶し、入力画像として
入力されているフレームから1つ後のフレームをフレー
ムメモリ422および混合比演算部423に供給する。
をフレーム単位で記憶し、フレームメモリ421から供
給されているフレームから1つ後のフレームを混合比演
算部423に供給する。
合比演算部423に入力されているとき、フレームメモ
リ421は、フレーム#nを混合比演算部423に供給
し、フレームメモリ422は、フレーム#n-1を混合比演
算部423に供給する。
演算により、フレーム#nの注目している画素の画素値
C、注目している画素と空間的位置が対応する、フレー
ム#n+1の画素の画素値N、および注目している画素と空
間的位置が対応する、フレーム#n-1の画素の画素値Pを
基に、注目している画素の推定混合比を算出して、算出
した推定混合比を出力する。例えば、背景が静止してい
るとき、混合比演算部423は、フレーム#nの注目して
いる画素の画素値C、注目している画素とフレーム内の
位置が同じ、フレーム#n+1の画素の画素値N、および注
目している画素とフレーム内の位置が同じ、フレーム#n
-1の画素の画素値Pを基に、注目している画素の推定混
合比を算出して、算出した推定混合比を出力する。
入力画像を基に、推定混合比を算出して、混合比決定部
403に供給することができる。
合比処理部401が式(21)に示す演算により、注目
している画素の推定混合比を算出するのに対して、式
(22)に示す演算により、注目している画素の推定混
合比を算出する部分が異なることを除き、推定混合比処
理部401と同様なので、その説明は省略する。
算出された推定混合比の例を示す図である。図56に示
す推定混合比は、等速で動いているオブジェクトに対応
する前景の動き量vが11である場合の結果を、1ライ
ンに対して示すものである。
に示すように、ほぼ直線的に変化していることがわか
る。
域特定部103から供給された、混合比αの算出の対象
となる画素が、前景領域、背景領域、カバードバックグ
ラウンド領域、またはアンカバードバックグラウンド領
域のいずれかに属するかを示す領域情報を基に、混合比
αを設定する。混合比決定部403は、対象となる画素
が前景領域に属する場合、0を混合比αに設定し、対象
となる画素が背景領域に属する場合、1を混合比αに設
定し、対象となる画素がカバードバックグラウンド領域
に属する場合、推定混合比処理部401から供給された
推定混合比を混合比αに設定し、対象となる画素がアン
カバードバックグラウンド領域に属する場合、推定混合
比処理部402から供給された推定混合比を混合比αに
設定する。混合比決定部403は、領域情報を基に設定
した混合比αを出力する。
を示すブロック図である。選択部441は、領域特定部
103から供給された領域情報を基に、カバードバック
グラウンド領域に属する画素および、これに対応する前
および後のフレームの画素を推定混合比処理部442に
供給する。選択部441は、領域特定部103から供給
された領域情報を基に、アンカバードバックグラウンド
領域に属する画素および、これに対応する前および後の
フレームの画素を推定混合比処理部443に供給する。
から入力された画素値を基に、式(21)に示す演算に
より、カバードバックグラウンド領域に属する、注目し
ている画素の推定混合比を算出して、算出した推定混合
比を選択部444に供給する。
から入力された画素値を基に、式(22)に示す演算に
より、アンカバードバックグラウンド領域に属する、注
目している画素の推定混合比を算出して、算出した推定
混合比を選択部444に供給する。
給された領域情報を基に、対象となる画素が前景領域に
属する場合、0である推定混合比を選択して、混合比α
に設定し、対象となる画素が背景領域に属する場合、1
である推定混合比を選択して、混合比αに設定する。選
択部444は、対象となる画素がカバードバックグラウ
ンド領域に属する場合、推定混合比処理部442から供
給された推定混合比を選択して混合比αに設定し、対象
となる画素がアンカバードバックグラウンド領域に属す
る場合、推定混合比処理部443から供給された推定混
合比を選択して混合比αに設定する。選択部444は、
領域情報を基に選択して設定した混合比αを出力する。
る混合比算出部104は、画像の含まれる画素毎に混合
比αを算出して、算出した混合比αを出力することがで
きる。
9に構成を示す混合比算出部104の混合比αの算出の
処理を説明する。ステップS401において、混合比算
出部104は、領域特定部103から供給された領域情
報を取得する。ステップS402において、推定混合比
処理部401は、カバードバックグラウンド領域に対応
するモデルにより推定混合比の演算の処理を実行し、算
出した推定混合比を混合比決定部403に供給する。混
合比推定の演算の処理の詳細は、図59のフローチャー
トを参照して、後述する。
理部402は、アンカバードバックグラウンド領域に対
応するモデルにより推定混合比の演算の処理を実行し、
算出した推定混合比を混合比決定部403に供給する。
104は、フレーム全体について、混合比αを推定した
か否かを判定し、フレーム全体について、混合比αを推
定していないと判定された場合、ステップS402に戻
り、次の画素について混合比αを推定する処理を実行す
る。
について、混合比αを推定したと判定された場合、ステ
ップS405に進み、混合比決定部403は、画素が、
前景領域、背景領域、カバードバックグラウンド領域、
またはアンカバードバックグラウンド領域のいずれかに
属するかを示す、領域特定部103から供給された領域
情報を基に、混合比αを設定する。混合比決定部403
は、対象となる画素が前景領域に属する場合、0を混合
比αに設定し、対象となる画素が背景領域に属する場
合、1を混合比αに設定し、対象となる画素がカバード
バックグラウンド領域に属する場合、推定混合比処理部
401から供給された推定混合比を混合比αに設定し、
対象となる画素がアンカバードバックグラウンド領域に
属する場合、推定混合比処理部402から供給された推
定混合比を混合比αに設定し、処理は終了する。
特定部103から供給された領域情報、および入力画像
を基に、各画素に対応する特徴量である混合比αを算出
することができる。
混合比αの算出の処理は、図58のフローチャートで説
明した処理と同様なので、その説明は省略する。
る、カバードバックグラウンド領域に対応するモデルに
よる混合比推定の処理を図59のフローチャートを参照
して説明する。
423は、フレームメモリ421から、フレーム#nの注
目画素の画素値Cを取得する。
423は、フレームメモリ422から、注目画素に対応
する、フレーム#n-1の画素の画素値Pを取得する。
423は、入力画像に含まれる注目画素に対応する、フ
レーム#n+1の画素の画素値Nを取得する。
423は、フレーム#nの注目画素の画素値C、フレーム#
n-1の画素の画素値P、およびフレーム#n+1の画素の画素
値Nを基に、推定混合比を演算する。
423は、フレーム全体について、推定混合比を演算す
る処理を終了したか否かを判定し、フレーム全体につい
て、推定混合比を演算する処理を終了していないと判定
された場合、ステップS421に戻り、次の画素につい
て推定混合比を算出する処理を繰り返す。
について、推定混合比を演算する処理を終了したと判定
された場合、処理は終了する。
入力画像を基に、推定混合比を演算することができる。
バードバックグラウンド領域に対応するモデルによる混
合比推定の処理は、アンカバードバックグラウンド領域
のモデルに対応する式を利用した、図59のフローチャ
ートに示す処理と同様なので、その説明は省略する。
2および推定混合比処理部443は、図59に示すフロ
ーチャートと同様の処理を実行して推定混合比を演算す
るので、その説明は省略する。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した混合比αを求める処理を適
用することができる。例えば、背景領域に対応する画像
が一様に動いているとき、推定混合比処理部401は、
背景の動きに対応して画像全体をシフトさせ、背景に対
応するオブジェクトが静止している場合と同様に処理す
る。また、背景領域に対応する画像が局所毎に異なる背
景の動きを含んでいるとき、推定混合比処理部401
は、混合領域に属する画素に対応する画素として、背景
の動きに対応した画素を選択して、上述の処理を実行す
る。
について、カバードバックグラウンド領域に対応するモ
デルによる混合比推定の処理のみを実行して、算出され
た推定混合比を混合比αとして出力するようにしてもよ
い。この場合において、混合比αは、カバードバックグ
ラウンド領域に属する画素について、背景の成分の割合
を示し、アンカバードバックグラウンド領域に属する画
素について、前景の成分の割合を示す。アンカバードバ
ックグラウンド領域に属する画素について、このように
算出された混合比αと1との差分の絶対値を算出して、
算出した絶対値を混合比αに設定すれば、信号処理部1
2は、アンカバードバックグラウンド領域に属する画素
について、背景の成分の割合を示す混合比αを求めるこ
とができる。
ての画素について、アンカバードバックグラウンド領域
に対応するモデルによる混合比推定の処理のみを実行し
て、算出された推定混合比を混合比αとして出力するよ
うにしてもよい。
いて説明する。
オブジェクトが等速で動くことによる、画素の位置の変
化に対応して、混合比αが直線的に変化する性質を利用
して、空間方向に、混合比αと前景の成分の和fとを近
似した式を立てることができる。混合領域に属する画素
の画素値および背景領域に属する画素の画素値の組の複
数を利用して、混合比αと前景の成分の和fとを近似し
た式を解くことにより、混合比αを算出する。
と、混合比αは、式(23)で表される。
0とした空間方向のインデックスである。lは、混合比
αの直線の傾きである。pは、混合比αの直線の切片で
ある共に、注目している画素の混合比αである。式(2
3)において、インデックスiは、既知であるが、傾きl
および切片pは、未知である。
係を図60に示す。
とにより、複数の画素に対して複数の異なる混合比α
は、2つの変数で表現される。図60に示す例におい
て、5つの画素に対する5つの混合比は、2つの変数で
ある傾きlおよび切片pにより表現される。
と、画像の水平方向および垂直方向の2つの方向に対応
する動きvを考慮したとき、式(23)を平面に拡張し
て、混合比αは、式(24)で表される。
0とした水平方向のインデックスであり、kは、垂直方
向のインデックスである。mは、混合比αの面の水平方
向の傾きであり、qは、混合比αの面の垂直方向の傾き
である。pは、混合比αの面の切片である。
て、C05乃至C07について、それぞれ、式(25)乃至式
(27)が成立する。
F01乃至F03が等しいとして、F01乃至F03をFcに置き換え
ると式(28)が成立する。
(28)は、式(29)として表すことができる。
Fc)、および(1-p)・Fcは、式(30)乃至式(32)
に示すように置き換えられている。
画素の位置を0とした水平方向のインデックスであり、
kは、垂直方向のインデックスである。
がシャッタ時間内において等速に移動し、前景に対応す
る成分が近傍において一定であるという仮定が成立する
ので、前景の成分の和は、式(29)で近似される。
景の成分の和は、式(33)で表すことができる。
を、式(24)および式(29)を利用して置き換える
と、画素値Mは、式(34)で表される。
比αの面の水平方向の傾きm、混合比αの面の垂直方向
の傾きq、混合比αの面の切片p、s、t、およびuの6つ
である。
て、式(34)に、画素値Mおよび画素値Bを設定し、画
素値Mおよび画素値Bが設定された複数の式に対して最小
自乗法で解くことにより、混合比αを算出する。
ンデックスjを0とし、垂直方向のインデックスkを0と
し、注目している画素の近傍の3×3の画素について、
式(34)に示す正規方程式に画素値Mまたは画素値Bを
設定すると、式(35)乃至式(43)を得る。 M-1,-1=(-1)・B-1,-1・m+(-1)・B-1,-1・q+B-1,-1・p+(-1)・s+(-1)・t+u (35) M0,-1=(0)・B0,-1・m+(-1)・B0,-1・q+B0,-1・p+(0)・s+(-1)・t+u (36) M+1,-1=(+1)・B+1,-1・m+(-1)・B+1,-1・q+B+1,-1・p+(+1)・s+(-1)・t+u (37) M-1,0=(-1)・B-1,0・m+(0)・B-1,0・q+B-1,0・p+(-1)・s+(0)・t+u (38) M0,0=(0)・B0,0・m+(0)・B0,0・q+B0,0・p+(0)・s+(0)・t+u (39) M+1,0=(+1)・B+1,0・m+(0)・B+1,0・q+B+1,0・p+(+1)・s+(0)・t+u (40) M-1,+1=(-1)・B-1,+1・m+(+1)・B-1,+1・q+B-1,+1・p+(-1)・s+(+1)・t+u (41) M0,+1=(0)・B0,+1・m+(+1)・B0,+1・q+B0,+1・p+(0)・s+(+1)・t+u (42) M+1,+1=(+1)・B+1,+1・m+(+1)・B+1,+1・q+B+1,+1・p+(+1)・s+(+1)・t+u (43)
スjが0であり、垂直方向のインデックスkが0であるの
で、注目している画素の混合比αは、式(24)より、
j=0およびk=0のときの値、すなわち、切片pに等しい。
の式を基に、最小自乗法により、水平方向の傾きm、垂
直方向の傾きq、切片p、s、t、およびuのそれぞれの値
を算出し、切片pを混合比αとして出力すればよい。
出するより具体的な手順を説明する。
のインデックスxで表現すると、インデックスi、インデ
ックスk、およびインデックスxの関係は、式(44)で
表される。
p、s、t、およびuをそれぞれ変数w0,w1,w2,w3,w4、およ
びw5と表現し、jB,kB,B,j,k、および1をそれぞれa0,a1,
a2,a3,a4、およびa5と表現する。誤差exを考慮すると、
式(35)乃至式(43)は、式(45)に書き換える
ことができる。
の値である。
できる。
の自乗和Eを式(47)に示すようにに定義する。
Eに対する、変数Wvの偏微分が0になればよい。ここ
で、vは、0乃至5の整数のいずれかの値である。従っ
て、式(48)を満たすようにwyを求める。
(49)を得る。
か1つを代入して得られる6つの式からなる正規方程式
に、例えば、掃き出し法(Gauss-Jordanの消去法)など
を適用して、wyを算出する。上述したように、w0は水平
方向の傾きmであり、w1は垂直方向の傾きqであり、w2は
切片pであり、w3はsであり、w4はtであり、w5はuであ
る。
定した式に、最小自乗法を適用することにより、水平方
向の傾きm、垂直方向の傾きq、切片p、s、t、およびuを
求めることができる。
点、すなわち中心位置における混合比αとなっているの
で、これを出力する。
において、混合領域に含まれる画素の画素値をMとし、
背景領域に含まれる画素の画素値をBとして説明した
が、注目している画素が、カバードバックグラウンド領
域に含まれる場合、またはアンカバードバックグラウン
ド領域に含まれる場合のそれぞれに対して、正規方程式
を立てる必要がある。
ードバックグラウンド領域に含まれる画素の混合比αを
求める場合、フレーム#nの画素のC04乃至C08、およびフ
レーム#n-1の画素の画素値P04乃至P08が、正規方程式に
設定される。
バックグラウンド領域に含まれる画素の混合比αを求め
る場合、フレーム#nの画素のC28乃至C32、およびフレー
ム#n+1の画素の画素値N28乃至N32が、正規方程式に設定
される。
ックグラウンド領域に含まれる画素の混合比αを算出す
るとき、以下の式(50)乃至式(58)が立てられ
る。混合比αを算出する画素の画素値は、Mc5である。 Mc1=(-1)・Bc1・m+(-1)・Bc1・q+Bc1・p+(-1)・s+(-1)・t+u (50) Mc2=(0)・Bc2・m+(-1)・Bc2・q+Bc2・p+(0)・s+(-1)・t+u (51) Mc3=(+1)・Bc3・m+(-1)・Bc3・q+Bc3・p+(+1)・s+(-1)・t+u (52) Mc4=(-1)・Bc4・m+(0)・Bc4・q+Bc4・p+(-1)・s+(0)・t+u (53) Mc5=(0)・Bc5・m+(0)・Bc5・q+Bc5・p+(0)・s+(0)・t+u (54) Mc6=(+1)・Bc6・m+(0)・Bc6・q+Bc6・p+(+1)・s+(0)・t+u (55) Mc7=(-1)・Bc7・m+(+1)・Bc7・q+Bc7・p+(-1)・s+(+1)・t+u (56) Mc8=(0)・Bc8・m+(+1)・Bc8・q+Bc8・p+(0)・s+(+1)・t+u (57) Mc9=(+1)・Bc9・m+(+1)・Bc9・q+Bc9・p+(+1)・s+(+1)・t+u (58)
域に含まれる画素の混合比αを算出するとき、式(5
0)乃至式(58)において、フレーム#nの画素に対応
する、フレーム#n-1の画素の背景領域の画素の画素値Bc
1乃至Bc9が使用される。
ンド領域に含まれる画素の混合比αを算出するとき、以
下の式(59)乃至式(67)が立てられる。混合比α
を算出する画素の画素値は、Mu5である。 Mu1=(-1)・Bu1・m+(-1)・Bu1・q+Bu1・p+(-1)・s+(-1)・t+u (59) Mu2=(0)・Bu2・m+(-1)・Bu2・q+Bu2・p+(0)・s+(-1)・t+u (60) Mu3=(+1)・Bu3・m+(-1)・Bu3・q+Bu3・p+(+1)・s+(-1)・t+u (61) Mu4=(-1)・Bu4・m+(0)・Bu4・q+Bu4・p+(-1)・s+(0)・t+u (62) Mu5=(0)・Bu5・m+(0)・Bu5・q+Bu5・p+(0)・s+(0)・t+u (63) Mu6=(+1)・Bu6・m+(0)・Bu6・q+Bu6・p+(+1)・s+(0)・t+u (64) Mu7=(-1)・Bu7・m+(+1)・Bu7・q+Bu7・p+(-1)・s+(+1)・t+u (65) Mu8=(0)・Bu8・m+(+1)・Bu8・q+Bu8・p+(0)・s+(+1)・t+u (66) Mu9=(+1)・Bu9・m+(+1)・Bu9・q+Bu9・p+(+1)・s+(+1)・t+u (67)
ド領域に含まれる画素の混合比αを算出するとき、式
(59)乃至式(67)において、フレーム#nの画素に
対応する、フレーム#n+1の画素の背景領域の画素の画素
値Bu1乃至Bu9が使用される。
を示すブロック図である。推定混合比処理部401に入
力された画像は、遅延部501および足し込み部502
に供給される。
遅延させ、足し込み部502に供給する。足し込み部5
02に、入力画像としてフレーム#nが入力されていると
き、遅延回路221は、フレーム#n-1を足し込み部50
2に供給する。
画素の近傍の画素の画素値、およびフレーム#n-1の画素
値を、正規方程式に設定する。例えば、足し込み部50
2は、式(50)乃至式(58)に基づいて、正規方程
式に画素値Mc1乃至Mc9および画素値Bc1乃至Bc9を設定す
る。足し込み部502は、画素値が設定された正規方程
式を演算部503に供給する。
給された正規方程式を掃き出し法などにより解いて推定
混合比を求め、求められた推定混合比を出力する。
入力画像を基に、推定混合比を算出して、混合比決定部
403に供給することができる。
合比処理部401と同様の構成を有するので、その説明
は省略する。
算出された推定混合比の例を示す図である。図64に示
す推定混合比は、等速で動いているオブジェクトに対応
する前景の動きvが11であり、7×7画素のブロック
を単位として方程式を生成して算出された結果を、1ラ
インに対して示すものである。
に示すように、ほぼ直線的に変化していることがわか
る。
から供給された、混合比が算出される画素が、前景領
域、背景領域、カバードバックグラウンド領域、または
アンカバードバックグラウンド領域のいずれかに属する
かを示す領域情報を基に、混合比を設定する。混合比決
定部403は、対象となる画素が前景領域に属する場
合、0を混合比に設定し、対象となる画素が背景領域に
属する場合、1を混合比に設定し、対象となる画素がカ
バードバックグラウンド領域に属する場合、推定混合比
処理部401から供給された推定混合比を混合比に設定
し、対象となる画素がアンカバードバックグラウンド領
域に属する場合、推定混合比処理部402から供給され
た推定混合比を混合比に設定する。混合比決定部403
は、領域情報を基に設定した混合比を出力する。
混合比処理部401が図63に示す構成を有する場合に
おける、混合比算出部102の混合比の算出の処理を説
明する。ステップS501において、混合比算出部10
2は、領域特定部101から供給された領域情報を取得
する。ステップS502において、推定混合比処理部4
01は、カバードバックグラウンド領域に対応するモデ
ルによる混合比推定の処理を実行し、推定混合比を混合
比決定部403に供給する。混合比推定の処理の詳細
は、図66のフローチャートを参照して、後述する。
理部402は、アンカバードバックグラウンド領域に対
応するモデルによる混合比推定の処理を実行し、推定混
合比を混合比決定部403に供給する。
102は、フレーム全体について、混合比を推定したか
否かを判定し、フレーム全体について、混合比を推定し
ていないと判定された場合、ステップS502に戻り、
次の画素について混合比を推定する処理を実行する。
について、混合比を推定したと判定された場合、ステッ
プS505に進み、混合比決定部403は、領域特定部
101から供給された、混合比が算出される画素が、前
景領域、背景領域、カバードバックグラウンド領域、ま
たはアンカバードバックグラウンド領域のいずれかに属
するかを示す領域情報を基に、混合比を設定する。混合
比決定部403は、対象となる画素が前景領域に属する
場合、0を混合比に設定し、対象となる画素が背景領域
に属する場合、1を混合比に設定し、対象となる画素が
カバードバックグラウンド領域に属する場合、推定混合
比処理部401から供給された推定混合比を混合比に設
定し、対象となる画素がアンカバードバックグラウンド
領域に属する場合、推定混合比処理部402から供給さ
れた推定混合比を混合比に設定し、処理は終了する。
特定部101から供給された領域情報、および入力画像
を基に、各画素に対応する特徴量である混合比αを算出
することができる。
るオブジェクトに対応する画像に含まれる動きボケの情
報を残したままで、画素値に含まれる前景の成分と背景
の成分とを分離することが可能になる。
ば、実世界を実際に撮影し直したような動いているオブ
ジェクトのスピードに合わせた正しい動きボケを含む画
像を作ることが可能になる。
る、カバードバックグラウンド領域に対応するモデルに
よる混合比推定の処理を図66のフローチャートを参照
して説明する。
02は、入力された画像に含まれる画素値、および遅延
回路221から供給される画像に含まれる画素値を、カ
バードバックグラウンド領域のモデルに対応する正規方
程式に設定する。
理部401は、対象となる画素についての設定が終了し
たか否かを判定し、対象となる画素についての設定が終
了していないと判定された場合、ステップS521に戻
り、正規方程式への画素値の設定の処理を繰り返す。
素についての画素値の設定が終了したと判定された場
合、ステップS523に進み、演算部173は、画素値
が設定された正規方程式を基に、推定混合比を演算し
て、求められた推定混合比を出力する。
入力画像を基に、推定混合比を演算することができる。
バードバックグラウンド領域に対応するモデルによる混
合比推定の処理は、アンカバードバックグラウンド領域
のモデルに対応する正規方程式を利用した、図66のフ
ローチャートに示す処理と同様なので、その説明は省略
する。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した混合比を求める処理を適用
することができる。例えば、背景領域に対応する画像が
一様に動いているとき、推定混合比処理部401は、こ
の動きに対応して画像全体をシフトさせ、背景に対応す
るオブジェクトが静止している場合と同様に処理する。
また、背景領域に対応する画像が局所毎に異なる動きを
含んでいるとき、推定混合比処理部401は、混合領域
に属する画素に対応する画素として、動きに対応した画
素を選択して、上述の処理を実行する。
する。図67は、前景背景分離部105の構成の一例を
示すブロック図である。前景背景分離部105に供給さ
れた入力画像は、分離部601、スイッチ602、およ
びスイッチ604に供給される。カバードバックグラウ
ンド領域を示す情報、およびアンカバードバックグラウ
ンド領域を示す、領域特定部103から供給された領域
情報は、分離部601に供給される。前景領域を示す領
域情報は、スイッチ602に供給される。背景領域を示
す領域情報は、スイッチ604に供給される。
αは、分離部601に供給される。
ド領域を示す領域情報、アンカバードバックグラウンド
領域を示す領域情報、および混合比αを基に、入力画像
から前景の成分を分離して、分離した前景の成分を合成
部603に供給するとともに、入力画像から背景の成分
を分離して、分離した背景の成分を合成部605に供給
する。
報を基に、前景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる前景に対応する画素のみを合
成部603に供給する。
報を基に、背景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる背景に対応する画素のみを合
成部605に供給する。
れた前景に対応する成分、スイッチ602から供給され
た前景に対応する画素を基に、前景成分画像を合成し、
合成した前景成分画像を出力する。前景領域と混合領域
とは重複しないので、合成部603は、例えば、前景に
対応する成分と、前景に対応する画素とに論理和の演算
を適用して、前景成分画像を合成する。
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、前景成分画像の合成の処理において、前景成分画
像を格納(上書き)する。従って、合成部603が出力
する前景成分画像の内、背景領域に対応する画素には、
画素値として0が格納されている。
れた背景に対応する成分、スイッチ604から供給され
た背景に対応する画素を基に、背景成分画像を合成し
て、合成した背景成分画像を出力する。背景領域と混合
領域とは重複しないので、合成部605は、例えば、背
景に対応する成分と、背景に対応する画素とに論理和の
演算を適用して、背景成分画像を合成する。
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、背景成分画像の合成の処理において、背景成分画
像を格納(上書き)する。従って、合成部605が出力
する背景成分画像の内、前景領域に対応する画素には、
画素値として0が格納されている。
れる入力画像、並びに前景背景分離部105から出力さ
れる前景成分画像および背景成分画像を示す図である。
であり、図68(B)は、図68(A)に対応する前景
領域に属する画素、背景領域に属する画素、および混合
領域に属する画素を含む1ラインの画素を時間方向に展
開したモデル図を示す。
うに、前景背景分離部105から出力される背景成分画
像は、背景領域に属する画素、および混合領域の画素に
含まれる背景の成分から構成される。
うに、前景背景分離部105から出力される前景成分画
像は、前景領域に属する画素、および混合領域の画素に
含まれる前景の成分から構成される。
部105により、背景の成分と、前景の成分とに分離さ
れる。分離された背景の成分は、背景領域に属する画素
と共に、背景成分画像を構成する。分離された前景の成
分は、前景領域に属する画素と共に、前景成分画像を構
成する。
対応する画素の画素値が0とされ、前景領域に対応する
画素および混合領域に対応する画素に意味のある画素値
が設定される。同様に、背景成分画像は、前景領域に対
応する画素の画素値が0とされ、背景領域に対応する画
素および混合領域に対応する画素に意味のある画素値が
設定される。
に属する画素から前景の成分、および背景の成分を分離
する処理について説明する。
ジェクトに対応する前景を含む、2つのフレームの前景
の成分および背景の成分を示す画像のモデルである。図
69に示す画像のモデルにおいて、前景の動き量vは4
であり、仮想分割数は、4とされている。
び左から14番目乃至18番目の画素は、背景の成分の
みから成り、背景領域に属する。フレーム#nにおいて、
左から2番目乃至4番目の画素は、背景の成分および前
景の成分を含み、アンカバードバックグラウンド領域に
属する。フレーム#nにおいて、左から11番目乃至13
番目の画素は、背景の成分および前景の成分を含み、カ
バードバックグラウンド領域に属する。フレーム#nにお
いて、左から5番目乃至10番目の画素は、前景の成分
のみから成り、前景領域に属する。
5番目の画素、および左から18番目の画素は、背景の
成分のみから成り、背景領域に属する。フレーム#n+1に
おいて、左から6番目乃至8番目の画素は、背景の成分
および前景の成分を含み、アンカバードバックグラウン
ド領域に属する。フレーム#n+1において、左から15番
目乃至17番目の画素は、背景の成分および前景の成分
を含み、カバードバックグラウンド領域に属する。フレ
ーム#n+1において、左から9番目乃至14番目の画素
は、前景の成分のみから成り、前景領域に属する。
に属する画素から前景の成分を分離する処理を説明する
図である。図70において、α1乃至α18は、フレー
ム#nにおける画素のぞれぞれに対応する混合比である。
図70において、左から15番目乃至17番目の画素
は、カバードバックグラウンド領域に属する。
値C15は、式(68)で表される。
混合比である。P15は、フレーム#n-1の左から15番目
の画素の画素値である。
5番目の画素の前景の成分の和f15は、式(69)で表
される。
素の前景の成分の和f16は、式(70)で表され、フレ
ーム#nの左から17番目の画素の前景の成分の和f17
は、式(71)で表される。
域に属する画素の画素値Cに含まれる前景の成分fcは、
式(72)で計算される。
る。
領域に属する画素から前景の成分を分離する処理を説明
する図である。図71において、α1乃至α18は、フ
レーム#nにおける画素のぞれぞれに対応する混合比であ
る。図71において、左から2番目乃至4番目の画素
は、アンカバードバックグラウンド領域に属する。
C02は、式(73)で表される。
合比である。N02は、フレーム#n+1の左から2番目の画
素の画素値である。
番目の画素の前景の成分の和f02は、式(74)で表さ
れる。
の前景の成分の和f03は、式(75)で表され、フレー
ム#nの左から4番目の画素の前景の成分の和f04は、式
(76)で表される。
ド領域に属する画素の画素値Cに含まれる前景の成分fu
は、式(77)で計算される。
る。
含まれる、カバードバックグラウンド領域を示す情報、
およびアンカバードバックグラウンド領域を示す情報、
並びに画素毎の混合比αを基に、混合領域に属する画素
から前景の成分、および背景の成分を分離することがで
きる。
分離部601の構成の一例を示すブロック図である。分
離部601に入力された画像は、フレームメモリ621
に供給され、混合比算出部104から供給されたカバー
ドバックグラウンド領域およびアンカバードバックグラ
ウンド領域を示す領域情報、並びに混合比αは、分離処
理ブロック622に入力される。
をフレーム単位で記憶する。フレームメモリ621は、
処理の対象がフレーム#nであるとき、フレーム#nの1つ
前のフレームであるフレーム#n-1、フレーム#n、および
フレーム#nの1つ後のフレームであるフレーム#n+1を記
憶する。
フレーム#n、およびフレーム#n+1の対応する画素を分離
処理ブロック622に供給する。
クグラウンド領域およびアンカバードバックグラウンド
領域を示す領域情報、並びに混合比αを基に、フレーム
メモリ621から供給されたフレーム#n-1、フレーム#
n、およびフレーム#n+1の対応する画素の画素値に図7
0および図71を参照して説明した演算を適用して、フ
レーム#nの混合領域に属する画素から前景の成分および
背景の成分を分離して、フレームメモリ623に供給す
る。
領域処理部631、カバード領域処理部632、合成部
633、および合成部634で構成されている。
41は、混合比αを、フレームメモリ621から供給さ
れたフレーム#n+1の画素の画素値に乗じて、スイッチ6
42に出力する。スイッチ642は、フレームメモリ6
21から供給されたフレーム#nの画素(フレーム#n+1の
画素に対応する)がアンカバードバックグラウンド領域
であるとき、閉じられ、乗算器641から供給された混
合比αを乗じた画素値を演算器643および合成部63
4に供給する。スイッチ642から出力されるフレーム
#n+1の画素の画素値に混合比αを乗じた値は、フレーム
#nの対応する画素の画素値の背景の成分に等しい。
ら供給されたフレーム#nの画素の画素値から、スイッチ
642から供給された背景の成分を減じて、前景の成分
を求める。演算器643は、アンカバードバックグラウ
ンド領域に属する、フレーム#nの画素の前景の成分を合
成部633に供給する。
は、混合比αを、フレームメモリ621から供給された
フレーム#n-1の画素の画素値に乗じて、スイッチ652
に出力する。スイッチ652は、フレームメモリ621
から供給されたフレーム#nの画素(フレーム#n-1の画素
に対応する)がカバードバックグラウンド領域であると
き、閉じられ、乗算器651から供給された混合比αを
乗じた画素値を演算器653および合成部634に供給
する。スイッチ652から出力されるフレーム#n-1の画
素の画素値に混合比αを乗じた値は、フレーム#nの対応
する画素の画素値の背景の成分に等しい。
ら供給されたフレーム#nの画素の画素値から、スイッチ
652から供給された背景の成分を減じて、前景の成分
を求める。演算器653は、カバードバックグラウンド
領域に属する、フレーム#nの画素の前景の成分を合成部
633に供給する。
43から供給された、アンカバードバックグラウンド領
域に属する画素の前景の成分、および演算器653から
供給された、カバードバックグラウンド領域に属する画
素の前景の成分を合成して、フレームメモリ623に供
給する。
642から供給された、アンカバードバックグラウンド
領域に属する画素の背景の成分、およびスイッチ652
から供給された、カバードバックグラウンド領域に属す
る画素の背景の成分を合成して、フレームメモリ623
に供給する。
ク622から供給された、フレーム#nの混合領域の画素
の前景の成分と、背景の成分とをそれぞれに記憶する。
レーム#nの混合領域の画素の前景の成分、および記憶し
ているフレーム#nの混合領域の画素の背景の成分を出力
する。
り、画素値に含まれる前景の成分と背景の成分とを完全
に分離することが可能になる。
れた、フレーム#nの混合領域の画素の前景の成分と、前
景領域に属する画素とを合成して前景成分画像を生成す
る。合成部605は、分離部601から出力された、フ
レーム#nの混合領域の画素の背景の成分と、背景領域に
属する画素とを合成して背景成分画像を生成する。
る、前景成分画像の例と、背景成分画像の例を示す図で
ある。
応する、前景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景が分離される前
において、背景の成分のみから成っていたので、画素値
が0とされる。
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、背景の成分が0とされ、前景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、背景の成分が0と
され、前景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景の成分のみから成るの
で、そのまま残される。
応する、背景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景とが分離される
前において、背景の成分のみから成っていたので、その
まま残される。
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、前景の成分が0とされ、背景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、前景の成分が0と
され、背景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景と背景とが分離される前
において、前景の成分のみから成っていたので、画素値
が0とされる。
して、前景背景分離部105による前景と背景との分離
の処理を説明する。ステップS601において、分離部
601のフレームメモリ621は、入力画像を取得し、
前景と背景との分離の対象となるフレーム#nを、その前
のフレーム#n-1およびその後のフレーム#n+1と共に記憶
する。
の分離処理ブロック622は、混合比算出部104から
供給された領域情報を取得する。ステップS603にお
いて、分離部601の分離処理ブロック622は、混合
比算出部104から供給された混合比αを取得する。
領域処理部631は、領域情報および混合比αを基に、
フレームメモリ621から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、背景の
成分を抽出する。
領域処理部631は、領域情報および混合比αを基に、
フレームメモリ621から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、前景の
成分を抽出する。
処理部632は、領域情報および混合比αを基に、フレ
ームメモリ621から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、背景の成分を抽
出する。
処理部632は、領域情報および混合比αを基に、フレ
ームメモリ621から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、前景の成分を抽
出する。
は、ステップS605の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の前景の成分と、ス
テップS607の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の前景の成分とを合成する。合
成された前景の成分は、合成部603に供給される。更
に、合成部603は、スイッチ602を介して供給され
た前景領域に属する画素と、分離部601から供給され
た前景の成分とを合成して、前景成分画像を生成する。
は、ステップS604の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の背景の成分と、ス
テップS606の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の背景の成分とを合成する。合
成された背景の成分は、合成部605に供給される。更
に、合成部605は、スイッチ604を介して供給され
た背景領域に属する画素と、分離部601から供給され
た背景の成分とを合成して、背景成分画像を生成する。
は、前景成分画像を出力する。ステップS611におい
て、合成部605は、背景成分画像を出力し、処理は終
了する。
域情報および混合比αを基に、入力画像から前景の成分
と、背景の成分とを分離し、前景の成分のみから成る前
景成分画像、および背景の成分のみから成る背景成分画
像を出力することができる。
示すブロック図である。動き検出部102から供給され
た動きベクトルとその位置情報は、処理単位決定部90
1および補正部905に供給され、領域特定部103か
ら供給された領域情報は、処理単位決定部901に供給
される。前景背景分離部105から供給された前景成分
画像は、演算部904に供給される。
その位置情報、および領域情報を基に、動きベクトルと
共に、生成した処理単位をモデル化部902に供給す
る。
は、図76に例を示すように、前景成分画像のカバード
バックグラウンド領域に対応する画素から始まり、アン
カバードバックグラウンド領域に対応する画素までの動
き方向に並ぶ連続する画素、またはアンカバードバック
グラウンド領域に対応する画素から始まり、カバードバ
ックグラウンド領域に対応する画素までの動き方向に並
ぶ連続する画素を示す。処理単位は、例えば、左上点
(処理単位で指定される画素であって、画像上で最も左
または最も上に位置する画素の位置)および右下点の2
つのデータから成る。
入力された処理単位を基に、モデル化を実行する。より
具体的には、例えば、モデル化部902は、処理単位に
含まれる画素の数、画素値の時間方向の仮想分割数、お
よび画素毎の前景の成分の数に対応する複数のモデルを
予め記憶しておき、処理単位、および画素値の時間方向
の仮想分割数を基に、図77に示すような、画素値と前
景の成分との対応を指定するモデルを選択するようにし
ても良い。
2であり動き量vが5であるときにおいては、モデル化
部902は、仮想分割数を5とし、最も左に位置する画
素が1つの前景の成分を含み、左から2番目の画素が2
つの前景の成分を含み、左から3番目の画素が3つの前
景の成分を含み、左から4番目の画素が4つの前景の成
分を含み、左から5番目の画素が5つの前景の成分を含
み、左から6番目の画素が5つの前景の成分を含み、左
から7番目の画素が5つの前景の成分を含み、左から8
番目の画素が5つの前景の成分を含み、左から9番目の
画素が4つの前景の成分を含み、左から10番目の画素
が3つの前景の成分を含み、左から11番目の画素が2
つの前景の成分を含み、左から12番目の画素が1つの
前景の成分を含み、全体として8つの前景の成分から成
るモデルを選択する。
あるモデルから選択するのではなく、動きベクトル、お
よび処理単位が供給されたとき、動きベクトル、および
処理単位を基に、モデルを生成するようにしてもよい。
から供給されたモデルを基に、方程式を生成する。
デルを参照して、前景の成分の数が8であり、処理単位
に対応する画素の数が12であり、動き量vが5である
ときの、方程式生成部903が生成する方程式の例につ
いて説明する。
対応する前景成分がF01/v乃至F08/vであるとき、F01/v
乃至F08/vと画素値C01乃至C12との関係は、式(78)
乃至式(89)で表される。
C12は、式(90)に示すように、前景の成分F08/vのみ
を含み、画素値C11は、前景の成分F08/vおよび前景の成
分F07/vの積和から成る。従って、前景の成分F07/vは、
式(91)で求めることができる。
の成分を考慮すると、前景の成分F06/v乃至F01/vは、式
(92)乃至式(97)により求めることができる。
(97)に例を示す、画素値の差により前景の成分を算
出するための方程式を生成する。方程式生成部903
は、生成した方程式を演算部904に供給する。
供給された方程式に前景成分画像の画素値を設定して、
画素値を設定した方程式を基に、前景の成分を算出す
る。演算部904は、例えば、式(90)乃至式(9
7)が方程式生成部903から供給されたとき、式(9
0)乃至式(97)に画素値C05乃至C12を設定する。
基づき、前景の成分を算出する。例えば、演算部904
は、画素値C05乃至C12が設定された式(90)乃至式
(97)に基づく演算により、図78に示すように、前
景の成分F01/v乃至F08/vを算出する。演算部904は、
前景の成分F01/v乃至F08/vを補正部905に供給する。
れた前景の成分に、処理単位決定部901から供給され
た動きベクトルに含まれる動き量vを乗じて、動きボケ
を除去した前景の画素値を算出する。例えば、補正部9
05は、演算部904から供給された前景の成分F01/v
乃至F08/vが供給されたとき、前景の成分F01/v乃至F08/
vのそれぞれに、5である動き量vを乗じることにより、
図79に示すように、動きボケを除去した前景の画素値
F01乃至F08を算出する。
た、動きボケを除去した前景の画素値から成る前景成分
画像を動きボケ付加部906および選択部907に供給
する。
なる値の動きボケ調整量v'、例えば、動き量vの半分の
値の動きボケ調整量v'、動き量vと無関係の値の動きボ
ケ調整量v'で、動きボケの量を調整することができる。
例えば、図80に示すように、動きボケ付加部906
は、動きボケが除去された前景の画素値Fiを動きボケ調
整量v'で除すことにより、前景成分Fi/v'を算出して、
前景成分Fi/v'の和を算出して、動きボケの量が調整さ
れた画素値を生成する。例えば、動きボケ調整量v'が3
のとき、画素値C02は、(F01)/v'とされ、画素値C03
は、(F01+F02)/v'とされ、画素値C04は、(F01+F02+F
03)/v'とされ、画素値C05は、(F02+F03+F04)/v'とさ
れる。
調整した前景成分画像を選択部907に供給する。
応した選択信号を基に、補正部905から供給された動
きボケが除去された前景成分画像、および動きボケ付加
部906から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
択信号および動きボケ調整量v'を基に、動きボケの量を
調整することができる。
動きボケの量の調整の処理を図81のフローチャートを
参照して説明する。
部106の処理単位決定部901は、動きベクトルおよ
び領域情報を基に、処理単位を生成し、生成した処理単
位をモデル化部902および補正部905に供給する。
部106のモデル化部902は、動き量vおよび処理単
位に対応して、モデルの選択や生成を行う。ステップS
903において、方程式生成部903は、選択または生
成されたモデルを基に、前景成分画像の画素値の差によ
り前景の成分を算出するための方程式を生成する。
は、作成された方程式に前景成分画像の画素値を設定
し、画素値が設定された方程式を基に、画素値の差分か
ら前景の成分を抽出する。ステップS905において、
演算部904は、処理単位に対応する全ての前景の成分
を抽出したか否かを判定し、処理単位に対応する全ての
前景の成分を抽出していないと判定された場合、ステッ
プS904に戻り、前景の成分を抽出の処理を繰り返
す。
応する全ての前景の成分を抽出したと判定された場合、
ステップS906に進み、補正部905は、動き量vを
基に、演算部904から供給された前景の成分F01/v乃
至F08/vのそれぞれを補正して、動きボケを除去した前
景の画素値F01乃至F08を算出する。
部906は、動きボケの量を調整した前景の画素値を算
出して、選択部907は、動きボケが除去された画像ま
たは動きボケの量が調整された画像のいずれかを選択し
て、選択した画像を出力して、処理は終了する。
調整部106は、動きボケを含む前景画像の動きボケを
調整することができる。
部分的に除去する手法が、理想状態では効果が認められ
るが、量子化され、ノイズを含んだ実際の画像に対して
十分な効果が得られないのに対し、図75に構成を示す
動きボケ調整部106において、量子化され、ノイズを
含んだ実際の画像に対しても十分な効果が認められ、精
度の良い動きボケの除去が可能となる。
成を示すブロック図である。
号を付してあり、その説明は適宜省略する。
出部104および合成部1001に供給する。
景分離部105および合成部1001に供給する。
合成部1001に供給する。
ら供給された混合比α、領域特定部103から供給され
た領域情報を基に、任意の背景画像と、前景背景分離部
105から供給された前景成分画像とを合成して、任意
の背景画像と前景成分画像とが合成された合成画像を出
力する。
である。背景成分生成部1021は、混合比αおよび任
意の背景画像を基に、背景成分画像を生成して、混合領
域画像合成部1022に供給する。
生成部1021から供給された背景成分画像と前景成分
画像とを合成することにより、混合領域合成画像を生成
して、生成した混合領域合成画像を画像合成部1023
に供給する。
前景成分画像、混合領域画像合成部1022から供給さ
れた混合領域合成画像、および任意の背景画像を合成し
て、合成画像を生成して出力する。
画像を、任意の背景画像に合成することができる。
を任意の背景画像と合成して得られた画像は、単に画素
を合成した画像に比較し、より自然なものと成る。
理部12の機能の更に他の構成を示すブロック図であ
る。図4に示す信号処理部12が領域特定と混合比αの
算出を順番に行うのに対して、図84に示す信号処理部
12は、領域特定と混合比αの算出を並行して行う。
には同一の番号を付してあり、その説明は省略する。
背景分離部1102、領域特定部103、およびオブジ
ェクト抽出部101に供給される。
に、画素がカバードバックグラウンド領域に属すると仮
定した場合における推定混合比、および画素がアンカバ
ードバックグラウンド領域に属すると仮定した場合にお
ける推定混合比を、入力画像に含まれる画素のそれぞれ
に対して算出し、算出した画素がカバードバックグラウ
ンド領域に属すると仮定した場合における推定混合比、
および画素がアンカバードバックグラウンド領域に属す
ると仮定した場合における推定混合比を前景背景分離部
1102に供給する。
一例を示すブロック図である。
図49に示す推定混合比処理部401と同じである。図
85に示す推定混合比処理部402は、図49に示す推
定混合比処理部402と同じである。
に、カバードバックグラウンド領域のモデルに対応する
演算により、画素毎に推定混合比を算出して、算出した
推定混合比を出力する。
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を出力する。
1101から供給された、画素がカバードバックグラウ
ンド領域に属すると仮定した場合における推定混合比、
および画素がアンカバードバックグラウンド領域に属す
ると仮定した場合における推定混合比、並びに領域特定
部103から供給された領域情報を基に、入力画像から
前景成分画像を生成し、生成した前景成分画像を動きボ
ケ調整部106および選択部107に供給する。
の一例を示すブロック図である。
の部分には同一の番号を付してあり、その説明は省略す
る。
供給された領域情報を基に、混合比算出部1101から
供給された、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比のいずれか一方を選択して、選
択した推定混合比を混合比αとして分離部601に供給
する。
された混合比αおよび領域情報を基に、混合領域に属す
る画素の画素値から前景の成分および背景の成分を抽出
し、抽出した前景の成分を合成部603に供給すると共
に、背景の成分を合成部605に供給する。
構成とすることができる。
て、出力する。合成部605は、背景成分画像を合成し
て出力する。
4に示す場合と同様の構成とすることができ、領域情報
および動きベクトルを基に、前景背景分離部1102か
ら供給された前景成分画像に含まれる動きボケの量を調
整して、動きボケの量が調整された前景成分画像を出力
する。
者の選択に対応した選択信号を基に、前景背景分離部1
102から供給された前景成分画像、および動きボケ調
整部106から供給された動きボケの量が調整された前
景成分画像のいずれか一方を選択して、選択した前景成
分画像を出力する。
部12は、入力画像に含まれる前景のオブジェクトに対
応する画像に対して、その画像に含まれる動きボケの量
を調整して出力することができる。図84に構成を示す
信号処理部12は、第1の実施例と同様に、埋もれた情
報である混合比αを算出して、算出した混合比αを出力
することができる。
の成分の割合として説明したが、画素値に含まれる前景
の成分の割合としてもよい。
向は左から右として説明したが、その方向に限定されな
いことは勿論である。
を有する現実空間の画像をビデオカメラを用いて2次元
空間と時間軸情報を有する時空間への射影を行った場合
を例としたが、本発明は、この例に限らず、より多くの
第1の次元の第1の情報を、より少ない第2の次元の第
2の情報に射影した場合に、その射影によって発生する
歪みを補正したり、有意情報を抽出したり、またはより
自然に画像を合成する場合に適応することが可能であ
る。
撮像素子である、例えば、BBD(Bucket Brigade Devic
e)、CID(Charge Injection Device)、またはCPD(Ch
arge Priming Device)などのセンサでもよく、また、
検出素子がマトリックス状に配置されているセンサに限
らず、検出素子が1列に並んでいるセンサでもよい。
した記録媒体は、図3に示すように、コンピュータとは
別に、ユーザにプログラムを提供するために配布され
る、プログラムが記録されている磁気ディスク51(フ
ロッピディスクを含む)、光ディスク52(CD-ROM(Com
paut Disk-Read Only Memory),DVD(Digital VersatileD
isk)を含む)、光磁気ディスク53(MD(Mini-Dis
k)を含む)、もしくは半導体メモリ54などよりなる
パッケージメディアにより構成されるだけでなく、コン
ピュータに予め組み込まれた状態でユーザに提供され
る、プログラムが記録されているROM22や、記憶部2
8に含まれるハードディスクなどで構成される。
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
に記録媒体によれば、画像データにおいて前景オブジェ
クトを構成する前景オブジェクト成分からなる前景領
域、画像データにおいて背景オブジェクトを構成する背
景オブジェクト成分からなる背景領域、および画像デー
タにおいて前景オブジェクト成分と背景オブジェクト成
分とが混合された領域であって、前景オブジェクトの動
き方向先端部側に形成されるカバードバックグラウンド
領域および前景オブジェクトの動き方向後端部側に形成
されるアンカバードバックグラウンド領域とを含む混合
領域とを示す領域情報、並びに画像データに基づいて、
前景領域を中心とするカバードバックグラウンド領域の
外側端部からアンカバードバックグラウンド領域の外側
端部までの、前景オブジェクトの動き方向と一致する少
なくとも1つの直線上の画素データからなる処理単位が
決定され、処理単位に基づいて決定される処理単位内の
画素の画素値と、混合領域における前景オブジェクト成
分を設定した分割数で分割してなる未知数である分割値
とを設定することで、複数の関係式からなる連立方程式
が生成され、連立方程式を解くことで、動きボケ量の調
整された前景オブジェクト成分が演算されるようにした
ので、ボケた画像などの検出信号に含まれる動きボケの
量を調整することができるようになる。
ック図である。
ある。
止している背景に対応するオブジェクトとを撮像して得
られる画像を説明する図である。
クグラウンド領域、およびアンカバードバックグラウン
ド領域を説明する図である。
よび静止している背景に対応するオブジェクトを撮像し
た画像における、隣接して1列に並んでいる画素の画素
値を時間方向に展開したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
を抽出した例を示す図である。
の対応を示す図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
チャートである。
ク図である。
ときの画像を説明する図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
示す図である。
示す図である。
ある。
ロック図である。
対応する期間を分割したモデル図である。
示すブロック図である。
図である。
る。
ある。
るフローチャートである。
ートである。
ロック図である。
ク図である。
ある。
ある。
ある。
ャートである。
ック図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
図である。
ク図である。
ク図である。
トである。
ャートである。
る。
る。
画素の対応を説明する図である。
ロック図である。
トである。
デルによる混合比推定の処理を説明するフローチャート
である。
ロック図である。
像を示す図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
である。
像の例を示す図である。
チャートである。
図である。
デルの例を示す図である。
シャッタ時間に対応する期間を分割したモデル図であ
る。
フローチャートである。
ック図である。
すブロック図である。
図である。
ク図である。
22 ROM, 23 RAM, 26 入力部, 27 出
力部, 28 記憶部, 29 通信部, 51 磁気
ディスク, 52 光ディスク, 53 光磁気ディス
ク, 54 半導体メモリ, 101 オブジェクト抽
出部, 102 動き検出部, 103領域特定部,
104 混合比算出部, 105 前景背景分離部,
106動きボケ調整部, 107 選択部, 201
フレームメモリ, 202−1乃至202−4 静動判
定部, 203−1乃至203−3 領域判定部,20
4 判定フラグ格納フレームメモリ, 205 合成
部, 206 判定フラグ格納フレームメモリ, 30
1 背景画像生成部, 302 2値オブジェクト画像
抽出部, 303 時間変化検出部, 321 相関値
演算部, 322 しきい値処理部, 341 フレー
ムメモリ, 342 領域判定部, 361 ロバスト
化部, 381 動き補償部, 382 スイッチ,
383−1乃至383−N フレームメモリ、 384
−1乃至384−N 重み付け部, 385 積算部,
401 推定混合比処理部, 402 推定混合比処
理部, 403 混合比決定部, 421 フレームメ
モリ, 422 フレームメモリ, 423 混合比演
算部, 441 選択部, 442 推定混合比処理
部, 443 推定混合比処理部, 444 選択部,
501 遅延回路,502 足し込み部, 503
演算部, 601 分離部, 602 スイッチ, 6
03 合成部, 604 スイッチ, 605 合成
部, 621フレームメモリ, 622 分離処理ブロ
ック, 623 フレームメモリ,631 アンカバー
ド領域処理部, 632 カバード領域処理部, 63
3合成部, 634 合成部, 901 処理単位決定
部, 902 モデル化部, 903 方程式生成部,
904 演算部, 905 補正部, 906動きボ
ケ付加部, 907 選択部, 1001 合成部,
1021 背景成分生成部, 1022 混合領域画像
合成部, 1023 画像合成部, 1101 混合比
算出部, 1102 前景背景分離部, 1121 選
択部
Claims (9)
- 【請求項1】 それぞれ時間積分効果を有する所定数の
画素を有する撮像素子によって取得された所定数の画素
データから成る画像データを処理する画像処理装置にお
いて、 前記画像データにおいて前景オブジェクトを構成する前
景オブジェクト成分からなる前景領域、前記画像データ
において背景オブジェクトを構成する背景オブジェクト
成分からなる背景領域、および前記画像データにおいて
前記前景オブジェクト成分と前記背景オブジェクト成分
とが混合された領域であって、前記前景オブジェクトの
動き方向先端部側に形成されるカバードバックグラウン
ド領域および前記前景オブジェクトの動き方向後端部側
に形成されるアンカバードバックグラウンド領域とを含
む混合領域とを示す領域情報、並びに前記画像データに
基づいて、前記前景領域を中心とする前記カバードバッ
クグラウンド領域の外側端部から前記アンカバードバッ
クグラウンド領域の外側端部までの、前記前景オブジェ
クトの動き方向と一致する少なくとも1つの直線上の画
素データからなる処理単位を決定する処理単位決定手段
と、 前記処理単位に基づいて決定される前記処理単位内の画
素の画素値と、前記混合領域における前記前景オブジェ
クト成分を設定した分割数で分割してなる未知数である
分割値とを設定することで、複数の関係式からなる連立
方程式を生成する連立方程式生成手段と、 前記連立方程式を解くことで、動きボケ量の調整された
前景オブジェクト成分を演算する演算手段とを含むこと
を特徴とする画像処理装置。 - 【請求項2】 前記演算手段は、前記混合領域の端部か
ら1番目の画素に含まれる前記前景オブジェクト成分
を、隣の画素であって、前記直線上の前記混合領域の端
部から2番目の画素に含まれる前記前景オブジェクト成
分から減算すれば、前記2番目の画素に対応する1つの
前記前景オブジェクト成分が算出される性質を利用し
て、前記連立方程式を前記端部の画素に対応する関係式
から順次解くことにより、動きボケ量の調整された前記
前景オブジェクト成分を演算することを特徴とする請求
項1に記載の画像処理装置。 - 【請求項3】 前記連立方程式生成手段は、前記前景オ
ブジェクトの動き量に応じた前記分割数を基に、前記連
立方程式を生成することを特徴とする請求項1に記載の
画像処理装置。 - 【請求項4】 それぞれ時間積分効果を有する所定数の
画素を有する撮像素子によって取得された所定数の画素
データから成る画像データを処理する画像処理方法にお
いて、 前記画像データにおいて前景オブジェクトを構成する前
景オブジェクト成分からなる前景領域、前記画像データ
において背景オブジェクトを構成する背景オブジェクト
成分からなる背景領域、および前記画像データにおいて
前記前景オブジェクト成分と前記背景オブジェクト成分
とが混合された領域であって、前記前景オブジェクトの
動き方向先端部側に形成されるカバードバックグラウン
ド領域および前記前景オブジェクトの動き方向後端部側
に形成されるアンカバードバックグラウンド領域とを含
む混合領域とを示す領域情報、並びに前記画像データに
基づいて、前記前景領域を中心とする前記カバードバッ
クグラウンド領域の外側端部から前記アンカバードバッ
クグラウンド領域の外側端部までの、前記前景オブジェ
クトの動き方向と一致する少なくとも1つの直線上の画
素データからなる処理単位を決定する処理単位決定ステ
ップと、 前記処理単位に基づいて決定される前記処理単位内の画
素の画素値と、前記混合領域における前記前景オブジェ
クト成分を設定した分割数で分割してなる未知数である
分割値とを設定することで、複数の関係式からなる連立
方程式を生成する連立方程式生成ステップと、 前記連立方程式を解くことで、動きボケ量の調整された
前景オブジェクト成分を演算する演算ステップとを含む
ことを特徴とする画像処理方法。 - 【請求項5】 前記演算ステップにおいて、前記混合領
域の端部から1番目の画素に含まれる前記前景オブジェ
クト成分を、隣の画素であって、前記直線上の前記混合
領域の端部から2番目の画素に含まれる前記前景オブジ
ェクト成分から減算すれば、前記2番目の画素に対応す
る1つの前記前景オブジェクト成分が算出される性質を
利用して、前記連立方程式を前記端部の画素に対応する
関係式から順次解くことにより、動きボケ量の調整され
た前記前景オブジェクト成分が演算されることを特徴と
する請求項4に記載の画像処理方法。 - 【請求項6】 前記連立方程式生成ステップにおいて、
前記前景オブジェクトの動き量に応じた前記分割数を基
に、前記連立方程式が生成されることを特徴とする請求
項4に記載の画像処理方法。 - 【請求項7】 それぞれ時間積分効果を有する所定数の
画素を有する撮像素子によって取得された所定数の画素
データから成る画像データを処理する画像処理用のプロ
グラムであって、 前記画像データにおいて前景オブジェクトを構成する前
景オブジェクト成分からなる前景領域、前記画像データ
において背景オブジェクトを構成する背景オブジェクト
成分からなる背景領域、および前記画像データにおいて
前記前景オブジェクト成分と前記背景オブジェクト成分
とが混合された領域であって、前記前景オブジェクトの
動き方向先端部側に形成されるカバードバックグラウン
ド領域および前記前景オブジェクトの動き方向後端部側
に形成されるアンカバードバックグラウンド領域とを含
む混合領域とを示す領域情報、並びに前記画像データに
基づいて、前記前景領域を中心とする前記カバードバッ
クグラウンド領域の外側端部から前記アンカバードバッ
クグラウンド領域の外側端部までの、前記前景オブジェ
クトの動き方向と一致する少なくとも1つの直線上の画
素データからなる処理単位を決定する処理単位決定ステ
ップと、 前記処理単位に基づいて決定される前記処理単位内の画
素の画素値と、前記混合領域における前記前景オブジェ
クト成分を設定した分割数で分割してなる未知数である
分割値とを設定することで、複数の関係式からなる連立
方程式を生成する連立方程式生成ステップと、 前記連立方程式を解くことで、動きボケ量の調整された
前景オブジェクト成分を演算する演算ステップとを含む
ことを特徴とするコンピュータが読み取り可能なプログ
ラムが記録されている記録媒体。 - 【請求項8】 前記演算ステップにおいて、前記混合領
域の端部から1番目の画素に含まれる前記前景オブジェ
クト成分を、隣の画素であって、前記直線上の前記混合
領域の端部から2番目の画素に含まれる前記前景オブジ
ェクト成分から減算すれば、前記2番目の画素に対応す
る1つの前記前景オブジェクト成分が算出される性質を
利用して、前記連立方程式を前記端部の画素に対応する
関係式から順次解くことにより、動きボケ量の調整され
た前記前景オブジェクト成分が演算されることを特徴と
する請求項7に記載の記録媒体。 - 【請求項9】 前記連立方程式生成ステップにおいて、
前記前景オブジェクトの動き量に応じた前記分割数を基
に、前記連立方程式が生成されることを特徴とする請求
項7に記載の記録媒体。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001028223A JP4106874B2 (ja) | 2001-02-05 | 2001-02-05 | 画像処理装置および方法、並びに記録媒体 |
US10/240,705 US7024050B2 (en) | 2001-02-05 | 2002-02-05 | Image processing apparatus |
PCT/JP2002/000919 WO2002063561A1 (fr) | 2001-02-05 | 2002-02-05 | Dispositif de traitement d"image |
KR1020027013329A KR100799011B1 (ko) | 2001-02-05 | 2002-02-05 | 화상 처리 장치 |
CNB028005821A CN1269075C (zh) | 2001-02-05 | 2002-02-05 | 图像处理设备 |
EP02711311A EP1361540B1 (en) | 2001-02-05 | 2002-02-05 | Image processing apparatus |
DE60219141T DE60219141T2 (de) | 2001-02-05 | 2002-02-05 | Bildverarbeitungsgerät |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001028223A JP4106874B2 (ja) | 2001-02-05 | 2001-02-05 | 画像処理装置および方法、並びに記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002230544A true JP2002230544A (ja) | 2002-08-16 |
JP2002230544A5 JP2002230544A5 (ja) | 2008-03-21 |
JP4106874B2 JP4106874B2 (ja) | 2008-06-25 |
Family
ID=18892762
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001028223A Expired - Fee Related JP4106874B2 (ja) | 2001-02-05 | 2001-02-05 | 画像処理装置および方法、並びに記録媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7024050B2 (ja) |
EP (1) | EP1361540B1 (ja) |
JP (1) | JP4106874B2 (ja) |
KR (1) | KR100799011B1 (ja) |
CN (1) | CN1269075C (ja) |
DE (1) | DE60219141T2 (ja) |
WO (1) | WO2002063561A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116213A1 (ja) | 2018-12-06 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 受信装置および送信装置 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4432274B2 (ja) * | 2001-04-12 | 2010-03-17 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US7715643B2 (en) | 2001-06-15 | 2010-05-11 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
JP4596216B2 (ja) * | 2001-06-20 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596220B2 (ja) | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
DE60233569D1 (de) * | 2001-06-26 | 2009-10-15 | Sony Corp | Mputerprogramm zur bildverarbeitung, sowie bilderfassungsvorrichtung |
JP4196274B2 (ja) * | 2003-08-11 | 2008-12-17 | ソニー株式会社 | 画像信号処理装置および方法、プログラム、並びに記録媒体 |
US7486991B2 (en) * | 2003-12-24 | 2009-02-03 | Cardiac Pacemakers, Inc. | Baroreflex modulation to gradually decrease blood pressure |
US8331723B2 (en) * | 2004-03-25 | 2012-12-11 | Ozluturk Fatih M | Method and apparatus to correct digital image blur due to motion of subject or imaging device |
US9826159B2 (en) | 2004-03-25 | 2017-11-21 | Clear Imaging Research, Llc | Method and apparatus for implementing a digital graduated filter for an imaging apparatus |
US10721405B2 (en) | 2004-03-25 | 2020-07-21 | Clear Imaging Research, Llc | Method and apparatus for implementing a digital graduated filter for an imaging apparatus |
JP2006092156A (ja) * | 2004-09-22 | 2006-04-06 | Namco Ltd | プログラム、情報記憶媒体及び画像生成装置 |
US7359552B2 (en) * | 2004-12-15 | 2008-04-15 | Mitsubishi Electric Research Laboratories, Inc. | Foreground detection using intrinsic images |
JP4867659B2 (ja) * | 2004-12-21 | 2012-02-01 | ソニー株式会社 | 画像処理装置と学習装置と係数生成装置および方法 |
US7616203B1 (en) * | 2006-01-20 | 2009-11-10 | Adobe Systems Incorporated | Assigning attributes to regions across frames |
US20080099662A1 (en) * | 2006-10-31 | 2008-05-01 | Muth Global Visions, Llc | Method for adjusting an object detection apparatus |
TWI431608B (zh) * | 2007-09-12 | 2014-03-21 | Quanta Comp Inc | 影像處理方法及電腦可讀取媒介 |
JP2011091533A (ja) * | 2009-10-21 | 2011-05-06 | Sony Corp | 画像処理装置および方法、並びに、プログラム |
JP2013048717A (ja) | 2011-08-31 | 2013-03-14 | Sony Corp | 画像処理装置及び方法、記録媒体、並びにプログラム |
US9881371B2 (en) | 2012-10-24 | 2018-01-30 | Sony Corporation | System for visualization of a cancer diagnosis |
CN109636731B (zh) * | 2018-10-23 | 2020-11-13 | 惠州Tcl移动通信有限公司 | 一种图像拖影的消除方法、电子设备及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04352289A (ja) * | 1991-05-30 | 1992-12-07 | Mitsubishi Electric Corp | 映像信号処理装置 |
JP2000030040A (ja) * | 1998-07-14 | 2000-01-28 | Canon Inc | 画像処理装置及びコンピュータ読み取り可能な記憶媒体 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5063603A (en) * | 1989-11-06 | 1991-11-05 | David Sarnoff Research Center, Inc. | Dynamic method for recognizing objects and image processing system therefor |
SK399692A3 (en) | 1990-09-20 | 1995-01-05 | British Broadcasting Corp | Method of determination of suitable motion vector |
GB9204117D0 (en) * | 1992-02-26 | 1992-04-08 | British Broadcasting Corp | Video image processing |
US5831627A (en) * | 1996-06-27 | 1998-11-03 | R/Greenberg Associates | System and method for providing improved graphics generation performance using memory lookup |
KR100224752B1 (ko) * | 1997-06-11 | 1999-10-15 | 윤종용 | 표적 추적 방법 및 장치 |
US6404901B1 (en) * | 1998-01-29 | 2002-06-11 | Canon Kabushiki Kaisha | Image information processing apparatus and its method |
US6665342B1 (en) * | 1999-07-02 | 2003-12-16 | International Business Machines Corporation | System and method for producing a still image representation of a motion video |
-
2001
- 2001-02-05 JP JP2001028223A patent/JP4106874B2/ja not_active Expired - Fee Related
-
2002
- 2002-02-05 WO PCT/JP2002/000919 patent/WO2002063561A1/ja active IP Right Grant
- 2002-02-05 DE DE60219141T patent/DE60219141T2/de not_active Expired - Lifetime
- 2002-02-05 EP EP02711311A patent/EP1361540B1/en not_active Expired - Lifetime
- 2002-02-05 US US10/240,705 patent/US7024050B2/en not_active Expired - Fee Related
- 2002-02-05 CN CNB028005821A patent/CN1269075C/zh not_active Expired - Fee Related
- 2002-02-05 KR KR1020027013329A patent/KR100799011B1/ko not_active IP Right Cessation
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04352289A (ja) * | 1991-05-30 | 1992-12-07 | Mitsubishi Electric Corp | 映像信号処理装置 |
JP2000030040A (ja) * | 1998-07-14 | 2000-01-28 | Canon Inc | 画像処理装置及びコンピュータ読み取り可能な記憶媒体 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020116213A1 (ja) | 2018-12-06 | 2020-06-11 | ソニーセミコンダクタソリューションズ株式会社 | 受信装置および送信装置 |
KR20210096090A (ko) | 2018-12-06 | 2021-08-04 | 소니 세미컨덕터 솔루션즈 가부시키가이샤 | 수신 장치 및 송신 장치 |
US11606500B2 (en) | 2018-12-06 | 2023-03-14 | Sony Semiconductor Solutions Corporation | Reception apparatus and transmission apparatus |
US11924546B2 (en) | 2018-12-06 | 2024-03-05 | Sony Semiconductor Solutions Corporation | Reception apparatus and transmission apparatus |
Also Published As
Publication number | Publication date |
---|---|
WO2002063561A1 (fr) | 2002-08-15 |
EP1361540A1 (en) | 2003-11-12 |
KR100799011B1 (ko) | 2008-01-28 |
DE60219141D1 (de) | 2007-05-10 |
US7024050B2 (en) | 2006-04-04 |
CN1459078A (zh) | 2003-11-26 |
US20030174899A1 (en) | 2003-09-18 |
EP1361540B1 (en) | 2007-03-28 |
DE60219141T2 (de) | 2008-01-03 |
JP4106874B2 (ja) | 2008-06-25 |
CN1269075C (zh) | 2006-08-09 |
KR20020089432A (ko) | 2002-11-29 |
EP1361540A4 (en) | 2005-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4596202B2 (ja) | 画像処理装置および方法、並びに記録媒体 | |
JP4729812B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596220B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596216B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596222B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4106874B2 (ja) | 画像処理装置および方法、並びに記録媒体 | |
JP4596221B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596226B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596203B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596223B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596219B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4674408B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596214B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4840630B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596215B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596217B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4150949B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596209B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596218B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596205B2 (ja) | 画像処理装置および方法、並びにプログラム | |
JP4596225B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
KR100895744B1 (ko) | 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080204 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080324 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110411 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110411 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120411 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130411 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140411 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |