JP2002230557A - 画像処理装置および方法、並びに記録媒体 - Google Patents
画像処理装置および方法、並びに記録媒体Info
- Publication number
- JP2002230557A JP2002230557A JP2001028222A JP2001028222A JP2002230557A JP 2002230557 A JP2002230557 A JP 2002230557A JP 2001028222 A JP2001028222 A JP 2001028222A JP 2001028222 A JP2001028222 A JP 2001028222A JP 2002230557 A JP2002230557 A JP 2002230557A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- background
- area
- frame
- foreground
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims description 203
- 238000000034 method Methods 0.000 title claims description 117
- 230000014509 gene expression Effects 0.000 claims abstract description 90
- 239000000284 extract Substances 0.000 claims abstract description 13
- 239000000203 mixture Substances 0.000 claims description 308
- 230000008859 change Effects 0.000 claims description 55
- 238000001514 detection method Methods 0.000 claims description 37
- 238000000605 extraction Methods 0.000 claims description 21
- 238000003672 processing method Methods 0.000 claims description 9
- 230000000694 effects Effects 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 4
- 238000002156 mixing Methods 0.000 abstract description 28
- 238000010586 diagram Methods 0.000 description 131
- 230000015654 memory Effects 0.000 description 74
- 230000008569 process Effects 0.000 description 71
- 238000000926 separation method Methods 0.000 description 57
- 230000002194 synthesizing effect Effects 0.000 description 42
- 230000003068 static effect Effects 0.000 description 38
- 239000013598 vector Substances 0.000 description 38
- 230000015572 biosynthetic process Effects 0.000 description 24
- 238000003786 synthesis reaction Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 11
- 238000012937 correction Methods 0.000 description 9
- 239000011159 matrix material Substances 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 239000002131 composite material Substances 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010408 sweeping Methods 0.000 description 2
- 241000370685 Arge Species 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 238000012776 robust process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 210000002784 stomach Anatomy 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2622—Signal amplitude transition in the zone between image portions, e.g. soft edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20201—Motion blur correction
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- Studio Circuits (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
す混合比を検出する。 【解決手段】 足し込み部502は、背景画素データを
抽出するとともに、注目画素および近傍画素データを抽
出する。足し込み部502は、注目画素および近傍画素
データ、並びに背景画素データの関係を示す、複数の関
係式を生成する。演算部503は、関係式に基づいて、
注目画素に対して、現実世界において複数であるオブジ
ェクトの混合状態を示す混合比を演算する。
Description
び方法、並びに記録媒体に関し、特に、センサにより検
出した信号と現実世界との違いを考慮した画像処理装置
および方法、並びに記録媒体に関する。
し、画像センサが出力するサンプリングデータを処理す
る技術が広く利用されている。
動する物体をビデオカメラで撮像して得られる画像に
は、物体の移動速度が比較的速い場合、動きボケが生じ
ることになる。
で物体が移動するとき、移動する物体の画像自身の混ざ
り合いによる動きボケのみならず、背景の画像と移動す
る物体の画像との混ざり合いが生じる。従来は、背景の
画像と移動する物体の画像との混ざり合いの状態を検出
することは、考えられていなかった。
ものであり、背景の画像および移動する物体の画像など
複数のオブジェクトの混ざり合いの状態を示す混合比を
検出することができるようにすることを目的とする。
は、画像データの注目フレームの注目画素に対応する、
注目フレームの前または後のフレームの画素データを、
画像データの複数のオブジェクトのうちの背景となるオ
ブジェクトに相当する背景画素データとして抽出する背
景画素抽出手段と、注目フレームに存在する注目画素と
共に、注目画素の近傍に位置する、注目フレーム内の近
傍画素データを抽出する注目フレーム画素抽出手段と、
注目画素について、注目画素および近傍画素データ、並
びに注目画素または近傍画素データに対応する背景画素
データの関係を示す、複数の関係式を生成する関係式生
成手段と、関係式に基づいて、注目画素に対して、現実
世界において複数であるオブジェクトの混合状態を示す
混合比を検出する混合比検出手段とを含むことを特徴と
する。
素データに含まれる、画像データの複数のオブジェクト
のうちの前景となるオブジェクトの成分が同一であると
する第1の近似、並びに複数のオブジェクトが混合され
ている混合領域において混合比の変化が画素の位置に対
して直線的であるとする第2の近似に基づいて、複数の
関係式を生成するようにすることができる。
素データに含まれる、画像データの複数のオブジェクト
のうちの前景となるオブジェクトの成分が同一であると
する第1の近似、並びに複数のオブジェクトが混合され
ている混合領域において混合比の変化が画素の位置に対
して平面的であるとする第2の近似に基づいて、複数の
関係式を生成するようにすることができる。
乗法で解くことにより、混合比を検出するようにするこ
とができる。
オブジェクトが混合されている混合領域であって、前景
のオブジェクトの動き方向先端部側に形成されるカバー
ドバックグラウンド領域に属する場合、注目フレームの
前のフレームの画素データを、背景画素データとして抽
出し、注目画素が、複数のオブジェクトが混合されてい
る混合領域であって、前景のオブジェクトの動き方向後
端部側に形成されるアンカバードバックグラウンド領域
に属する場合、注目フレームの後のフレームの画素デー
タを、背景画素データとして抽出するようにすることが
できる。
のオブジェクトのうちの前景となるオブジェクトからな
る前景領域、画像データにおいて複数のオブジェクトの
うちの背景となるオブジェクトからなる背景領域、並び
にカバードバックグラウンド領域およびアンカバードバ
ックグラウンド領域を含む混合領域を特定し、前景領
域、背景領域、並びにカバードバックグラウンド領域お
よびアンカバードバックグラウンド領域を含む混合領域
を示す領域情報を生成する領域情報生成手段をさらに設
けることができる。
目フレームの注目画素に対応する、注目フレームの前ま
たは後のフレームの画素データを、画像データの複数の
オブジェクトのうちの背景となるオブジェクトに相当す
る背景画素データとして抽出する背景画素抽出ステップ
と、注目フレームに存在する注目画素と共に、注目画素
の近傍に位置する、注目フレーム内の近傍画素データを
抽出する注目フレーム画素抽出ステップと、注目画素に
ついて、注目画素および近傍画素データ、並びに注目画
素または近傍画素データに対応する背景画素データの関
係を示す、複数の関係式を生成する関係式生成ステップ
と、関係式に基づいて、注目画素に対して、現実世界に
おいて複数であるオブジェクトの混合状態を示す混合比
を検出する混合比検出ステップとを含むことを特徴とす
る。
よび近傍画素データに含まれる、画像データの複数のオ
ブジェクトのうちの前景となるオブジェクトの成分が同
一であるとする第1の近似、並びに複数のオブジェクト
が混合されている混合領域において混合比の変化が混合
領域内での画素の位置に対して直線的であるとする第2
の近似に基づいて、複数の関係式が生成されるようにす
ることができる。
よび近傍画素データに含まれる、画像データの複数のオ
ブジェクトのうちの前景となるオブジェクトの成分が同
一であるとする第1の近似、並びに複数のオブジェクト
が混合されている混合領域において混合比の変化が混合
領域内での画素の位置に対して平面的であるとする第2
の近似に基づいて、複数の関係式が生成されるようにす
ることができる。
式を最小自乗法で解くことにより、混合比が検出される
ようにすることができる。
が、複数のオブジェクトが混合されている混合領域であ
って、前景のオブジェクトの動き方向先端部側に形成さ
れるカバードバックグラウンド領域に属する場合、注目
フレームの前のフレームの画素データが、背景画素デー
タとして抽出され、注目画素が、複数のオブジェクトが
混合されている混合領域であって、前景のオブジェクト
の動き方向後端部側に形成されるアンカバードバックグ
ラウンド領域に属する場合、注目フレームの後のフレー
ムの画素データが、背景画素データとして抽出されるよ
うにすることができる。
のオブジェクトのうちの前景となるオブジェクトからな
る前景領域、画像データにおいて複数のオブジェクトの
うちの背景となるオブジェクトからなる背景領域、並び
にカバードバックグラウンド領域およびアンカバードバ
ックグラウンド領域を含む混合領域を特定し、前景領
域、背景領域、並びにカバードバックグラウンド領域お
よびアンカバードバックグラウンド領域を含む混合領域
を示す領域情報を生成する領域情報生成ステップをさら
に設けることができる。
ータの注目フレームの注目画素に対応する、注目フレー
ムの前または後のフレームの画素データを、画像データ
の複数のオブジェクトのうちの背景となるオブジェクト
に相当する背景画素データとして抽出する背景画素抽出
ステップと、注目フレームに存在する注目画素と共に、
注目画素の近傍に位置する、注目フレーム内の近傍画素
データを抽出する注目フレーム画素抽出ステップと、注
目画素について、注目画素および近傍画素データ、並び
に注目画素または近傍画素データに対応する背景画素デ
ータの関係を示す、複数の関係式を生成する関係式生成
ステップと、関係式に基づいて、注目画素に対して、現
実世界において複数であるオブジェクトの混合状態を示
す混合比を検出する混合比検出ステップとを含むことを
特徴とする。
よび近傍画素データに含まれる、画像データの複数のオ
ブジェクトのうちの前景となるオブジェクトの成分が同
一であるとする第1の近似、並びに複数のオブジェクト
が混合されている混合領域において混合比の変化が混合
領域内での画素の位置に対して直線的であるとする第2
の近似に基づいて、複数の関係式が生成されるようにす
ることができる。
よび近傍画素データに含まれる、画像データの複数のオ
ブジェクトのうちの前景となるオブジェクトの成分が同
一であるとする第1の近似、並びに複数のオブジェクト
が混合されている混合領域において混合比の変化が混合
領域内での画素の位置に対して平面的であるとする第2
の近似に基づいて、複数の関係式が生成されるようにす
ることができる。
式を最小自乗法で解くことにより、混合比が検出される
ようにすることができる。
が、複数のオブジェクトが混合されている混合領域であ
って、前景のオブジェクトの動き方向先端部側に形成さ
れるカバードバックグラウンド領域に属する場合、注目
フレームの前のフレームの画素データが、背景画素デー
タとして抽出され、注目画素が、複数のオブジェクトが
混合されている混合領域であって、前景のオブジェクト
の動き方向後端部側に形成されるアンカバードバックグ
ラウンド領域に属する場合、注目フレームの後のフレー
ムの画素データが、背景画素データとして抽出されるよ
うにすることができる。
いて複数のオブジェクトのうちの前景となるオブジェク
トからなる前景領域、画像データにおいて複数のオブジ
ェクトのうちの背景となるオブジェクトからなる背景領
域、並びにカバードバックグラウンド領域およびアンカ
バードバックグラウンド領域を含む混合領域を特定し、
前景領域、背景領域、並びにカバードバックグラウンド
領域およびアンカバードバックグラウンド領域を含む混
合領域を示す領域情報を生成する領域情報生成ステップ
をさらに設けることができる。
記録媒体においては、画像データの注目フレームの注目
画素に対応する、注目フレームの前または後のフレーム
の画素データが、画像データの複数のオブジェクトのう
ちの背景となるオブジェクトに相当する背景画素データ
として抽出され、注目フレームに存在する注目画素と共
に、注目画素の近傍に位置する、注目フレーム内の近傍
画素データが抽出され、注目画素について、注目画素お
よび近傍画素データ、並びに注目画素または近傍画素デ
ータに対応する背景画素データの関係を示す、複数の関
係式が生成され、関係式に基づいて、注目画素に対し
て、現実世界において複数であるオブジェクトの混合状
態を示す混合比が検出される。
る。同図に示すように、空間と時間軸を有する現実社会
1の情報である第1の信号がセンサ2により取得され、
データ化される。センサ2が取得したデータ3である検
出信号は、現実社会1の情報を、現実社会より低い次元
の時空間に射影して得られた情報である。従って、射影
して得られた情報は、射影により発生する歪みを有して
いる。換言すれば、センサ2が出力するデータ3は、現
実社会1の情報に対して歪みを有している。また、デー
タ3は、射影による歪みを有しているが、これを補正す
るための有意情報を含んでいる。
力したデータを信号処理部4において信号処理すること
で、有意情報が抽出される。
たデータを信号処理部4において信号処理することで、
その歪みが除去されるか、低減されるか、または調整す
ることができる。
の構成例を表している。センサ11は、例えば、ビデオ
カメラで構成され、現実社会の画像を撮像し、得られた
画像データを信号処理部12に出力する。信号処理部1
2は、例えば、パーソナルコンピュータなどで構成さ
れ、センサ11より入力されたデータを処理し、射影に
より発生する歪みの量を調整したり、射影により埋もれ
た有意情報の含まれる領域を特定したり、更に特定した
領域から有意情報を抽出したり、抽出した有意情報に基
づいて、入力されたデータを処理したりする。
混合比である。
れる領域を示す情報も有意情報と考えることができる。
ここでは、後述する領域情報が有意情報に相当する。
えば、後述する混合領域である。
うに構成される。CPU(Central Processing Uuit)21
は、ROM(Read Only Memory)22、または記憶部28
に記憶されているプログラムに従って各種の処理を実行
する。RAM(Random Access Memory)23には、CPU21
が実行するプログラムやデータなどが適宜記憶される。
これらのCPU21、ROM22、およびRAM23は、バス2
4により相互に接続されている。
力インタフェース25が接続されている。入出力インタ
フェース25には、キーボード、マウス、マイクロホン
などよりなる入力部26、ディスプレイ、スピーカなど
よりなる出力部27が接続されている。CPU21は、入
力部26から入力される指令に対応して各種の処理を実
行する。そして、CPU21は、処理の結果得られた画像
や音声等を出力部27に出力する。
る記憶部28は、例えばハードディスクなどで構成さ
れ、CPU21が実行するプログラムや各種のデータを記
憶する。通信部29は、インターネット、その他のネッ
トワークを介して外部の装置と通信する。この例の場
合、通信部29はセンサ11の出力を取り込む取得部と
して働く。
得し、記憶部28に記憶してもよい。
るドライブ30は、磁気ディスク51、光ディスク5
2、光磁気ディスク53、或いは半導体メモリ54など
が装着されたとき、それらを駆動し、そこに記録されて
いるプログラムやデータなどを取得する。取得されたプ
ログラムやデータは、必要に応じて記憶部28に転送さ
れ、記憶される。
ら、有意情報が埋もれている領域を特定したり、埋もれ
た有意情報を抽出する処理を行う信号処理装置について
より具体的な例を挙げて説明する。以下の例において、
CCDラインセンサまたはCCDエリアセンサがセンサに対応
し、領域情報や混合比が有意情報に対応し、混合領域に
おいて、前景と背景が混合していることや動きボケが歪
みに対応する。
である。
ェアで実現するか、ソフトウェアで実現するかは問わな
い。つまり、本明細書の各ブロック図は、ハードウェア
のブロック図と考えても、ソフトウェアによる機能ブロ
ック図と考えても良い。
る、現実世界におけるオブジェクトの動きと、センサ1
1の撮像の特性とにより生じる、動いているオブジェク
トに対応する画像に含まれている歪みをいう。
世界におけるオブジェクトに対応する画像を、画像オブ
ジェクトと称する。
オブジェクト抽出部101、領域特定部103、混合比
算出部104、および前景背景分離部105に供給され
る。
含まれる前景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像に含まれる前景のオブジェクトに対応
する画像オブジェクトの輪郭を検出することで、前景の
オブジェクトに対応する画像オブジェクトを粗く抽出す
る。
含まれる背景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像と、抽出された前景のオブジェクトに
対応する画像オブジェクトとの差から、背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出する。
は、内部に設けられている背景メモリに記憶されている
背景の画像と、入力画像との差から、前景のオブジェク
トに対応する画像オブジェクト、および背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出するように
してもよい。
ッチング法、勾配法、位相相関法、およびペルリカーシ
ブ法などの手法により、粗く抽出された前景のオブジェ
クトに対応する画像オブジェクトの動きベクトルを算出
して、算出した動きベクトルおよび動きベクトルの位置
情報(動きベクトルに対応する画素の位置を特定する情
報)を領域特定部103および動きボケ抽出部106に
供給する。
には、動き量vに対応する情報が含まれるている。
オブジェクトに画素を特定する画素位置情報と共に、画
像オブジェクト毎の動きベクトルを動きボケ調整部10
6に出力するようにしてもよい。
応する画像の位置の変化を画素間隔を単位として表す値
である。例えば、前景に対応するオブジェクトの画像
が、あるフレームを基準として次のフレームにおいて4
画素分離れた位置に表示されるように移動していると
き、前景に対応するオブジェクトの画像の動き量vは、
4とされる。
き検出部102は、動いているオブジェクトに対応した
動きボケ量の調整を行う場合に必要となる。
素のそれぞれを、前景領域、背景領域、または混合領域
のいずれかに特定し、画素毎に前景領域、背景領域、ま
たは混合領域のいずれかに属するかを示す情報(以下、
領域情報と称する)を混合比算出部104、前景背景分
離部105、および動きボケ調整部106に供給する。
領域特定部103から供給された領域情報を基に、混合
領域63に含まれる画素に対応する混合比(以下、混合
比αと称する)を算出して、算出した混合比を前景背景
分離部105に供給する。
ように、画素値における、背景のオブジェクトに対応す
る画像の成分(以下、背景の成分とも称する)の割合を
示す値である。
3から供給された領域情報、および混合比算出部104
から供給された混合比αを基に、前景のオブジェクトに
対応する画像の成分(以下、前景の成分とも称する)の
みから成る前景成分画像と、背景の成分のみから成る背
景成分画像とに入力画像を分離して、前景成分画像を動
きボケ調整部106および選択部107に供給する。な
お、分離された前景成分画像を最終的な出力とすること
も考えられる。従来の混合領域を考慮しないで前景と背
景だけを特定し、分離していた方式に比べ正確な前景と
背景を得ることが出来る。
らわかる動き量vおよび領域情報を基に、前景成分画像
に含まれる1以上の画素を示す処理単位を決定する。処
理単位は、動きボケの量の調整の処理の対象となる1群
の画素を指定するデータである。
に入力された動きボケ調整量、前景背景分離部105か
ら供給された前景成分画像、動き検出部102から供給
された動きベクトルおよびその位置情報、並びに処理単
位を基に、前景成分画像に含まれる動きボケを除去す
る、動きボケの量を減少させる、または動きボケの量を
増加させるなど前景成分画像に含まれる動きボケの量を
調整して、動きボケの量を調整した前景成分画像を選択
部107に出力する。動きベクトルとその位置情報は使
わないこともある。
応した選択信号を基に、前景背景分離部105から供給
された前景成分画像、および動きボケ調整部106から
供給された動きボケの量が調整された前景成分画像のい
ずれか一方を選択して、選択した前景成分画像を出力す
る。
理部12に供給される入力画像について説明する。
ある。センサ11は、例えば、固体撮像素子であるCCD
(Charge-Coupled Device)エリアセンサを備えたCCDビ
デオカメラなどで構成される。現実世界における、前景
に対応するオブジェクトは、現実世界における、背景に
対応するオブジェクトと、センサ11との間を、例え
ば、図中の左側から右側に水平に移動する。
トを、背景に対応するオブジェクトと共に撮像する。セ
ンサ11は、撮像した画像を1フレーム単位で出力す
る。例えば、センサ11は、1秒間に30フレームから
成る画像を出力する。センサ11の露光時間は、1/3
0秒とすることができる。露光時間は、センサ11が入
力された光の電荷への変換を開始してから、入力された
光の電荷への変換を終了するまでの期間である。以下、
露光時間をシャッタ時間とも称する。
図6中において、A乃至Iは、個々の画素を示す。画素
は、画像に対応する平面上に配置されている。1つの画
素に対応する1つの検出素子は、センサ11上に配置さ
れている。センサ11が画像を撮像するとき、1つの検
出素子は、画像を構成する1つの画素に対応する画素値
を出力する。例えば、検出素子のX方向の位置は、画像
上の横方向の位置に対応し、検出素子のY方向の位置
は、画像上の縦方向の位置に対応する。
出素子は、シャッタ時間に対応する期間、入力された光
を電荷に変換して、変換された電荷を蓄積する。電荷の
量は、入力された光の強さと、光が入力されている時間
にほぼ比例する。検出素子は、シャッタ時間に対応する
期間において、入力された光から変換された電荷を、既
に蓄積されている電荷に加えていく。すなわち、検出素
子は、シャッタ時間に対応する期間、入力される光を積
分して、積分された光に対応する量の電荷を蓄積する。
検出素子は、時間に対して、積分効果があるとも言え
る。
路により、電圧値に変換され、電圧値は更にデジタルデ
ータなどの画素値に変換されて出力される。従って、セ
ンサ11から出力される個々の画素値は、前景または背
景に対応するオブジェクトの空間的に広がりを有するあ
る部分を、シャッタ時間について積分した結果である、
1次元の空間に射影された値を有する。
の蓄積の動作により、出力信号に埋もれてしまった有意
な情報、例えば、混合比αを抽出する。信号処理部12
は、前景の画像オブジェクト自身が混ざり合うことによ
る生ずる歪みの量、例えば、動きボケの量などを調整す
る。また、信号処理部12は、前景の画像オブジェクト
と背景の画像オブジェクトとが混ざり合うことにより生
ずる歪みの量を調整する。
ェクトと、静止している背景に対応するオブジェクトと
を撮像して得られる画像を説明する図である。図8
(A)は、動きを伴う前景に対応するオブジェクトと、
静止している背景に対応するオブジェクトとを撮像して
得られる画像を示している。図8(A)に示す例におい
て、前景に対応するオブジェクトは、画面に対して水平
に左から右に動いている。
つのラインに対応する画素値を時間方向に展開したモデ
ル図である。図8(B)の横方向は、図8(A)の空間
方向Xに対応している。
ち、背景のオブジェクトに対応する画像の成分のみか
ら、その画素値が構成されている。前景領域の画素は、
前景の成分、すなわち、前景のオブジェクトに対応する
画像の成分のみから、その画素値が構成されている。
景の成分から、その画素値が構成されている。混合領域
は、背景の成分、および前景の成分から、その画素値が
構成されているので、歪み領域ともいえる。混合領域
は、更に、カバードバックグラウンド領域およびアンカ
バードバックグラウンド領域に分類される。
域に対して、前景のオブジェクトの進行方向の前端部に
対応する位置の混合領域であり、時間の経過に対応して
背景成分が前景に覆い隠される領域をいう。
ンド領域は、前景領域に対して、前景のオブジェクトの
進行方向の後端部に対応する位置の混合領域であり、時
間の経過に対応して背景成分が現れる領域をいう。
カバードバックグラウンド領域若しくはアンカバードバ
ックグラウンド領域を含む画像が、領域特定部103、
混合比算出部104、および前景背景分離部105に入
力画像として入力される。
域、混合領域、カバードバックグラウンド領域、および
アンカバードバックグラウンド領域を説明する図であ
る。図8に示す画像に対応する場合、背景領域は、静止
部分であり、前景領域は、動き部分であり、混合領域の
カバードバックグラウンド領域は、背景から前景に変化
する部分であり、混合領域のアンカバードバックグラウ
ンド領域は、前景から背景に変化する部分である。
ブジェクトおよび静止している背景に対応するオブジェ
クトを撮像した画像における、隣接して1列に並んでい
る画素の画素値を時間方向に展開したモデル図である。
例えば、隣接して1列に並んでいる画素として、画面の
1つのライン上に並んでいる画素を選択することができ
る。
している前景のオブジェクトに対応する画素の画素値で
ある。図10に示すB01乃至B04の画素値は、静止してい
る背景のオブジェクトに対応する画素の画素値である。
に向かって時間が経過する。図10中の矩形の上辺の位
置は、センサ11が入力された光の電荷への変換を開始
する時刻に対応し、図10中の矩形の下辺の位置は、セ
ンサ11が入力された光の電荷への変換を終了する時刻
に対応する。すなわち、図10中の矩形の上辺から下辺
までの距離は、シャッタ時間に対応する。
隔とが同一である場合を例に説明する。
空間方向Xに対応する。より具体的には、図10に示す
例において、図10中の”F01”と記載された矩形の左
辺から”B04”と記載された矩形の右辺までの距離は、
画素のピッチの8倍、すなわち、連続している8つの画
素の間隔に対応する。
クトが静止している場合、シャッタ時間に対応する期間
において、センサ11に入力される光は変化しない。
つ以上の同じ長さの期間に分割する。例えば、仮想分割
数を4とすると、図10に示すモデル図は、図11に示
すモデルとして表すことができる。仮想分割数は、前景
に対応するオブジェクトのシャッタ時間内での動き量v
などに対応して設定される。例えば、4である動き量v
に対応して、仮想分割数は、4とされ、シャッタ時間に
対応する期間は4つに分割される。
初の、分割された期間に対応する。図中の上から2番目
の行は、シャッタが開いて2番目の、分割された期間に
対応する。図中の上から3番目の行は、シャッタが開い
て3番目の、分割された期間に対応する。図中の上から
4番目の行は、シャッタが開いて4番目の、分割された
期間に対応する。
ッタ時間をシャッタ時間/vとも称する。
るとき、センサ11に入力される光は変化しないので、
前景の成分F01/vは、画素値F01を仮想分割数で除した値
に等しい。同様に、前景に対応するオブジェクトが静止
しているとき、前景の成分F02/vは、画素値F02を仮想分
割数で除した値に等しく、前景の成分F03/vは、画素値F
03を仮想分割数で除した値に等しく、前景の成分F04/v
は、画素値F04を仮想分割数で除した値に等しい。
るとき、センサ11に入力される光は変化しないので、
背景の成分B01/vは、画素値B01を仮想分割数で除した値
に等しい。同様に、背景に対応するオブジェクトが静止
しているとき、背景の成分B02/vは、画素値B02を仮想分
割数で除した値に等しく、B03/vは、画素値B03を仮想分
割数で除した値に等しく、B04/vは、画素値B04を仮想分
割数で除した値に等しい。
静止している場合、シャッタ時間に対応する期間におい
て、センサ11に入力される前景のオブジェクトに対応
する光が変化しないので、シャッタが開いて最初の、シ
ャッタ時間/vに対応する前景の成分F01/vと、シャッタ
が開いて2番目の、シャッタ時間/vに対応する前景の成
分F01/vと、シャッタが開いて3番目の、シャッタ時間/
vに対応する前景の成分F01/vと、シャッタが開いて4番
目の、シャッタ時間/vに対応する前景の成分F01/vと
は、同じ値となる。F02/v乃至F04/vも、F01/vと同様の
関係を有する。
る場合、シャッタ時間に対応する期間において、センサ
11に入力される背景のオブジェクトに対応する光は変
化しないので、シャッタが開いて最初の、シャッタ時間
/vに対応する背景の成分B01/vと、シャッタが開いて2
番目の、シャッタ時間/vに対応する背景の成分B01/v
と、シャッタが開いて3番目の、シャッタ時間/vに対応
する背景の成分B01/vと、シャッタが開いて4番目の、
シャッタ時間/vに対応する背景の成分B01/vとは、同じ
値となる。B02/v乃至B04/vも、同様の関係を有する。
し、背景に対応するオブジェクトが静止している場合に
ついて説明する。
図中の右側に向かって移動する場合の、カバードバック
グラウンド領域を含む、1つのライン上の画素の画素値
を時間方向に展開したモデル図である。図12におい
て、前景の動き量vは、4である。1フレームは短い時
間なので、前景に対応するオブジェクトが剛体であり、
等速で移動していると仮定することができる。図12に
おいて、前景に対応するオブジェクトの画像は、あるフ
レームを基準として次のフレームにおいて4画素分右側
に表示されるように移動する。
ら4番目の画素は、前景領域に属する。図12におい
て、左から5番目乃至左から7番目の画素は、カバード
バックグラウンド領域である混合領域に属する。図12
において、最も右側の画素は、背景領域に属する。
と共に背景に対応するオブジェクトを覆い隠すように移
動しているので、カバードバックグラウンド領域に属す
る画素の画素値に含まれる成分は、シャッタ時間に対応
する期間のある時点で、背景の成分から、前景の成分に
替わる。
Mは、式(1)で表される。
ャッタ時間/vに対応する背景の成分を含み、3つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、1/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、3つのシャッタ時間/vに対
応する背景の成分を含み、1つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、3/4である。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から4番目の画素の、シャッタが開い
て最初の、シャッタ時間/vの前景の成分F07/vは、図1
2中の左から5番目の画素の、シャッタが開いて2番目
のシャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F07/vは、図12中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から3番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F06/vは、図12
中の左から4番目の画素の、シャッタが開いて2番目の
シャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F06/vは、図12中の左から5番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から6番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の左から2番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F05/vは、図12
中の左から3番目の画素の、シャッタが開いて2番目の
シャッタ時間/vのに対応する前景の成分に等しい。同様
に、前景の成分F05/vは、図12中の左から4番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図12中の左から5番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図12中の最も左側の画素の、シャッタが開いて最
初のシャッタ時間/vの前景の成分F04/vは、図12中の
左から2番目の画素の、シャッタが開いて2番目のシャ
ッタ時間/vに対応する前景の成分に等しい。同様に、前
景の成分F04/vは、図12中の左から3番目の画素の、
シャッタが開いて3番目のシャッタ時間/vに対応する前
景の成分と、図12中の左から4番目の画素の、シャッ
タが開いて4番目のシャッタ時間/vに対応する前景の成
分とに、それぞれ等しい。
領域は、このように動きボケを含むので、歪み領域とも
言える。
動する場合の、アンカバードバックグラウンド領域を含
む、1つのライン上の画素の画素値を時間方向に展開し
たモデル図である。図13において、前景の動き量v
は、4である。1フレームは短い時間なので、前景に対
応するオブジェクトが剛体であり、等速で移動している
と仮定することができる。図13において、前景に対応
するオブジェクトの画像は、あるフレームを基準として
次のフレームにおいて4画素分右側に移動する。
ら4番目の画素は、背景領域に属する。図13におい
て、左から5番目乃至左から7番目の画素は、アンカバ
ードバックグラウンドである混合領域に属する。図13
において、最も右側の画素は、前景領域に属する。
前景に対応するオブジェクトが時間の経過と共に背景に
対応するオブジェクトの前から取り除かれるように移動
しているので、アンカバードバックグラウンド領域に属
する画素の画素値に含まれる成分は、シャッタ時間に対
応する期間のある時点で、前景の成分から、背景の成分
に替わる。
M'は、式(2)で表される。
ャッタ時間/vに対応する背景の成分を含み、1つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、3/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、1つのシャッタ時間/vに対
応する背景の成分を含み、3つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、1/4である。
と、画素値Mは、式(3)で表される。
り、Fi/vは、前景の成分である。
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図13中の左から5番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F01/
vは、図13中の左から6番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。同様に、F01/vは、図13中の左から7番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図13中の左から8番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
り、等速で動くと仮定でき、かつ、仮想分割数が4であ
るので、例えば、図13中の左から6番目の画素の、シ
ャッタが開いて最初の、シャッタ時間/vの前景の成分F0
2/vは、図13中の左から7番目の画素の、シャッタが
開いて2番目のシャッタ時間/vに対応する前景の成分に
等しい。同様に、前景の成分F02/vは、図13中の左か
ら8番目の画素の、シャッタが開いて3番目のシャッタ
時間/vに対応する前景の成分に等しい。
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図13中の左から7番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F03/
vは、図13中の左から8番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。
割数は、4であるとして説明したが、仮想分割数は、動
き量vに対応する。動き量vは、一般に、前景に対応する
オブジェクトの移動速度に対応する。例えば、前景に対
応するオブジェクトが、あるフレームを基準として次の
フレームにおいて4画素分右側に表示されるように移動
しているとき、動き量vは、4とされる。動き量vに対応
し、仮想分割数は、4とされる。同様に、例えば、前景
に対応するオブジェクトが、あるフレームを基準として
次のフレームにおいて6画素分左側に表示されるように
移動しているとき、動き量vは、6とされ、仮想分割数
は、6とされる。
前景領域、背景領域、カバードバックグラウンド領域若
しくはアンカバードバックグラウンド領域から成る混合
領域と、分割されたシャッタ時間に対応する前景の成分
および背景の成分との関係を示す。
ているオブジェクトに対応する前景を含む画像から、前
景領域、背景領域、および混合領域の画素を抽出した例
を示す。図14に示す例において、前景に対応するオブ
ジェクトは、画面に対して水平に移動している。
ムであり、フレーム#n+2は、フレーム#n+1の次のフレー
ムである。
ら抽出した、前景領域、背景領域、および混合領域の画
素を抽出して、動き量vを4として、抽出された画素の
画素値を時間方向に展開したモデルを図15に示す。
ジェクトが移動するので、シャッタ時間/vの期間に対応
する、4つの異なる前景の成分から構成される。例え
ば、図15に示す前景領域の画素のうち最も左側に位置
する画素は、F01/v,F02/v,F03/v、およびF04/vから構成
される。すなわち、前景領域の画素は、動きボケを含ん
でいる。
るので、シャッタ時間に対応する期間において、センサ
11に入力される背景に対応する光は変化しない。この
場合、背景領域の画素値は、動きボケを含まない。
ンカバードバックグラウンド領域から成る混合領域に属
する画素の画素値は、前景の成分と、背景の成分とから
構成される。
ているとき、複数のフレームにおける、隣接して1列に
並んでいる画素であって、フレーム上で同一の位置の画
素の画素値を時間方向に展開したモデルについて説明す
る。例えば、オブジェクトに対応する画像が画面に対し
て水平に動いているとき、隣接して1列に並んでいる画
素として、画面の1つのライン上に並んでいる画素を選
択することができる。
ブジェクトを撮像した画像の3つのフレームの、隣接し
て1列に並んでいる画素であって、フレーム上で同一の
位置の画素の画素値を時間方向に展開したモデル図であ
る。フレーム#nは、フレーム#n-1の次のフレームであ
り、フレーム#n+1は、フレーム#nの次のフレームであ
る。他のフレームも同様に称する。
している背景のオブジェクトに対応する画素の画素値で
ある。背景に対応するオブジェクトが静止しているの
で、フレーム#n-1乃至フレームn+1において、対応する
画素の画素値は、変化しない。例えば、フレーム#n-1に
おけるB05の画素値を有する画素の位置に対応する、フ
レーム#nにおける画素、およびフレーム#n+1における画
素は、それぞれ、B05の画素値を有する。
ブジェクトと共に図中の右側に移動する前景に対応する
オブジェクトを撮像した画像の3つのフレームの、隣接
して1列に並んでいる画素であって、フレーム上で同一
の位置の画素の画素値を時間方向に展開したモデル図で
ある。図17に示すモデルは、カバードバックグラウン
ド領域を含む。
クトが、剛体であり、等速で移動すると仮定でき、前景
の画像が次のフレームにおいて4画素右側に表示される
ように移動するので、前景の動き量vは、4であり、仮
想分割数は、4である。
側の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F12/vとなり、図17中の左から2番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F12/vとなる。図17中の左から3番目
の画素の、シャッタが開いて3番目のシャッタ時間/vの
前景の成分、および図17中の左から4番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分は、F11/vとなり、図17中の左から2番目の画素
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分も、F11/vとなる。図17中の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F11/vとなる。
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分は、F10/vとなり、図17中の左から2番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分も、F10/vとなる。図17中のフレーム#n-1の最も
左側の画素の、シャッタが開いて4番目のシャッタ時間
/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#n-1の左から2番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B01/vとなる。図17中のフレーム#n-1の左から
3番目の画素の、シャッタが開いて最初および2番目の
シャッタ時間/vの背景の成分は、B02/vとなる。図17
中のフレーム#n-1の左から4番目の画素の、シャッタが
開いて最初乃至3番目のシャッタ時間/vの背景の成分
は、B03/vとなる。
側の画素は、前景領域に属し、左側から2番目乃至4番
目の画素は、カバードバックグラウンド領域である混合
領域に属する。
画素乃至12番目の画素は、背景領域に属し、その画素
値は、それぞれ、B04乃至B11となる。
素乃至5番目の画素は、前景領域に属する。フレーム#n
の前景領域における、シャッタ時間/vの前景の成分は、
F05/v乃至F12/vのいずれかである。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図17中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F12/vとなり、図17中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F12/vとなる。図17中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図17中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F12/vとな
る。
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分は、F11/vとなり、図17中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分も、F11/vとなる。図17中の左から7番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分は、F11/vとなる。
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分は、F10/vとなり、図17中の左から6番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分も、F10/vとなる。図17中のフレーム#nの左か
ら5番目の画素の、シャッタが開いて4番目のシャッタ
時間/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#nの左から6番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B05/vとなる。図17中のフレーム#nの左から7
番目の画素の、シャッタが開いて最初および2番目のシ
ャッタ時間/vの背景の成分は、B06/vとなる。図17中
のフレーム#nの左から8番目の画素の、シャッタが開い
て最初乃至3番目の、シャッタ時間/vの背景の成分は、
B07/vとなる。
6番目乃至8番目の画素は、カバードバックグラウンド
領域である混合領域に属する。
素乃至12番目の画素は、背景領域に属し、画素値は、
それぞれ、B08乃至B11となる。
画素乃至9番目の画素は、前景領域に属する。フレーム
#n+1の前景領域における、シャッタ時間/vの前景の成分
は、F01/v乃至F12/vのいずれかである。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図17中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F12/vとなり、図17中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F12/vとなる。図17中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図17中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
画素の、シャッタが開いて2番目のシャッタ時間/vの期
間の前景の成分は、F11/vとなり、図17中の左から1
0番目の画素の、シャッタが開いて3番目のシャッタ時
間/vの前景の成分も、F11/vとなる。図17中の左から
11番目の画素の、シャッタが開いて4番目の、シャッ
タ時間/vの前景の成分は、F11/vとなる。
画素の、シャッタが開いて3番目の、シャッタ時間/vの
前景の成分は、F10/vとなり、図17中の左から10番
目の画素の、シャッタが開いて4番目のシャッタ時間/v
の前景の成分も、F10/vとなる。図17中のフレーム#n+
1の左から9番目の画素の、シャッタが開いて4番目の
シャッタ時間/vの前景の成分は、F09/vとなる。
るので、図17中のフレーム#n+1の左から10番目の画
素の、シャッタが開いて最初のシャッタ時間/vの背景の
成分は、B09/vとなる。図17中のフレーム#n+1の左か
ら11番目の画素の、シャッタが開いて最初および2番
目のシャッタ時間/vの背景の成分は、B10/vとなる。図
17中のフレーム#n+1の左から12番目の画素の、シャ
ッタが開いて最初乃至3番目の、シャッタ時間/vの背景
の成分は、B11/vとなる。
ら10番目乃至12番目の画素は、カバードバックグラ
ウンド領域である混合領域に対応する。
成分を抽出した画像のモデル図である。
右側に移動するオブジェクトに対応する前景を撮像した
画像の3つのフレームの、隣接して1列に並んでいる画
素であって、フレーム上で同一の位置の画素の画素値を
時間方向に展開したモデル図である。図19において、
アンカバードバックグラウンド領域が含まれている。
クトは、剛体であり、かつ等速で移動していると仮定で
きる。前景に対応するオブジェクトが、次のフレームに
おいて4画素分右側に表示されるように移動しているの
で、動き量vは、4である。
側の画素の、シャッタが開いて最初の、シャッタ時間/v
の前景の成分は、F13/vとなり、図19中の左から2番
目の画素の、シャッタが開いて2番目のシャッタ時間/v
の前景の成分も、F13/vとなる。図19中の左から3番
目の画素の、シャッタが開いて3番目のシャッタ時間/v
の前景の成分、および図19中の左から4番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F13/vとなる。
画素の、シャッタが開いて最初のシャッタ時間/vの前景
の成分は、F14/vとなり、図19中の左から3番目の画
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分も、F14/vとなる。図19中の左から3番目の画
素の、シャッタが開いて最初の、シャッタ時間/vの前景
の成分は、F15/vとなる。
るので、図19中のフレーム#n-1の最も左側の画素の、
シャッタが開いて2番目乃至4番目の、シャッタ時間/v
の背景の成分は、B25/vとなる。図19中のフレーム#n-
1の左から2番目の画素の、シャッタが開いて3番目お
よび4番目の、シャッタ時間/vの背景の成分は、B26/v
となる。図19中のフレーム#n-1の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの背景の
成分は、B27/vとなる。
側の画素乃至3番目の画素は、アンカバードバックグラ
ウンド領域である混合領域に属する。
画素乃至12番目の画素は、前景領域に属する。フレー
ムの前景の成分は、F13/v乃至F24/vのいずれかである。
至左から4番目の画素は、背景領域に属し、画素値は、
それぞれ、B25乃至B28となる。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図19中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F13/vとなり、図19中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F13/vとなる。図19中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図19中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F13/vとな
る。
素の、シャッタが開いて最初のシャッタ時間/vの前景の
成分は、F14/vとなり、図19中の左から7番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F14/vとなる。図19中の左から8番目の画素
の、シャッタが開いて最初のシャッタ時間/vの前景の成
分は、F15/vとなる。
るので、図19中のフレーム#nの左から5番目の画素
の、シャッタが開いて2番目乃至4番目のシャッタ時間
/vの背景の成分は、B29/vとなる。図19中のフレーム#
nの左から6番目の画素の、シャッタが開いて3番目お
よび4番目のシャッタ時間/vの背景の成分は、B30/vと
なる。図19中のフレーム#nの左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの背景の成分
は、B31/vとなる。
番目の画素乃至7番目の画素は、アンカバードバックグ
ラウンド領域である混合領域に属する。
素乃至12番目の画素は、前景領域に属する。フレーム
#nの前景領域における、シャッタ時間/vの期間に対応す
る値は、F13/v乃至F20/vのいずれかである。
乃至左から8番目の画素は、背景領域に属し、画素値
は、それぞれ、B25乃至B32となる。
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図19中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F13/vとなり、図19中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F13/vとなる。図19中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図19中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F13/vとなる。
の画素の、シャッタが開いて最初のシャッタ時間/vの前
景の成分は、F14/vとなり、図19中の左から11番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F14/vとなる。図19中の左から12番
目の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F15/vとなる。
るので、図19中のフレーム#n+1の左から9番目の画素
の、シャッタが開いて2番目乃至4番目の、シャッタ時
間/vの背景の成分は、B33/vとなる。図19中のフレー
ム#n+1の左から10番目の画素の、シャッタが開いて3
番目および4番目のシャッタ時間/vの背景の成分は、B3
4/vとなる。図19中のフレーム#n+1の左から11番目
の画素の、シャッタが開いて4番目のシャッタ時間/vの
背景の成分は、B35/vとなる。
9番目の画素乃至11番目の画素は、アンカバードバッ
クグラウンド領域である混合領域に属する。
の画素は、前景領域に属する。フレーム#n+1の前景領域
における、シャッタ時間/vの前景の成分は、F13/v乃至F
16/vのいずれかである。
成分を抽出した画像のモデル図である。
フレームの画素値を用いて、前景領域、背景領域、カバ
ードバックグラウンド領域、またはアンカバードバック
グラウンド領域に属することを示すフラグを画素毎に対
応付けて、領域情報として、混合比算出部104および
動きボケ調整部106に供給する。
画素値、および領域情報を基に、混合領域に含まれる画
素について画素毎に混合比αを算出し、算出した混合比
αを前景背景分離部105に供給する。
の画素値、領域情報、および混合比αを基に、前景の成
分のみからなる前景成分画像を抽出して、動きボケ調整
部106に供給する。
105から供給された前景成分画像、動き検出部102
から供給された動きベクトル、および領域特定部103
から供給された領域情報を基に、前景成分画像に含まれ
る動きボケの量を調整して、動きボケの量を調整した前
景成分画像を出力する。
処理部12による動きボケの量の調整の処理を説明す
る。ステップS11において、領域特定部103は、入
力画像を基に、入力画像の画素毎に前景領域、背景領
域、カバードバックグラウンド領域、またはアンカバー
ドバックグラウンド領域のいずれかに属するかを示す領
域情報を生成する領域特定の処理を実行する。領域特定
の処理の詳細は、後述する。領域特定部103は、生成
した領域情報を混合比算出部104に供給する。
部103は、入力画像を基に、入力画像の画素毎に前景
領域、背景領域、または混合領域(カバードバックグラ
ウンド領域、またはアンカバードバックグラウンド領域
の区別をしない)のいずれかに属するかを示す領域情報
を生成するようにしてもよい。この場合において、前景
背景分離部105および動きボケ調整部106は、動き
ベクトルの方向を基に、混合領域がカバードバックグラ
ウンド領域であるか、またはアンカバードバックグラウ
ンド領域であるかを判定する。例えば、動きベクトルの
方向に対応して、前景領域、混合領域、および背景領域
と順に並んでいるとき、その混合領域は、カバードバッ
クグラウンド領域と判定され、動きベクトルの方向に対
応して、背景領域、混合領域、および前景領域と順に並
んでいるとき、その混合領域は、アンカバードバックグ
ラウンド領域と判定される。
04は、入力画像および領域情報を基に、混合領域に含
まれる画素毎に、混合比αを算出する。混合比算出の処
理の詳細は、後述する。混合比算出部104は、算出し
た混合比αを前景背景分離部105に供給する。
105は、領域情報、および混合比αを基に、入力画像
から前景の成分を抽出して、前景成分画像として動きボ
ケ調整部106に供給する。
106は、動きベクトルおよび領域情報を基に、動き方
向に並ぶ連続した画素であって、アンカバードバックグ
ラウンド領域、前景領域、およびカバードバックグラウ
ンド領域のいずれかに属するものの画像上の位置を示す
処理単位を生成し、処理単位に対応する前景成分に含ま
れる動きボケの量を調整する。動きボケの量の調整の処
理の詳細については、後述する。
は、画面全体について処理を終了したか否かを判定し、
画面全体について処理を終了していないと判定された場
合、ステップS14に進み、処理単位に対応する前景の
成分を対象とした動きボケの量の調整の処理を繰り返
す。
て処理を終了したと判定された場合、処理は終了する。
景を分離して、前景に含まれる動きボケの量を調整する
ことができる。すなわち、信号処理部12は、前景の画
素の画素値であるサンプルデータに含まれる動きボケの
量を調整することができる。
04、前景背景分離部105、および動きボケ調整部1
06のそれぞれの構成について説明する。
ブロック図である。図22に構成を示す領域特定部10
3は、動きベクトルを利用しない。フレームメモリ20
1は、入力された画像をフレーム単位で記憶する。フレ
ームメモリ201は、処理の対象がフレーム#nであると
き、フレーム#nの2つ前のフレームであるフレーム#n-
2、フレーム#nの1つ前のフレームであるフレーム#n-
1、フレーム#n、フレーム#nの1つ後のフレームである
フレーム#n+1、およびフレーム#nの2つ後のフレームで
あるフレーム#n+2を記憶する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+2の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n+1の画素の画素値をフレームメモリ2
01から読み出して、読み出した画素値の差の絶対値を
算出する。静動判定部202−1は、フレーム#n+2の画
素値とフレーム#n+1の画素値との差の絶対値が、予め設
定している閾値Thより大きいか否かを判定し、差の絶対
値が閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部203−1に供給する。フレーム#n
+2の画素の画素値とフレーム#n+1の画素の画素値との差
の絶対値が閾値Th以下であると判定された場合、静動判
定部202−1は、静止を示す静動判定を領域判定部2
03−1に供給する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+1の画素の画素値、およびフレーム#nの
対象となる画素の画素値をフレームメモリ201から読
み出して、画素値の差の絶対値を算出する。静動判定部
202−2は、フレーム#n+1の画素値とフレーム#nの画
素値との差の絶対値が、予め設定している閾値Thより大
きいか否かを判定し、画素値の差の絶対値が、閾値Thよ
り大きいと判定された場合、動きを示す静動判定を領域
判定部203−1および領域判定部203−2に供給す
る。フレーム#n+1の画素の画素値とフレーム#nの画素の
画素値との差の絶対値が、閾値Th以下であると判定され
た場合、静動判定部202−2は、静止を示す静動判定
を領域判定部203−1および領域判定部203−2に
供給する。
域特定の対象である画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-1の画素の画素値をフレームメモリ2
01から読み出して、画素値の差の絶対値を算出する。
静動判定部202−3は、フレーム#nの画素値とフレー
ム#n-1の画素値との差の絶対値が、予め設定している閾
値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部203−2および領域判定部203
−3に供給する。フレーム#nの画素の画素値とフレーム
#n-1の画素の画素値との差の絶対値が、閾値Th以下であ
ると判定された場合、静動判定部202−3は、静止を
示す静動判定を領域判定部203−2および領域判定部
203−3に供給する。
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n-1の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-2の画素の画素値をフレームメモリ2
01から読み出して、画素値の差の絶対値を算出する。
静動判定部202−4は、フレーム#n-1の画素値とフレ
ーム#n-2の画素値との差の絶対値が、予め設定している
閾値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部203−3に供給する。フレーム#n
-1の画素の画素値とフレーム#n-2の画素の画素値との差
の絶対値が、閾値Th以下であると判定された場合、静動
判定部202−4は、静止を示す静動判定を領域判定部
203−3に供給する。
2−1から供給された静動判定が静止を示し、かつ、静
動判定部202−2から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がアンカバードバックグラウンド領域に属すると
判定し、領域の判定される画素に対応するアンカバード
バックグラウンド領域判定フラグに、アンカバードバッ
クグラウンド領域に属することを示す”1”を設定す
る。
2−1から供給された静動判定が動きを示すか、また
は、静動判定部202−2から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素がアンカバードバックグラウンド領域に属
しないと判定し、領域の判定される画素に対応するアン
カバードバックグラウンド領域判定フラグに、アンカバ
ードバックグラウンド領域に属しないことを示す”0”
を設定する。
1”または”0”が設定されたアンカバードバックグラ
ウンド領域判定フラグを判定フラグ格納フレームメモリ
204に供給する。
2−2から供給された静動判定が静止を示し、かつ、静
動判定部202−3から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が静止領域に属すると判定し、領域の判定される
画素に対応する静止領域判定フラグに、静止領域に属す
ることを示す”1”を設定する。
2−2から供給された静動判定が動きを示すか、また
は、静動判定部202−3から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素が静止領域に属しないと判定し、領域の判
定される画素に対応する静止領域判定フラグに、静止領
域に属しないことを示す”0”を設定する。
1”または”0”が設定された静止領域判定フラグを判
定フラグ格納フレームメモリ204に供給する。
2−2から供給された静動判定が動きを示し、かつ、静
動判定部202−3から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が動き領域に属すると判定し、領域の判定される
画素に対応する動き領域判定フラグに、動き領域に属す
ることを示す”1”を設定する。
2−2から供給された静動判定が静止を示すか、また
は、静動判定部202−3から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素が動き領域に属しないと判定し、領域の判
定される画素に対応する動き領域判定フラグに、動き領
域に属しないことを示す”0”を設定する。
1”または”0”が設定された動き領域判定フラグを判
定フラグ格納フレームメモリ204に供給する。
2−3から供給された静動判定が動きを示し、かつ、静
動判定部202−4から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がカバードバックグラウンド領域に属すると判定
し、領域の判定される画素に対応するカバードバックグ
ラウンド領域判定フラグに、カバードバックグラウンド
領域に属することを示す”1”を設定する。
2−3から供給された静動判定が静止を示すか、また
は、静動判定部202−4から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素がカバードバックグラウンド領域に属しな
いと判定し、領域の判定される画素に対応するカバード
バックグラウンド領域判定フラグに、カバードバックグ
ラウンド領域に属しないことを示す”0”を設定する。
1”または”0”が設定されたカバードバックグラウン
ド領域判定フラグを判定フラグ格納フレームメモリ20
4に供給する。
領域判定部203−1から供給されたアンカバードバッ
クグラウンド領域判定フラグ、領域判定部203−2か
ら供給された静止領域判定フラグ、領域判定部203−
2から供給された動き領域判定フラグ、および領域判定
部203−3から供給されたカバードバックグラウンド
領域判定フラグをそれぞれ記憶する。
記憶しているアンカバードバックグラウンド領域判定フ
ラグ、静止領域判定フラグ、動き領域判定フラグ、およ
びカバードバックグラウンド領域判定フラグを合成部2
05に供給する。合成部205は、判定フラグ格納フレ
ームメモリ204から供給された、アンカバードバック
グラウンド領域判定フラグ、静止領域判定フラグ、動き
領域判定フラグ、およびカバードバックグラウンド領域
判定フラグを基に、各画素が、アンカバードバックグラ
ウンド領域、静止領域、動き領域、およびカバードバッ
クグラウンド領域のいずれかに属することを示す領域情
報を生成し、判定フラグ格納フレームメモリ206に供
給する。
合成部205から供給された領域情報を記憶すると共
に、記憶している領域情報を出力する。
3乃至図27を参照して説明する。
るとき、オブジェクトに対応する画像の画面上の位置
は、フレーム毎に変化する。図23に示すように、フレ
ーム#nにおいて、Yn(x,y)で示される位置に位置するオ
ブジェクトに対応する画像は、次のフレームであるフレ
ーム#n+1において、Yn+1(x,y)に位置する。
方向に隣接して1列に並ぶ画素の画素値を時間方向に展
開したモデル図を図24に示す。例えば、前景のオブジ
ェクトに対応する画像の動き方向が画面に対して水平で
あるとき、図24におけるモデル図は、1つのライン上
の隣接する画素の画素値を時間方向に展開したモデルを
示す。
ンは、フレーム#n+1におけるラインと同一である。
乃至13番目の画素に含まれているオブジェクトに対応
する前景の成分は、フレーム#n+1において、左から6番
目乃至17番目の画素に含まれる。
ウンド領域に属する画素は、左から11番目乃至13番
目の画素であり、アンカバードバックグラウンド領域に
属する画素は、左から2番目乃至4番目の画素である。
フレーム#n+1において、カバードバックグラウンド領域
に属する画素は、左から15番目乃至17番目の画素で
あり、アンカバードバックグラウンド領域に属する画素
は、左から6番目乃至8番目の画素である。
まれる前景の成分が、フレーム#n+1において4画素移動
しているので、動き量vは、4である。仮想分割数は、
動き量vに対応し、4である。
る混合領域に属する画素の画素値の変化について説明す
る。
量vが4であるフレーム#nにおいて、カバードバックグ
ラウンド領域に属する画素は、左から15番目乃至17
番目の画素である。動き量vが4であるので、1つ前の
フレーム#n-1において、左から15番目乃至17番目の
画素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ前のフレーム#n-2において、左から15番
目乃至17番目の画素は、背景の成分のみを含み、背景
領域に属する。
止しているので、フレーム#n-1の左から15番目の画素
の画素値は、フレーム#n-2の左から15番目の画素の画
素値から変化しない。同様に、フレーム#n-1の左から1
6番目の画素の画素値は、フレーム#n-2の左から16番
目の画素の画素値から変化せず、フレーム#n-1の左から
17番目の画素の画素値は、フレーム#n-2の左から17
番目の画素の画素値から変化しない。
ックグラウンド領域に属する画素に対応する、フレーム
#n-1およびフレーム#n-2の画素は、背景の成分のみから
成り、画素値が変化しないので、その差の絶対値は、ほ
ぼ0の値となる。従って、フレーム#nにおける混合領域
に属する画素に対応する、フレーム#n-1およびフレーム
#n-2の画素に対する静動判定は、静動判定部202−4
により、静止と判定される。
ンド領域に属する画素は、前景の成分を含むので、フレ
ーム#n-1における背景の成分のみから成る場合と、画素
値が異なる。従って、フレーム#nにおける混合領域に属
する画素、および対応するフレーム#n-1の画素に対する
静動判定は、静動判定部202−3により、動きと判定
される。
動判定部202−3から動きを示す静動判定の結果が供
給され、静動判定部202−4から静止を示す静動判定
の結果が供給されたとき、対応する画素がカバードバッ
クグラウンド領域に属すると判定する。
量vが4であるフレーム#nにおいて、アンカバードバッ
クグラウンド領域に含まれる画素は、左から2番目乃至
4番目の画素である。動き量vが4であるので、1つ後
のフレーム#n+1において、左から2番目乃至4番目の画
素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ後のフレーム#n+2において、左から2番目
乃至4番目の画素は、背景の成分のみを含み、背景領域
に属する。
止しているので、フレーム#n+2の左から2番目の画素の
画素値は、フレーム#n+1の左から2番目の画素の画素値
から変化しない。同様に、フレーム#n+2の左から3番目
の画素の画素値は、フレーム#n+1の左から3番目の画素
の画素値から変化せず、フレーム#n+2の左から4番目の
画素の画素値は、フレーム#n+1の左から4番目の画素の
画素値から変化しない。
ドバックグラウンド領域に属する画素に対応する、フレ
ーム#n+1およびフレーム#n+2の画素は、背景の成分のみ
から成り、画素値が変化しないので、その差の絶対値
は、ほぼ0の値となる。従って、フレーム#nにおける混
合領域に属する画素に対応する、フレーム#n+1およびフ
レーム#n+2の画素に対する静動判定は、静動判定部20
2−1により、静止と判定される。
ラウンド領域に属する画素は、前景の成分を含むので、
フレーム#n+1における背景の成分のみから成る場合と、
画素値が異なる。従って、フレーム#nにおける混合領域
に属する画素、および対応するフレーム#n+1の画素に対
する静動判定は、静動判定部202−2により、動きと
判定される。
動判定部202−2から動きを示す静動判定の結果が供
給され、静動判定部202−1から静止を示す静動判定
の結果が供給されたとき、対応する画素がアンカバード
バックグラウンド領域に属すると判定する。
103の判定条件を示す図である。フレーム#nの判定の
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n-2の画素と、フレーム#nの判定の対象となる画素
の画像上の位置と同一の位置にあるフレーム#n-1の画素
とが静止と判定され、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n-1の画
素と、フレーム#nの画素とが動きと判定されたとき、領
域特定部103は、フレーム#nの判定の対象となる画素
がカバードバックグラウンド領域に属すると判定する。
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが静止と判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが静止と判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が静止領域に属すると判定する。
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが動きと判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが動きと判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が動き領域に属すると判定する。
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n+1の画素とが動きと判定され、フレーム#nの判定
の対象となる画素の画像上の位置と同一の位置にあるフ
レーム#n+1の画素と、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n+2の画
素とが静止と判定されたとき、領域特定部103は、フ
レーム#nの判定の対象となる画素がアンカバードバック
グラウンド領域に属すると判定する。
の結果の例を示す図である。図28(A)において、カ
バードバックグラウンド領域に属すると判定された画素
は、白で表示されている。図28(B)において、アン
カバードバックグラウンド領域に属すると判定された画
素は、白で表示されている。
と判定された画素は、白で表示されている。図28
(D)において、静止領域に属すると判定された画素
は、白で表示されている。
206が出力する領域情報の内、混合領域を示す領域情
報を画像として示す図である。図29において、カバー
ドバックグラウンド領域またはアンカバードバックグラ
ウンド領域に属すると判定された画素、すなわち混合領
域に属すると判定された画素は、白で表示されている。
判定フラグ格納フレームメモリ206が出力する混合領
域を示す領域情報は、混合領域、および前景領域内のテ
クスチャの無い部分に囲まれたテクスチャの有る部分を
示す。
て、領域特定部103の領域特定の処理を説明する。ス
テップS201において、フレームメモリ201は、判
定の対象となるフレーム#nを含むフレーム#n-2乃至フレ
ーム#n+2の画像を取得する。
02−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、静止か否かを判定し、静止と判定された
場合、ステップS203に進み、静動判定部202−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、静止か否かを判定する。
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、ステップS204に進み、領域判定部20
3−2は、領域の判定される画素に対応する静止領域判
定フラグに、静止領域に属することを示す”1”を設定
する。領域判定部203−2は、静止領域判定フラグを
判定フラグ格納フレームメモリ204に供給し、手続き
は、ステップS205に進む。
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、または、ステップS203において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、動
きと判定された場合、フレーム#nの画素が静止領域には
属さないので、ステップS204の処理はスキップさ
れ、手続きは、ステップS205に進む。
02−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS206に進み、静動判定部202−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、動きか否かを判定する。
画素とフレーム#n+1の同一位置の画素とで、動きと判定
された場合、ステップS207に進み、領域判定部20
3−2は、領域の判定される画素に対応する動き領域判
定フラグに、動き領域に属することを示す”1”を設定
する。領域判定部203−2は、動き領域判定フラグを
判定フラグ格納フレームメモリ204に供給し、手続き
は、ステップS208に進む。
の画素とフレーム#nの同一位置の画素とで、静止と判定
された場合、または、ステップS206において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、静
止と判定された場合、フレーム#nの画素が動き領域には
属さないので、ステップS207の処理はスキップさ
れ、手続きは、ステップS208に進む。
02−4は、フレーム#n-2の画素とフレーム#n-1の同一
位置の画素とで、静止か否かを判定し、静止と判定され
た場合、ステップS209に進み、静動判定部202−
3は、フレーム#n-1の画素とフレーム#nの同一位置の画
素とで、動きか否かを判定する。
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、ステップS210に進み、領域判定部20
3−3は、領域の判定される画素に対応するカバードバ
ックグラウンド領域判定フラグに、カバードバックグラ
ウンド領域に属することを示す”1”を設定する。領域
判定部203−3は、カバードバックグラウンド領域判
定フラグを判定フラグ格納フレームメモリ204に供給
し、手続きは、ステップS211に進む。
の画素とフレーム#n-1の同一位置の画素とで、動きと判
定された場合、または、ステップS209において、フ
レーム#n-1の画素とフレーム#nの同一位置の画素とで、
静止と判定された場合、フレーム#nの画素がカバードバ
ックグラウンド領域には属さないので、ステップS21
0の処理はスキップされ、手続きは、ステップS211
に進む。
02−2は、フレーム#nの画素とフレーム#n+1の同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS212に進み、静動判定部202−1
は、フレーム#n+1の画素とフレーム#n+2の同一位置の画
素とで、静止か否かを判定する。
の画素とフレーム#n+2の同一位置の画素とで、静止と判
定された場合、ステップS213に進み、領域判定部2
03−1は、領域の判定される画素に対応するアンカバ
ードバックグラウンド領域判定フラグに、アンカバード
バックグラウンド領域に属することを示す”1”を設定
する。領域判定部203−1は、アンカバードバックグ
ラウンド領域判定フラグを判定フラグ格納フレームメモ
リ204に供給し、手続きは、ステップS214に進
む。
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、または、ステップS212において、フレ
ーム#n+1の画素とフレーム#n+2の同一位置の画素とで、
動きと判定された場合、フレーム#nの画素がアンカバー
ドバックグラウンド領域には属さないので、ステップS
213の処理はスキップされ、手続きは、ステップS2
14に進む。
03は、フレーム#nの全ての画素について領域を特定し
たか否かを判定し、フレーム#nの全ての画素について領
域を特定していないと判定された場合、手続きは、ステ
ップS202に戻り、他の画素について、領域特定の処
理を繰り返す。
全ての画素について領域を特定したと判定された場合、
ステップS215に進み、合成部205は、判定フラグ
格納フレームメモリ204に記憶されているアンカバー
ドバックグラウンド領域判定フラグ、およびカバードバ
ックグラウンド領域判定フラグを基に、混合領域を示す
領域情報を生成し、更に、各画素が、アンカバードバッ
クグラウンド領域、静止領域、動き領域、およびカバー
ドバックグラウンド領域のいずれかに属することを示す
領域情報を生成し、生成した領域情報を判定フラグ格納
フレームメモリ206に設定し、処理は終了する。
ムに含まれている画素のそれぞれについて、動き領域、
静止領域、アンカバードバックグラウンド領域、または
カバードバックグラウンド領域に属することを示す領域
情報を生成することができる。
バックグラウンド領域およびカバードバックグラウンド
領域に対応する領域情報に論理和を適用することによ
り、混合領域に対応する領域情報を生成して、フレーム
に含まれている画素のそれぞれについて、動き領域、静
止領域、または混合領域に属することを示すフラグから
成る領域情報を生成するようにしてもよい。
を有す場合、領域特定部103は、より正確に動き領域
を特定することができる。
情報を前景領域を示す領域情報として、また、静止領域
を示す領域情報を背景領域を示す領域情報として出力す
ることができる。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した領域を特定する処理を適用
することができる。例えば、背景領域に対応する画像が
一様に動いているとき、領域特定部103は、この動き
に対応して画像全体をシフトさせ、背景に対応するオブ
ジェクトが静止している場合と同様に処理する。また、
背景領域に対応する画像が局所毎に異なる動きを含んで
いるとき、領域特定部103は、動きに対応した画素を
選択して、上述の処理を実行する。
ブロック図である。図31に示す領域特定部103は、
動きベクトルを使用しない。背景画像生成部301は、
入力画像に対応する背景画像を生成し、生成した背景画
像を2値オブジェクト画像抽出部302に供給する。背
景画像生成部301は、例えば、入力画像に含まれる背
景のオブジェクトに対応する画像オブジェクトを抽出し
て、背景画像を生成する。
方向に隣接して1列に並ぶ画素の画素値を時間方向に展
開したモデル図の例を図32に示す。例えば、前景のオ
ブジェクトに対応する画像の動き方向が画面に対して水
平であるとき、図32におけるモデル図は、1つのライ
ン上の隣接する画素の画素値を時間方向に展開したモデ
ルを示す。
ンは、フレーム#n-1およびフレーム#n+1におけるライン
と同一である。
乃至17番目の画素に含まれているオブジェクトに対応
する前景の成分は、フレーム#n-1において、左から2番
目乃至13番目の画素に含まれ、フレーム#n+1におい
て、左から10番目乃至21番目の画素に含まれる。
ラウンド領域に属する画素は、左から11番目乃至13
番目の画素であり、アンカバードバックグラウンド領域
に属する画素は、左から2番目乃至4番目の画素であ
る。フレーム#nにおいて、カバードバックグラウンド領
域に属する画素は、左から15番目乃至17番目の画素
であり、アンカバードバックグラウンド領域に属する画
素は、左から6番目乃至8番目の画素である。フレーム
#n+1において、カバードバックグラウンド領域に属する
画素は、左から19番目乃至21番目の画素であり、ア
ンカバードバックグラウンド領域に属する画素は、左か
ら10番目乃至12番目の画素である。
画素は、左から1番目の画素、および左から14番目乃
至21番目の画素である。フレーム#nにおいて、背景領
域に属する画素は、左から1番目乃至5番目の画素、お
よび左から18番目乃至21番目の画素である。フレー
ム#n+1において、背景領域に属する画素は、左から1番
目乃至9番目の画素である。
の例に対応する背景画像の例を図33に示す。背景画像
は、背景のオブジェクトに対応する画素から構成され、
前景のオブジェクトに対応する画像の成分を含まない。
景画像および入力画像の相関を基に、2値オブジェクト
画像を生成し、生成した2値オブジェクト画像を時間変
化検出部303に供給する。
02の構成を示すブロック図である。相関値演算部32
1は、背景画像生成部301から供給された背景画像お
よび入力画像の相関を演算し、相関値を生成して、生成
した相関値をしきい値処理部322に供給する。
(A)に示すように、X4を中心とした3×3の背景画
像の中のブロックと、図35(B)に示すように、背景
画像の中のブロックに対応するY4を中心とした3×3
の入力画像の中のブロックに、式(4)を適用して、Y
4に対応する相関値を算出する。
に対応して算出された相関値をしきい値処理部322に
供給する。
36(A)に示すように、X4を中心とした3×3の背
景画像の中のブロックと、図36(B)に示すように、
背景画像の中のブロックに対応するY4を中心とした3
×3の入力画像の中のブロックに、式(7)を適用し
て、Y4に対応する差分絶対値和を算出するようにして
もよい。
れた差分絶対値和を相関値として、しきい値処理部32
2に供給する。
値としきい値th0とを比較して、相関値がしきい値th0以
下である場合、2値オブジェクト画像の画素値に1を設
定し、相関値がしきい値th0より大きい場合、2値オブ
ジェクト画像の画素値に0を設定して、0または1が画素
値に設定された2値オブジェクト画像を出力する。しき
い値処理部322は、しきい値th0を予め記憶するよう
にしてもよく、または、外部から入力されたしきい値th
0を使用するようにしてもよい。
に対応する2値オブジェクト画像の例を示す図である。
2値オブジェクト画像において、背景画像と相関の高い
画素には、画素値に0が設定される。
示すブロック図である。フレームメモリ341は、フレ
ーム#nの画素について領域を判定するとき、2値オブジ
ェクト画像抽出部302から供給された、フレーム#n-
1、フレーム#n、およびフレーム#n+1の2値オブジェク
ト画像を記憶する。
1に記憶されているフレーム#n-1、フレーム#n、および
フレーム#n+1の2値オブジェクト画像を基に、フレーム
#nの各画素について領域を判定して、領域情報を生成
し、生成した領域情報を出力する。
する図である。フレーム#nの2値オブジェクト画像の注
目している画素が0であるとき、領域判定部342は、
フレーム#nの注目している画素が背景領域に属すると判
定する。
している画素が1であり、フレーム#n-1の2値オブジェ
クト画像の対応する画素が1であり、フレーム#n+1の2
値オブジェクト画像の対応する画素が1であるとき、領
域判定部342は、フレーム#nの注目している画素が前
景領域に属すると判定する。
している画素が1であり、フレーム#n-1の2値オブジェ
クト画像の対応する画素が0であるとき、領域判定部3
42は、フレーム#nの注目している画素がカバードバッ
クグラウンド領域に属すると判定する。
している画素が1であり、フレーム#n+1の2値オブジェ
クト画像の対応する画素が0であるとき、領域判定部3
42は、フレーム#nの注目している画素がアンカバード
バックグラウンド領域に属すると判定する。
に対応する2値オブジェクト画像について、時間変化検
出部303の判定した例を示す図である。時間変化検出
部303は、2値オブジェクト画像のフレーム#nの対応
する画素が0なので、フレーム#nの左から1番目乃至5
番目の画素を背景領域に属すると判定する。
ト画像のフレーム#nの画素が1であり、フレーム#n+1の
対応する画素が0なので、左から6番目乃至9番目の画
素をアンカバードバックグラウンド領域に属すると判定
する。
ト画像のフレーム#nの画素が1であり、フレーム#n-1の
対応する画素が1であり、フレーム#n+1の対応する画素
が1なので、左から10番目乃至13番目の画素を前景
領域に属すると判定する。
ト画像のフレーム#nの画素が1であり、フレーム#n-1の
対応する画素が0なので、左から14番目乃至17番目
の画素をカバードバックグラウンド領域に属すると判定
する。
ト画像のフレーム#nの対応する画素が0なので、左から
18番目乃至21番目の画素を背景領域に属すると判定
する。
て、領域判定部103の領域特定の処理を説明する。ス
テップS301において、領域判定部103の背景画像
生成部301は、入力画像を基に、例えば、入力画像に
含まれる背景のオブジェクトに対応する画像オブジェク
トを抽出して背景画像を生成し、生成した背景画像を2
値オブジェクト画像抽出部302に供給する。
クト画像抽出部302は、例えば、図35を参照して説
明した演算により、入力画像と背景画像生成部301か
ら供給された背景画像との相関値を演算する。ステップ
S303において、2値オブジェクト画像抽出部302
は、例えば、相関値としきい値th0とを比較することに
より、相関値およびしきい値th0から2値オブジェクト
画像を演算する。
部303は、領域判定の処理を実行して、処理は終了す
る。
ップS304に対応する領域判定の処理の詳細を説明す
る。ステップS321において、時間変化検出部303
の領域判定部342は、フレームメモリ341に記憶さ
れているフレーム#nにおいて、注目する画素が0である
か否かを判定し、フレーム#nにおいて、注目する画素が
0であると判定された場合、ステップS322に進み、
フレーム#nの注目する画素が背景領域に属すると設定し
て、処理は終了する。
おいて、注目する画素が1であると判定された場合、ス
テップS323に進み、時間変化検出部303の領域判
定部342は、フレームメモリ341に記憶されている
フレーム#nにおいて、注目する画素が1であり、かつ、
フレーム#n-1において、対応する画素が0であるか否か
を判定し、フレーム#nにおいて、注目する画素が1であ
り、かつ、フレーム#n-1において、対応する画素が0で
あると判定された場合、ステップS324に進み、フレ
ーム#nの注目する画素がカバードバックグラウンド領域
に属すると設定して、処理は終了する。
おいて、注目する画素が0であるか、または、フレーム#
n-1において、対応する画素が1であると判定された場
合、ステップS325に進み、時間変化検出部303の
領域判定部342は、フレームメモリ341に記憶され
ているフレーム#nにおいて、注目する画素が1であり、
かつ、フレーム#n+1において、対応する画素が0である
か否かを判定し、フレーム#nにおいて、注目する画素が
1であり、かつ、フレーム#n+1において、対応する画素
が0であると判定された場合、ステップS326に進
み、フレーム#nの注目する画素がアンカバードバックグ
ラウンド領域に属すると設定して、処理は終了する。
おいて、注目する画素が0であるか、または、フレーム#
n+1において、対応する画素が1であると判定された場
合、ステップS327に進み、時間変化検出部303の
領域判定部342は、フレーム#nの注目する画素を前景
領域と設定して、処理は終了する。
れた画像と対応する背景画像との相関値を基に、入力画
像の画素が前景領域、背景領域、カバードバックグラウ
ンド領域、およびアンカバードバックグラウンド領域の
いずれかに属するかを特定して、特定した結果に対応す
る領域情報を生成することができる。
示すブロック図である。図43に示す領域特定部103
は、動き検出部102から供給される動きベクトルとそ
の位置情報を使用する。図31に示す場合と同様の部分
には、同一の番号を付してあり、その説明は省略する。
画像抽出部302から供給された、N個のフレームの2
値オブジェクト画像を基に、ロバスト化された2値オブ
ジェクト画像を生成して、時間変化検出部303に出力
する。
明するブロック図である。動き補償部381は、動き検
出部102から供給された動きベクトルとその位置情報
を基に、N個のフレームの2値オブジェクト画像の動き
を補償して、動きが補償された2値オブジェクト画像を
スイッチ382に出力する。
補償部381の動き補償について説明する。例えば、フ
レーム#nの領域を判定するとき、図45に例を示すフレ
ーム#n-1、フレーム#n、およびフレーム#n+1の2値オブ
ジェクト画像が入力された場合、動き補償部381は、
動き検出部102から供給された動きベクトルを基に、
図46に例を示すように、フレーム#n-1の2値オブジェ
クト画像、およびフレーム#n+1の2値オブジェクト画像
を動き補償して、動き補償された2値オブジェクト画像
をスイッチ382に供給する。
き補償された2値オブジェクト画像をフレームメモリ3
83−1に出力し、2番目のフレームの動き補償された
2値オブジェクト画像をフレームメモリ383−2に出
力する。同様に、スイッチ382は、3番目乃至N−1
番目のフレームの動き補償された2値オブジェクト画像
のそれぞれをフレームメモリ383−3乃至フレームメ
モリ383−(N−1)のいずれかに出力し、N番目の
フレームの動き補償された2値オブジェクト画像をフレ
ームメモリ383−Nに出力する。
レームの動き補償された2値オブジェクト画像を記憶
し、記憶されている2値オブジェクト画像を重み付け部
384−1に出力する。フレームメモリ383−2は、
2番目のフレームの動き補償された2値オブジェクト画
像を記憶し、記憶されている2値オブジェクト画像を重
み付け部384−2に出力する。
レームメモリ383−(N−1)のそれぞれは、3番目
のフレーム乃至N−1番目のフレームの動き補償された
2値オブジェクト画像のいずれかを記憶し、記憶されて
いる2値オブジェクト画像を重み付け部384−3乃至
重み付け部384−(N−1)のいずれかに出力する。
フレームメモリ383−Nは、N番目のフレームの動き
補償された2値オブジェクト画像を記憶し、記憶されて
いる2値オブジェクト画像を重み付け部384−Nに出
力する。
383−1から供給された1番目のフレームの動き補償
された2値オブジェクト画像の画素値に予め定めた重み
w1を乗じて、積算部385に供給する。重み付け部38
4−2は、フレームメモリ383−2から供給された2
番目のフレームの動き補償された2値オブジェクト画像
の画素値に予め定めた重みw2を乗じて、積算部385に
供給する。
け部384−(N−1)のそれぞれは、フレームメモリ
383−3乃至フレームメモリ383−(N−1)のい
ずれかから供給された3番目乃至N−1番目のいずれか
のフレームの動き補償された2値オブジェクト画像の画
素値に予め定めた重みw3乃至重みw(N-1)のいずれかを乗
じて、積算部385に供給する。重み付け部384−N
は、フレームメモリ383−Nから供給されたN番目の
フレームの動き補償された2値オブジェクト画像の画素
値に予め定めた重みwNを乗じて、積算部385に供給す
る。
の動き補償され、それぞれ重みw1乃至wNのいずれかが乗
じられた、2値オブジェクト画像の対応する画素値を積
算して、積算された画素値を予め定めたしきい値th0と
比較することにより2値オブジェクト画像を生成する。
の2値オブジェクト画像からロバスト化された2値オブ
ジェト画像を生成して、時間変化検出部303に供給す
るので、図43に構成を示す領域特定部103は、入力
画像にノイズが含まれていても、図31に示す場合に比
較して、より正確に領域を特定することができる。
3の領域特定の処理について、図47のフローチャート
を参照して説明する。ステップS341乃至ステップS
343の処理は、図41のフローチャートで説明したス
テップS301乃至ステップS303とそれぞれ同様な
のでその説明は省略する。
361は、ロバスト化の処理を実行する。
部303は、領域判定の処理を実行して、処理は終了す
る。ステップS345の処理の詳細は、図42のフロー
チャートを参照して説明した処理と同様なのでその説明
は省略する。
て、図47のステップS344の処理に対応する、ロバ
スト化の処理の詳細について説明する。ステップS36
1において、動き補償部381は、動き検出部102か
ら供給される動きベクトルとその位置情報を基に、入力
された2値オブジェクト画像の動き補償の処理を実行す
る。ステップS362において、フレームメモリ383
−1乃至383−Nのいずれかは、スイッチ382を介
して供給された動き補償された2値オブジェクト画像を
記憶する。
361は、N個の2値オブジェクト画像が記憶されたか
否かを判定し、N個の2値オブジェクト画像が記憶され
ていないと判定された場合、ステップS361に戻り、
2値オブジェクト画像の動き補償の処理および2値オブ
ジェクト画像の記憶の処理を繰り返す。
ブジェクト画像が記憶されたと判定された場合、ステッ
プS364に進み、重み付け部384−1乃至384−
Nのそれぞれは、N個の2値オブジェクト画像のそれぞ
れにw1乃至wNのいずれかの重みを乗じて、重み付けす
る。
は、重み付けされたN個の2値オブジェクト画像を積算
する。
は、例えば、予め定められたしきい値th1との比較など
により、積算された画像から2値オブジェクト画像を生
成して、処理は終了する。
部103は、ロバスト化された2値オブジェクト画像を
基に、領域情報を生成することができる。
ームに含まれている画素のそれぞれについて、動き領
域、静止領域、アンカバードバックグラウンド領域、ま
たはカバードバックグラウンド領域に属することを示す
領域情報を生成することができる。
すブロック図である。推定混合比処理部401は、入力
画像を基に、カバードバックグラウンド領域のモデルに
対応する演算により、画素毎に推定混合比を算出して、
算出した推定混合比を混合比決定部403に供給する。
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を混合比決定部403に供給する。
間内に等速で動いていると仮定できるので、混合領域に
属する画素の混合比αは、以下の性質を有する。すなわ
ち、混合比αは、画素の位置の変化に対応して、直線的
に変化する。画素の位置の変化を1次元とすれば、混合
比αの変化は、直線で表現することができ、画素の位置
の変化を2次元とすれば、混合比αの変化は、平面で表
現することができる。
に対応するオブジェクトが剛体であり、等速で移動して
いると仮定が成り立つ。
ッタ時間内での動き量vの逆比となる。
想的な混合比αの混合領域における傾きlは、動き量vの
逆数として表すことができる。
は、背景領域において、1の値を有し、前景領域におい
て、0の値を有し、混合領域において、0を越え1未満
の値を有する。
7番目の画素の画素値C06は、フレーム#n-1の左から7
番目の画素の画素値P06を用いて、式(8)で表すこと
ができる。
の画素の画素値Mと、画素値P06を背景領域の画素の画素
値Bと表現する。すなわち、混合領域の画素の画素値Mお
よび背景領域の画素の画素値Bは、それぞれ、式(9)
および式(10)のように表現することができる。
る。動き量vが4なので、フレーム#nの左から7番目の
画素の混合比αは、0.5となる。
画素値Cを混合領域の画素値と見なし、フレーム#nの前
のフレーム#n-1の画素値Pを背景領域の画素値と見なす
ことで、混合比αを示す式(3)は、式(11)のよう
に書き換えられる。
成分の和ΣiFi/vである。式(11)に含まれる変数
は、混合比αおよび前景の成分の和fの2つである。
域における、動き量vが4であり、時間方向の仮想分割
数が4である、画素値を時間方向に展開したモデルを図
52に示す。
て、上述したカバードバックグラウンド領域における表
現と同様に、注目しているフレーム#nの画素値Cを混合
領域の画素値と見なし、フレーム#nの後のフレーム#n+1
の画素値Nを背景領域の画素値と見なすことで、混合比
αを示す式(3)は、式(12)のように表現すること
ができる。
として説明したが、背景のオブジェクトが動いている場
合においても、背景の動き量vに対応させた位置の画素
の画素値を利用することにより、式(8)乃至式(1
2)を適用することができる。例えば、図51におい
て、背景に対応するオブジェクトの動き量vが2であ
り、仮想分割数が2であるとき、背景に対応するオブジ
ェクトが図中の右側に動いているとき、式(10)にお
ける背景領域の画素の画素値Bは、画素値P04とされる。
2つの変数を含むので、そのままでは混合比αを求める
ことができない。
対応するオブジェクトが等速で動くことにより、画素の
位置の変化に対応して、混合比αが直線的に変化する性
質を利用して、空間方向に、混合比αと前景の成分の和
fとを近似した式を立てる。混合領域に属する画素の画
素値および背景領域に属する画素の画素値の組の複数を
利用して、混合比αと前景の成分の和fとを近似した式
を解く。
と、混合比αは、式(13)で表される。
0とした空間方向のインデックスである。lは、混合比
αの直線の傾きである。pは、混合比αの直線の切片で
ある共に、注目している画素の混合比αである。式(1
3)において、インデックスiは、既知であるが、傾きl
および切片pは、未知である。
係を図53に示す。
とにより、複数の画素に対して複数の異なる混合比α
は、2つの変数で表現される。図53に示す例におい
て、5つの画素に対する5つの混合比は、2つの変数で
ある傾きlおよび切片pにより表現される。
と、画像の水平方向および垂直方向の2つの方向に対応
する動きvを考慮したとき、式(13)を平面に拡張し
て、混合比αは、式(14)で表される。
0とした水平方向のインデックスであり、kは、垂直方
向のインデックスである。mは、混合比αの面の水平方
向の傾きであり、qは、混合比αの面の垂直方向の傾き
である。pは、混合比αの面の切片である。
て、C05乃至C07について、それぞれ、式(15)乃至式
(17)が成立する。
F01乃至F03が等しいとして、F01乃至F03をFcに置き換え
ると式(18)が成立する。
(18)は、式(19)として表すことができる。
Fc)、および(1-p)・Fcは、式(20)乃至式(22)
に示すように置き換えられている。
画素の位置を0とした水平方向のインデックスであり、
kは、垂直方向のインデックスである。
がシャッタ時間内において等速に移動し、前景に対応す
る成分が近傍において一定であるという仮定が成立する
ので、前景の成分の和は、式(19)で近似される。
景の成分の和は、式(23)で表すことができる。
を、式(14)および式(19)を利用して置き換える
と、画素値Mは、式(24)で表される。
比αの面の水平方向の傾きm、混合比αの面の垂直方向
の傾きq、混合比αの面の切片p、s、t、およびuの6つ
である。
て、式(24)に、画素値Mおよび画素値Bを設定し、画
素値Mおよび画素値Bが設定された複数の式に対して最小
自乗法で解くことにより、混合比αを算出する。
ンデックスjを0とし、垂直方向のインデックスkを0と
し、注目している画素の近傍の3×3の画素について、
式(24)に示す正規方程式に画素値Mまたは画素値Bを
設定すると、式(25)乃至式(33)を得る。 M-1,-1=(-1)・B-1,-1・m+(-1)・B-1,-1・q+B-1,-1・p+(-1)・s+(-1)・t+u (25) M0,-1=(0)・B0,-1・m+(-1)・B0,-1・q+B0,-1・p+(0)・s+(-1)・t+u (26) M+1,-1=(+1)・B+1,-1・m+(-1)・B+1,-1・q+B+1,-1・p+(+1)・s+(-1)・t+u (27) M-1,0=(-1)・B-1,0・m+(0)・B-1,0・q+B-1,0・p+(-1)・s+(0)・t+u (28) M0,0=(0)・B0,0・m+(0)・B0,0・q+B0,0・p+(0)・s+(0)・t+u (29) M+1,0=(+1)・B+1,0・m+(0)・B+1,0・q+B+1,0・p+(+1)・s+(0)・t+u (30) M-1,+1=(-1)・B-1,+1・m+(+1)・B-1,+1・q+B-1,+1・p+(-1)・s+(+1)・t+u (31) M0,+1=(0)・B0,+1・m+(+1)・B0,+1・q+B0,+1・p+(0)・s+(+1)・t+u (32) M+1,+1=(+1)・B+1,+1・m+(+1)・B+1,+1・q+B+1,+1・p+(+1)・s+(+1)・t+u (33)
スjが0であり、垂直方向のインデックスkが0であるの
で、注目している画素の混合比αは、式(14)より、
j=0およびk=0のときの値、すなわち、切片pに等しい。
の式を基に、最小自乗法により、水平方向の傾きm、垂
直方向の傾きq、切片p、s、t、およびuのそれぞれの値
を算出し、切片pを混合比αとして出力すればよい。
出するより具体的な手順を説明する。
のインデックスxで表現すると、インデックスi、インデ
ックスk、およびインデックスxの関係は、式(34)で
表される。
p、s、t、およびuをそれぞれ変数w0,w1,w2,w3,w4、およ
びw5と表現し、jB,kB,B,j,k、および1をそれぞれa0,a1,
a2,a3,a4、およびa5と表現する。誤差exを考慮すると、
式(25)乃至式(33)は、式(35)に書き換える
ことができる。
の値である。
できる。
の自乗和Eを式(37)に示すようにに定義する。
Eに対する、変数Wvの偏微分が0になればよい。ここ
で、vは、0乃至5の整数のいずれかの値である。従っ
て、式(38)を満たすようにwyを求める。
(39)を得る。
か1つを代入して得られる6つの式からなる正規方程式
に、例えば、掃き出し法(Gauss-Jordanの消去法)など
を適用して、wyを算出する。上述したように、w0は水平
方向の傾きmであり、w1は垂直方向の傾きqであり、w2は
切片pであり、w3はsであり、w4はtであり、w5はuであ
る。
定した式に、最小自乗法を適用することにより、水平方
向の傾きm、垂直方向の傾きq、切片p、s、t、およびuを
求めることができる。
点、すなわち中心位置における混合比αとなっているの
で、これを出力する。
において、混合領域に含まれる画素の画素値をMとし、
背景領域に含まれる画素の画素値をBとして説明した
が、注目している画素が、カバードバックグラウンド領
域に含まれる場合、またはアンカバードバックグラウン
ド領域に含まれる場合のそれぞれに対して、正規方程式
を立てる必要がある。
ードバックグラウンド領域に含まれる画素の混合比αを
求める場合、フレーム#nの画素のC04乃至C08、およびフ
レーム#n-1の画素の画素値P04乃至P08が、正規方程式に
設定される。
バックグラウンド領域に含まれる画素の混合比αを求め
る場合、フレーム#nの画素のC28乃至C32、およびフレー
ム#n+1の画素の画素値N28乃至N32が、正規方程式に設定
される。
ックグラウンド領域に含まれる画素の混合比αを算出す
るとき、以下の式(40)乃至式(48)が立てられ
る。混合比αを算出する画素の画素値は、Mc5である。 Mc1=(-1)・Bc1・m+(-1)・Bc1・q+Bc1・p+(-1)・s+(-1)・t+u (40) Mc2=(0)・Bc2・m+(-1)・Bc2・q+Bc2・p+(0)・s+(-1)・t+u (41) Mc3=(+1)・Bc3・m+(-1)・Bc3・q+Bc3・p+(+1)・s+(-1)・t+u (42) Mc4=(-1)・Bc4・m+(0)・Bc4・q+Bc4・p+(-1)・s+(0)・t+u (43) Mc5=(0)・Bc5・m+(0)・Bc5・q+Bc5・p+(0)・s+(0)・t+u (44) Mc6=(+1)・Bc6・m+(0)・Bc6・q+Bc6・p+(+1)・s+(0)・t+u (45) Mc7=(-1)・Bc7・m+(+1)・Bc7・q+Bc7・p+(-1)・s+(+1)・t+u (46) Mc8=(0)・Bc8・m+(+1)・Bc8・q+Bc8・p+(0)・s+(+1)・t+u (47) Mc9=(+1)・Bc9・m+(+1)・Bc9・q+Bc9・p+(+1)・s+(+1)・t+u (48)
域に含まれる画素の混合比αを算出するとき、式(4
0)乃至式(48)において、フレーム#nの画素に対応
する、フレーム#n-1の画素の背景領域の画素の画素値Bc
1乃至Bc9が使用される。
ンド領域に含まれる画素の混合比αを算出するとき、以
下の式(49)乃至式(57)が立てられる。混合比α
を算出する画素の画素値は、Mu5である。 Mu1=(-1)・Bu1・m+(-1)・Bu1・q+Bu1・p+(-1)・s+(-1)・t+u (49) Mu2=(0)・Bu2・m+(-1)・Bu2・q+Bu2・p+(0)・s+(-1)・t+u (50) Mu3=(+1)・Bu3・m+(-1)・Bu3・q+Bu3・p+(+1)・s+(-1)・t+u (51) Mu4=(-1)・Bu4・m+(0)・Bu4・q+Bu4・p+(-1)・s+(0)・t+u (52) Mu5=(0)・Bu5・m+(0)・Bu5・q+Bu5・p+(0)・s+(0)・t+u (53) Mu6=(+1)・Bu6・m+(0)・Bu6・q+Bu6・p+(+1)・s+(0)・t+u (54) Mu7=(-1)・Bu7・m+(+1)・Bu7・q+Bu7・p+(-1)・s+(+1)・t+u (55) Mu8=(0)・Bu8・m+(+1)・Bu8・q+Bu8・p+(0)・s+(+1)・t+u (56) Mu9=(+1)・Bu9・m+(+1)・Bu9・q+Bu9・p+(+1)・s+(+1)・t+u (57)
ド領域に含まれる画素の混合比αを算出するとき、式
(49)乃至式(57)において、フレーム#nの画素に
対応する、フレーム#n+1の画素の背景領域の画素の画素
値Bu1乃至Bu9が使用される。
を示すブロック図である。推定混合比処理部401に入
力された画像は、遅延部501および足し込み部502
に供給される。
遅延させ、足し込み部502に供給する。足し込み部5
02に、入力画像としてフレーム#nが入力されていると
き、遅延回路221は、フレーム#n-1を足し込み部50
2に供給する。
画素の近傍の画素の画素値、およびフレーム#n-1の画素
値を、正規方程式に設定する。例えば、足し込み部50
2は、式(40)乃至式(48)に基づいて、正規方程
式に画素値Mc1乃至Mc9および画素値Bc1乃至Bc9を設定す
る。足し込み部502は、画素値が設定された正規方程
式を演算部503に供給する。
給された正規方程式を掃き出し法などにより解いて推定
混合比を求め、求められた推定混合比を出力する。
入力画像を基に、推定混合比を算出して、混合比決定部
403に供給することができる。
合比処理部401と同様の構成を有するので、その説明
は省略する。
算出された推定混合比の例を示す図である。図57に示
す推定混合比は、等速で動いているオブジェクトに対応
する前景の動きvが11であり、7×7画素のブロック
を単位として方程式を生成して算出された結果を、1ラ
インに対して示すものである。
に示すように、ほぼ直線的に変化していることがわか
る。
から供給された、混合比が算出される画素が、前景領
域、背景領域、カバードバックグラウンド領域、または
アンカバードバックグラウンド領域のいずれかに属する
かを示す領域情報を基に、混合比を設定する。混合比決
定部403は、対象となる画素が前景領域に属する場
合、0を混合比に設定し、対象となる画素が背景領域に
属する場合、1を混合比に設定し、対象となる画素がカ
バードバックグラウンド領域に属する場合、推定混合比
処理部401から供給された推定混合比を混合比に設定
し、対象となる画素がアンカバードバックグラウンド領
域に属する場合、推定混合比処理部402から供給され
た推定混合比を混合比に設定する。混合比決定部403
は、領域情報を基に設定した混合比を出力する。
比算出部102の混合比の算出の処理を説明する。ステ
ップS501において、混合比算出部102は、領域特
定部101から供給された領域情報を取得する。ステッ
プS502において、推定混合比処理部401は、カバ
ードバックグラウンド領域に対応するモデルによる混合
比推定の処理を実行し、推定混合比を混合比決定部40
3に供給する。混合比推定の処理の詳細は、図59のフ
ローチャートを参照して、後述する。
理部402は、アンカバードバックグラウンド領域に対
応するモデルによる混合比推定の処理を実行し、推定混
合比を混合比決定部403に供給する。
102は、フレーム全体について、混合比を推定したか
否かを判定し、フレーム全体について、混合比を推定し
ていないと判定された場合、ステップS502に戻り、
次の画素について混合比を推定する処理を実行する。
について、混合比を推定したと判定された場合、ステッ
プS505に進み、混合比決定部403は、領域特定部
101から供給された、混合比が算出される画素が、前
景領域、背景領域、カバードバックグラウンド領域、ま
たはアンカバードバックグラウンド領域のいずれかに属
するかを示す領域情報を基に、混合比を設定する。混合
比決定部403は、対象となる画素が前景領域に属する
場合、0を混合比に設定し、対象となる画素が背景領域
に属する場合、1を混合比に設定し、対象となる画素が
カバードバックグラウンド領域に属する場合、推定混合
比処理部401から供給された推定混合比を混合比に設
定し、対象となる画素がアンカバードバックグラウンド
領域に属する場合、推定混合比処理部402から供給さ
れた推定混合比を混合比に設定し、処理は終了する。
特定部101から供給された領域情報、および入力画像
を基に、各画素に対応する特徴量である混合比αを算出
することができる。
るオブジェクトに対応する画像に含まれる動きボケの情
報を残したままで、画素値に含まれる前景の成分と背景
の成分とを分離することが可能になる。
る、カバードバックグラウンド領域に対応するモデルに
よる混合比推定の処理を図59のフローチャートを参照
して説明する。
02は、入力された画像に含まれる画素値、および遅延
回路221から供給される画像に含まれる画素値を、カ
バードバックグラウンド領域のモデルに対応する正規方
程式に設定する。
理部401は、対象となる画素についての設定が終了し
たか否かを判定し、対象となる画素についての設定が終
了していないと判定された場合、ステップS521に戻
り、正規方程式への画素値の設定の処理を繰り返す。
素についての画素値の設定が終了したと判定された場
合、ステップS523に進み、演算部173は、画素値
が設定された正規方程式を解くことにより、推定混合比
を演算して、求められた推定混合比を出力する。
入力画像を基に、推定混合比を演算することができる。
バードバックグラウンド領域に対応するモデルによる混
合比推定の処理は、アンカバードバックグラウンド領域
のモデルに対応する正規方程式を利用した、図59のフ
ローチャートに示す処理と同様なので、その説明は省略
する。
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した混合比を求める処理を適用
することができる。例えば、背景領域に対応する画像が
一様に動いているとき、推定混合比処理部401は、こ
の動きに対応して画像全体をシフトさせ、背景に対応す
るオブジェクトが静止している場合と同様に処理する。
また、背景領域に対応する画像が局所毎に異なる動きを
含んでいるとき、推定混合比処理部401は、混合領域
に属する画素に対応する画素として、動きに対応した画
素を選択して、上述の処理を実行する。
について、カバードバックグラウンド領域に対応するモ
デルによる混合比推定の処理のみを実行して、算出され
た推定混合比を混合比αとして出力するようにしてもよ
い。この場合において、混合比αは、カバードバックグ
ラウンド領域に属する画素について、背景の成分の割合
を示し、アンカバードバックグラウンド領域に属する画
素について、前景の成分の割合を示す。アンカバードバ
ックグラウンド領域に属する画素について、このように
算出された混合比αと1との差分の絶対値を算出して、
算出した絶対値を混合比αに設定すれば、信号処理部1
2は、アンカバードバックグラウンド領域に属する画素
について、背景の成分の割合を示す混合比αを求めるこ
とができる。
ての画素について、アンカバードバックグラウンド領域
に対応するモデルによる混合比推定の処理のみを実行し
て、算出された推定混合比を混合比αとして出力するよ
うにしてもよい。
する。図60は、前景背景分離部105の構成の一例を
示すブロック図である。前景背景分離部105に供給さ
れた入力画像は、分離部601、スイッチ602、およ
びスイッチ604に供給される。カバードバックグラウ
ンド領域を示す情報、およびアンカバードバックグラウ
ンド領域を示す、領域特定部103から供給された領域
情報は、分離部601に供給される。前景領域を示す領
域情報は、スイッチ602に供給される。背景領域を示
す領域情報は、スイッチ604に供給される。
αは、分離部601に供給される。
ド領域を示す領域情報、アンカバードバックグラウンド
領域を示す領域情報、および混合比αを基に、入力画像
から前景の成分を分離して、分離した前景の成分を合成
部603に供給するとともに、入力画像から背景の成分
を分離して、分離した背景の成分を合成部605に供給
する。
報を基に、前景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる前景に対応する画素のみを合
成部603に供給する。
報を基に、背景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる背景に対応する画素のみを合
成部605に供給する。
れた前景に対応する成分、スイッチ602から供給され
た前景に対応する画素を基に、前景成分画像を合成し、
合成した前景成分画像を出力する。前景領域と混合領域
とは重複しないので、合成部603は、例えば、前景に
対応する成分と、前景に対応する画素とに論理和の演算
を適用して、前景成分画像を合成する。
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、前景成分画像の合成の処理において、前景成分画
像を格納(上書き)する。従って、合成部603が出力
する前景成分画像の内、背景領域に対応する画素には、
画素値として0が格納されている。
れた背景に対応する成分、スイッチ604から供給され
た背景に対応する画素を基に、背景成分画像を合成し
て、合成した背景成分画像を出力する。背景領域と混合
領域とは重複しないので、合成部605は、例えば、背
景に対応する成分と、背景に対応する画素とに論理和の
演算を適用して、背景成分画像を合成する。
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、背景成分画像の合成の処理において、背景成分画
像を格納(上書き)する。従って、合成部605が出力
する背景成分画像の内、前景領域に対応する画素には、
画素値として0が格納されている。
れる入力画像、並びに前景背景分離部105から出力さ
れる前景成分画像および背景成分画像を示す図である。
であり、図61(B)は、図61(A)に対応する前景
領域に属する画素、背景領域に属する画素、および混合
領域に属する画素を含む1ラインの画素を時間方向に展
開したモデル図を示す。
うに、前景背景分離部105から出力される背景成分画
像は、背景領域に属する画素、および混合領域の画素に
含まれる背景の成分から構成される。
うに、前景背景分離部105から出力される前景成分画
像は、前景領域に属する画素、および混合領域の画素に
含まれる前景の成分から構成される。
部105により、背景の成分と、前景の成分とに分離さ
れる。分離された背景の成分は、背景領域に属する画素
と共に、背景成分画像を構成する。分離された前景の成
分は、前景領域に属する画素と共に、前景成分画像を構
成する。
対応する画素の画素値が0とされ、前景領域に対応する
画素および混合領域に対応する画素に意味のある画素値
が設定される。同様に、背景成分画像は、前景領域に対
応する画素の画素値が0とされ、背景領域に対応する画
素および混合領域に対応する画素に意味のある画素値が
設定される。
に属する画素から前景の成分、および背景の成分を分離
する処理について説明する。
ジェクトに対応する前景を含む、2つのフレームの前景
の成分および背景の成分を示す画像のモデルである。図
62に示す画像のモデルにおいて、前景の動き量vは4
であり、仮想分割数は、4とされている。
び左から14番目乃至18番目の画素は、背景の成分の
みから成り、背景領域に属する。フレーム#nにおいて、
左から2番目乃至4番目の画素は、背景の成分および前
景の成分を含み、アンカバードバックグラウンド領域に
属する。フレーム#nにおいて、左から11番目乃至13
番目の画素は、背景の成分および前景の成分を含み、カ
バードバックグラウンド領域に属する。フレーム#nにお
いて、左から5番目乃至10番目の画素は、前景の成分
のみから成り、前景領域に属する。
5番目の画素、および左から18番目の画素は、背景の
成分のみから成り、背景領域に属する。フレーム#n+1に
おいて、左から6番目乃至8番目の画素は、背景の成分
および前景の成分を含み、アンカバードバックグラウン
ド領域に属する。フレーム#n+1において、左から15番
目乃至17番目の画素は、背景の成分および前景の成分
を含み、カバードバックグラウンド領域に属する。フレ
ーム#n+1において、左から9番目乃至14番目の画素
は、前景の成分のみから成り、前景領域に属する。
に属する画素から前景の成分を分離する処理を説明する
図である。図63において、α1乃至α18は、フレー
ム#nにおける画素のぞれぞれに対応する混合比である。
図63において、左から15番目乃至17番目の画素
は、カバードバックグラウンド領域に属する。
値C15は、式(58)で表される。
混合比である。P15は、フレーム#n-1の左から15番目
の画素の画素値である。
5番目の画素の前景の成分の和f15は、式(59)で表
される。
素の前景の成分の和f16は、式(60)で表され、フレ
ーム#nの左から17番目の画素の前景の成分の和f17
は、式(61)で表される。
域に属する画素の画素値Cに含まれる前景の成分fcは、
式(62)で計算される。
る。
領域に属する画素から前景の成分を分離する処理を説明
する図である。図64において、α1乃至α18は、フ
レーム#nにおける画素のぞれぞれに対応する混合比であ
る。図64において、左から2番目乃至4番目の画素
は、アンカバードバックグラウンド領域に属する。
C02は、式(63)で表される。
合比である。N02は、フレーム#n+1の左から2番目の画
素の画素値である。
番目の画素の前景の成分の和f02は、式(64)で表さ
れる。
の前景の成分の和f03は、式(65)で表され、フレー
ム#nの左から4番目の画素の前景の成分の和f04は、式
(66)で表される。
ド領域に属する画素の画素値Cに含まれる前景の成分fu
は、式(67)で計算される。
る。
含まれる、カバードバックグラウンド領域を示す情報、
およびアンカバードバックグラウンド領域を示す情報、
並びに画素毎の混合比αを基に、混合領域に属する画素
から前景の成分、および背景の成分を分離することがで
きる。
分離部601の構成の一例を示すブロック図である。分
離部601に入力された画像は、フレームメモリ621
に供給され、混合比算出部104から供給されたカバー
ドバックグラウンド領域およびアンカバードバックグラ
ウンド領域を示す領域情報、並びに混合比αは、分離処
理ブロック622に入力される。
をフレーム単位で記憶する。フレームメモリ621は、
処理の対象がフレーム#nであるとき、フレーム#nの1つ
前のフレームであるフレーム#n-1、フレーム#n、および
フレーム#nの1つ後のフレームであるフレーム#n+1を記
憶する。
フレーム#n、およびフレーム#n+1の対応する画素を分離
処理ブロック622に供給する。
クグラウンド領域およびアンカバードバックグラウンド
領域を示す領域情報、並びに混合比αを基に、フレーム
メモリ621から供給されたフレーム#n-1、フレーム#
n、およびフレーム#n+1の対応する画素の画素値に図6
3および図64を参照して説明した演算を適用して、フ
レーム#nの混合領域に属する画素から前景の成分および
背景の成分を分離して、フレームメモリ623に供給す
る。
領域処理部631、カバード領域処理部632、合成部
633、および合成部634で構成されている。
41は、混合比αを、フレームメモリ621から供給さ
れたフレーム#n+1の画素の画素値に乗じて、スイッチ6
42に出力する。スイッチ642は、フレームメモリ6
21から供給されたフレーム#nの画素(フレーム#n+1の
画素に対応する)がアンカバードバックグラウンド領域
であるとき、閉じられ、乗算器641から供給された混
合比αを乗じた画素値を演算器643および合成部63
4に供給する。スイッチ642から出力されるフレーム
#n+1の画素の画素値に混合比αを乗じた値は、フレーム
#nの対応する画素の画素値の背景の成分に等しい。
ら供給されたフレーム#nの画素の画素値から、スイッチ
642から供給された背景の成分を減じて、前景の成分
を求める。演算器643は、アンカバードバックグラウ
ンド領域に属する、フレーム#nの画素の前景の成分を合
成部633に供給する。
は、混合比αを、フレームメモリ621から供給された
フレーム#n-1の画素の画素値に乗じて、スイッチ652
に出力する。スイッチ652は、フレームメモリ621
から供給されたフレーム#nの画素(フレーム#n-1の画素
に対応する)がカバードバックグラウンド領域であると
き、閉じられ、乗算器651から供給された混合比αを
乗じた画素値を演算器653および合成部634に供給
する。スイッチ652から出力されるフレーム#n-1の画
素の画素値に混合比αを乗じた値は、フレーム#nの対応
する画素の画素値の背景の成分に等しい。
ら供給されたフレーム#nの画素の画素値から、スイッチ
652から供給された背景の成分を減じて、前景の成分
を求める。演算器653は、カバードバックグラウンド
領域に属する、フレーム#nの画素の前景の成分を合成部
633に供給する。
43から供給された、アンカバードバックグラウンド領
域に属する画素の前景の成分、および演算器653から
供給された、カバードバックグラウンド領域に属する画
素の前景の成分を合成して、フレームメモリ623に供
給する。
642から供給された、アンカバードバックグラウンド
領域に属する画素の背景の成分、およびスイッチ652
から供給された、カバードバックグラウンド領域に属す
る画素の背景の成分を合成して、フレームメモリ623
に供給する。
ク622から供給された、フレーム#nの混合領域の画素
の前景の成分と、背景の成分とをそれぞれに記憶する。
レーム#nの混合領域の画素の前景の成分、および記憶し
ているフレーム#nの混合領域の画素の背景の成分を出力
する。
り、画素値に含まれる前景の成分と背景の成分とを完全
に分離することが可能になる。
れた、フレーム#nの混合領域の画素の前景の成分と、前
景領域に属する画素とを合成して前景成分画像を生成す
る。合成部605は、分離部601から出力された、フ
レーム#nの混合領域の画素の背景の成分と、背景領域に
属する画素とを合成して背景成分画像を生成する。
る、前景成分画像の例と、背景成分画像の例を示す図で
ある。
応する、前景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景が分離される前
において、背景の成分のみから成っていたので、画素値
が0とされる。
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、背景の成分が0とされ、前景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、背景の成分が0と
され、前景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景の成分のみから成るの
で、そのまま残される。
応する、背景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景とが分離される
前において、背景の成分のみから成っていたので、その
まま残される。
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、前景の成分が0とされ、背景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、前景の成分が0と
され、背景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景と背景とが分離される前
において、前景の成分のみから成っていたので、画素値
が0とされる。
して、前景背景分離部105による前景と背景との分離
の処理を説明する。ステップS601において、分離部
601のフレームメモリ621は、入力画像を取得し、
前景と背景との分離の対象となるフレーム#nを、その前
のフレーム#n-1およびその後のフレーム#n+1と共に記憶
する。
の分離処理ブロック622は、混合比算出部104から
供給された領域情報を取得する。ステップS603にお
いて、分離部601の分離処理ブロック622は、混合
比算出部104から供給された混合比αを取得する。
領域処理部631は、領域情報および混合比αを基に、
フレームメモリ621から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、背景の
成分を抽出する。
領域処理部631は、領域情報および混合比αを基に、
フレームメモリ621から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、前景の
成分を抽出する。
処理部632は、領域情報および混合比αを基に、フレ
ームメモリ621から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、背景の成分を抽
出する。
処理部632は、領域情報および混合比αを基に、フレ
ームメモリ621から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、前景の成分を抽
出する。
は、ステップS605の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の前景の成分と、ス
テップS607の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の前景の成分とを合成する。合
成された前景の成分は、合成部603に供給される。更
に、合成部603は、スイッチ602を介して供給され
た前景領域に属する画素と、分離部601から供給され
た前景の成分とを合成して、前景成分画像を生成する。
は、ステップS604の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の背景の成分と、ス
テップS606の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の背景の成分とを合成する。合
成された背景の成分は、合成部605に供給される。更
に、合成部605は、スイッチ604を介して供給され
た背景領域に属する画素と、分離部601から供給され
た背景の成分とを合成して、背景成分画像を生成する。
は、前景成分画像を出力する。ステップS611におい
て、合成部605は、背景成分画像を出力し、処理は終
了する。
域情報および混合比αを基に、入力画像から前景の成分
と、背景の成分とを分離し、前景の成分のみから成る前
景成分画像、および背景の成分のみから成る背景成分画
像を出力することができる。
調整について説明する。
一例を示すブロック図である。動き検出部102から供
給された動きベクトルとその位置情報、および領域特定
部103から供給された領域情報は、処理単位決定部8
01およびモデル化部802に供給される。前景背景分
離部105から供給された前景成分画像は、足し込み部
804に供給される。
その位置情報、および領域情報を基に、動きベクトルと
共に、生成した処理単位をモデル化部802に供給す
る。処理単位決定部801は、生成した処理単位を足し
込み部804に供給する。
は、図69に例を示すように、前景成分画像のカバード
バックグラウンド領域に対応する画素から始まり、アン
カバードバックグラウンド領域に対応する画素までの動
き方向に並ぶ連続する画素、またはアンカバードバック
グラウンド領域に対応する画素から始まり、カバードバ
ックグラウンド領域に対応する画素までの動き方向に並
ぶ連続する画素を示す。処理単位は、例えば、左上点
(処理単位で指定される画素であって、画像上で最も左
または最も上に位置する画素の位置)および右下点の2
つのデータから成る。
入力された処理単位を基に、モデル化を実行する。より
具体的には、例えば、モデル化部802は、処理単位に
含まれる画素の数、画素値の時間方向の仮想分割数、お
よび画素毎の前景の成分の数に対応する複数のモデルを
予め記憶しておき、処理単位、および画素値の時間方向
の仮想分割数を基に、図70に示すような、画素値と前
景の成分との対応を指定するモデルを選択するようにし
ても良い。
2でありシャッタ時間内の動き量vが5であるときにお
いては、モデル化部802は、仮想分割数を5とし、最
も左に位置する画素が1つの前景の成分を含み、左から
2番目の画素が2つの前景の成分を含み、左から3番目
の画素が3つの前景の成分を含み、左から4番目の画素
が4つの前景の成分を含み、左から5番目の画素が5つ
の前景の成分を含み、左から6番目の画素が5つの前景
の成分を含み、左から7番目の画素が5つの前景の成分
を含み、左から8番目の画素が5つの前景の成分を含
み、左から9番目の画素が4つの前景の成分を含み、左
から10番目の画素が3つの前景の成分を含み、左から
11番目の画素が2つの前景の成分を含み、左から12
番目の画素が1つの前景の成分を含み、全体として8つ
の前景の成分から成るモデルを選択する。
あるモデルから選択するのではなく、動きベクトル、お
よび処理単位が供給されたとき、動きベクトル、および
処理単位を基に、モデルを生成するようにしてもよい。
程式生成部803に供給する。
から供給されたモデルを基に、方程式を生成する。図7
0に示す前景成分画像のモデルを参照して、前景の成分
の数が8であり、処理単位に対応する画素の数が12で
あり、動き量vが5であり、仮想分割数が5であるとき
の、方程式生成部803が生成する方程式について説明
する。
対応する前景成分がF01/v乃至F08/vであるとき、F01/v
乃至F08/vと画素値C01乃至C12との関係は、式(68)
乃至式(79)で表される。
変形して方程式を生成する。方程式生成部803が生成
する方程式を、式(80)乃至式(91)に示す。 C01=1・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (80) C02=1・F01/v+1・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (81) C03=1・F01/v+1・F02/v+1・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (82) C04=1・F01/v+1・F02/v+1・F03/v+1・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (83) C05=1・F01/v+1・F02/v+1・F03/v+1・F04/v+1・F05/v +0・F06/v+0・F07/v+0・F08/v (84) C06=0・F01/v+1・F02/v+1・F03/v+1・F04/v+1・F05/v +1・F06/v+0・F07/v+0・F08/v (85) C07=0・F01/v+0・F02/v+1・F03/v+1・F04/v+1・F05/v +1・F06/v+1・F07/v+0・F08/v (86) C08=0・F01/v+0・F02/v+0・F03/v+1・F04/v+1・F05/v +1・F06/v+1・F07/v+1・F08/v (87) C09=0・F01/v+0・F02/v+0・F03/v+0・F04/v+1・F05/v +1・F06/v+1・F07/v+1・F08/v (88) C10=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +1・F06/v+1・F07/v+1・F08/v (89) C11=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+1・F07/v+1・F08/v (90) C12=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+1・F08/v (91)
として表すこともできる。
において、jは、1乃至12のいずれか1つの値を有す
る。また、iは、前景値の位置を示す。この例におい
て、iは、1乃至8のいずれか1つの値を有する。aij
は、iおよびjの値に対応して、0または1の値を有す
る。
は、式(93)のように表すことができる。
である。
とができる。
の自乗和Eを式(95)に示すように定義する。
Eに対する、変数Fkによる偏微分の値が0になればよ
い。式(96)を満たすようにFkを求める。
あるから、式(97)を導くことができる。
(98)を得る。
か1つを代入して得られる8つの式に展開する。得られ
た8つの式を、行列により1つの式により表すことがで
きる。この式を正規方程式と呼ぶ。
成部803が生成する正規方程式の例を式(99)に示
す。
知であり、Fは未知である。また、A,vは、モデル化の時
点で既知だが、Cは、足し込み動作において画素値を入
力することで既知となる。
成分を算出することにより、画素Cに含まれている誤差
を分散させることができる。
れた正規方程式を足し込み部804に供給する。
1から供給された処理単位を基に、前景成分画像に含ま
れる画素値Cを、方程式生成部803から供給された行
列の式に設定する。足し込み部804は、画素値Cを設
定した行列を演算部805に供給する。
anの消去法)などの解法に基づく処理により、動きボケ
が除去された前景成分Fi/vを算出して、動きボケが除去
された前景の画素値である、0乃至8の整数のいずれか
のiに対応するFiを算出して、図71に例を示す、動き
ボケが除去された画素値であるFiから成る、動きボケが
除去された前景成分画像を動きボケ付加部806および
選択部807に出力する。
前景成分画像において、C03乃至C10のそれぞれにF01乃
至F08のそれぞれが設定されているのは、画面に対する
前景成分画像の位置を変化させないためであり、任意の
位置に対応させることができる。
なる値の動きボケ調整量v'、例えば、動き量vの半分の
値の動きボケ調整量v'や、動き量vと無関係の値の動き
ボケ調整量v'を与えることで、動きボケの量を調整する
ことができる。例えば、図72に示すように、動きボケ
付加部806は、動きボケが除去された前景の画素値Fi
を動きボケ調整量v'で除すことにより、前景成分Fi/v'
を算出して、前景成分Fi/v'の和を算出して、動きボケ
の量が調整された画素値を生成する。例えば、動きボケ
調整量v'が3のとき、画素値C02は、(F01)/v'とさ
れ、画素値C03は、(F01+F02)/v'とされ、画素値C04
は、(F01+F02+F03)/v'とされ、画素値C05は、(F02+F
03+F04)/v'とされる。
調整した前景成分画像を選択部807に供給する。
応した選択信号を基に、演算部805から供給された動
きボケが除去された前景成分画像、および動きボケ付加
部806から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
択信号および動きボケ調整量v'を基に、動きボケの量を
調整することができる。
単位に対応する画素の数が8であり、動き量vが4であ
るとき、動きボケ調整部106は、式(100)に示す
行列の式を生成する。
単位の長さに対応した数の式を立てて、動きボケの量が
調整された画素値であるFiを算出する。同様に、例え
ば、処理単位に含まれる画素の数が100あるとき、1
00個の画素に対応する式を生成して、Fiを算出する。
成を示す図である。図68に示す場合と同様の部分には
同一の番号を付してあり、その説明は省略する。
れた動きベクトルとその位置信号をそのまま処理単位決
定部801およびモデル化部802に供給するか、また
は動きベクトルの大きさを動きボケ調整量v'に置き換え
て、その大きさが動きボケ調整量v'に置き換えられた動
きベクトルとその位置信号を処理単位決定部801およ
びモデル化部802に供給する。
調整部106の処理単位決定部801乃至演算部805
は、動き量vと動きボケ調整量v'との値に対応して、動
きボケの量を調整することができる。例えば、動き量v
が5であり、動きボケ調整量v'が3であるとき、図74の
動きボケ調整部106の処理単位決定部801乃至演算
部805は、図70に示す動き量vが5である前景成分画
像に対して、3である動きボケ調整量v'対応する図72
に示すようなモデルに従って、演算を実行し、(動き量
v)/(動きボケ調整量v')=5/3、すなわちほぼ1.7の動
き量vに応じた動きボケを含む画像を算出する。なお、
この場合、算出される画像は、3である動き量vに対応し
た動きボケを含むのではないので、動きボケ付加部80
6の結果とは動き量vと動きボケ調整量v'の関係の意味
合いが異なる点に注意が必要である。
動き量vおよび処理単位に対応して、式を生成し、生成
した式に前景成分画像の画素値を設定して、動きボケの
量が調整された前景成分画像を算出する。
て、動きボケ調整部106による前景成分画像に含まれ
る動きボケの量の調整の処理を説明する。
部106の処理単位決定部801は、動きベクトルおよ
び領域情報を基に、処理単位を生成し、生成した処理単
位をモデル化部802に供給する。
部106のモデル化部802は、動き量vおよび処理単
位に対応して、モデルの選択や生成を行う。ステップS
803において、方程式生成部803は、選択されたモ
デルを基に、正規方程式を作成する。
04は、作成された正規方程式に前景成分画像の画素値
を設定する。ステップS805において、足し込み部8
04は、処理単位に対応する全ての画素の画素値の設定
を行ったか否かを判定し、処理単位に対応する全ての画
素の画素値の設定を行っていないと判定された場合、ス
テップS804に戻り、正規方程式への画素値の設定の
処理を繰り返す。
ての画素の画素値の設定を行ったと判定された場合、ス
テップS806に進み、演算部805は、足し込み部8
04から供給された画素値が設定された正規方程式を基
に、動きボケの量を調整した前景の画素値を算出して、
処理は終了する。
きベクトルおよび領域情報を基に、動きボケを含む前景
画像から動きボケの量を調整することができる。
含まれる動きボケの量を調整することができる。
部12は、入力画像に含まれる動きボケの量を調整する
ことができる。図4に構成を示す信号処理部12は、埋
もれた情報である混合比αを算出して、算出した混合比
αを出力することができる。
他の一例を示すブロック図である。動き検出部102か
ら供給された動きベクトルとその位置情報は、処理単位
決定部901および補正部905に供給され、領域特定
部103から供給された領域情報は、処理単位決定部9
01に供給される。前景背景分離部105から供給され
た前景成分画像は、演算部904に供給される。
その位置情報、および領域情報を基に、動きベクトルと
共に、生成した処理単位をモデル化部902に供給す
る。
入力された処理単位を基に、モデル化を実行する。
から供給されたモデルを基に、方程式を生成する。
デルを参照して、前景の成分の数が8であり、処理単位
に対応する画素の数が12であり、動き量vが5である
ときの、方程式生成部903が生成する方程式の例につ
いて説明する。
対応する前景成分がF01/v乃至F08/vであるとき、F01/v
乃至F08/vと画素値C01乃至C12との関係は、上述したよ
うに、式(68)乃至式(79)で表される。
C12は、式(101)に示すように、前景の成分F08/vの
みを含み、画素値C11は、前景の成分F08/vおよび前景の
成分F07/vの積和から成る。従って、前景の成分F07/v
は、式(102)で求めることができる。
の成分を考慮すると、前景の成分F06/v乃至F01/vは、式
(103)乃至式(108)により求めることができ
る。
式(108)に例を示す、画素値の差により前景の成分
を算出するための方程式を生成する。方程式生成部90
3は、生成した方程式を演算部904に供給する。
供給された方程式に前景成分画像の画素値を設定して、
画素値を設定した方程式を基に、前景の成分を算出す
る。演算部904は、例えば、式(101)乃至式(1
08)が方程式生成部903から供給されたとき、式
(101)乃至式(108)に画素値C05乃至C12を設定
する。
基づき、前景の成分を算出する。例えば、演算部904
は、画素値C05乃至C12が設定された式(101)乃至式
(108)に基づく演算により、図78に示すように、
前景の成分F01/v乃至F08/vを算出する。演算部904
は、前景の成分F01/v乃至F08/vを補正部905に供給す
る。
れた前景の成分に、処理単位決定部901から供給され
た動きベクトルに含まれる動き量vを乗じて、動きボケ
を除去した前景の画素値を算出する。例えば、補正部9
05は、演算部904から供給された前景の成分F01/v
乃至F08/vが供給されたとき、前景の成分F01/v乃至F08/
vのそれぞれに、5である動き量vを乗じることにより、
図79に示すように、動きボケを除去した前景の画素値
F01乃至F08を算出する。
た、動きボケを除去した前景の画素値から成る前景成分
画像を動きボケ付加部906および選択部907に供給
する。
なる値の動きボケ調整量v'、例えば、動き量vの半分の
値の動きボケ調整量v'、動き量vと無関係の値の動きボ
ケ調整量v'で、動きボケの量を調整することができる。
例えば、図72に示すように、動きボケ付加部906
は、動きボケが除去された前景の画素値Fiを動きボケ調
整量v'で除すことにより、前景成分Fi/v'を算出して、
前景成分Fi/v'の和を算出して、動きボケの量が調整さ
れた画素値を生成する。例えば、動きボケ調整量v'が3
のとき、画素値C02は、(F01)/v'とされ、画素値C03
は、(F01+F02)/v'とされ、画素値C04は、(F01+F02+F
03)/v'とされ、画素値C05は、(F02+F03+F04)/v'とさ
れる。
調整した前景成分画像を選択部907に供給する。
応した選択信号を基に、補正部905から供給された動
きボケが除去された前景成分画像、および動きボケ付加
部906から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
択信号および動きボケ調整量v'を基に、動きボケの量を
調整することができる。
106による前景の動きボケの量の調整の処理を図80
のフローチャートを参照して説明する。
部106の処理単位決定部901は、動きベクトルおよ
び領域情報を基に、処理単位を生成し、生成した処理単
位をモデル化部902および補正部905に供給する。
部106のモデル化部902は、動き量vおよび処理単
位に対応して、モデルの選択や生成を行う。ステップS
903において、方程式生成部903は、選択または生
成されたモデルを基に、前景成分画像の画素値の差によ
り前景の成分を算出するための方程式を生成する。
は、作成された方程式に前景成分画像の画素値を設定
し、画素値が設定された方程式を基に、画素値の差分か
ら前景の成分を抽出する。ステップS905において、
演算部904は、処理単位に対応する全ての前景の成分
を抽出したか否かを判定し、処理単位に対応する全ての
前景の成分を抽出していないと判定された場合、ステッ
プS904に戻り、前景の成分を抽出の処理を繰り返
す。
応する全ての前景の成分を抽出したと判定された場合、
ステップS906に進み、補正部905は、動き量vを
基に、演算部904から供給された前景の成分F01/v乃
至F08/vのそれぞれを補正して、動きボケを除去した前
景の画素値F01乃至F08を算出する。
部906は、動きボケの量を調整した前景の画素値を算
出して、選択部907は、動きボケが除去された画像ま
たは動きボケの量が調整された画像のいずれかを選択し
て、選択した画像を出力して、処理は終了する。
調整部106は、より簡単な演算で、より迅速に、動き
ボケを含む前景画像から動きボケを調整することができ
る。
部分的に除去する手法が、理想状態では効果が認められ
るが、量子化され、ノイズを含んだ実際の画像に対して
十分な効果が得られないのに対し、図76に構成を示す
動きボケ調整部106においても、量子化され、ノイズ
を含んだ実際の画像に対しても十分な効果が認められ、
精度の良い動きボケの除去が可能となる。
成を示すブロック図である。
号を付してあり、その説明は適宜省略する。
出部104および合成部1001に供給する。
景分離部105および合成部1001に供給する。
合成部1001に供給する。
ら供給された混合比α、領域特定部103から供給され
た領域情報を基に、任意の背景画像と、前景背景分離部
105から供給された前景成分画像とを合成して、任意
の背景画像と前景成分画像とが合成された合成画像を出
力する。
である。背景成分生成部1021は、混合比αおよび任
意の背景画像を基に、背景成分画像を生成して、混合領
域画像合成部1022に供給する。
生成部1021から供給された背景成分画像と前景成分
画像とを合成することにより、混合領域合成画像を生成
して、生成した混合領域合成画像を画像合成部1023
に供給する。
前景成分画像、混合領域画像合成部1022から供給さ
れた混合領域合成画像、および任意の背景画像を合成し
て、合成画像を生成して出力する。
画像を、任意の背景画像に合成することができる。
を任意の背景画像と合成して得られた画像は、単に画素
を合成した画像に比較し、より自然なものと成る。
理部12の機能の更に他の構成を示すブロック図であ
る。図4に示す信号処理部12が領域特定と混合比αの
算出を順番に行うのに対して、図83に示す信号処理部
12は、領域特定と混合比αの算出を並行して行う。
には同一の番号を付してあり、その説明は省略する。
背景分離部1102、領域特定部103、およびオブジ
ェクト抽出部101に供給される。
に、画素がカバードバックグラウンド領域に属すると仮
定した場合における推定混合比、および画素がアンカバ
ードバックグラウンド領域に属すると仮定した場合にお
ける推定混合比を、入力画像に含まれる画素のそれぞれ
に対して算出し、算出した画素がカバードバックグラウ
ンド領域に属すると仮定した場合における推定混合比、
および画素がアンカバードバックグラウンド領域に属す
ると仮定した場合における推定混合比を前景背景分離部
1102に供給する。
一例を示すブロック図である。
図49に示す推定混合比処理部401と同じである。図
84に示す推定混合比処理部402は、図49に示す推
定混合比処理部402と同じである。
に、カバードバックグラウンド領域のモデルに対応する
演算により、画素毎に推定混合比を算出して、算出した
推定混合比を出力する。
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を出力する。
1101から供給された、画素がカバードバックグラウ
ンド領域に属すると仮定した場合における推定混合比、
および画素がアンカバードバックグラウンド領域に属す
ると仮定した場合における推定混合比、並びに領域特定
部103から供給された領域情報を基に、入力画像から
前景成分画像を生成し、生成した前景成分画像を動きボ
ケ調整部106および選択部107に供給する。
の一例を示すブロック図である。
の部分には同一の番号を付してあり、その説明は省略す
る。
供給された領域情報を基に、混合比算出部1101から
供給された、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比のいずれか一方を選択して、選
択した推定混合比を混合比αとして分離部601に供給
する。
された混合比αおよび領域情報を基に、混合領域に属す
る画素の画素値から前景の成分および背景の成分を抽出
し、抽出した前景の成分を合成部603に供給すると共
に、背景の成分を合成部605に供給する。
構成とすることができる。
て、出力する。合成部605は、背景成分画像を合成し
て出力する。
4に示す場合と同様の構成とすることができ、領域情報
および動きベクトルを基に、前景背景分離部1102か
ら供給された前景成分画像に含まれる動きボケの量を調
整して、動きボケの量が調整された前景成分画像を出力
する。
者の選択に対応した選択信号を基に、前景背景分離部1
102から供給された前景成分画像、および動きボケ調
整部106から供給された動きボケの量が調整された前
景成分画像のいずれか一方を選択して、選択した前景成
分画像を出力する。
部12は、入力画像に含まれる前景のオブジェクトに対
応する画像に対して、その画像に含まれる動きボケの量
を調整して出力することができる。図83に構成を示す
信号処理部12は、第1の実施例と同様に、埋もれた情
報である混合比αを算出して、算出した混合比αを出力
することができる。
と合成する信号処理部12の機能の他の構成を示すブロ
ック図である。図81に示す信号処理部12が領域特定
と混合比αの算出をシリアルに行うのに対して、図86
に示す信号処理部12は、領域特定と混合比αの算出を
パラレルに行う。
分には同一の番号を付してあり、その説明は省略する。
力画像を基に、画素がカバードバックグラウンド領域に
属すると仮定した場合における推定混合比、および画素
がアンカバードバックグラウンド領域に属すると仮定し
た場合における推定混合比を、入力画像に含まれる画素
のそれぞれに対して算出し、算出した画素がカバードバ
ックグラウンド領域に属すると仮定した場合における推
定混合比、および画素がアンカバードバックグラウンド
領域に属すると仮定した場合における推定混合比を前景
背景分離部1102および合成部1201に供給する。
混合比算出部1101から供給された、画素がカバード
バックグラウンド領域に属すると仮定した場合における
推定混合比、および画素がアンカバードバックグラウン
ド領域に属すると仮定した場合における推定混合比、並
びに領域特定部103から供給された領域情報を基に、
入力画像から前景成分画像を生成し、生成した前景成分
画像を合成部1201に供給する。
から供給された、画素がカバードバックグラウンド領域
に属すると仮定した場合における推定混合比、および画
素がアンカバードバックグラウンド領域に属すると仮定
した場合における推定混合比、領域特定部103から供
給された領域情報を基に、任意の背景画像と、前景背景
分離部1102から供給された前景成分画像とを合成し
て、任意の背景画像と前景成分画像とが合成された合成
画像を出力する。
である。図82のブロック図に示す機能と同様の部分に
は同一の番号を付してあり、その説明は省略する。
供給された領域情報を基に、混合比算出部1101から
供給された、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比のいずれか一方を選択して、選
択した推定混合比を混合比αとして背景成分生成部10
21に供給する。
選択部1221から供給された混合比αおよび任意の背
景画像を基に、背景成分画像を生成して、混合領域画像
合成部1022に供給する。
は、背景成分生成部1021から供給された背景成分画
像と前景成分画像とを合成することにより、混合領域合
成画像を生成して、生成した混合領域合成画像を画像合
成部1023に供給する。
前景成分画像、混合領域画像合成部1022から供給さ
れた混合領域合成画像、および任意の背景画像を合成し
て、合成画像を生成して出力する。
画像を、任意の背景画像に合成することができる。
の成分の割合として説明したが、画素値に含まれる前景
の成分の割合としてもよい。
向は左から右として説明したが、その方向に限定されな
いことは勿論である。
を有する現実空間の画像をビデオカメラを用いて2次元
空間と時間軸情報を有する時空間への射影を行った場合
を例としたが、本発明は、この例に限らず、より多くの
第1の次元の第1の情報を、より少ない第2の次元の第
2の情報に射影した場合に、その射影によって発生する
歪みを補正したり、有意情報を抽出したり、またはより
自然に画像を合成する場合に適応することが可能であ
る。
撮像素子である、例えば、BBD(Bucket Brigade Devic
e)、CID(Charge Injection Device)、またはCPD(Ch
arge Priming Device)などのセンサでもよく、また、
検出素子がマトリックス状に配置されているセンサに限
らず、検出素子が1列に並んでいるセンサでもよい。
した記録媒体は、図3に示すように、コンピュータとは
別に、ユーザにプログラムを提供するために配布され
る、プログラムが記録されている磁気ディスク51(フ
ロッピディスクを含む)、光ディスク52(CD-ROM(Com
paut Disk-Read Only Memory),DVD(Digital VersatileD
isk)を含む)、光磁気ディスク53(MD(Mini-Dis
k)を含む)、もしくは半導体メモリ54などよりなる
パッケージメディアにより構成されるだけでなく、コン
ピュータに予め組み込まれた状態でユーザに提供され
る、プログラムが記録されているROM22や、記憶部2
8に含まれるハードディスクなどで構成される。
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
に記録媒体によれば、画像データの注目フレームの注目
画素に対応する、注目フレームの前または後のフレーム
の画素データが、画像データの複数のオブジェクトのう
ちの背景となるオブジェクトに相当する背景画素データ
として抽出され、注目フレームに存在する注目画素と共
に、注目画素の近傍に位置する、注目フレーム内の近傍
画素データが抽出され、注目画素について、注目画素お
よび近傍画素データ、並びに注目画素または近傍画素デ
ータに対応する背景画素データの関係を示す、複数の関
係式が生成され、関係式に基づいて、注目画素に対し
て、現実世界において複数であるオブジェクトの混合状
態を示す混合比が検出されるようにしたので、複数のオ
ブジェクトの混ざり合いの状態を示す混合比を検出する
ことができるようになる。
ック図である。
ある。
止している背景に対応するオブジェクトとを撮像して得
られる画像を説明する図である。
クグラウンド領域、およびアンカバードバックグラウン
ド領域を説明する図である。
よび静止している背景に対応するオブジェクトを撮像し
た画像における、隣接して1列に並んでいる画素の画素
値を時間方向に展開したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
を抽出した例を示す図である。
の対応を示す図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
チャートである。
ある。
ときの画像を説明する図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
示す図である。
示す図である。
ある。
図である。
対応する期間を分割したモデル図である。
示すブロック図である。
図である。
る。
ある。
るフローチャートである。
ートである。
ロック図である。
ク図である。
ある。
ある。
ある。
ャートである。
である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
る。
る。
画素の対応を説明する図である。
ロック図である。
トである。
デルによる混合比推定の処理を説明するフローチャート
である。
ロック図である。
像を示す図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
対応する期間を分割したモデル図である。
である。
像の例を示す図である。
チャートである。
ロック図である。
シャッタ時間に対応する期間を分割したモデル図であ
る。
シャッタ時間に対応する期間を分割したモデル図であ
る。
シャッタ時間に対応する期間を分割したモデル図であ
る。
シャッタ時間に対応する期間を分割したモデル図であ
る。
ある。
含まれる動きボケの量の調整の処理を説明するフローチ
ャートである。
ック図である。
デルの例を示す図である。
ーチャートである。
ック図である。
すブロック図である。
図である。
ク図である。
すブロック図である。
22 ROM, 23 RAM,26 入力部, 27 出力
部, 28 記憶部, 29 通信部, 51磁気ディ
スク, 52 光ディスク, 53 光磁気ディスク,
54 半導体メモリ, 101 オブジェクト抽出
部, 102 動き検出部, 103 領域特定部,
104 混合比算出部, 105 前景背景分離部,
106 動きボケ調整部, 107 選択部, 201
フレームメモリ, 202−1乃至202−4 静動
判定部, 203−1乃至203−3 領域判定部,
204 判定フラグ格納フレームメモリ, 205 合
成部, 206 判定フラグ格納フレームメモリ, 3
01 背景画像生成部, 302 2値オブジェクト画
像抽出部, 303 時間変化検出部, 321 相関
値演算部, 322しきい値処理部, 341 フレー
ムメモリ, 342 領域判定部, 361ロバスト化
部, 381 動き補償部, 382 スイッチ, 3
83−1乃至383−N フレームメモリ、 384−
1乃至384−N 重み付け部,385 積算部, 4
01 推定混合比処理部, 402 推定混合比処理
部,403 混合比決定部, 501 遅延回路, 5
02 足し込み部, 503 演算部, 601 分離
部, 602 スイッチ, 603 合成部, 604
スイッチ, 605 合成部, 621 フレームメ
モリ, 622 分離処理ブロック, 623 フレー
ムメモリ, 631 アンカバード領域処理部, 63
2 カバード領域処理部, 633 合成部, 634
合成部,801 処理単位決定部, 802 モデル
化部, 803 方程式生成部,804 足し込み部,
805 演算部, 806 動きボケ付加部, 80
7選択部, 821 選択部, 901 処理単位決定
部, 902 モデル化部, 903 方程式生成部,
904 演算部, 905 補正部, 906動きボ
ケ付加部, 907 選択部, 1001 合成部,
1021 背景成分生成部, 1022 混合領域画像
合成部, 1023 画像合成部, 1101 混合比
算出部, 1102 前景背景分離部, 1121 選
択部,1201 合成部, 1221 選択部
Claims (18)
- 【請求項1】 時間積分効果を有する所定数の画素を有
する撮像素子によって取得された所定数の画素データか
らなる画像データを処理する画像処理装置において、 前記画像データの注目フレームの注目画素に対応する、
前記注目フレームの前または後のフレームの画素データ
を、前記画像データの複数のオブジェクトのうちの背景
となるオブジェクトに相当する背景画素データとして抽
出する背景画素抽出手段と、 前記注目フレームに存在する前記注目画素と、前記注目
画素の近傍に位置する、前記注目フレーム内の近傍画素
データを抽出する注目フレーム画素抽出手段と、 前記注目画素について、前記注目画素および前記近傍画
素データ、並びに前記注目画素または前記近傍画素デー
タに対応する前記背景画素データの関係を示す、複数の
関係式を生成する関係式生成手段と、 前記関係式に基づいて、前記注目画素に対して、現実世
界において複数である前記オブジェクトの混合状態を示
す混合比を検出する混合比検出手段とを含むことを特徴
とする画像処理装置。 - 【請求項2】 前記関係式生成手段は、前記注目画素お
よび前記近傍画素データに含まれる、前記画像データの
複数の前記オブジェクトのうちの前景となるオブジェク
トの成分が同一であるとする第1の近似、並びに複数の
前記オブジェクトが混合されている混合領域において前
記混合比の変化が前記混合領域内での画素の位置に対し
て直線的であるとする第2の近似に基づいて、前記複数
の関係式を生成することを特徴とする請求項1に記載の
画像処理装置。 - 【請求項3】 前記関係式生成手段は、前記注目画素お
よび前記近傍画素データに含まれる、前記画像データの
複数の前記オブジェクトのうちの前景となるオブジェク
トの成分が同一であるとする第1の近似、並びに複数の
前記オブジェクトが混合されている混合領域において前
記混合比の変化が前記混合領域内での画素の位置に対し
て平面的であるとする第2の近似に基づいて、前記複数
の関係式を生成することを特徴とする請求項1に記載の
画像処理装置。 - 【請求項4】 前記混合比検出手段は、前記複数の関係
式を最小自乗法で解くことにより、前記混合比を検出す
ることを特徴とする請求項1に記載の画像処理装置。 - 【請求項5】 前記背景画素抽出手段は、前記注目画素
が、複数の前記オブジェクトが混合されている混合領域
であって、前景のオブジェクトの動き方向先端部側に形
成されるカバードバックグラウンド領域に属する場合、
前記注目フレームの前のフレームの画素データを、背景
画素データとして抽出し、前記注目画素が、複数の前記
オブジェクトが混合されている混合領域であって、前記
前景のオブジェクトの動き方向後端部側に形成されるア
ンカバードバックグラウンド領域に属する場合、前記注
目フレームの後のフレームの画素データを、背景画素デ
ータとして抽出することを特徴とする請求項1に記載の
画像処理装置。 - 【請求項6】 前記画像データにおいて複数の前記オブ
ジェクトのうちの前景となるオブジェクトからなる前景
領域、前記画像データにおいて複数の前記オブジェクト
のうちの背景となるオブジェクトからなる背景領域、並
びに前記カバードバックグラウンド領域および前記アン
カバードバックグラウンド領域を含む前記混合領域を特
定し、前記前景領域、前記背景領域、並びに前記カバー
ドバックグラウンド領域および前記アンカバードバック
グラウンド領域を含む前記混合領域を示す領域情報を生
成する領域情報生成手段をさらに含むことを特徴とする
請求項4に記載の画像処理装置。 - 【請求項7】 時間積分効果を有する所定数の画素を有
する撮像素子によって取得された所定数の画素データか
らなる画像データを処理する画像処理方法において、 前記画像データの注目フレームの注目画素に対応する、
前記注目フレームの前または後のフレームの画素データ
を、前記画像データの複数のオブジェクトのうちの背景
となるオブジェクトに相当する背景画素データとして抽
出する背景画素抽出ステップと、 前記注目フレームに存在する前記注目画素と、前記注目
画素の近傍に位置する、前記注目フレーム内の近傍画素
データを抽出する注目フレーム画素抽出ステップと、 前記注目画素について、前記注目画素および前記近傍画
素データ、並びに前記注目画素または前記近傍画素デー
タに対応する前記背景画素データの関係を示す、複数の
関係式を生成する関係式生成ステップと、 前記関係式に基づいて、前記注目画素に対して、現実世
界において複数である前記オブジェクトの混合状態を示
す混合比を検出する混合比検出ステップとを含むことを
特徴とする画像処理方法。 - 【請求項8】 前記関係式生成ステップにおいて、前記
注目画素および前記近傍画素データに含まれる、前記画
像データの複数の前記オブジェクトのうちの前景となる
オブジェクトの成分が同一であるとする第1の近似、並
びに複数の前記オブジェクトが混合されている混合領域
において前記混合比の変化が前記混合領域内での画素の
位置に対して直線的であるとする第2の近似に基づい
て、前記複数の関係式が生成されることを特徴とする請
求項7に記載の画像処理方法。 - 【請求項9】 前記関係式生成ステップにおいて、前記
注目画素および前記近傍画素データに含まれる、前記画
像データの複数の前記オブジェクトのうちの前景となる
オブジェクトの成分が同一であるとする第1の近似、並
びに複数の前記オブジェクトが混合されている混合領域
において前記混合比の変化が前記混合領域内での画素の
位置に対して平面的であるとする第2の近似に基づい
て、前記複数の関係式が生成されることを特徴とする請
求項7に記載の画像処理方法。 - 【請求項10】 前記混合比検出ステップにおいて、前
記複数の関係式を最小自乗法で解くことにより、前記混
合比が検出されることを特徴とする請求項7に記載の画
像処理方法。 - 【請求項11】 前記背景画素抽出ステップにおいて、
前記注目画素が、複数の前記オブジェクトが混合されて
いる混合領域であって、前景のオブジェクトの動き方向
先端部側に形成されるカバードバックグラウンド領域に
属する場合、前記注目フレームの前のフレームの画素デ
ータが、背景画素データとして抽出され、前記注目画素
が、複数の前記オブジェクトが混合されている混合領域
であって、前記前景のオブジェクトの動き方向後端部側
に形成されるアンカバードバックグラウンド領域に属す
る場合、前記注目フレームの後のフレームの画素データ
が、背景画素データとして抽出されることを特徴とする
請求項7に記載の画像処理方法。 - 【請求項12】 前記画像データにおいて複数の前記オ
ブジェクトのうちの前景となるオブジェクトからなる前
景領域、前記画像データにおいて複数の前記オブジェク
トのうちの背景となるオブジェクトからなる背景領域、
並びに前記カバードバックグラウンド領域および前記ア
ンカバードバックグラウンド領域を含む前記混合領域を
特定し、前記前景領域、前記背景領域、並びに前記カバ
ードバックグラウンド領域および前記アンカバードバッ
クグラウンド領域を含む前記混合領域を示す領域情報を
生成する領域情報生成ステップをさらに含むことを特徴
とする請求項11に記載の画像処理方法。 - 【請求項13】 時間積分効果を有する所定数の画素を
有する撮像素子によって取得された所定数の画素データ
からなる画像データを処理する画像処理用のプログラム
であって、 前記画像データの注目フレームの注目画素に対応する、
前記注目フレームの前または後のフレームの画素データ
を、前記画像データの複数のオブジェクトのうちの背景
となるオブジェクトに相当する背景画素データとして抽
出する背景画素抽出ステップと、 前記注目フレームに存在する前記注目画素と、前記注目
画素の近傍に位置する、前記注目フレーム内の近傍画素
データを抽出する注目フレーム画素抽出ステップと、 前記注目画素について、前記注目画素および前記近傍画
素データ、並びに前記注目画素または前記近傍画素デー
タに対応する前記背景画素データの関係を示す、複数の
関係式を生成する関係式生成ステップと、 前記関係式に基づいて、前記注目画素に対して、現実世
界において複数である前記オブジェクトの混合状態を示
す混合比を検出する混合比検出ステップとを含むことを
特徴とするコンピュータが読み取り可能なプログラムが
記録されている記録媒体。 - 【請求項14】 前記関係式生成ステップにおいて、前
記注目画素および前記近傍画素データに含まれる、前記
画像データの複数の前記オブジェクトのうちの前景とな
るオブジェクトの成分が同一であるとする第1の近似、
並びに複数の前記オブジェクトが混合されている混合領
域において前記混合比の変化が前記混合領域内での画素
の位置に対して直線的であるとする第2の近似に基づい
て、前記複数の関係式が生成されることを特徴とする請
求項13に記載の記録媒体。 - 【請求項15】 前記関係式生成ステップにおいて、前
記注目画素および前記近傍画素データに含まれる、前記
画像データの複数の前記オブジェクトのうちの前景とな
るオブジェクトの成分が同一であるとする第1の近似、
並びに複数の前記オブジェクトが混合されている混合領
域において前記混合比の変化が前記混合領域内での画素
の位置に対して平面的であるとする第2の近似に基づい
て、前記複数の関係式が生成されることを特徴とする請
求項13に記載の記録媒体。 - 【請求項16】 前記混合比検出ステップにおいて、前
記複数の関係式を最小自乗法で解くことにより、前記混
合比が検出されることを特徴とする請求項13に記載の
記録媒体。 - 【請求項17】 前記背景画素抽出ステップにおいて、
前記注目画素が、複数の前記オブジェクトが混合されて
いる混合領域であって、前景のオブジェクトの動き方向
先端部側に形成されるカバードバックグラウンド領域に
属する場合、前記注目フレームの前のフレームの画素デ
ータが、背景画素データとして抽出され、前記注目画素
が、複数の前記オブジェクトが混合されている混合領域
であって、前記前景のオブジェクトの動き方向後端部側
に形成されるアンカバードバックグラウンド領域に属す
る場合、前記注目フレームの後のフレームの画素データ
が、背景画素データとして抽出されることを特徴とする
請求項13に記載の記録媒体。 - 【請求項18】 前記画像データにおいて複数の前記オ
ブジェクトのうちの前景となるオブジェクトからなる前
景領域、前記画像データにおいて複数の前記オブジェク
トのうちの背景となるオブジェクトからなる背景領域、
並びに前記カバードバックグラウンド領域および前記ア
ンカバードバックグラウンド領域を含む前記混合領域を
特定し、前記前景領域、前記背景領域、並びに前記カバ
ードバックグラウンド領域および前記アンカバードバッ
クグラウンド領域を含む前記混合領域を示す領域情報を
生成する領域情報生成ステップをさらに含むことを特徴
とする請求項17に記載の記録媒体。
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001028222A JP4596202B2 (ja) | 2001-02-05 | 2001-02-05 | 画像処理装置および方法、並びに記録媒体 |
US10/240,640 US7154541B2 (en) | 2001-02-05 | 2002-02-05 | Image processing device |
CA002404490A CA2404490C (en) | 2001-02-05 | 2002-02-05 | Image processing device |
KR1020027013350A KR100846261B1 (ko) | 2001-02-05 | 2002-02-05 | 화상 처리 장치, 화상 처리 방법, 기록 매체 및 촬상 장치 |
EP02710502A EP1361542B1 (en) | 2001-02-05 | 2002-02-05 | Image processing device |
PCT/JP2002/000918 WO2002063565A1 (fr) | 2001-02-05 | 2002-02-05 | Dispositif de traitement |
CNB028006461A CN1293517C (zh) | 2001-02-05 | 2002-02-05 | 图像处理装置及方法、图像拾取装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001028222A JP4596202B2 (ja) | 2001-02-05 | 2001-02-05 | 画像処理装置および方法、並びに記録媒体 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002230557A true JP2002230557A (ja) | 2002-08-16 |
JP2002230557A5 JP2002230557A5 (ja) | 2008-03-21 |
JP4596202B2 JP4596202B2 (ja) | 2010-12-08 |
Family
ID=18892761
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001028222A Expired - Fee Related JP4596202B2 (ja) | 2001-02-05 | 2001-02-05 | 画像処理装置および方法、並びに記録媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US7154541B2 (ja) |
EP (1) | EP1361542B1 (ja) |
JP (1) | JP4596202B2 (ja) |
KR (1) | KR100846261B1 (ja) |
CN (1) | CN1293517C (ja) |
CA (1) | CA2404490C (ja) |
WO (1) | WO2002063565A1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003006648A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006657A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016456A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016453A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016452A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
Families Citing this family (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19909627A1 (de) * | 1999-03-05 | 2000-09-07 | Bosch Gmbh Robert | Verfahren und Vorrichtung zur Bestimmung einer Verschiebung von Bildern einer Bildsequenz |
JP4432274B2 (ja) * | 2001-04-12 | 2010-03-17 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
US7715643B2 (en) | 2001-06-15 | 2010-05-11 | Sony Corporation | Image processing apparatus and method, and image pickup apparatus |
DE60230206D1 (de) * | 2001-06-26 | 2009-01-15 | Sony Corp | Bildverarbeitungsvorrichtung und Verfahren, und Bilderfassungsvorrichtung |
JP4596220B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4214459B2 (ja) * | 2003-02-13 | 2009-01-28 | ソニー株式会社 | 信号処理装置および方法、記録媒体、並びにプログラム |
JP4392584B2 (ja) * | 2003-06-27 | 2010-01-06 | ソニー株式会社 | 信号処理装置および信号処理方法、並びにプログラムおよび記録媒体 |
US7352390B2 (en) * | 2003-10-08 | 2008-04-01 | Hewlett-Packard Development Company, L.P. | Digital camera for capturing image data with rapid response between activating a capture trigger and capturing image data |
US7428318B1 (en) * | 2003-12-11 | 2008-09-23 | Motion Reality, Inc. | Method for capturing, measuring and analyzing motion |
KR101108634B1 (ko) * | 2004-01-06 | 2012-01-31 | 소니 주식회사 | 화상 처리 장치 및 화상 처리 방법 및 기록 매체 |
WO2006068282A1 (ja) | 2004-12-21 | 2006-06-29 | Sony Corporation | 画像処理装置と画像処理方法および画像処理プログラム |
US8325273B2 (en) * | 2005-06-06 | 2012-12-04 | Broadcom Corporation | System and method for vertical gradient detection in video processing |
JP4500875B2 (ja) * | 2005-07-12 | 2010-07-14 | エヌエックスピー ビー ヴィ | モーションブラー効果を除去する方法および装置 |
JP2007122232A (ja) * | 2005-10-26 | 2007-05-17 | Casio Comput Co Ltd | 画像処理装置及びプログラム |
JP4618100B2 (ja) * | 2005-11-04 | 2011-01-26 | ソニー株式会社 | 撮像装置、撮像方法、およびプログラム |
KR101626003B1 (ko) * | 2009-08-24 | 2016-06-13 | 삼성전자주식회사 | 디지털 촬영장치 |
US8452124B2 (en) | 2010-04-30 | 2013-05-28 | Honeywell International Inc. | Method and system for detecting motion blur |
US8797391B2 (en) * | 2011-01-14 | 2014-08-05 | Himax Media Solutions, Inc. | Stereo image displaying method |
GB2489674A (en) * | 2011-03-29 | 2012-10-10 | Sony Corp | 3D image generation |
KR101703931B1 (ko) * | 2011-05-24 | 2017-02-07 | 한화테크윈 주식회사 | 감시 시스템 |
KR101839617B1 (ko) * | 2011-07-11 | 2018-03-19 | 포항공과대학교 산학협력단 | 멀티프레임을 이용한 비균일 모션 블러 제거 방법 및 장치 |
CN106027893A (zh) * | 2016-05-30 | 2016-10-12 | 广东欧珀移动通信有限公司 | 控制Live Photo生成的方法、装置及电子设备 |
US10600158B2 (en) * | 2017-12-04 | 2020-03-24 | Canon Kabushiki Kaisha | Method of video stabilization using background subtraction |
CN108133475B (zh) * | 2017-12-22 | 2021-04-09 | 西安烽火电子科技有限责任公司 | 一种局部聚焦模糊图像的检测方法 |
JP7287379B2 (ja) * | 2020-12-10 | 2023-06-06 | セイコーエプソン株式会社 | 表示方法、検出装置、および、プログラム |
AU2021204581A1 (en) * | 2021-02-22 | 2022-09-08 | Sensetime International Pte. Ltd. | Methods, apparatuses, devices and storage media for predicting correlation between objects involved in image |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0362692A (ja) * | 1989-04-27 | 1991-03-18 | Sony Corp | 動き補償映像信号フォーマット変換装置 |
JPH05153493A (ja) * | 1991-11-27 | 1993-06-18 | Matsushita Electric Ind Co Ltd | 映像信号合成装置 |
JPH07336688A (ja) * | 1994-06-06 | 1995-12-22 | Nippon Hoso Kyokai <Nhk> | アンカバー領域の検出方法 |
JPH10164436A (ja) * | 1996-12-04 | 1998-06-19 | Sony Corp | 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法 |
JPH10290463A (ja) * | 1997-02-14 | 1998-10-27 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体 |
JP2000030040A (ja) * | 1998-07-14 | 2000-01-28 | Canon Inc | 画像処理装置及びコンピュータ読み取り可能な記憶媒体 |
JP2002190016A (ja) * | 2000-12-21 | 2002-07-05 | Sony Corp | 信号処理装置および方法、並びに記録媒体 |
JP2002190015A (ja) * | 2000-12-21 | 2002-07-05 | Sony Corp | 画像処理装置および方法、並びに記録媒体 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3332093B2 (ja) * | 1992-09-04 | 2002-10-07 | 株式会社東芝 | テレビジョン信号処理装置 |
US6128046A (en) * | 1995-05-12 | 2000-10-03 | Sony Corporation | Key signal generating apparatus and picture synthesis apparatus, and key signal generating method and picture synthesis method |
US6404901B1 (en) | 1998-01-29 | 2002-06-11 | Canon Kabushiki Kaisha | Image information processing apparatus and its method |
JP3558893B2 (ja) * | 1998-10-08 | 2004-08-25 | シャープ株式会社 | 画像処理装置および画像処理方法 |
EP2278549A1 (en) * | 1999-09-24 | 2011-01-26 | Nippon Telegraph And Telephone Corporation | Method and apparatus for extracting segmentation mask |
JP4491965B2 (ja) * | 1999-12-28 | 2010-06-30 | ソニー株式会社 | 信号処理装置および方法、並びに記録媒体 |
-
2001
- 2001-02-05 JP JP2001028222A patent/JP4596202B2/ja not_active Expired - Fee Related
-
2002
- 2002-02-05 CA CA002404490A patent/CA2404490C/en not_active Expired - Fee Related
- 2002-02-05 KR KR1020027013350A patent/KR100846261B1/ko not_active IP Right Cessation
- 2002-02-05 US US10/240,640 patent/US7154541B2/en not_active Expired - Fee Related
- 2002-02-05 CN CNB028006461A patent/CN1293517C/zh not_active Expired - Fee Related
- 2002-02-05 WO PCT/JP2002/000918 patent/WO2002063565A1/ja active Application Filing
- 2002-02-05 EP EP02710502A patent/EP1361542B1/en not_active Expired - Lifetime
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0362692A (ja) * | 1989-04-27 | 1991-03-18 | Sony Corp | 動き補償映像信号フォーマット変換装置 |
JPH05153493A (ja) * | 1991-11-27 | 1993-06-18 | Matsushita Electric Ind Co Ltd | 映像信号合成装置 |
JPH07336688A (ja) * | 1994-06-06 | 1995-12-22 | Nippon Hoso Kyokai <Nhk> | アンカバー領域の検出方法 |
JPH10164436A (ja) * | 1996-12-04 | 1998-06-19 | Sony Corp | 輪郭抽出装置、輪郭抽出方法、キー信号生成装置及びキー信号生成方法 |
JPH10290463A (ja) * | 1997-02-14 | 1998-10-27 | Nippon Telegr & Teleph Corp <Ntt> | 動画像の予測符号化方法および復号方法、動画像予測符号化または復号プログラムを記録した記録媒体、および、動画像予測符号化データを記録した記録媒体 |
JP2000030040A (ja) * | 1998-07-14 | 2000-01-28 | Canon Inc | 画像処理装置及びコンピュータ読み取り可能な記憶媒体 |
JP2002190016A (ja) * | 2000-12-21 | 2002-07-05 | Sony Corp | 信号処理装置および方法、並びに記録媒体 |
JP2002190015A (ja) * | 2000-12-21 | 2002-07-05 | Sony Corp | 画像処理装置および方法、並びに記録媒体 |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003006648A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003006657A (ja) * | 2001-06-26 | 2003-01-10 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596222B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596221B2 (ja) * | 2001-06-26 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016456A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016453A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP2003016452A (ja) * | 2001-06-27 | 2003-01-17 | Sony Corp | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596224B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596226B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4596223B2 (ja) * | 2001-06-27 | 2010-12-08 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20030005261A (ko) | 2003-01-17 |
EP1361542B1 (en) | 2013-04-03 |
CA2404490C (en) | 2009-07-28 |
CN1459079A (zh) | 2003-11-26 |
CA2404490A1 (en) | 2002-09-26 |
WO2002063565A1 (fr) | 2002-08-15 |
EP1361542A1 (en) | 2003-11-12 |
US7154541B2 (en) | 2006-12-26 |
JP4596202B2 (ja) | 2010-12-08 |
EP1361542A4 (en) | 2006-03-15 |
KR100846261B1 (ko) | 2008-07-16 |
CN1293517C (zh) | 2007-01-03 |
US20030156203A1 (en) | 2003-08-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4596202B2 (ja) | 画像処理装置および方法、並びに記録媒体 | |
JP4729812B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596220B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596222B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596216B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596221B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4106874B2 (ja) | 画像処理装置および方法、並びに記録媒体 | |
JP4596226B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596203B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596223B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596219B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4674408B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4840630B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596214B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596215B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4150949B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596217B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596209B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596218B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596225B2 (ja) | 画像処理装置および方法、記録媒体、並びにプログラム | |
JP4596205B2 (ja) | 画像処理装置および方法、並びにプログラム | |
KR100895744B1 (ko) | 화상 처리 장치, 방법 및 기록 매체, 및 촬상 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080204 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080204 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100525 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100712 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100826 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100908 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131001 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |