JP2001250119A - Device and method for signal processing and recording medium - Google Patents

Device and method for signal processing and recording medium

Info

Publication number
JP2001250119A
JP2001250119A JP2000389045A JP2000389045A JP2001250119A JP 2001250119 A JP2001250119 A JP 2001250119A JP 2000389045 A JP2000389045 A JP 2000389045A JP 2000389045 A JP2000389045 A JP 2000389045A JP 2001250119 A JP2001250119 A JP 2001250119A
Authority
JP
Japan
Prior art keywords
foreground
signal processing
signal
background
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000389045A
Other languages
Japanese (ja)
Other versions
JP2001250119A5 (en
JP4491965B2 (en
Inventor
Tetsujiro Kondo
哲二郎 近藤
Seiji Wada
成司 和田
Junichi Ishibashi
淳一 石橋
Takashi Sawao
貴志 沢尾
Naoki Fujiwara
直樹 藤原
Takahiro Nagano
隆浩 永野
Toru Miyake
徹 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2000389045A priority Critical patent/JP4491965B2/en
Priority to TW89128040A priority patent/TWI237196B/en
Publication of JP2001250119A publication Critical patent/JP2001250119A/en
Publication of JP2001250119A5 publication Critical patent/JP2001250119A5/ja
Application granted granted Critical
Publication of JP4491965B2 publication Critical patent/JP4491965B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Indication And Recording Devices For Special Purposes And Tariff Metering Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain significant information from the detection signal obtained by a sensor and to adjust the distortion generated in the detection signal by the sensor according to the significant information. SOLUTION: A signal processing part 12 obtains a 2nd signal, having 2nd dimensions less than 1st dimensions, which is obtained by detecting a 1st signal of the real world having the 1st dimensions by the sensor and includes distortion for the 1st signal, and performs signal processing based upon the 2nd signal to generate a 3rd signal which has less distortion than the 2nd signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、信号処理装置およ
び方法、並びに記録媒体に関し、特に、センサにより検
出した信号と現実世界との違いを考慮した信号処理装置
および方法、並びに記録媒体に関する。
The present invention relates to a signal processing apparatus and method, and a recording medium, and more particularly to a signal processing apparatus and method and a recording medium in which a difference between a signal detected by a sensor and the real world is considered.

【0002】[0002]

【従来の技術】現実世界における事象をセンサで検出
し、画像、音声、温度、圧力、加速度、においに対応す
るデータなどの、センサが出力するサンプリングデータ
を信号処理する技術が広く利用されている。また、空間
と時間軸を有する現実社会の情報がセンサにより取得さ
れ、データ化される。センサが取得したデータは、現実
社会の情報を、現実社会より低い次元の時空間に射影し
て得られた情報である。従って、射影して得られた情報
は、射影により発生する歪みを有している。換言すれ
ば、センサが出力するデータは、現実社会の情報に対し
て歪みを有している。さらに、データは、射影による歪
みを有しているが、これを補正するための有意情報を含
んでいる。
2. Description of the Related Art A technique for detecting an event in the real world by a sensor and performing signal processing on sampling data output from the sensor, such as data corresponding to images, sounds, temperatures, pressures, accelerations, and odors, is widely used. . Further, real-world information having a space and a time axis is acquired by a sensor and converted into data. The data acquired by the sensor is information obtained by projecting information in the real world onto a spatio-temporal dimension lower than that in the real world. Therefore, the information obtained by the projection has distortion generated by the projection. In other words, the data output by the sensor has a distortion with respect to real world information. Further, although the data has distortion due to projection, it includes significant information for correcting the distortion.

【0003】このようなセンサで取得したサンプリング
データに対する従来の信号処理では、センサで取得した
サンプリングデータを最も信頼できるデータと考え、そ
の後の伝送、記録、再生等における信号処理では、伝送
等による劣化を考慮してオリジナルデータに近づけるこ
としか考えられていなかった。
[0003] In the conventional signal processing for the sampling data obtained by such a sensor, the sampling data obtained by the sensor is considered to be the most reliable data. In consideration of the above, only approaching the original data was considered.

【0004】例えば、静止している所定の背景の前で移
動する物体をCCD等を用いたビデオカメラで撮像して得
られる画像には、物体の移動速度が比較的速い場合、動
きボケが生じることになる。すなわち、センサであるCC
Dで現実世界を検出した時に、サンプリングデータであ
る画像には歪みが生じている。
[0004] For example, in an image obtained by capturing a moving object in front of a predetermined stationary background with a video camera using a CCD or the like, motion blur occurs when the moving speed of the object is relatively high. Will be. That is, CC which is a sensor
When the real world is detected in D, the image that is the sampling data is distorted.

【0005】従来、このような動きボケを抑制するの
に、例えば、電子シャッタの速度を速め、露光時間を短
くするようにしているものはあるが、信号処理によって
センサによって生じた歪みである動きボケを抑制するも
のではない。
Conventionally, to suppress such motion blur, for example, the speed of an electronic shutter is increased and the exposure time is shortened. However, a motion which is a distortion generated by a sensor due to signal processing is performed. It does not suppress blurring.

【0006】[0006]

【発明が解決しようとする課題】従来は、センサが出力
するサンプリングデータを最も信頼できるデータと考え
ていたため、サンプリングデータより高質なデータを作
成したり、サンプリングデータから、射影による歪みを
考慮したり、その中に射影により埋もれた有意情報を抽
出する等の信号処理は全くされていなかった。
Conventionally, the sampling data output from the sensor was considered to be the most reliable data. Therefore, data of higher quality than the sampling data was created, and distortion due to projection was considered from the sampling data. No signal processing such as extraction of significant information buried therein by projection has been performed.

【0007】本発明はこのような状況に鑑みてなされた
ものであり、センサが出力するサンプリングデータから
歪みを除去したり、有意情報を抽出することができる信
号処理装置を提供することを目的とする。例えば、画像
であれば検出信号に含まれる動きボケの量を調整するこ
とができるようにすることを目的とする。
The present invention has been made in view of such circumstances, and has as its object to provide a signal processing apparatus capable of removing distortion from sampling data output by a sensor and extracting significant information. I do. For example, it is an object of the present invention to be able to adjust the amount of motion blur included in a detection signal for an image.

【0008】[0008]

【課題を解決するための手段】請求項1に記載の信号処
理装置は、第1の次元を有する現実世界の信号である第
1の信号が、センサに射影され、センサによって検出す
ることで得た第1の次元より少ない第2の次元の第2の
信号を取得する取得手段と、第2の信号に基づく信号処
理を行うことにより、射影により埋もれた有意情報を第
2の信号から抽出する信号処理手段とを備えることを特
徴とする。
According to a first aspect of the present invention, there is provided a signal processing apparatus, wherein a first signal, which is a real-world signal having a first dimension, is projected onto a sensor and detected by the sensor. Acquiring means for acquiring a second signal of a second dimension less than the first dimension, and performing signal processing based on the second signal to extract significant information buried by projection from the second signal. Signal processing means.

【0009】有意情報は、射影により生じた歪を調整す
るための情報とすることができる。
[0009] The significant information may be information for adjusting distortion caused by the projection.

【0010】センサは、それぞれ時間積分効果を有する
複数の検出素子からなるセンサとし、取得手段は、セン
サによって検出された個々の検出素子に対応する複数の
検出信号を第2の信号として取得し、歪は、時間積分効
果による歪とすることができる。
The sensor is a sensor composed of a plurality of detection elements each having a time integration effect, and the acquisition means acquires a plurality of detection signals corresponding to the individual detection elements detected by the sensor as a second signal, The distortion can be a distortion due to a time integration effect.

【0011】取得手段は、所定時間単位毎にセンサの複
数の検出素子で検出された複数の時間単位の複数の検出
信号を取得し、信号処理手段は、複数の時間単位の複数
の検出信号に基づいて、所望の時間の第2の信号に対す
る有意情報を抽出するようにすることができる。
The acquisition means acquires a plurality of detection signals in a plurality of time units detected by a plurality of detection elements of the sensor for each predetermined time unit, and the signal processing means converts the plurality of detection signals in a plurality of time units into a plurality of detection signals. Based on this, it is possible to extract significant information for the second signal at a desired time.

【0012】第2の信号は、画像信号とすることができ
る。
[0012] The second signal can be an image signal.

【0013】信号処理手段は、第2の信号のうち、射影
により埋もれた有意情報を含む有意領域と他の領域とを
特定し、特定された領域を示す領域情報を有意情報とし
て出力する領域特定手段を備えるようにすることができ
る。
The signal processing means specifies a significant area including significant information buried by the projection and other areas in the second signal, and outputs an area information indicating the specified area as significant information. Means may be provided.

【0014】領域情報は、前景オブジェクトを構成する
前景オブジェクト成分のみからなる他の領域である前景
領域と、背景オブジェクトを構成する背景オブジェクト
成分のみからなる他の領域である背景領域と、前景オブ
ジェクト成分と背景オブジェクト成分とが混合されてな
る有意領域である混合領域を示すようにすることができ
る。
The area information includes a foreground area, which is another area consisting only of the foreground object components constituting the foreground object, a background area which is another area consisting only of the background object components constituting the background object, and a foreground object component. And a background area component.

【0015】領域情報は、混合領域をカバードバックグ
ラウンド領域とアンカバードバックグラウンド領域とに
識別する情報を含むようにすることができる。
The area information may include information for identifying the mixed area as a covered background area and an uncovered background area.

【0016】信号処理手段は、領域特定手段により特定
された有意情報を含む領域から有意情報を抽出する有意
情報抽出手段をさらに備えるようにすることができる。
[0016] The signal processing means may further include significant information extracting means for extracting significant information from the area including the significant information specified by the area specifying means.

【0017】有意情報は、前景オブジェクトを構成する
前景オブジェクト成分のみからなる前景領域と、背景オ
ブジェクトを構成する背景オブジェクト成分のみからな
る背景領域と、前景オブジェクト成分と背景オブジェク
ト成分とが混合されてなる混合領域からなる第2の信号
のうちの混合領域における前景オブジェクト成分と背景
オブジェクト成分の混合比を示すようにすることができ
る。
The significant information is obtained by mixing a foreground area consisting of only foreground object components constituting a foreground object, a background area consisting of only background object components constituting a background object, and a foreground object component and a background object component. The mixing ratio of the foreground object component and the background object component in the mixed region of the second signal including the mixed region may be indicated.

【0018】信号処理手段は、有意情報に基づいて、射
影により第2の信号に生じている歪の量を調整する歪量
調整手段をさらに備えるようにすることができる。
[0018] The signal processing means may further include a distortion amount adjusting means for adjusting an amount of distortion generated in the second signal by the projection based on the significant information.

【0019】歪量調整手段は、歪の量を低減するように
することができる。
The distortion amount adjusting means can reduce the amount of distortion.

【0020】歪量調整手段は、歪を除去するようにする
ことができる。
The distortion amount adjusting means can remove the distortion.

【0021】歪は、前景オブジェクトに生じている動き
ボケとすることができる。
The distortion can be a motion blur occurring in the foreground object.

【0022】信号処理手段は、前景オブジェクトの動き
量を検出するオブジェクト動き検出手段をさらに備え、
歪量調整手段は、前景オブジェクトの動き量に基づい
て、歪である動きボケの量を調整するようにすることが
できる。
The signal processing means further comprises an object motion detecting means for detecting a motion amount of the foreground object,
The distortion amount adjusting means can adjust the amount of motion blur, which is distortion, based on the amount of movement of the foreground object.

【0023】信号処理手段は、前景オブジェクトを構成
する前景オブジェクト成分のみからなる前景領域と、背
景オブジェクトを構成する背景オブジェクト成分のみか
らなる背景領域と、前景オブジェクト成分と背景オブジ
ェクト成分とが混合されてなる混合領域とからなる第2
信号のうちの、混合領域における前景オブジェクト成分
と背景オブジェクト成分の混合比を、有意情報として抽
出するようにすることができる。
The signal processing means mixes the foreground object consisting of only the foreground object component constituting the foreground object, the background region consisting of only the background object component constituting the background object, the foreground object component and the background object component. A second mixed region
The mixing ratio of the foreground object component and the background object component in the mixed area of the signal can be extracted as significant information.

【0024】信号処理手段は、有意情報に基づいて、射
影により第2の信号に生じている歪の量を調整する歪量
調整手段をさらに備えるようにすることができる。
[0024] The signal processing means may further include a distortion amount adjusting means for adjusting an amount of distortion generated in the second signal by projection based on the significant information.

【0025】歪量調整手段は、歪の量を低減するように
することができる。
[0025] The distortion amount adjusting means can reduce the amount of distortion.

【0026】歪量調整手段は、歪を除去するようにする
ことができる。
The distortion amount adjusting means can remove the distortion.

【0027】歪は、前景オブジェクトに生じている動き
ボケとすることができる。
The distortion can be a motion blur occurring in the foreground object.

【0028】信号処理手段は、前景オブジェクトの動き
量を検出するオブジェクト動き検出手段をさらに備え、
歪量調整手段は、前景オブジェクトの動き量に基づい
て、歪である動きボケの量を調整するようにすることが
できる。
[0028] The signal processing means further comprises an object motion detecting means for detecting a motion amount of the foreground object,
The distortion amount adjusting means can adjust the amount of motion blur, which is distortion, based on the amount of movement of the foreground object.

【0029】信号処理手段は、第2の信号に基づいて、
混合比を有意情報として抽出し、信号処理手段は、第2
の信号から、前景領域と背景領域と混合領域とを示す領
域情報を、有意情報として抽出するようにすることがで
きる。
The signal processing means, based on the second signal,
The mixture ratio is extracted as significant information, and the signal processing means
, Region information indicating the foreground region, the background region, and the mixed region can be extracted as significant information.

【0030】信号処理手段は、混合比と領域情報とに基
づいて、前景オブジェクト成分のみからなる前景オブジ
ェクトと背景オブジェクト成分のみからなる背景オブジ
ェクトとを分離するようにすることができる。
The signal processing means can separate a foreground object consisting only of foreground object components from a background object consisting only of background object components based on the mixture ratio and the area information.

【0031】信号処理手段は、前景オブジェクトに生じ
ている歪である動きボケを調整する歪量調整手段をさら
に備えるようにすることができる。
[0031] The signal processing means may further include a distortion amount adjusting means for adjusting a motion blur which is a distortion occurring in the foreground object.

【0032】信号処理手段は、前景オブジェクトの動き
量を検出するオブジェクト動き検出手段をさらに備え、
歪量調整手段は、前景オブジェクトの動き量に基づい
て、歪である動きボケの量を調整するようにすることが
できる。
[0032] The signal processing means further comprises object motion detecting means for detecting a motion amount of the foreground object,
The distortion amount adjusting means can adjust the amount of motion blur, which is distortion, based on the amount of movement of the foreground object.

【0033】信号処理手段は、前景オブジェクトを任意
の背景画像と合成するようにすることができる。
[0033] The signal processing means can combine the foreground object with an arbitrary background image.

【0034】請求項27に記載の信号処理方法は、第1
の次元を有する現実世界の信号である第1の信号が、セ
ンサに射影され、センサによって検出することで得た第
1の次元より少ない第2の次元の第2の信号を取得する
取得ステップと、第2の信号に基づく信号処理を行うこ
とにより、射影により埋もれた有意情報を第2の信号か
ら抽出する信号処理ステップとを含むことを特徴とす
る。
The signal processing method according to claim 27 is characterized in that
Acquiring a first signal that is a real-world signal having the dimensions of: a second signal having a second dimension smaller than the first dimension obtained by projecting the first signal onto the sensor and detecting the first signal with the sensor; , A signal processing step of extracting significant information buried by projection from the second signal by performing signal processing based on the second signal.

【0035】請求項28に記載の記録媒体のプログラム
は、第1の次元を有する現実世界の信号である第1の信
号が、センサに射影され、センサによって検出すること
で得た第1の次元より少ない第2の次元の第2の信号を
取得する取得ステップと、第2の信号に基づく信号処理
を行うことにより、射影により埋もれた有意情報を第2
の信号から抽出する信号処理ステップとを含むことを特
徴とする。
[0035] In the recording medium according to the present invention, the first signal, which is a real-world signal having the first dimension, is projected onto a sensor and detected by the sensor to obtain the first dimension. By performing an acquisition step of acquiring a second signal having a smaller second dimension and performing signal processing based on the second signal, significant information buried by projection is converted to a second signal.
And a signal processing step of extracting from the signals of

【0036】請求項29に記載の信号処理装置は、第1
の次元を有する現実世界の信号である第1の信号をセン
サによって検出することにより得た、第1の次元に比較
し次元が少ない第2の次元を有し、第1の信号に対する
歪を含む第2の信号を取得する取得手段と、第2の信号
に基づく信号処理を行うことにより、第2の信号に比し
て歪の軽減された第3の信号を生成する信号処理手段と
を備えることを特徴とする。
[0036] The signal processing device according to claim 29 is characterized in that:
Has a second dimension that is smaller in dimension than the first dimension and is obtained by detecting a first signal that is a real-world signal having a dimension of An acquisition unit that acquires the second signal; and a signal processing unit that performs signal processing based on the second signal to generate a third signal whose distortion is reduced compared to the second signal. It is characterized by the following.

【0037】センサは、それぞれ歪である時間積分効果
を有する複数の検出素子から成るセンサとし、取得手段
は、センサによって検出された個々の検出素子に対応す
る複数の検出信号を第2の信号として取得し、信号処理
手段は、第2の信号に基づく信号処理を行うことによ
り、時間積分効果が軽減された、複数の検出信号に対応
する複数のサンプルデータから成る第3の信号を生成す
るようにすることができる。
The sensor is a sensor composed of a plurality of detection elements each having a time integration effect that is a distortion, and the acquisition means uses a plurality of detection signals corresponding to each detection element detected by the sensor as a second signal. The acquired signal processing means performs signal processing based on the second signal to generate a third signal including a plurality of sample data corresponding to a plurality of detection signals, in which a time integration effect is reduced. Can be

【0038】信号処理手段は、現実世界における第1の
オブジェクトと、第1のオブジェクトに対して相対的に
移動する第2のオブジェクトとをセンサで検出した場
合、第2の信号によって表される第1のオブジェクトと
第2のオブジェクトとの境界近傍において、センサの時
間積分効果によって生じた第1のオブジェクトと第2の
オブジェクトとの混合による歪を信号処理により軽減す
るようにすることができる。
The signal processing means detects a first object in the real world and a second object moving relatively to the first object by a sensor, and outputs the first object represented by the second signal. In the vicinity of the boundary between the first object and the second object, distortion caused by mixing of the first object and the second object caused by the time integration effect of the sensor can be reduced by signal processing.

【0039】取得手段は、所定時間単位ごとにセンサの
複数の検出素子で検出された、複数の時間単位の検出信
号を取得し、信号処理手段は、複数の時間単位の検出信
号に基づいて、所望の時間単位に対応する第2の信号に
よって表される第1のオブジェクトと第2のオブジェク
トとの境界近傍における歪を、信号処理により軽減する
ようにすることができる。
The acquisition means acquires a plurality of time-unit detection signals detected by the plurality of detection elements of the sensor for each predetermined time unit, and the signal processing means acquires a plurality of time-unit detection signals based on the plurality of time-unit detection signals. The distortion near the boundary between the first object and the second object represented by the second signal corresponding to the desired time unit can be reduced by signal processing.

【0040】信号処理手段は、現実世界における第1の
オブジェクトと、第1のオブジェクトに対して相対的に
移動する第2のオブジェクトとをセンサで検出した場
合、第2の信号において混合されている第1のオブジェ
クトおよび第2のオブジェクトから、第1のオブジェク
トおよび第2のオブジェクトのいずれか一方を分離し
て、分離された第1のオブジェクトおよび第2のオブジ
ェクトのいずれか一方を第3の信号として出力するよう
にすることができる。
The signal processing means is mixed in the second signal when the sensor detects the first object in the real world and the second object moving relatively to the first object. One of the first object and the second object is separated from the first object and the second object, and one of the separated first object and the second object is sent to a third signal. Can be output as

【0041】センサは、第1の信号である、光を含む電
磁波を光電変換により第2の信号である画像信号に変換
するようにすることができる。
The sensor can convert an electromagnetic wave including light, which is a first signal, into an image signal, which is a second signal, by photoelectric conversion.

【0042】センサは、温度を測定するサーモグラフィ
装置とすることができる。
The sensor can be a thermographic device for measuring temperature.

【0043】センサは、圧力センサとすることができ
る。
The sensor can be a pressure sensor.

【0044】センサは、所定時間間隔毎に第2の信号を
生成するようにすることができる。
The sensor may generate the second signal at predetermined time intervals.

【0045】センサは、それぞれ空間積分効果を有する
複数の検出素子を有するセンサとし、取得手段は、セン
サによって検出された個々の検出素子に対応する複数の
検出信号を第2の信号として取得し、信号処理手段は、
第2の信号に基づく信号処理を行うことにより、歪であ
る射影による空間積分効果が軽減された複数の検出信号
からなる第3の信号を生成するようにすることができ
る。
The sensor is a sensor having a plurality of detection elements each having a spatial integration effect, and the acquisition means acquires a plurality of detection signals corresponding to the individual detection elements detected by the sensor as a second signal, The signal processing means includes:
By performing signal processing based on the second signal, it is possible to generate a third signal including a plurality of detection signals in which the spatial integration effect due to projection as distortion is reduced.

【0046】センサは、複数の検出素子が少なくとも1
つの方向である所定の方向に複数個配置され、信号処理
手段は、第2の信号の各サンプルデータに対して、所定
の方向において隣接する第2の信号の2つのサンプルデ
ータとの間の相関をそれぞれ検出する相関検出手段と、
各注目サンプルデータに対して、隣接する2つのサンプ
ルデータの内、相関の大きいほうのサンプルデータのサ
ンプル値に基づいて、相関の大きいサンプルデータ側の
サンプル値となる第1のサンプル値を生成し、注目サン
プルデータのサンプル値と第1のサンプル値とに基づい
て、相関の小さい側のサンプル値となる第2のサンプル
値を生成し、第1のサンプル値と第2のサンプル値を注
目サンプルに対応する第3の信号の2つのサンプル値と
して出力する倍密サンプル生成手段とを備えるようにす
ることができる。
The sensor has at least one detecting element.
A plurality of signal processing means are arranged in a predetermined direction which is one of the two directions, and the signal processing means performs a correlation between each sample data of the second signal and two sample data of the second signal adjacent in the predetermined direction. Correlation detection means for respectively detecting
For each sample data of interest, a first sample value that is a sample value on the sample data side with the higher correlation is generated based on the sample value of the sample data with the higher correlation among the two adjacent sample data. Generating, based on the sample value of the sample data of interest and the first sample value, a second sample value that is a sample value with a smaller correlation, and assigning the first sample value and the second sample value to the sample of interest. And a double-density sample generating unit that outputs two sample values of the third signal corresponding to the third signal.

【0047】センサは、複数の検出素子がマトリクス状
に配置され、所定の方向は、マトリクス状の配置におけ
る水平方向および垂直方向の少なくとも一方とすること
ができる。
In the sensor, a plurality of detection elements are arranged in a matrix, and the predetermined direction can be at least one of the horizontal direction and the vertical direction in the matrix arrangement.

【0048】信号処理手段は、水平方向および垂直方向
の両方向について倍密化するようにすることができる。
The signal processing means can double the density in both the horizontal and vertical directions.

【0049】相関は、サンプルデータの差分とすること
ができる。
The correlation can be a difference between the sample data.

【0050】取得手段は、複数の検出素子から所定時間
毎に第2の信号を取得するようにすることができる。
[0050] The acquisition means may acquire the second signal from the plurality of detection elements at predetermined time intervals.

【0051】請求項44に記載の信号処理方法は、第1
の次元を有する現実世界の信号である第1の信号をセン
サによって検出することにより得た、第1の次元に比較
し次元が少ない第2の次元を有し、第1の信号に対する
歪を含む第2の信号を取得する取得ステップと、第2の
信号に基づく信号処理を行うことにより、第2の信号に
比して歪の軽減された第3の信号を生成する信号処理ス
テップとを含むことを特徴とする。
The signal processing method according to claim 44 is characterized in that:
Has a second dimension that is smaller in dimension than the first dimension and is obtained by detecting a first signal that is a real-world signal having a dimension of An acquisition step of acquiring a second signal; and a signal processing step of performing a signal processing based on the second signal to generate a third signal whose distortion is reduced as compared with the second signal. It is characterized by the following.

【0052】請求項45に記載の記録媒体のプログラム
は、第1の次元を有する現実世界の信号である第1の信
号をセンサによって検出することにより得た、第1の次
元に比較し次元が少ない第2の次元を有し、第1の信号
に対する歪を含む第2の信号を取得する取得ステップ
と、第2の信号に基づく信号処理を行うことにより、第
2の信号に比して歪の軽減された第3の信号を生成する
信号処理ステップとを含むことを特徴とする。
The program of the recording medium according to claim 45, wherein the dimension is compared with the first dimension, obtained by detecting the first signal, which is a real-world signal having the first dimension, by a sensor. An acquisition step of acquiring a second signal having a small second dimension and including distortion with respect to the first signal; and performing signal processing based on the second signal, thereby obtaining distortion in comparison with the second signal. And a signal processing step of generating a reduced third signal.

【0053】請求項46に記載の信号処理装置は、検出
信号の内、前景オブジェクトを構成する前景オブジェク
ト成分のみから成る前景領域と、背景オブジェクトを構
成する背景オブジェクト成分のみから成る背景領域と、
前景オブジェクト成分および背景オブジェクト成分とが
混合されて成る混合領域とを特定する領域特定手段と、
少なくとも混合領域における前景オブジェクト成分と背
景オブジェクト成分との混合比を検出する混合比検出手
段と、領域特定手段の特定結果と混合比とに基づいて、
前景オブジェクトと、背景オブジェクトとを分離する分
離手段とを含むことを特徴とする。
The signal processing apparatus according to claim 46, wherein, among the detection signals, a foreground area consisting only of a foreground object component constituting a foreground object, a background area consisting only of a background object component constituting a background object,
Area specifying means for specifying a mixed area formed by mixing a foreground object component and a background object component;
At least a mixture ratio detection unit that detects a mixture ratio between a foreground object component and a background object component in the mixture region, and a specification result and a mixture ratio of the region specification unit,
It is characterized by including a separating means for separating a foreground object and a background object.

【0054】信号処理装置は、前景オブジェクトの動き
ボケ量を調整する動きボケ量調整手段をさらに設けるこ
とができる。
The signal processing device may further include a motion blur amount adjusting means for adjusting the motion blur amount of the foreground object.

【0055】請求項48に記載の信号処理方法は、検出
信号の内、前景オブジェクトを構成する前景オブジェク
ト成分のみから成る前景領域と、背景オブジェクトを構
成する背景オブジェクト成分のみから成る背景領域と、
前景オブジェクト成分および背景オブジェクト成分とが
混合されて成る混合領域とを特定する領域特定ステップ
と、少なくとも混合領域における前景オブジェクト成分
と背景オブジェクト成分との混合比を検出する混合比検
出ステップと、領域特定ステップの処理の特定結果と混
合比とに基づいて、前景オブジェクトと、背景オブジェ
クトとを分離する分離ステップとを含むことを特徴とす
る。
In the signal processing method according to the present invention, a foreground area consisting only of a foreground object component constituting a foreground object and a background area consisting only of a background object component constituting a background object are included in the detection signal.
An area specifying step of specifying a mixed area formed by mixing a foreground object component and a background object component; a mixing ratio detecting step of detecting a mixing ratio of at least a foreground object component and a background object component in the mixed area; The image processing apparatus further includes a separation step of separating the foreground object and the background object based on the specified result of the step processing and the mixture ratio.

【0056】請求項49に記載の記録媒体のプログラム
は、時間積分効果を有する所定の数の検出素子から成る
センサによって取得された所定の数の検出信号を処理す
る信号処理用のプログラムであって、検出信号の内、前
景オブジェクトを構成する前景オブジェクト成分のみか
ら成る前景領域と、背景オブジェクトを構成する背景オ
ブジェクト成分のみから成る背景領域と、前景オブジェ
クト成分および背景オブジェクト成分とが混合されて成
る混合領域とを特定する領域特定ステップと、少なくと
も混合領域における前景オブジェクト成分と背景オブジ
ェクト成分との混合比を検出する混合比検出ステップ
と、領域特定ステップの処理の特定結果と混合比とに基
づいて、前景オブジェクトと、背景オブジェクトとを分
離する分離ステップとを含むことを特徴とする。
The recording medium program according to claim 49 is a signal processing program for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect. Of the detection signals, a foreground region consisting of only the foreground object component constituting the foreground object, a background region consisting of only the background object component constituting the background object, and a mixture of the foreground object component and the background object component An area specifying step of specifying an area, a mixing ratio detecting step of detecting a mixing ratio of at least a foreground object component and a background object component in the mixed area, and a specifying result and a mixing ratio of the processing of the area specifying step, Separation step for separating foreground and background objects Characterized in that it comprises a.

【0057】請求項50に記載の信号処理装置は、検出
信号の内、前景オブジェクトを構成する前景オブジェク
ト成分のみから成る前景領域と、背景オブジェクトを構
成する背景オブジェクト成分のみから成る背景領域と、
前景オブジェクト成分および背景オブジェクト成分とが
混合されて成る混合領域とを特定する領域特定手段と、
領域特定手段の特定結果に基づいて、少なくとも混合領
域における前景オブジェクト成分と背景オブジェクト成
分との混合比を検出する混合比検出手段とを含むことを
特徴とする。
According to a fifty-first aspect of the present invention, in the signal processing apparatus, a foreground region consisting of only a foreground object component constituting a foreground object and a background region consisting of only a background object component constituting a background object are included in the detection signal.
Area specifying means for specifying a mixed area formed by mixing a foreground object component and a background object component;
A mixing ratio detecting unit that detects a mixing ratio of at least a foreground object component and a background object component in the mixed region based on the specification result of the region specifying unit.

【0058】信号処理装置は、混合比に基づいて、前景
オブジェクトと背景オブジェクトとを分離する分離手段
をさらに設けることができる。
The signal processing device may further include a separating unit for separating the foreground object and the background object based on the mixture ratio.

【0059】信号処理装置は、前景オブジェクトに含ま
れる動きボケの量を調整する動きボケ量調整手段をさら
に設けることができる。
The signal processing apparatus may further include a motion blur amount adjusting means for adjusting the amount of motion blur included in the foreground object.

【0060】信号処理装置は、少なくとも前景オブジェ
クトおよび背景オブジェクトのいずれか一方の動きを検
出する動き検出手段をさらに設け、動きボケ調整手段
は、検出された動きに基づいて、動きボケの量を調整す
るようにすることができる。
The signal processing device further includes a motion detecting means for detecting at least one of the foreground object and the background object, and the motion blur adjusting means adjusts the amount of motion blur based on the detected motion. You can make it.

【0061】請求項54に記載の信号処理方法は、検出
信号の内、前景オブジェクトを構成する前景オブジェク
ト成分のみから成る前景領域と、背景オブジェクトを構
成する背景オブジェクト成分のみから成る背景領域と、
前景オブジェクト成分および背景オブジェクト成分とが
混合されて成る混合領域とを特定する領域特定ステップ
と、領域特定ステップの処理の特定結果に基づいて、少
なくとも混合領域における前景オブジェクト成分と背景
オブジェクト成分との混合比を検出する混合比検出ステ
ップとを含むことを特徴とする。
A signal processing method according to claim 54, wherein, among the detection signals, a foreground region consisting only of a foreground object component constituting a foreground object, a background region consisting only of a background object component constituting a background object,
A region specifying step of specifying a mixed region formed by mixing the foreground object component and the background object component; and mixing the foreground object component and the background object component in at least the mixed region based on the specification result of the processing of the region specifying step And a mixing ratio detecting step of detecting a ratio.

【0062】請求項55に記載の記録媒体のプログラム
は、検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前景オブジェクト成分および背景オブジェクト
成分とが混合されて成る混合領域とを特定する領域特定
ステップと、領域特定ステップの処理の特定結果に基づ
いて、少なくとも混合領域における前景オブジェクト成
分と背景オブジェクト成分との混合比を検出する混合比
検出ステップとを含むことを特徴とする。
The program of the recording medium according to claim 55, wherein the detection signal includes a foreground area consisting of only a foreground object component constituting a foreground object, a background area consisting of only a background object component constituting a background object, A region specifying step of specifying a mixed region formed by mixing the foreground object component and the background object component; and mixing the foreground object component and the background object component in at least the mixed region based on the specification result of the processing of the region specifying step And a mixing ratio detecting step of detecting a ratio.

【0063】請求項56に記載の信号処理装置は、前景
オブジェクトを構成する前景オブジェクト成分と、背景
オブジェクトを構成する背景オブジェクト成分とが混合
されて成る混合領域における、前景オブジェクト成分と
背景オブジェクト成分との混合比を検出する混合比検出
手段と、混合比に基づいて、前景オブジェクトと背景オ
ブジェクトとを分離する分離手段とを含むことを特徴と
する。
A signal processing apparatus according to claim 56, wherein the foreground object component and the background object component in a mixed area in which the foreground object component forming the foreground object and the background object component forming the background object are mixed. And a separation unit that separates a foreground object from a background object based on the mixture ratio.

【0064】信号処理装置は、前景オブジェクトに含ま
れる動きボケの量を調整する動きボケ量調整手段をさら
に設けることができる。
The signal processing device may further include a motion blur amount adjusting means for adjusting the amount of motion blur included in the foreground object.

【0065】信号処理装置は、少なくとも前景オブジェ
クトおよび背景オブジェクトのいずれか一方の動きを検
出する動き検出手段をさらに設け、動きボケ調整手段
は、検出された動きに基づいて、動きボケの量を調整す
るようにすることができる。
The signal processing device further includes a motion detecting means for detecting at least one of the foreground object and the background object, and the motion blur adjusting means adjusts the amount of motion blur based on the detected motion. You can make it.

【0066】請求項59に記載の信号処理方法は、前景
オブジェクトを構成する前景オブジェクト成分と、背景
オブジェクトを構成する背景オブジェクト成分とが混合
されて成る混合領域における、前景オブジェクト成分と
背景オブジェクト成分との混合比を検出する混合比検出
ステップと、混合比に基づいて、前景オブジェクトと背
景オブジェクトとを分離する分離ステップとを含むこと
を特徴とする。
A signal processing method according to claim 59, wherein the foreground object component and the background object component in a mixed area formed by mixing the foreground object component forming the foreground object and the background object component forming the background object. And a separation step of separating a foreground object and a background object based on the mixture ratio.

【0067】請求項60に記載の記録媒体のプログラム
は、前景オブジェクトを構成する前景オブジェクト成分
と、背景オブジェクトを構成する背景オブジェクト成分
とが混合されて成る混合領域における、前景オブジェク
ト成分と背景オブジェクト成分との混合比を検出する混
合比検出ステップと、混合比に基づいて、前景オブジェ
クトと背景オブジェクトとを分離する分離ステップとを
含むことを特徴とする。
The program of the recording medium according to claim 60, wherein the foreground object component and the background object component in a mixed area formed by mixing the foreground object component forming the foreground object and the background object component forming the background object. And a separation step of separating a foreground object and a background object based on the mixture ratio.

【0068】請求項1に記載の信号処理装置、請求項2
7に記載の信号処理方法、および請求項28に記載の記
録媒体においては、第1の次元を有する現実世界の信号
である第1の信号が、センサに射影され、センサによっ
て検出することで得た第1の次元より少ない第2の次元
の第2の信号が取得され、第2の信号に基づく信号処理
を行うことにより、射影により埋もれた有意情報が第2
の信号から抽出される。
A signal processing device according to claim 1 and claim 2.
In the signal processing method according to the seventh aspect and the recording medium according to the second aspect, the first signal, which is a real-world signal having the first dimension, is projected onto the sensor and detected by the sensor. A second signal of a second dimension less than the first dimension is obtained, and by performing signal processing based on the second signal, significant information buried by projection is converted to a second signal.
From the signal of

【0069】請求項29に記載の信号処理装置、請求項
44に記載の信号処理方法、および請求項45に記載の
記録媒体においては、第1の次元を有する現実世界の信
号である第1の信号をセンサによって検出することによ
り得た、第1の次元に比較し次元が少ない第2の次元を
有し、第1の信号に対する歪を含む第2の信号が取得さ
れ、第2の信号に基づく信号処理を行うことにより、第
2の信号に比して歪の軽減された第3の信号が生成され
る。
In the signal processing device according to the present invention, the signal processing method according to the present invention, and the recording medium according to the present invention, the first signal which is a real-world signal having a first dimension is provided. A second signal obtained by detecting the signal with the sensor and having a second dimension having a smaller dimension than the first dimension and including a distortion with respect to the first signal is obtained. By performing signal processing based on the third signal, a third signal with reduced distortion compared to the second signal is generated.

【0070】請求項46に記載の信号処理装置、請求項
48に記載の信号処理方法、および請求項49に記載の
記録媒体においては、検出信号の内、前景オブジェクト
を構成する前景オブジェクト成分のみから成る前景領域
と、背景オブジェクトを構成する背景オブジェクト成分
のみから成る背景領域と、前景オブジェクト成分および
背景オブジェクト成分とが混合されて成る混合領域とが
特定され、少なくとも混合領域における前景オブジェク
ト成分と背景オブジェクト成分との混合比が検出され、
特定結果と混合比とに基づいて、前景オブジェクトと、
背景オブジェクトとが分離される。
In the signal processing device according to claim 46, the signal processing method according to claim 48, and the recording medium according to claim 49, only the foreground object component constituting the foreground object is included in the detection signal. A foreground region, a background region consisting only of a background object component constituting the background object, and a mixed region formed by mixing the foreground object component and the background object component are specified, and at least the foreground object component and the background object in the mixed region are specified. The mixing ratio with the component is detected,
Based on the specific result and the mixture ratio, the foreground object,
The background object is separated.

【0071】請求項50に記載の信号処理装置、請求項
54に記載の信号処理方法、および請求項55に記載の
記録媒体においては、検出信号の内、前景オブジェクト
を構成する前景オブジェクト成分のみから成る前景領域
と、背景オブジェクトを構成する背景オブジェクト成分
のみから成る背景領域と、前景オブジェクト成分および
背景オブジェクト成分とが混合されて成る混合領域とが
特定され、特定結果に基づいて、少なくとも混合領域に
おける前景オブジェクト成分と背景オブジェクト成分と
の混合比が検出される。
In the signal processing apparatus according to claim 50, the signal processing method according to claim 54, and the recording medium according to claim 55, only the foreground object component constituting the foreground object is included in the detection signal. A foreground region, a background region consisting only of a background object component constituting the background object, and a mixed region formed by mixing the foreground object component and the background object component are specified, and based on the specified result, at least the mixed region A mixture ratio between the foreground object component and the background object component is detected.

【0072】請求項56に記載の信号処理装置、請求項
59に記載の信号処理方法、および請求項60に記載の
記録媒体においては、前景オブジェクトを構成する前景
オブジェクト成分と、背景オブジェクトを構成する背景
オブジェクト成分とが混合されて成る混合領域におけ
る、前景オブジェクト成分と背景オブジェクト成分との
混合比が検出され、混合比に基づいて、前景オブジェク
トと背景オブジェクトとが分離される。
In the signal processing device according to claim 56, the signal processing method according to claim 59, and the recording medium according to claim 60, a foreground object component forming a foreground object and a background object are formed. The mixture ratio of the foreground object component and the background object component in the mixture region where the background object component is mixed is detected, and the foreground object and the background object are separated based on the mixture ratio.

【0073】[0073]

【発明の実施の形態】図1は、本発明の原理を表してい
る。同図に示すように、空間と時間軸を有する現実社会
1の情報である第1の信号がセンサ2により取得され、
データ化される。センサ2が取得したデータ3である検
出信号は、現実社会1の情報を、現実社会より低い次元
の時空間に射影して得られた情報である。従って、射影
して得られた情報は、射影により発生する歪みを有して
いる。換言すれば、センサ2が出力するデータ3は、現
実社会1の情報に対して歪みを有している。また、デー
タ3は、射影による歪みを有しているが、これを補正す
るための有意情報を含んでいる。
FIG. 1 shows the principle of the present invention. As shown in the figure, a first signal which is information of the real world 1 having a space and a time axis is acquired by the sensor 2,
Be converted to data. The detection signal, which is the data 3 acquired by the sensor 2, is information obtained by projecting information of the real world 1 onto a spatio-temporal space lower than the real world. Therefore, the information obtained by the projection has distortion generated by the projection. In other words, the data 3 output by the sensor 2 has distortion with respect to the information of the real world 1. The data 3 has distortion due to projection, but includes significant information for correcting the distortion.

【0074】そこで、本発明においては、センサ2が出
力したデータを信号処理部4において信号処理すること
で、その歪みが除去されるか、低減されるか、または調
整される。または、本発明においては、センサ2が出力
したデータを信号処理部4において信号処理すること
で、有意情報が抽出される。
Therefore, in the present invention, the signal output from the sensor 2 is subjected to signal processing in the signal processing section 4 to remove, reduce, or adjust the distortion. Alternatively, in the present invention, the signal output from the sensor 2 is subjected to signal processing in the signal processing unit 4 to extract significant information.

【0075】図2は、本発明が適用される信号処理装置
の構成例を表している。センサ11は、例えば、ビデオ
カメラで構成され、現実社会の画像を撮像し、得られた
画像データを信号処理部12に出力する。信号処理部1
2は、例えば、パーソナルコンピュータなどで構成さ
れ、センサ11より入力されたデータを処理し、射影に
より発生する歪みの量を調整したり、射影により埋もれ
た有意情報の含まれる領域を特定したり、更に特定した
領域から有意情報を抽出したり、抽出した有意情報に基
づいて、入力されたデータを処理したりする。
FIG. 2 shows a configuration example of a signal processing device to which the present invention is applied. The sensor 11 includes, for example, a video camera, captures a real-world image, and outputs obtained image data to the signal processing unit 12. Signal processing unit 1
2 is configured by, for example, a personal computer or the like, processes data input from the sensor 11, adjusts the amount of distortion generated by projection, specifies an area including significant information buried by projection, Further, significant information is extracted from the specified area, and the input data is processed based on the extracted significant information.

【0076】ここで言う有意情報は、例えば、後述する
混合比である。
The significance information referred to here is, for example, a mixing ratio described later.

【0077】なお、射影により埋もれた有意情報の含ま
れる領域を示す情報も有意情報と考えることができる。
ここでは、後述する領域情報が有意情報に相当する。
Note that information indicating an area including significant information buried by projection can also be considered as significant information.
Here, region information described later corresponds to significant information.

【0078】ここで言う有意情報の含まれる領域は、例
えば、後述する混合領域である。
The area including the significant information is, for example, a mixed area described later.

【0079】信号処理部12は、例えば、図3に示すよ
うに構成される。CPU(Central Processing Uuit)21
は、ROM(Read Only Memory)22、または記憶部28
に記憶されているプログラムに従って各種の処理を実行
する。RAM(Random Access Memory)23には、CPU21
が実行するプログラムやデータなどが適宜記憶される。
これらのCPU21、ROM22、およびRAM23は、バス2
4により相互に接続されている。
The signal processing section 12 is configured, for example, as shown in FIG. CPU (Central Processing Uuit) 21
Is a ROM (Read Only Memory) 22 or a storage unit 28
Executes various processes according to the program stored in the. A RAM (Random Access Memory) 23 has a CPU 21
And the programs executed by the program are stored as appropriate.
The CPU 21, the ROM 22, and the RAM 23 are connected to the bus 2
4 are interconnected.

【0080】CPU21にはまた、バス24を介して入出
力インタフェース25が接続されている。入出力インタ
フェース25には、キーボード、マウス、マイクロホン
などよりなる入力部26、ディスプレイ、スピーカなど
よりなる出力部27が接続されている。CPU21は、入
力部26から入力される指令に対応して各種の処理を実
行する。そして、CPU21は、処理の結果得られた画像
や音声等を出力部27に出力する。
An input / output interface 25 is connected to the CPU 21 via a bus 24. The input / output interface 25 is connected to an input unit 26 including a keyboard, a mouse, a microphone, and the like, and an output unit 27 including a display, a speaker, and the like. The CPU 21 executes various processes in response to a command input from the input unit 26. Then, the CPU 21 outputs an image, a sound, and the like obtained as a result of the processing to the output unit 27.

【0081】入出力インタフェース25に接続されてい
る記憶部28は、例えばハードディスクなどで構成さ
れ、CPU21が実行するプログラムや各種のデータを記
憶する。通信部29は、インターネット、その他のネッ
トワークを介して外部の装置と通信する。この例の場
合、通信部29はセンサ11の出力を取り込む取得部と
して働く。
The storage unit 28 connected to the input / output interface 25 is composed of, for example, a hard disk and stores programs executed by the CPU 21 and various data. The communication unit 29 communicates with an external device via the Internet or another network. In the case of this example, the communication unit 29 functions as an acquisition unit that captures the output of the sensor 11.

【0082】また、通信部29を介してプログラムを取
得し、記憶部28に記憶してもよい。
Further, a program may be obtained through the communication unit 29 and stored in the storage unit 28.

【0083】入出力インタフェース25に接続されてい
るドライブ30は、磁気ディスク51、光ディスク5
2、光磁気ディスク53、或いは半導体メモリ54など
が装着されたとき、それらを駆動し、そこに記録されて
いるプログラムやデータなどを取得する。取得されたプ
ログラムやデータは、必要に応じて記憶部28に転送さ
れ、記憶される。
The drive 30 connected to the input / output interface 25 includes a magnetic disk 51, an optical disk 5
2. When the magneto-optical disk 53, the semiconductor memory 54, and the like are mounted, they are driven to acquire programs, data, and the like recorded therein. The acquired programs and data are transferred and stored in the storage unit 28 as necessary.

【0084】次に、図4のフローチャートを参照して、
この信号処理装置が記憶媒体である記憶部28に記憶さ
れたプログラムに基づいて行う動作について説明する。
最初に、ステップS1において、センサ11により取得
された、被写体の画像を通信部29等を介して取得す
る。信号処理部12のCPU21は、取得した画像データ
を記憶部28に供給し、記憶させる。
Next, referring to the flowchart of FIG.
An operation performed by the signal processing device based on a program stored in the storage unit 28 as a storage medium will be described.
First, in step S1, an image of a subject obtained by the sensor 11 is obtained via the communication unit 29 or the like. The CPU 21 of the signal processing unit 12 supplies the acquired image data to the storage unit 28 and stores it.

【0085】図5は、このようにして取得された画像デ
ータに対応する画像を表している。この例においては、
背景61の前に前景62が配置された画像となってい
る。前景62は、この例の場合、おもちゃの飛行機とさ
れ、静止している背景61の前で所定の速度で、図中右
方向に移動している。その結果、前景62の画像は、い
わゆる動きボケの生じた画像となっている。これに対し
て、背景61の画像は静止しているので、動きボケのな
い鮮明な画像となる。そして、混合領域63は、背景6
1というオブジェクトと、前景62というオブジェクト
が混合した状態の画像となっている。
FIG. 5 shows an image corresponding to the image data thus obtained. In this example,
This is an image in which a foreground 62 is arranged before a background 61. In this example, the foreground 62 is a toy airplane, and moves rightward in the figure at a predetermined speed in front of the stationary background 61. As a result, the image of the foreground 62 is an image having so-called motion blur. On the other hand, since the image of the background 61 is stationary, it is a clear image without motion blur. And the mixed area 63 is the background 6
The image is an image in which the object 1 and the object 62 are mixed.

【0086】次に、ステップS2において、CPU21
は、オブジェクトの混合領域を検出する。図5の例の場
合、混合領域63が、オブジェクトが混合されている領
域として検出される。
Next, in step S2, the CPU 21
Detects the mixed area of the object. In the example of FIG. 5, the mixed area 63 is detected as an area where objects are mixed.

【0087】CPU21は、ステップS3において、オブ
ジェクトが混合されているか否かを判定する。オブジェ
クトが混合されていない場合、すなわち混合領域63が
ない場合、この情報処理装置における処理対象ではない
ので、処理は終了される。
The CPU 21 determines in step S3 whether or not objects are mixed. If the objects are not mixed, that is, if there is no mixed area 63, the processing is terminated because it is not a processing target in this information processing apparatus.

【0088】これに対して、ステップS3において、オ
ブジェクトが混合されていると判定された場合、ステッ
プS4に進み、CPU21は、検出された混合領域のオブ
ジェクトの混合比を求める。混合比は、例えば、前景6
2の背景61に対する動きベクトルを求め、その動きベ
クトルから混合領域63において、混合比が0乃至1に
変化するようにあてはめることによって、求めることが
できる。さらに、ステップS5において、CPU21は、
求まった混合比から、複数のオブジェクトが混合した混
合領域63においてオブジェクトを分離する処理を実行
する。
On the other hand, if it is determined in step S3 that the objects are mixed, the process proceeds to step S4, where the CPU 21 obtains the mixture ratio of the objects in the detected mixed area. The mixture ratio is, for example, foreground 6
A motion vector for the second background 61 is obtained, and the motion vector is applied to the mixed area 63 so that the mixing ratio changes from 0 to 1. Further, in step S5, the CPU 21
Based on the obtained mixing ratio, a process of separating the objects in the mixed area 63 where a plurality of objects are mixed is executed.

【0089】以上の処理について、図5の画像を例とし
てさらに説明する。今、図5の混合領域63の右端の一
部である部分63Aの1ライン上の画素データをプロッ
トすると、図6に示すようになる。図6において、横軸
はX座標(図5における水平方向の座標)を表し、縦軸
はその座標における画素値を表している。
The above processing will be further described by taking the image of FIG. 5 as an example. Now, when the pixel data on one line of the portion 63A which is a part of the right end of the mixed area 63 in FIG. 5 is plotted, the result is as shown in FIG. 6, the horizontal axis represents the X coordinate (the horizontal coordinate in FIG. 5), and the vertical axis represents the pixel value at that coordinate.

【0090】曲線L1は、第1のタイミングのライン上
の画素値を表しており、曲線L2は、次のタイミングの
対応するライン上の画素値を表している。以下同様に、
曲線L3はさらにその次のタイミングの、曲線L4はさ
らにその次のタイミングの、それぞれ対応するラインの
画素値を表している。換言すれば、図6は、連続する4
つのタイミングの対応するライン上の画素値の変化を表
している。
The curve L1 represents the pixel value on the line at the first timing, and the curve L2 represents the pixel value on the corresponding line at the next timing. Similarly,
The curve L3 indicates the pixel value of the corresponding line at the next timing, and the curve L4 indicates the pixel value of the corresponding line at the next timing. In other words, FIG.
5 shows changes in pixel values on a line corresponding to two timings.

【0091】曲線L1は、時間的に最初のタイミングを
表しており、この状態においては、まだ前景62が撮像
されていない。従って、曲線L1は、背景61の画素を
表している。
The curve L1 represents the first timing in time. In this state, the foreground 62 has not been imaged yet. Therefore, the curve L1 represents the pixel of the background 61.

【0092】曲線L1上においては、X座標140付近
において画素値は約75であるが、X座標145におい
て、画素値は約130まで増加する。その後、画素値は
低下し、X座標149付近において、画素値は約120
となる。X座標が増加するにつれて、画素値はその後再
び増加し、X座標154付近において、画素値はほぼ1
60となっている。その後、画素値は低下し、X座標1
62付近で、約130となる。その後、X座標165付
近において画素値が約180となり、X座標170付近
において、画素値は再び約125まで低下している。そ
の後、X座標172付近においては、画素値が約175
まで増加し、その後はX座標178付近において、画素
値は約60まで低下する。その後、X座標178乃至1
95までの区間は、画素値の値が60乃至80の間で若
干変化している。そして、X座標195付近よりさらに
右側の座標においては、画素値が再び160前後まで増
加している。
On the curve L1, the pixel value is about 75 near the X coordinate 140, but at the X coordinate 145, the pixel value increases to about 130. Thereafter, the pixel value decreases, and around the X coordinate 149, the pixel value becomes approximately 120.
Becomes As the X coordinate increases, the pixel value then increases again, and near the X coordinate 154, the pixel value is approximately one.
It is 60. Thereafter, the pixel value decreases and the X coordinate 1
At around 62, it is about 130. Thereafter, the pixel value becomes about 180 near the X coordinate 165, and the pixel value drops to about 125 again near the X coordinate 170. Thereafter, in the vicinity of the X coordinate 172, the pixel value becomes about 175.
, And thereafter, around the X coordinate 178, the pixel value decreases to about 60. After that, X coordinates 178 to 1
In the section up to 95, the pixel value slightly changes between 60 and 80. Then, at the coordinates further to the right of the vicinity of the X coordinate 195, the pixel value increases again to around 160.

【0093】次のフレームの曲線L2においては、X座
標145付近まで約200の画素値で一定であるが、X
座標145からX座標160まで徐々に画素値が低下
し、X座標160では、画素値は約125となってい
る。その後の変化は、曲線L1と同様となる。
In the curve L2 of the next frame, the pixel value of about 200 is constant up to the vicinity of the X coordinate 145.
The pixel value gradually decreases from the coordinate 145 to the X coordinate 160. At the X coordinate 160, the pixel value is about 125. Subsequent changes are similar to curve L1.

【0094】曲線L3の画素値は、X座標158付近ま
で画素値200でほぼ一定であるが、その後、X座標1
62付近において、約180まで低下した後、X座標1
64付近においては、再び画素値は、約190まで増加
している。その後、ほぼ曲線L1と同様に変化してい
る。
The pixel value of the curve L3 is substantially constant at a pixel value of 200 up to the vicinity of the X coordinate 158.
At around 62, after dropping to about 180, the X coordinate 1
Around 64, the pixel value increases again to about 190. Thereafter, it changes substantially in the same manner as the curve L1.

【0095】曲線L4の画素値は、X座標140付近か
らX座標170付近まで、約200の一定の画素値とな
っているが、X座標170付近からX座標180付近ま
で急激に画素値は低下し、X座標170付近では約70
となっている。その後の変化は、曲線L1と同様となっ
ている。
The pixel value of the curve L4 is a constant pixel value of about 200 from the vicinity of the X coordinate 140 to the vicinity of the X coordinate 170, but the pixel value decreases rapidly from the vicinity of the X coordinate 170 to the vicinity of the X coordinate 180. And about 70 around the X coordinate 170
It has become. Subsequent changes are similar to curve L1.

【0096】このように、曲線L2乃至L4の画素値が
変化するのは、曲線L1の状態においては、背景61だ
けの画像であったところに、前景62の画像が、その移
動に伴って(時間の経過に伴って)次第に増加してきた
ことに起因する。
As described above, the pixel values of the curves L2 to L4 change in the state of the curve L1 in the case of the image of the background 61 only, while the image of the foreground 62 changes with the movement ( (Over time).

【0097】すなわち、曲線L1と、その直後のタイミ
ングの曲線L2を比較して明らかなように、曲線L2乃
至曲線L4の値は、X座標147付近までほぼ同一であ
る。曲線L2の値は、X座標147付近から、曲線L
3,L4と異なった値となり、X座標159付近で、曲
線L1の値とほぼ同一となる。それ以降のX座標におけ
る曲線L2の画素値は、曲線L1における場合とほぼ同
一となっている。すなわち、X座標146からX座標1
59までの区間D1に対応する領域R1における曲線L
2の値は、前景62の先端が1単位の期間において、区
間D1の左端から右端まで移動したことを表している。
That is, as is clear from the comparison between the curve L1 and the curve L2 at the timing immediately after the curve L1, the values of the curves L2 to L4 are almost the same up to the vicinity of the X coordinate 147. The value of the curve L2 is calculated from the vicinity of the X coordinate 147,
3 and L4, which are almost the same as the value of the curve L1 near the X coordinate 159. Subsequent pixel values of the curve L2 at the X coordinate are almost the same as those of the curve L1. That is, from the X coordinate 146 to the X coordinate 1
Curve L in region R1 corresponding to section D1 up to 59
A value of 2 indicates that the tip of the foreground 62 has moved from the left end to the right end of the section D1 in a unit period.

【0098】同様に、X座標159からX座標172ま
での区間D2に対応する領域R2における、次のタイミ
ングの曲線L3の画素値は、前景62の先端がその間に
移動してきた画像に対応している。さらに、X座標17
2からX座標184までの区間D3に対応する領域R3
における、曲線L4の画素値は、前景62の先端がその
間に移動してきたことを表している。
Similarly, in the region R2 corresponding to the section D2 from the X coordinate 159 to the X coordinate 172, the pixel value of the curve L3 at the next timing corresponds to the image in which the front end of the foreground 62 has moved during that time. I have. Further, the X coordinate 17
Region R3 corresponding to section D3 from 2 to X coordinate 184
, The pixel value of the curve L4 indicates that the tip of the foreground 62 has moved in the meantime.

【0099】従って、区間D1において、曲線L2の画
素値から、曲線L1の画素値に対して、背景61に対す
る前景62の混合比に基づく重み付けを施した値を減算
すると、図7に示すような曲線L11が得られる。この
曲線L11は、混合領域63において、前景62の画素
から背景61に相当する値を減算していることになるの
で、画素値0の背景上での前景の画像となる。なお、図
7における横軸は、位置を表し(左端は図6における区
間D1の左端に対応し、右端は図6の区間D1における
右端に対応する)、縦軸は、抽出された前景の画素値を
表している。
Accordingly, when the value obtained by weighting the pixel value of the curve L1 based on the mixture ratio of the foreground 62 to the background 61 is subtracted from the pixel value of the curve L2 in the section D1, as shown in FIG. A curve L11 is obtained. Since the value corresponding to the background 61 is subtracted from the pixel of the foreground 62 in the mixed area 63, the curve L11 is an image of the foreground on the background with the pixel value 0. Note that the horizontal axis in FIG. 7 represents the position (the left end corresponds to the left end of section D1 in FIG. 6, and the right end corresponds to the right end in section D1 in FIG. 6), and the vertical axis is the extracted foreground pixel. Represents a value.

【0100】同様に、図6の区間D2において、曲線L
3の画素値から、混合比で重み付けした曲線L1の画素
値を減算すると、図7における曲線L12が得られ、図
6の区間D3において、曲線L4から、混合比で重み付
けした曲線L1の画素値を減算すると、図7における曲
線L13が得られる。図7に示すように、曲線L12と
曲線L13は、曲線L11とほぼ一致した曲線となって
いる。このことは、前景62が3つの単位のタイミング
の期間に渡ってほぼ一定の速度で移動しており、重み付
け減算によって、真っ黒な背景、すなわち、画素値0の
背景上での前景画素値が正しく求められたことを示す。
Similarly, in section D2 of FIG.
When the pixel value of the curve L1 weighted by the mixture ratio is subtracted from the pixel value of 3, the curve L12 in FIG. 7 is obtained. In the section D3 of FIG. 6, the pixel value of the curve L1 weighted by the mixture ratio from the curve L4 Is subtracted, a curve L13 in FIG. 7 is obtained. As shown in FIG. 7, the curve L12 and the curve L13 are curves almost coincident with the curve L11. This means that the foreground 62 is moving at a substantially constant speed over the three unit timing periods, and the foreground pixel value on the black background, that is, the background with the pixel value 0, is correctly corrected by the weighted subtraction. Indicates what was requested.

【0101】以上の動作を画素に注目して説明すると、
図8に示すようになる。同図において、横軸は、部分6
3AのX座標を表し、縦軸は、上から下方向に向かう時
間軸を表している。この例では、動き量が5であるの
で、1露光時間(シャッタ時間)内に、t1乃至t5に
対応する時間で露光が行われる。b1乃至bfは、背景
61の各画素の画素値を表している。a1乃至a6は、
前景62の画素値を表す。
The above operation will be described focusing on pixels.
As shown in FIG. In the figure, the horizontal axis represents the portion 6
3A represents the X coordinate, and the vertical axis represents the time axis from the top to the bottom. In this example, since the motion amount is 5, exposure is performed within a time corresponding to t1 to t5 within one exposure time (shutter time). b1 to bf represent pixel values of each pixel of the background 61. a1 to a6 are
Represents the pixel value of the foreground 62.

【0102】すなわち、タイミングt1において、背景
61の画素b3乃至b8の位置に、前景62の画素a1
乃至a6が表れ、タイミングt2においては、この前景
62の画素a1乃至a6が、1画素分右方向に、すなわ
ち、背景61の画素b4乃至b9の位置に移動してい
る。
That is, at the timing t1, the pixel a1 of the foreground 62 is placed at the position of the pixels b3 to b8 of the background 61.
At the timing t2, the pixels a1 to a6 of the foreground 62 are moved rightward by one pixel, that is, to the positions of the pixels b4 to b9 of the background 61.

【0103】以下、同様に、タイミングt3乃至タイミ
ングt5に時間が進むに従って、前景62の画素a1乃
至a6は、順次右方向に1画素分ずつ移動している。
Similarly, as the time advances from timing t3 to timing t5, the pixels a1 to a6 of the foreground 62 sequentially move rightward by one pixel at a time.

【0104】この場合、タイミングt1乃至t5の各ラ
インの画素を平均して得られる画素値y1乃至yfが、
撮像の結果得られる画素(動きボケした画素)となり、
その値は、次式で表される。
In this case, pixel values y1 to yf obtained by averaging the pixels of each line at timings t1 to t5 are as follows:
Pixels obtained as a result of imaging (pixels with motion blur)
Its value is expressed by the following equation.

【0105】[0105]

【数1】 (Equation 1)

【0106】なお、y1,y2,yd,ye,yfは、
それぞれ、背景の画素b1,b2,bd,be,bfに
等しい。
Note that y1, y2, yd, ye, and yf are:
These are equal to the background pixels b1, b2, bd, be, and bf, respectively.

【0107】背景の画素b1乃至bfを除去すれば、混
合領域63における背景61と前景62を分離すること
ができる。すなわち、複数のオブジェクトを分離するこ
とができる。さらに、背景の画素b1乃至bfは、前後
のシャッタ時間(フレーム)の画素値を用いるなどし
て、既知であるとしておき、前景62の画素a1乃至a
6を、上記した式を、例えば最小自乗法などを用いて解
くことで、求めることができる。これにより、動きボケ
を除いた前景の画像を得ることができる。すなわち、射
影された実社会の情報における歪みを軽減することがで
きる。そして、さらに、解像度創造などの処理により、
鮮明な画像を創造することができる。
By removing the background pixels b1 to bf, the background 61 and the foreground 62 in the mixed area 63 can be separated. That is, a plurality of objects can be separated. Further, the background pixels b1 to bf are assumed to be known, for example, by using the pixel values of the preceding and following shutter times (frames), and the pixels a1 to a
6 can be obtained by solving the above equation using, for example, the least square method. As a result, a foreground image excluding the motion blur can be obtained. That is, distortion in the projected real world information can be reduced. And, by further processing such as resolution creation,
You can create clear images.

【0108】以上の図4においては、確定論的な処理を
行うようにしたが、すなわち、前の処理を基にして、前
の処理の結果が正しいものとして次の処理を行うように
したが、統計論的に処理を行うことも可能である。図9
は、この場合の処理例を表している。
In FIG. 4, the deterministic processing is performed. That is, the next processing is performed based on the previous processing on the assumption that the result of the previous processing is correct. It is also possible to perform the processing statistically. FIG.
Represents a processing example in this case.

【0109】すなわち、この統計論的処理を行う場合に
は、ステップS21において、CPU21は画像データを
取得する。この処理は、図4のステップS1における処
理と同様の処理である。
That is, when performing this statistical processing, in step S21, the CPU 21 acquires image data. This process is similar to the process in step S1 of FIG.

【0110】次に、ステップS22において、CPU21
は、ステップS21で取得した画像データから前景と背
景の混合比を求める処理を行う。そして、ステップS2
3において、CPU21は、ステップS22で求められた
混合比に基づいて、背景と前景を分離する処理を実行す
る。
Next, at step S22, the CPU 21
Performs a process of calculating a mixture ratio between the foreground and the background from the image data acquired in step S21. Then, step S2
In 3, the CPU 21 executes a process for separating the background and the foreground based on the mixture ratio obtained in step S22.

【0111】このように、統計論的処理に基づく場合、
図4のステップS23における場合のような物体の境界
であるのか否かの判定処理が不要となるため、より迅速
に前景と背景を分離することが可能となる。
Thus, when based on statistical processing,
Since there is no need to perform the process of determining whether or not the object is a boundary as in step S23 of FIG. 4, it is possible to more quickly separate the foreground and the background.

【0112】以上のようにして、背景61の前で移動し
ている前景62の画像を撮像した場合に得られる動きボ
ケの生じた画像から、鮮明な前景62の画像を分離抽出
することができる。
As described above, a clear foreground 62 image can be separated and extracted from an image with blurred motion obtained when an image of the foreground 62 moving in front of the background 61 is captured. .

【0113】次に、確定論的な処理により、センサによ
り取得されたデータから、有意情報が埋もれている領域
を特定したり、埋もれた有意情報を抽出する処理を行う
信号処理装置についてより具体的な例を挙げて説明す
る。以下の例において、CCDラインセンサまたはCCDエリ
アセンサがセンサに対応し、領域情報や混合比が有意情
報に対応し、混合領域において、前景と背景が混合して
いることや動きボケが歪みに対応する。
Next, a more specific signal processing device that performs a process of specifying a region where significant information is buried from the data acquired by the sensor and extracting the buried significant information from the data acquired by the sensor by deterministic processing. This will be described with a simple example. In the following example, the CCD line sensor or CCD area sensor corresponds to the sensor, the area information and the mixing ratio correspond to the significant information, and the mixed foreground and background and the motion blur correspond to the distortion in the mixed area. I do.

【0114】図10は、信号処理部12を示すブロック
図である。
FIG. 10 is a block diagram showing the signal processing section 12. As shown in FIG.

【0115】なお、信号処理部12の各機能をハードウ
ェアで実現するか、ソフトウェアで実現するかは問わな
い。つまり、本明細書の各ブロック図は、ハードウェア
のブロック図と考えても、ソフトウェアによる機能ブロ
ック図と考えても良い。
It should be noted that it does not matter whether each function of the signal processing unit 12 is realized by hardware or software. That is, each block diagram in this specification may be considered as a hardware block diagram or a functional block diagram using software.

【0116】ここで、動きボケとは、撮像の対象とな
る、現実世界におけるオブジェクトの動きと、センサ1
1の撮像の特性とにより生じる、動いているオブジェク
トに対応する画像に含まれている歪みをいう。
Here, the motion blur refers to the movement of an object to be imaged in the real world and the motion of the sensor 1.
The distortion included in the image corresponding to the moving object, which is caused by the characteristic of the first imaging.

【0117】この明細書では、撮像の対象となる、現実
世界におけるオブジェクトに対応する画像を、画像オブ
ジェクトと称する。
In this specification, an image to be imaged that corresponds to an object in the real world is called an image object.

【0118】信号処理部12に供給された入力画像は、
オブジェクト抽出部101、領域特定部103、混合比
算出部104、および前景背景分離部105に供給され
る。
The input image supplied to the signal processing unit 12 is
The information is supplied to the object extracting unit 101, the area specifying unit 103, the mixture ratio calculating unit 104, and the foreground / background separating unit 105.

【0119】オブジェクト抽出部101は、入力画像に
含まれる前景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像に含まれる前景のオブジェクトに対応
する画像オブジェクトの輪郭を検出することで、前景の
オブジェクトに対応する画像オブジェクトを粗く抽出す
る。
The object extracting unit 101 roughly extracts an image object corresponding to a foreground object included in the input image, and supplies the extracted image object to the motion detecting unit 102. The object extraction unit 101
For example, by detecting the outline of the image object corresponding to the foreground object included in the input image, the image object corresponding to the foreground object is roughly extracted.

【0120】オブジェクト抽出部101は、入力画像に
含まれる背景のオブジェクトに対応する画像オブジェク
トを粗く抽出して、抽出した画像オブジェクトを動き検
出部102に供給する。オブジェクト抽出部101は、
例えば、入力画像と、抽出された前景のオブジェクトに
対応する画像オブジェクトとの差から、背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出する。
The object extraction unit 101 roughly extracts an image object corresponding to a background object included in the input image, and supplies the extracted image object to the motion detection unit 102. The object extraction unit 101
For example, the image object corresponding to the background object is roughly extracted from the difference between the input image and the extracted image object corresponding to the foreground object.

【0121】また、例えば、オブジェクト抽出部101
は、内部に設けられている背景メモリに記憶されている
背景の画像と、入力画像との差から、前景のオブジェク
トに対応する画像オブジェクト、および背景のオブジェ
クトに対応する画像オブジェクトを粗く抽出するように
してもよい。
Further, for example, the object extracting unit 101
Is configured to roughly extract an image object corresponding to a foreground object and an image object corresponding to a background object from a difference between a background image stored in a background memory provided therein and an input image. It may be.

【0122】動き検出部102は、例えば、ブロックマ
ッチング法、勾配法、位相相関法、およびペルリカーシ
ブ法などの手法により、粗く抽出された前景のオブジェ
クトに対応する画像オブジェクトの動きベクトルを算出
して、算出した動きベクトルおよび動きベクトルの位置
情報(動きベクトルに対応する画素の位置を特定する情
報)を動きボケ抽出部106に供給する。
The motion detecting section 102 calculates the motion vector of the image object corresponding to the coarsely extracted foreground object, for example, by a method such as a block matching method, a gradient method, a phase correlation method, or a pel recursive method. The calculated motion vector and the position information of the motion vector (information for specifying the position of the pixel corresponding to the motion vector) are supplied to the motion-blur extracting unit 106.

【0123】動き検出部102が出力する動きベクトル
には、動き量vに対応する情報が含まれるている。
The motion vector output from the motion detecting section 102 includes information corresponding to the motion amount v.

【0124】また、例えば、動き検出部102は、画像
オブジェクトに画素を特定する画素位置情報と共に、画
像オブジェクト毎の動きベクトルを動きボケ調整部10
6に出力するようにしてもよい。
Further, for example, the motion detection unit 102 calculates the motion vector for each image object together with the pixel position information for specifying the pixel in the image object by the motion blur adjustment unit 10.
6 may be output.

【0125】動き量vは、動いているオブジェクトに対
応する画像の位置の変化を画素間隔を単位として表す値
である。例えば、前景に対応するオブジェクトの画像
が、あるフレームを基準として次のフレームにおいて4
画素分離れた位置に表示されるように移動していると
き、前景に対応するオブジェクトの画像の動き量vは、
4とされる。
The amount of movement v is a value representing the change in the position of the image corresponding to the moving object in units of pixel intervals. For example, the image of the object corresponding to the foreground is set to 4
When moving so as to be displayed at a position separated by pixels, the motion amount v of the image of the object corresponding to the foreground is
It is set to 4.

【0126】なお、オブジェクト抽出部101および動
き検出部102は、動いているオブジェクトに対応した
動きボケ量の調整を動きボケ調整部106で行う場合に
用いられる。
The object extracting unit 101 and the motion detecting unit 102 are used when the motion blur adjusting unit 106 adjusts the amount of motion blur corresponding to a moving object.

【0127】領域特定部103は、入力された画像の画
素のそれぞれを、前景領域、背景領域、または混合領域
のいずれかに特定し、画素毎に前景領域、背景領域、ま
たは混合領域のいずれかに属するかを示す情報(以下、
領域情報と称する)を混合比算出部104、前景背景分
離部105、および動きボケ調整部106に供給する。
The area specifying unit 103 specifies each of the pixels of the input image as one of a foreground area, a background area, and a mixed area, and for each pixel, selects one of the foreground area, the background area, and the mixed area. Information that belongs to
(Referred to as area information) to the mixture ratio calculation unit 104, the foreground / background separation unit 105, and the motion blur adjustment unit 106.

【0128】混合比算出部104は、入力画像、および
領域特定部103から供給された領域情報を基に、混合
領域63に含まれる画素に対応する混合比(以下、混合
比αと称する)を算出して、算出した混合比を前景背景
分離部105に供給する。
The mixture ratio calculation unit 104 calculates a mixture ratio (hereinafter, referred to as a mixture ratio α) corresponding to the pixels included in the mixture region 63 based on the input image and the region information supplied from the region identification unit 103. The calculated mixture ratio is supplied to the foreground / background separation unit 105.

【0129】混合比αは、後述する式(13)に示され
るように、画素値における、背景のオブジェクトに対応
する画像の成分(以下、背景の成分とも称する)の割合
を示す値である。
The mixture ratio α is a value indicating the ratio of a component of an image corresponding to a background object (hereinafter, also referred to as a background component) to a pixel value, as shown in Expression (13) described later.

【0130】前景背景分離部105は、領域特定部10
3から供給された領域情報、および混合比算出部104
から供給された混合比αを基に、前景のオブジェクトに
対応する画像の成分(以下、前景の成分とも称する)の
みから成る前景成分画像と、背景の成分のみから成る背
景成分画像とに入力画像を分離して、前景成分画像を動
きボケ調整部106および選択部107に供給する。な
お、分離された前景成分画像を最終的な出力とすること
も考えられる。従来の混合領域を考慮しないで前景と背
景だけを特定し、分離していた方式に比べ正確な前景と
背景を得ることが出来る。
The foreground / background separation unit 105 is provided with
3 and the mixture ratio calculation unit 104
Input image into a foreground component image composed of only components of the image corresponding to the foreground object (hereinafter also referred to as a foreground component) and a background component image composed of only the background component based on the mixture ratio α supplied from And supplies the foreground component image to the motion-blur adjusting unit 106 and the selecting unit 107. Note that the separated foreground component image may be used as a final output. It is possible to specify only the foreground and the background without considering the conventional mixed area, and obtain a more accurate foreground and background as compared with the separated system.

【0131】動きボケ調整部106は、動きベクトルか
らわかる動き量vおよび領域情報を基に、前景成分画像
に含まれる1以上の画素を示す処理単位を決定する。処
理単位は、動きボケの量の調整の処理の対象となる1群
の画素を指定するデータである。
The motion-blur adjusting unit 106 determines a processing unit indicating one or more pixels included in the foreground component image based on the motion amount v and the area information known from the motion vector. The processing unit is data that specifies a group of pixels to be processed for adjusting the amount of motion blur.

【0132】動きボケ調整部106は、信号処理部12
に入力された動きボケ調整量、前景背景分離部105か
ら供給された前景成分画像、動き検出部102から供給
された動きベクトルおよびその位置情報、並びに処理単
位を基に、前景成分画像に含まれる動きボケを除去す
る、動きボケの量を減少させる、または動きボケの量を
増加させるなど前景成分画像に含まれる動きボケの量を
調整して、動きボケの量を調整した前景成分画像を選択
部107に出力する。動きベクトルとその位置情報は使
わないこともある。
The motion-blur adjusting unit 106 includes the signal processing unit 12
Are included in the foreground component image based on the motion blur adjustment amount input to the foreground component image supplied from the foreground / background separation unit 105, the motion vector supplied from the motion detection unit 102 and its position information, and the processing unit. Adjust the amount of motion blur included in the foreground component image, such as removing motion blur, reducing the amount of motion blur, or increasing the amount of motion blur, and select the foreground component image with the adjusted amount of motion blur Output to the unit 107. The motion vector and its position information may not be used.

【0133】選択部107は、例えば使用者の選択に対
応した選択信号を基に、前景背景分離部105から供給
された前景成分画像、および動きボケ調整部106から
供給された動きボケの量が調整された前景成分画像のい
ずれか一方を選択して、選択した前景成分画像を出力す
る。
The selection unit 107 determines whether the amount of the foreground component image supplied from the foreground / background separation unit 105 and the amount of motion blur supplied from the motion blur adjustment unit 106 are based on a selection signal corresponding to the user's selection, for example. One of the adjusted foreground component images is selected, and the selected foreground component image is output.

【0134】次に、図11乃至図26を参照して、信号
処理部12に供給される入力画像について説明する。
Next, an input image supplied to the signal processing section 12 will be described with reference to FIGS.

【0135】図11は、センサによる撮像を説明する図
である。センサ11は、例えば、固体撮像素子であるCC
D(Charge-Coupled Device)エリアセンサを備えたCCD
ビデオカメラなどで構成される。現実世界における、前
景に対応するオブジェクトは、現実世界における、背景
に対応するオブジェクトと、センサ11との間を、例え
ば、図中の左側から右側に水平に移動する。
FIG. 11 is a diagram for explaining image pickup by a sensor. The sensor 11 is, for example, a solid-state image sensor CC
CCD with D (Charge-Coupled Device) area sensor
It is composed of a video camera and the like. The object corresponding to the foreground in the real world moves horizontally between the object corresponding to the background and the sensor 11 in the real world, for example, from left to right in the drawing.

【0136】センサ11は、前景に対応するオブジェク
トを、背景に対応するオブジェクトと共に撮像する。セ
ンサ11は、撮像した画像を1フレーム単位で出力す
る。例えば、センサ11は、1秒間に30フレームから
成る画像を出力する。センサ11の露光時間は、1/3
0秒とすることができる。露光時間は、センサ11が入
力された光の電荷への変換を開始してから、入力された
光の電荷への変換を終了するまでの期間である。以下、
露光時間をシャッタ時間とも称する。
The sensor 11 images the object corresponding to the foreground together with the object corresponding to the background. The sensor 11 outputs the captured image in units of one frame. For example, the sensor 11 outputs an image composed of 30 frames per second. The exposure time of the sensor 11 is 1/3
It can be 0 seconds. The exposure time is a period from the time when the sensor 11 starts to convert the input light to the electric charge to the time when the conversion of the input light to the electric charge is completed. Less than,
The exposure time is also called a shutter time.

【0137】図12は、画素の配置を説明する図であ
る。図12中において、A乃至Iは、個々の画素を示
す。画素は、画像に対応する平面上に配置されている。
1つの画素に対応する1つの検出素子は、センサ11上
に配置されている。センサ11が画像を撮像するとき、
1つの検出素子は、画像を構成する1つの画素に対応す
る画素値を出力する。例えば、検出素子のX方向の位置
は、画像上の横方向の位置に対応し、検出素子のY方向
の位置は、画像上の縦方向の位置に対応する。
FIG. 12 is a diagram for explaining the arrangement of pixels. In FIG. 12, A to I indicate individual pixels. The pixels are arranged on a plane corresponding to the image.
One detection element corresponding to one pixel is arranged on the sensor 11. When the sensor 11 captures an image,
One detection element outputs a pixel value corresponding to one pixel forming the image. For example, the position of the detection element in the X direction corresponds to the position in the horizontal direction on the image, and the position of the detection element in the Y direction corresponds to the position in the vertical direction on the image.

【0138】図13に示すように、例えば、CCDである
検出素子は、シャッタ時間に対応する期間、入力された
光を電荷に変換して、変換された電荷を蓄積する。電荷
の量は、入力された光の強さと、光が入力されている時
間にほぼ比例する。検出素子は、シャッタ時間に対応す
る期間において、入力された光から変換された電荷を、
既に蓄積されている電荷に加えていく。すなわち、検出
素子は、シャッタ時間に対応する期間、入力される光を
積分して、積分された光に対応する量の電荷を蓄積す
る。検出素子は、時間に対して、積分効果があるとも言
える。
As shown in FIG. 13, for example, a detection element such as a CCD converts input light into electric charges for a period corresponding to the shutter time and accumulates the converted electric charges. The amount of charge is substantially proportional to the intensity of the input light and the time during which the light is input. The detection element converts the charge converted from the input light into a period corresponding to the shutter time,
It adds to the charge already stored. That is, the detection element integrates the input light for a period corresponding to the shutter time, and accumulates an amount of charge corresponding to the integrated light. It can be said that the detection element has an integration effect with respect to time.

【0139】検出素子に蓄積された電荷は、図示せぬ回
路により、電圧値に変換され、電圧値は更にデジタルデ
ータなどの画素値に変換されて出力される。従って、セ
ンサ11から出力される個々の画素値は、前景または背
景に対応するオブジェクトの空間的に広がりを有するあ
る部分を、シャッタ時間について積分した結果である、
1次元の空間に射影された値を有する。
The electric charge accumulated in the detecting element is converted into a voltage value by a circuit (not shown), and the voltage value is further converted into a pixel value such as digital data and output. Therefore, the individual pixel values output from the sensor 11 are the result of integrating a certain spatially expanding part of the object corresponding to the foreground or background with respect to the shutter time.
It has values projected into a one-dimensional space.

【0140】信号処理部12は、このようなセンサ11
の蓄積の動作により、出力信号に埋もれてしまった有意
な情報、例えば、混合比αを抽出する。信号処理部12
は、前景の画像オブジェクト自身が混ざり合うことによ
る生ずる歪みの量、例えば、動きボケの量などを調整す
る。また、信号処理部12は、前景の画像オブジェクト
と背景の画像オブジェクトとが混ざり合うことにより生
ずる歪みの量を調整する。
The signal processing section 12 is provided with
, The significant information buried in the output signal, for example, the mixture ratio α is extracted. Signal processing unit 12
Adjusts the amount of distortion caused by mixing of the foreground image objects themselves, for example, the amount of motion blur. In addition, the signal processing unit 12 adjusts the amount of distortion caused by mixing of the foreground image object and the background image object.

【0141】図14は、動いている前景に対応するオブ
ジェクトと、静止している背景に対応するオブジェクト
とを撮像して得られる画像を説明する図である。図14
(A)は、動きを伴う前景に対応するオブジェクトと、
静止している背景に対応するオブジェクトとを撮像して
得られる画像を示している。図14(A)に示す例にお
いて、前景に対応するオブジェクトは、画面に対して水
平に左から右に動いている。
FIG. 14 is a diagram for explaining images obtained by capturing an object corresponding to a moving foreground and an object corresponding to a stationary background. FIG.
(A) shows an object corresponding to a foreground with motion;
An image obtained by capturing an object corresponding to a stationary background is shown. In the example shown in FIG. 14A, the object corresponding to the foreground is moving horizontally from left to right with respect to the screen.

【0142】図14(B)は、図14(A)に示す画像
の1つのラインに対応する画素値を時間方向に展開した
モデル図である。図14(B)の横方向は、図14
(A)の空間方向Xに対応している。
FIG. 14B is a model diagram in which pixel values corresponding to one line of the image shown in FIG. 14A are developed in the time direction. The horizontal direction in FIG.
(A) corresponds to the spatial direction X.

【0143】背景領域の画素は、背景の成分、すなわ
ち、背景のオブジェクトに対応する画像の成分のみか
ら、その画素値が構成されている。前景領域の画素は、
前景の成分、すなわち、前景のオブジェクトに対応する
画像の成分のみから、その画素値が構成されている。
The pixels in the background area have their pixel values composed only of the background components, ie, the image components corresponding to the background objects. Pixels in the foreground area are
The pixel value is composed only of the foreground component, that is, the component of the image corresponding to the foreground object.

【0144】混合領域の画素は、背景の成分、および前
景の成分から、その画素値が構成されている。混合領域
は、背景の成分、および前景の成分から、その画素値が
構成されているので、歪み領域ともいえる。混合領域
は、更に、カバードバックグラウンド領域およびアンカ
バードバックグラウンド領域に分類される。
The pixel value of the pixel in the mixed area is composed of the background component and the foreground component. Since the pixel value of the mixed area is composed of the background component and the foreground component, it can be said that the mixed area is a distortion area. The mixed area is further classified into a covered background area and an uncovered background area.

【0145】カバードバックグラウンド領域は、前景領
域に対して、前景のオブジェクトの進行方向の前端部に
対応する位置の混合領域であり、時間の経過に対応して
背景成分が前景に覆い隠される領域をいう。
The covered background area is a mixed area at a position corresponding to the front end of the foreground object in the traveling direction with respect to the foreground area, and is an area in which the background component is covered by the foreground as time passes. Say.

【0146】これに対して、アンカバードバックグラウ
ンド領域は、前景領域に対して、前景のオブジェクトの
進行方向の後端部に対応する位置の混合領域であり、時
間の経過に対応して背景成分が現れる領域をいう。
On the other hand, the uncovered background area is a mixed area at a position corresponding to the rear end of the foreground object in the traveling direction with respect to the foreground area. Means the area where appears.

【0147】このように、前景領域、背景領域、または
カバードバックグラウンド領域若しくはアンカバードバ
ックグラウンド領域を含む画像が、領域特定部103、
混合比算出部104、および前景背景分離部105に入
力画像として入力される。
As described above, the image including the foreground area, the background area, or the covered background area or the uncovered background area is input to the area specifying unit 103,
The input image is input to the mixture ratio calculation unit 104 and the foreground / background separation unit 105.

【0148】図15は、以上のような、背景領域、前景
領域、混合領域、カバードバックグラウンド領域、およ
びアンカバードバックグラウンド領域を説明する図であ
る。図14に示す画像に対応する場合、背景領域は、静
止部分であり、前景領域は、動き部分であり、混合領域
のカバードバックグラウンド領域は、背景から前景に変
化する部分であり、混合領域のアンカバードバックグラ
ウンド領域は、前景から背景に変化する部分である。
FIG. 15 is a diagram for explaining the background area, foreground area, mixed area, covered background area, and uncovered background area as described above. In the case of the image shown in FIG. 14, the background area is a stationary part, the foreground area is a moving part, the covered background area of the mixed area is a part that changes from the background to the foreground, The uncovered background area is a part that changes from the foreground to the background.

【0149】図16は、静止している前景に対応するオ
ブジェクトおよび静止している背景に対応するオブジェ
クトを撮像した画像における、隣接して1列に並んでい
る画素の画素値を時間方向に展開したモデル図である。
例えば、隣接して1列に並んでいる画素として、画面の
1つのライン上に並んでいる画素を選択することができ
る。
FIG. 16 shows, in the time direction, pixel values of adjacent pixels arranged in one line in an image obtained by capturing an object corresponding to a stationary foreground and an object corresponding to a stationary background. FIG.
For example, the pixels arranged on one line of the screen can be selected as the pixels arranged adjacently in one column.

【0150】図16に示すF01乃至F04の画素値は、静止
している前景のオブジェクトに対応する画素の画素値で
ある。図16に示すB01乃至B04の画素値は、静止してい
る背景のオブジェクトに対応する画素の画素値である。
The pixel values of F01 to F04 shown in FIG. 16 are the pixel values of the pixels corresponding to the stationary foreground object. The pixel values B01 to B04 shown in FIG. 16 are the pixel values of the pixels corresponding to the stationary background object.

【0151】図16における縦方向は、図中の上から下
に向かって時間が経過する。図16中の矩形の上辺の位
置は、センサ11が入力された光の電荷への変換を開始
する時刻に対応し、図16中の矩形の下辺の位置は、セ
ンサ11が入力された光の電荷への変換を終了する時刻
に対応する。すなわち、図16中の矩形の上辺から下辺
までの距離は、シャッタ時間に対応する。
In the vertical direction in FIG. 16, time elapses from top to bottom in the figure. The position on the upper side of the rectangle in FIG. 16 corresponds to the time when the sensor 11 starts converting the input light into electric charge, and the position on the lower side of the rectangle in FIG. This corresponds to the time when the conversion into electric charge ends. That is, the distance from the upper side to the lower side of the rectangle in FIG. 16 corresponds to the shutter time.

【0152】以下において、シャッタ時間とフレーム間
隔とが同一である場合を例に説明する。
Hereinafter, a case where the shutter time and the frame interval are the same will be described as an example.

【0153】図16における横方向は、図14で説明し
た空間方向Xに対応する。より具体的には、図16に示
す例において、図16中の”F01”と記載された矩形の
左辺から”B04”と記載された矩形の右辺までの距離
は、画素のピッチの8倍、すなわち、連続している8つ
の画素の間隔に対応する。
The horizontal direction in FIG. 16 corresponds to the spatial direction X described in FIG. More specifically, in the example shown in FIG. 16, the distance from the left side of the rectangle described as “F01” to the right side of the rectangle described as “B04” in FIG. 16 is eight times the pixel pitch, That is, it corresponds to the interval between eight consecutive pixels.

【0154】前景のオブジェクトおよび背景のオブジェ
クトが静止している場合、シャッタ時間に対応する期間
において、センサ11に入力される光は変化しない。
When the foreground object and the background object are stationary, the light input to the sensor 11 does not change during the period corresponding to the shutter time.

【0155】ここで、シャッタ時間に対応する期間を2
つ以上の同じ長さの期間に分割する。例えば、仮想分割
数を4とすると、図16に示すモデル図は、図17に示
すモデルとして表すことができる。仮想分割数は、前景
に対応するオブジェクトのシャッタ時間内での動き量v
などに対応して設定される。例えば、4である動き量v
に対応して、仮想分割数は、4とされ、シャッタ時間に
対応する期間は4つに分割される。
Here, the period corresponding to the shutter time is 2
Divide into two or more periods of equal length. For example, if the number of virtual divisions is 4, the model diagram shown in FIG. 16 can be represented as the model shown in FIG. The number of virtual divisions is the amount of movement v of the object corresponding to the foreground within the shutter time.
It is set in correspondence with, for example. For example, the motion amount v which is 4,
, The virtual division number is set to 4, and the period corresponding to the shutter time is divided into four.

【0156】図中の最も上の行は、シャッタが開いて最
初の、分割された期間に対応する。図中の上から2番目
の行は、シャッタが開いて2番目の、分割された期間に
対応する。図中の上から3番目の行は、シャッタが開い
て3番目の、分割された期間に対応する。図中の上から
4番目の行は、シャッタが開いて4番目の、分割された
期間に対応する。
The uppermost row in the figure corresponds to the first divided period after the shutter is opened. The second row from the top in the figure corresponds to the second divided period from when the shutter has opened. The third row from the top in the figure corresponds to the third divided period from when the shutter has opened. The fourth row from the top in the figure corresponds to the fourth divided period from when the shutter has opened.

【0157】以下、動き量vに対応して分割されたシャ
ッタ時間をシャッタ時間/vとも称する。
Hereinafter, the shutter time divided according to the amount of movement v is also referred to as shutter time / v.

【0158】前景に対応するオブジェクトが静止してい
るとき、センサ11に入力される光は変化しないので、
前景の成分F01/vは、画素値F01を仮想分割数で除した値
に等しい。同様に、前景に対応するオブジェクトが静止
しているとき、前景の成分F02/vは、画素値F02を仮想分
割数で除した値に等しく、前景の成分F03/vは、画素値F
03を仮想分割数で除した値に等しく、前景の成分F04/v
は、画素値F04を仮想分割数で除した値に等しい。
When the object corresponding to the foreground is stationary, the light input to the sensor 11 does not change.
The foreground component F01 / v is equal to a value obtained by dividing the pixel value F01 by the number of virtual divisions. Similarly, when the object corresponding to the foreground is stationary, the foreground component F02 / v is equal to a value obtained by dividing the pixel value F02 by the number of virtual divisions, and the foreground component F03 / v has a pixel value F02.
Equal to the value obtained by dividing 03 by the number of virtual divisions, and the foreground component F04 / v
Is equal to the value obtained by dividing the pixel value F04 by the number of virtual divisions.

【0159】背景に対応するオブジェクトが静止してい
るとき、センサ11に入力される光は変化しないので、
背景の成分B01/vは、画素値B01を仮想分割数で除した値
に等しい。同様に、背景に対応するオブジェクトが静止
しているとき、背景の成分B02/vは、画素値B02を仮想分
割数で除した値に等しく、B03/vは、画素値B03を仮想分
割数で除した値に等しく、B04/vは、画素値B04を仮想分
割数で除した値に等しい。
When the object corresponding to the background is stationary, the light input to the sensor 11 does not change.
The background component B01 / v is equal to a value obtained by dividing the pixel value B01 by the number of virtual divisions. Similarly, when the object corresponding to the background is stationary, the background component B02 / v is equal to the value obtained by dividing the pixel value B02 by the virtual division number, and B03 / v is the pixel value B03 obtained by dividing the pixel value B03 by the virtual division number. B04 / v is equal to the value obtained by dividing the pixel value B04 by the virtual division number.

【0160】すなわち、前景に対応するオブジェクトが
静止している場合、シャッタ時間に対応する期間におい
て、センサ11に入力される前景のオブジェクトに対応
する光が変化しないので、シャッタが開いて最初の、シ
ャッタ時間/vに対応する前景の成分F01/vと、シャッタ
が開いて2番目の、シャッタ時間/vに対応する前景の成
分F01/vと、シャッタが開いて3番目の、シャッタ時間/
vに対応する前景の成分F01/vと、シャッタが開いて4番
目の、シャッタ時間/vに対応する前景の成分F01/vと
は、同じ値となる。F02/v乃至F04/vも、F01/vと同様の
関係を有する。
That is, when the object corresponding to the foreground is stationary, the light corresponding to the object of the foreground input to the sensor 11 does not change during the period corresponding to the shutter time. The foreground component F01 / v corresponding to the shutter time / v, the second foreground component F01 / v corresponding to the shutter time / v when the shutter is opened, and the third foreground component F01 / v corresponding to the shutter time / v.
The foreground component F01 / v corresponding to v has the same value as the fourth foreground component F01 / v corresponding to the shutter time / v after the shutter is opened. F02 / v to F04 / v also have the same relationship as F01 / v.

【0161】背景に対応するオブジェクトが静止してい
る場合、シャッタ時間に対応する期間において、センサ
11に入力される背景のオブジェクトに対応する光は変
化しないので、シャッタが開いて最初の、シャッタ時間
/vに対応する背景の成分B01/vと、シャッタが開いて2
番目の、シャッタ時間/vに対応する背景の成分B01/v
と、シャッタが開いて3番目の、シャッタ時間/vに対応
する背景の成分B01/vと、シャッタが開いて4番目の、
シャッタ時間/vに対応する背景の成分B01/vとは、同じ
値となる。B02/v乃至B04/vも、同様の関係を有する。
When the object corresponding to the background is stationary, the light corresponding to the background object input to the sensor 11 does not change during the period corresponding to the shutter time.
The background component B01 / v corresponding to / v
The background component B01 / v corresponding to the second shutter time / v
And the third background component B01 / v corresponding to the shutter time / v after the shutter is opened, and the fourth background component B
The background component B01 / v corresponding to the shutter time / v has the same value. B02 / v to B04 / v also have the same relationship.

【0162】次に、前景に対応するオブジェクトが移動
し、背景に対応するオブジェクトが静止している場合に
ついて説明する。
Next, the case where the object corresponding to the foreground moves and the object corresponding to the background is stationary will be described.

【0163】図18は、前景に対応するオブジェクトが
図中の右側に向かって移動する場合の、カバードバック
グラウンド領域を含む、1つのライン上の画素の画素値
を時間方向に展開したモデル図である。図18におい
て、前景の動き量vは、4である。1フレームは短い時
間なので、前景に対応するオブジェクトが剛体であり、
等速で移動していると仮定することができる。図18に
おいて、前景に対応するオブジェクトの画像は、あるフ
レームを基準として次のフレームにおいて4画素分右側
に表示されるように移動する。
FIG. 18 is a model diagram in which pixel values of pixels on one line including the covered background area are developed in the time direction when the object corresponding to the foreground moves rightward in the figure. is there. In FIG. 18, the motion amount v of the foreground is 4. Since one frame is a short time, the object corresponding to the foreground is a rigid body,
It can be assumed that they are moving at a constant speed. In FIG. 18, the image of the object corresponding to the foreground moves so as to be displayed four pixels to the right in the next frame with reference to a certain frame.

【0164】図18において、最も左側の画素乃至左か
ら4番目の画素は、前景領域に属する。図18におい
て、左から5番目乃至左から7番目の画素は、カバード
バックグラウンド領域である混合領域に属する。図18
において、最も右側の画素は、背景領域に属する。
In FIG. 18, the leftmost pixel to the fourth pixel from the left belong to the foreground area. In FIG. 18, the fifth to seventh pixels from the left belong to the mixed area that is the covered background area. FIG.
In, the rightmost pixel belongs to the background area.

【0165】前景に対応するオブジェクトが時間の経過
と共に背景に対応するオブジェクトを覆い隠すように移
動しているので、カバードバックグラウンド領域に属す
る画素の画素値に含まれる成分は、シャッタ時間に対応
する期間のある時点で、背景の成分から、前景の成分に
替わる。
Since the object corresponding to the foreground moves so as to cover the object corresponding to the background with the passage of time, the components included in the pixel values of the pixels belonging to the covered background area correspond to the shutter time. At some point during the period, the background component changes to the foreground component.

【0166】例えば、図18中に太線枠を付した画素値
Mは、式(11)で表される。
For example, in FIG. 18, pixel values indicated by thick frames
M is represented by equation (11).

【0167】 M=B02/v+B02/v+F07/v+F06/v (11)M = B02 / v + B02 / v + F07 / v + F06 / v (11)

【0168】例えば、左から5番目の画素は、1つのシ
ャッタ時間/vに対応する背景の成分を含み、3つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、1/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、3つのシャッタ時間/vに対
応する背景の成分を含み、1つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、3/4である。
For example, since the fifth pixel from the left contains a background component corresponding to one shutter time / v and a foreground component corresponding to three shutter times / v, the fifth pixel from the left
The mixture ratio α of the second pixel is 1/4. Since the sixth pixel from the left includes a background component corresponding to two shutter times / v and a foreground component corresponding to two shutter times / v, the mixture ratio α of the sixth pixel from the left is , 1/2. Since the seventh pixel from the left includes a background component corresponding to three shutter times / v and a foreground component corresponding to one shutter time / v, the mixture ratio α of the seventh pixel from the left is , 3/4.

【0169】前景に対応するオブジェクトが、剛体であ
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図18中の左から4番目の画素の、シャッタが開い
て最初の、シャッタ時間/vの前景の成分F07/vは、図1
8中の左から5番目の画素の、シャッタが開いて2番目
のシャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F07/vは、図18中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図18中の左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the fourth object from the left in FIG. The foreground component F07 / v of the pixel of the first shutter time / v after the shutter is opened is shown in FIG.
8 is equal to the foreground component of the fifth pixel from the left corresponding to the second shutter time / v from when the shutter has opened. Similarly, the foreground component F07 / v is the foreground component of the sixth pixel from the left in FIG. 18 corresponding to the third shutter time / v from when the shutter has opened, and the seventh pixel from the left in FIG. Of the pixel of
It is equal to the foreground component corresponding to the fourth shutter time / v after the shutter is opened.

【0170】前景に対応するオブジェクトが、剛体であ
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図18中の左から3番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F06/vは、図18
中の左から4番目の画素の、シャッタが開いて2番目の
シャッタ時間/vに対応する前景の成分に等しい。同様
に、前景の成分F06/vは、図18中の左から5番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図18中の左から6番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the third object from the left in FIG. The foreground component F06 / v of the pixel of the first shutter time / v from when the shutter has opened is shown in FIG.
It is equal to the foreground component of the fourth pixel from the left, corresponding to the second shutter time / v from when the shutter has opened. Similarly, the foreground component F06 / v is the fifth pixel from the left in FIG. 18, the foreground component corresponding to the third shutter time / v from when the shutter has opened, and the sixth pixel from the left in FIG. Of the pixel of
It is equal to the foreground component corresponding to the fourth shutter time / v after the shutter is opened.

【0171】前景に対応するオブジェクトが、剛体であ
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図18中の左から2番目の画素の、シャッタが開い
て最初のシャッタ時間/vの前景の成分F05/vは、図18
中の左から3番目の画素の、シャッタが開いて2番目の
シャッタ時間/vのに対応する前景の成分に等しい。同様
に、前景の成分F05/vは、図18中の左から4番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図18中の左から5番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the second object from the left in FIG. The foreground component F05 / v of the pixel of the first shutter time / v from when the shutter has opened is shown in FIG.
It is equal to the foreground component of the third pixel from the left corresponding to the second shutter time / v from when the shutter has opened. Similarly, the foreground component F05 / v is the foreground component of the fourth pixel from the left in FIG. 18 corresponding to the third shutter time / v from when the shutter has opened, and the fifth foreground component F05 / v in FIG. Of the pixel of
It is equal to the foreground component corresponding to the fourth shutter time / v after the shutter is opened.

【0172】前景に対応するオブジェクトが、剛体であ
り、前景の画像が次のフレームにおいて4画素右側に表
示されるように等速で移動すると仮定できるので、例え
ば、図18中の最も左側の画素の、シャッタが開いて最
初のシャッタ時間/vの前景の成分F04/vは、図18中の
左から2番目の画素の、シャッタが開いて2番目のシャ
ッタ時間/vに対応する前景の成分に等しい。同様に、前
景の成分F04/vは、図18中の左から3番目の画素の、
シャッタが開いて3番目のシャッタ時間/vに対応する前
景の成分と、図18中の左から4番目の画素の、シャッ
タが開いて4番目のシャッタ時間/vに対応する前景の成
分とに、それぞれ等しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and the foreground image moves at a constant speed so as to be displayed four pixels to the right in the next frame, for example, the leftmost pixel in FIG. The foreground component F04 / v of the first shutter time / v from when the shutter is opened is the foreground component of the second pixel from the left in FIG. 18 corresponding to the second shutter time / v from when the shutter is opened. be equivalent to. Similarly, the foreground component F04 / v is the third pixel from the left in FIG.
The foreground component corresponding to the third shutter time / v after the shutter is opened, and the foreground component corresponding to the fourth shutter time / v of the fourth pixel from the left in FIG. , Respectively.

【0173】動いているオブジェクトに対応する前景の
領域は、このように動きボケを含むので、歪み領域とも
言える。
Since the foreground area corresponding to the moving object includes the motion blur as described above, it can be said that the area is a distortion area.

【0174】図19は、前景が図中の右側に向かって移
動する場合の、アンカバードバックグラウンド領域を含
む、1つのライン上の画素の画素値を時間方向に展開し
たモデル図である。図19において、前景の動き量v
は、4である。1フレームは短い時間なので、前景に対
応するオブジェクトが剛体であり、等速で移動している
と仮定することができる。図19において、前景に対応
するオブジェクトの画像は、あるフレームを基準として
次のフレームにおいて4画素分右側に移動する。
FIG. 19 is a model diagram in which the pixel values of the pixels on one line including the uncovered background area are developed in the time direction when the foreground moves to the right in the figure. In FIG. 19, the foreground motion amount v
Is 4. Since one frame is a short time, it can be assumed that the object corresponding to the foreground is rigid and moves at a constant speed. In FIG. 19, the image of the object corresponding to the foreground moves to the right by four pixels in the next frame with reference to a certain frame.

【0175】図19において、最も左側の画素乃至左か
ら4番目の画素は、背景領域に属する。図19におい
て、左から5番目乃至左から7番目の画素は、アンカバ
ードバックグラウンドである混合領域に属する。図19
において、最も右側の画素は、前景領域に属する。
In FIG. 19, the leftmost pixel to the fourth pixel from the left belong to the background area. In FIG. 19, the fifth through seventh pixels from the left belong to the mixed area that is the uncovered background. FIG.
In, the rightmost pixel belongs to the foreground area.

【0176】背景に対応するオブジェクトを覆っていた
前景に対応するオブジェクトが時間の経過と共に背景に
対応するオブジェクトの前から取り除かれるように移動
しているので、アンカバードバックグラウンド領域に属
する画素の画素値に含まれる成分は、シャッタ時間に対
応する期間のある時点で、前景の成分から、背景の成分
に替わる。
Since the object corresponding to the foreground, which covered the object corresponding to the background, has been moved so as to be removed from the front of the object corresponding to the background over time, the pixels belonging to the uncovered background area At some point during the period corresponding to the shutter time, the component included in the value is changed from the foreground component to the background component.

【0177】例えば、図19中に太線枠を付した画素値
M'は、式(12)で表される。
For example, in FIG. 19, a pixel value with a bold frame
M ′ is represented by equation (12).

【0178】 M'=F02/v+F01/v+B26/v+B26/v (12)M ′ = F02 / v + F01 / v + B26 / v + B26 / v (12)

【0179】例えば、左から5番目の画素は、3つのシ
ャッタ時間/vに対応する背景の成分を含み、1つのシャ
ッタ時間/vに対応する前景の成分を含むので、左から5
番目の画素の混合比αは、3/4である。左から6番目の
画素は、2つのシャッタ時間/vに対応する背景の成分を
含み、2つのシャッタ時間/vに対応する前景の成分を含
むので、左から6番目の画素の混合比αは、1/2であ
る。左から7番目の画素は、1つのシャッタ時間/vに対
応する背景の成分を含み、3つのシャッタ時間/vに対応
する前景の成分を含むので、左から7番目の画素の混合
比αは、1/4である。
For example, since the fifth pixel from the left contains a background component corresponding to three shutter times / v and a foreground component corresponding to one shutter time / v, the fifth pixel from the left
The mixture ratio α of the third pixel is 3/4. Since the sixth pixel from the left includes a background component corresponding to two shutter times / v and a foreground component corresponding to two shutter times / v, the mixture ratio α of the sixth pixel from the left is , 1/2. Since the seventh pixel from the left includes a background component corresponding to one shutter time / v and a foreground component corresponding to three shutter times / v, the mixture ratio α of the seventh pixel from the left is , 1/4.

【0180】式(11)および式(12)をより一般化
すると、画素値Mは、式(13)で表される。
When formulas (11) and (12) are generalized, the pixel value M is expressed by formula (13).

【0181】[0181]

【数2】 ここで、αは、混合比である。Bは、背景の画素値であ
り、Fi/vは、前景の成分である。
(Equation 2) Here, α is a mixture ratio. B is a pixel value of the background, and Fi / v is a foreground component.

【0182】前景に対応するオブジェクトが剛体であ
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図19中の左から5番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F01/
vは、図19中の左から6番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。同様に、F01/vは、図19中の左から7番目の画
素の、シャッタが開いて3番目のシャッタ時間/vに対応
する前景の成分と、図19中の左から8番目の画素の、
シャッタが開いて4番目のシャッタ時間/vに対応する前
景の成分とに、それぞれ等しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the amount of movement v is 4, for example, the shutter of the fifth pixel from the left in FIG. First foreground component of shutter time / v F01 /
v is equal to the foreground component of the sixth pixel from the left in FIG. 19 corresponding to the second shutter time / v from when the shutter has opened. Similarly, F01 / v is the foreground component of the seventh pixel from the left in FIG. 19 corresponding to the third shutter time / v from when the shutter has opened, and the eighth pixel from the left in FIG. ,
It is equal to the foreground component corresponding to the fourth shutter time / v after the shutter is opened.

【0183】前景に対応するオブジェクトが剛体であ
り、等速で動くと仮定でき、かつ、仮想分割数が4であ
るので、例えば、図19中の左から6番目の画素の、シ
ャッタが開いて最初の、シャッタ時間/vの前景の成分F0
2/vは、図19中の左から7番目の画素の、シャッタが
開いて2番目のシャッタ時間/vに対応する前景の成分に
等しい。同様に、前景の成分F02/vは、図19中の左か
ら8番目の画素の、シャッタが開いて3番目のシャッタ
時間/vに対応する前景の成分に等しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the number of virtual divisions is 4, for example, the shutter of the sixth pixel from the left in FIG. First foreground component F0 of shutter time / v
2 / v is equal to the foreground component of the seventh pixel from the left in FIG. 19 corresponding to the second shutter time / v from when the shutter has opened. Similarly, the foreground component F02 / v is equal to the foreground component of the eighth pixel from the left in FIG. 19 corresponding to the third shutter time / v from when the shutter has opened.

【0184】前景に対応するオブジェクトが剛体であ
り、等速で動くと仮定でき、かつ、動き量vが4である
ので、例えば、図19中の左から7番目の画素の、シャ
ッタが開いて最初の、シャッタ時間/vの前景の成分F03/
vは、図19中の左から8番目の画素の、シャッタが開
いて2番目のシャッタ時間/vに対応する前景の成分に等
しい。
Since it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the movement amount v is 4, for example, the shutter of the seventh pixel from the left in FIG. First foreground component of shutter time / v F03 /
v is equal to the foreground component of the eighth pixel from the left in FIG. 19 corresponding to the second shutter time / v from when the shutter has opened.

【0185】図17乃至図19の説明において、仮想分
割数は、4であるとして説明したが、仮想分割数は、動
き量vに対応する。動き量vは、一般に、前景に対応する
オブジェクトの移動速度に対応する。例えば、前景に対
応するオブジェクトが、あるフレームを基準として次の
フレームにおいて4画素分右側に表示されるように移動
しているとき、動き量vは、4とされる。動き量vに対応
し、仮想分割数は、4とされる。同様に、例えば、前景
に対応するオブジェクトが、あるフレームを基準として
次のフレームにおいて6画素分左側に表示されるように
移動しているとき、動き量vは、6とされ、仮想分割数
は、6とされる。
In the description of FIGS. 17 to 19, the number of virtual divisions is four, but the number of virtual divisions corresponds to the amount of motion v. The movement amount v generally corresponds to the moving speed of the object corresponding to the foreground. For example, when the object corresponding to the foreground is moving so as to be displayed four pixels to the right in the next frame with respect to a certain frame, the motion amount v is set to 4. The virtual division number is set to 4 corresponding to the movement amount v. Similarly, for example, when the object corresponding to the foreground is moving so as to be displayed 6 pixels to the left in the next frame with respect to a certain frame, the motion amount v is set to 6, and the number of virtual divisions is , 6.

【0186】図20および図21に、以上で説明した、
前景領域、背景領域、カバードバックグラウンド領域若
しくはアンカバードバックグラウンド領域から成る混合
領域と、分割されたシャッタ時間に対応する前景の成分
および背景の成分との関係を示す。
FIG. 20 and FIG.
The relationship between a mixed area including a foreground area, a background area, a covered background area, or an uncovered background area, and foreground components and background components corresponding to the divided shutter times is shown.

【0187】図20は、静止している背景の前を移動し
ているオブジェクトに対応する前景を含む画像から、前
景領域、背景領域、および混合領域の画素を抽出した例
を示す。図20に示す例において、前景に対応するオブ
ジェクトは、画面に対して水平に移動している。
FIG. 20 shows an example in which pixels of a foreground area, a background area, and a mixed area are extracted from an image including a foreground corresponding to an object moving in front of a stationary background. In the example shown in FIG. 20, the object corresponding to the foreground is moving horizontally with respect to the screen.

【0188】フレーム#n+1は、フレーム#nの次のフレー
ムであり、フレーム#n+2は、フレーム#n+1の次のフレー
ムである。
The frame # n + 1 is a frame next to the frame #n, and the frame # n + 2 is a frame next to the frame # n + 1.

【0189】フレーム#n乃至フレーム#n+2のいずれかか
ら抽出した、前景領域、背景領域、および混合領域の画
素を抽出して、動き量vを4として、抽出された画素の
画素値を時間方向に展開したモデルを図21に示す。
The pixels of the foreground area, the background area, and the mixed area, which are extracted from any of the frames #n to # n + 2, are extracted. FIG. 21 shows a model developed in the time direction.

【0190】前景領域の画素値は、前景に対応するオブ
ジェクトが移動するので、シャッタ時間/vの期間に対応
する、4つの異なる前景の成分から構成される。例え
ば、図21に示す前景領域の画素のうち最も左側に位置
する画素は、F01/v,F02/v,F03/v、およびF04/vから構成
される。すなわち、前景領域の画素は、動きボケを含ん
でいる。
The pixel value of the foreground area is composed of four different foreground components corresponding to the shutter time / v period because the object corresponding to the foreground moves. For example, the leftmost pixel of the pixels in the foreground area shown in FIG. 21 is composed of F01 / v, F02 / v, F03 / v, and F04 / v. That is, pixels in the foreground area include motion blur.

【0191】背景に対応するオブジェクトが静止してい
るので、シャッタ時間に対応する期間において、センサ
11に入力される背景に対応する光は変化しない。この
場合、背景領域の画素値は、動きボケを含まない。
Since the object corresponding to the background is stationary, the light corresponding to the background input to the sensor 11 does not change during the period corresponding to the shutter time. In this case, the pixel value of the background area does not include motion blur.

【0192】カバードバックグラウンド領域若しくはア
ンカバードバックグラウンド領域から成る混合領域に属
する画素の画素値は、前景の成分と、背景の成分とから
構成される。
The pixel values of the pixels belonging to the mixed area composed of the covered background area or the uncovered background area are composed of a foreground component and a background component.

【0193】次に、オブジェクトに対応する画像が動い
ているとき、複数のフレームにおける、隣接して1列に
並んでいる画素であって、フレーム上で同一の位置の画
素の画素値を時間方向に展開したモデルについて説明す
る。例えば、オブジェクトに対応する画像が画面に対し
て水平に動いているとき、隣接して1列に並んでいる画
素として、画面の1つのライン上に並んでいる画素を選
択することができる。
Next, when the image corresponding to the object is moving, the pixel values of the pixels that are adjacently arranged in one row in a plurality of frames and located at the same position on the frame are determined in the time direction. The following is an explanation of the model developed in. For example, when an image corresponding to an object is moving horizontally with respect to the screen, pixels arranged on one line of the screen can be selected as pixels arranged adjacently in one row.

【0194】図22は、静止している背景に対応するオ
ブジェクトを撮像した画像の3つのフレームの、隣接し
て1列に並んでいる画素であって、フレーム上で同一の
位置の画素の画素値を時間方向に展開したモデル図であ
る。フレーム#nは、フレーム#n-1の次のフレームであ
り、フレーム#n+1は、フレーム#nの次のフレームであ
る。他のフレームも同様に称する。
FIG. 22 shows three adjacent pixels of three frames of an image obtained by capturing an object corresponding to a stationary background, the pixels being located at the same position on the frame. FIG. 4 is a model diagram in which values are developed in a time direction. Frame #n is the next frame after frame # n-1, and frame # n + 1 is the next frame after frame #n. Other frames are similarly referred to.

【0195】図22に示すB01乃至B12の画素値は、静止
している背景のオブジェクトに対応する画素の画素値で
ある。背景に対応するオブジェクトが静止しているの
で、フレーム#n-1乃至フレームn+1において、対応する
画素の画素値は、変化しない。例えば、フレーム#n-1に
おけるB05の画素値を有する画素の位置に対応する、フ
レーム#nにおける画素、およびフレーム#n+1における画
素は、それぞれ、B05の画素値を有する。
The pixel values B01 to B12 shown in FIG. 22 are the pixel values of the pixels corresponding to the stationary background object. Since the object corresponding to the background is stationary, the pixel values of the corresponding pixels do not change in frames # n-1 to n + 1. For example, the pixel in frame #n and the pixel in frame # n + 1 corresponding to the position of the pixel having the pixel value of B05 in frame # n-1 each have the pixel value of B05.

【0196】図23は、静止している背景に対応するオ
ブジェクトと共に図中の右側に移動する前景に対応する
オブジェクトを撮像した画像の3つのフレームの、隣接
して1列に並んでいる画素であって、フレーム上で同一
の位置の画素の画素値を時間方向に展開したモデル図で
ある。図23に示すモデルは、カバードバックグラウン
ド領域を含む。
FIG. 23 is a diagram showing three pixels adjacent to one another in three frames of an image obtained by capturing an object corresponding to a foreground moving to the right in the figure together with an object corresponding to a stationary background. FIG. 4 is a model diagram in which pixel values of pixels at the same position on a frame are developed in the time direction. The model shown in FIG. 23 includes a covered background area.

【0197】図23において、前景に対応するオブジェ
クトが、剛体であり、等速で移動すると仮定でき、前景
の画像が次のフレームにおいて4画素右側に表示される
ように移動するので、前景の動き量vは、4であり、仮
想分割数は、4である。
In FIG. 23, it can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed, and the foreground image moves so as to be displayed four pixels to the right in the next frame. The quantity v is 4, and the number of virtual divisions is 4.

【0198】例えば、図23中のフレーム#n-1の最も左
側の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F12/vとなり、図23中の左から2番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F12/vとなる。図23中の左から3番目
の画素の、シャッタが開いて3番目のシャッタ時間/vの
前景の成分、および図23中の左から4番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
For example, the foreground component of the leftmost pixel of frame # n-1 in FIG. 23 corresponding to the first shutter time / v from when the shutter has opened is F12 / v, and the second component from the left in FIG. The foreground component of the pixel of the second shutter time / v after the shutter is opened also becomes F12 / v. The foreground component of the third pixel from the left in FIG. 23 at the third shutter time / v from when the shutter has opened, and the fourth pixel from the left in FIG.
The foreground component of the fourth shutter time / v after the shutter is opened is F12 / v.

【0199】図23中のフレーム#n-1の最も左側の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分は、F11/vとなり、図23中の左から2番目の画素
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分も、F11/vとなる。図23中の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F11/vとなる。
The foreground component of the leftmost pixel in frame # n-1 in FIG. 23 corresponding to the second shutter time / v from when the shutter has opened is F11 / v, which is the second to the left in FIG. The foreground component of the pixel at the third shutter time / v from when the shutter has opened is also F11 / v. The foreground component of the third pixel from the left in FIG. 23 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is F11 / v.

【0200】図23中のフレーム#n-1の最も左側の画素
の、シャッタが開いて3番目のシャッタ時間/vの前景の
成分は、F10/vとなり、図23中の左から2番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分も、F10/vとなる。図23中のフレーム#n-1の最も
左側の画素の、シャッタが開いて4番目のシャッタ時間
/vの前景の成分は、F09/vとなる。
The foreground component of the leftmost pixel in frame # n-1 in FIG. 23 at the third shutter time / v from when the shutter has opened is F10 / v, which is the second to the left in FIG. The foreground component of the pixel at the fourth shutter time / v from when the shutter has opened is also F10 / v. The fourth shutter time of the leftmost pixel of frame # n-1 in FIG. 23 from when the shutter has opened
The foreground component of / v is F09 / v.

【0201】背景に対応するオブジェクトが静止してい
るので、図23中のフレーム#n-1の左から2番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B01/vとなる。図23中のフレーム#n-1の左から
3番目の画素の、シャッタが開いて最初および2番目の
シャッタ時間/vの背景の成分は、B02/vとなる。図23
中のフレーム#n-1の左から4番目の画素の、シャッタが
開いて最初乃至3番目のシャッタ時間/vの背景の成分
は、B03/vとなる。
Since the object corresponding to the background is stationary, the background component of the second pixel from the left of frame # n-1 in FIG. 23 corresponding to the first portion of the shutter time / v from when the shutter has opened is B01 / v. The background components of the third pixel from the left of frame # n-1 in FIG. 23 corresponding to the first and second portions of the shutter time / v from when the shutter has opened are B02 / v. FIG.
The background component of the fourth pixel from the left of the middle frame # n-1 corresponding to the first to third shutter time / v from when the shutter has opened is B03 / v.

【0202】図23中のフレーム#n-1において、最も左
側の画素は、前景領域に属し、左側から2番目乃至4番
目の画素は、カバードバックグラウンド領域である混合
領域に属する。
In frame # n-1 in FIG. 23, the leftmost pixel belongs to the foreground area, and the second to fourth pixels from the left belong to the mixed area which is the covered background area.

【0203】図23中のフレーム#n-1の左から5番目の
画素乃至12番目の画素は、背景領域に属し、その画素
値は、それぞれ、B04乃至B11となる。
The fifth through twelfth pixels from the left of frame # n-1 in FIG. 23 belong to the background area, and their pixel values are B04 through B11, respectively.

【0204】図23中のフレーム#nの左から1番目の画
素乃至5番目の画素は、前景領域に属する。フレーム#n
の前景領域における、シャッタ時間/vの前景の成分は、
F05/v乃至F12/vのいずれかである。
The first through fifth pixels from the left of frame #n in FIG. 23 belong to the foreground area. Frame #n
The foreground component of shutter time / v in the foreground area of
One of F05 / v to F12 / v.

【0205】前景に対応するオブジェクトが、剛体であ
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図23中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F12/vとなり、図23中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F12/vとなる。図23中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図23中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F12/vとな
る。
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the foreground image moves so as to be displayed four pixels to the right in the next frame, frame #n in FIG. The foreground component of the fifth pixel from the left of the first shutter time / v from when the shutter has opened is
F12 / v, the foreground component of the sixth pixel from the left in FIG. 23 corresponding to the second shutter time / v from when the shutter has opened is also
It becomes F12 / v. The foreground component of the seventh pixel from the left in FIG. 23 corresponding to the third shutter time / v from when the shutter has opened, and the fourth shutter time since the shutter opening of the eighth pixel from the left in FIG. 23 The foreground component of / v is F12 / v.

【0206】図23中のフレーム#nの左から5番目の画
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分は、F11/vとなり、図23中の左から6番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分も、F11/vとなる。図23中の左から7番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分は、F11/vとなる。
The foreground component of the fifth pixel from the left of frame #n in FIG. 23 corresponding to the second shutter time / v from when the shutter has opened is F11 / v, and the sixth pixel from the left in FIG. 23 is F11 / v. The foreground component of the pixel at the third shutter time / v from when the shutter has opened is also F11 / v. The foreground component of the seventh pixel from the left in FIG. 23 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is F11 / v.

【0207】図23中のフレーム#nの左から5番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分は、F10/vとなり、図23中の左から6番目の画
素の、シャッタが開いて4番目のシャッタ時間/vの前景
の成分も、F10/vとなる。図23中のフレーム#nの左か
ら5番目の画素の、シャッタが開いて4番目のシャッタ
時間/vの前景の成分は、F09/vとなる。
The foreground component of the fifth pixel from the left of frame #n in FIG. 23 corresponding to the third shutter time / v from when the shutter has opened is F10 / v, and the sixth pixel from the left in FIG. 23 is F10 / v. The foreground component of the pixel at the fourth shutter time / v from when the shutter has opened is also F10 / v. The foreground component of the fifth pixel from the left of frame #n in FIG. 23 corresponding to the fourth shutter time / v from when the shutter has opened is F09 / v.

【0208】背景に対応するオブジェクトが静止してい
るので、図23中のフレーム#nの左から6番目の画素
の、シャッタが開いて最初のシャッタ時間/vの背景の成
分は、B05/vとなる。図23中のフレーム#nの左から7
番目の画素の、シャッタが開いて最初および2番目のシ
ャッタ時間/vの背景の成分は、B06/vとなる。図23中
のフレーム#nの左から8番目の画素の、シャッタが開い
て最初乃至3番目の、シャッタ時間/vの背景の成分は、
B07/vとなる。
Since the object corresponding to the background is stationary, the background component of the sixth pixel from the left of frame #n in FIG. 23 corresponding to the first portion of the shutter time / v from when the shutter has opened is B05 / v Becomes 23 from the left of frame #n in FIG.
The background component of the first pixel at the first and second shutter time / v from when the shutter has opened is B06 / v. The background components of the eighth pixel from the left of frame #n in FIG. 23 corresponding to the first to third portions of the shutter time / v from when the shutter has opened are:
B07 / v.

【0209】図23中のフレーム#nにおいて、左側から
6番目乃至8番目の画素は、カバードバックグラウンド
領域である混合領域に属する。
In frame #n in FIG. 23, the sixth through eighth pixels from the left belong to a mixed area which is a covered background area.

【0210】図23中のフレーム#nの左から9番目の画
素乃至12番目の画素は、背景領域に属し、画素値は、
それぞれ、B08乃至B11となる。
[0210] The ninth to twelfth pixels from the left of frame #n in Fig. 23 belong to the background area, and the pixel value is
B08 to B11, respectively.

【0211】図23中のフレーム#n+1の左から1番目の
画素乃至9番目の画素は、前景領域に属する。フレーム
#n+1の前景領域における、シャッタ時間/vの前景の成分
は、F01/v乃至F12/vのいずれかである。
[0211] The first through ninth pixels from the left of frame # n + 1 in Fig. 23 belong to the foreground area. flame
The foreground component of the shutter time / v in the foreground area of # n + 1 is one of F01 / v to F12 / v.

【0212】前景に対応するオブジェクトが、剛体であ
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図23中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F12/vとなり、図23中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F12/vとなる。図23中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図23中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F12/vとなる。
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the foreground image moves so as to be displayed four pixels to the right in the next frame, frame #n in FIG. Of the ninth pixel from the left of +1
The foreground component of the first shutter time / v after the shutter is opened is F12 / v, and the foreground component of the tenth pixel from the left in FIG. It becomes F12 / v. The foreground component of the eleventh pixel from the left in FIG. 23 corresponding to the third shutter time / v from when the shutter has opened, and the fourth shutter time since the shutter opening of the twelfth pixel from the left in FIG. 23 The foreground component of / v is F12 / v.

【0213】図23中のフレーム#n+1の左から9番目の
画素の、シャッタが開いて2番目のシャッタ時間/vの期
間の前景の成分は、F11/vとなり、図23中の左から1
0番目の画素の、シャッタが開いて3番目のシャッタ時
間/vの前景の成分も、F11/vとなる。図23中の左から
11番目の画素の、シャッタが開いて4番目の、シャッ
タ時間/vの前景の成分は、F11/vとなる。
The foreground component of the ninth pixel from the left of frame # n + 1 in FIG. 23 corresponding to the second portion of the shutter time / v from when the shutter has opened is F11 / v, and as shown in FIG. From 1
The foreground component of the 0th pixel at the third shutter time / v from when the shutter has opened is also F11 / v. The foreground component of the eleventh pixel from the left in FIG. 23 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is F11 / v.

【0214】図23中のフレーム#n+1の左から9番目の
画素の、シャッタが開いて3番目の、シャッタ時間/vの
前景の成分は、F10/vとなり、図23中の左から10番
目の画素の、シャッタが開いて4番目のシャッタ時間/v
の前景の成分も、F10/vとなる。図23中のフレーム#n+
1の左から9番目の画素の、シャッタが開いて4番目の
シャッタ時間/vの前景の成分は、F09/vとなる。
The foreground component of the ninth pixel from the left of frame # n + 1 in FIG. 23 corresponding to the third portion of the shutter time / v from when the shutter has opened is F10 / v, from the left in FIG. 4th shutter time / v after shutter opened for 10th pixel
Is also F10 / v. Frame # n + in FIG.
The foreground component of the ninth pixel from the left in FIG. 1 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is F09 / v.

【0215】背景に対応するオブジェクトが静止してい
るので、図23中のフレーム#n+1の左から10番目の画
素の、シャッタが開いて最初のシャッタ時間/vの背景の
成分は、B09/vとなる。図23中のフレーム#n+1の左か
ら11番目の画素の、シャッタが開いて最初および2番
目のシャッタ時間/vの背景の成分は、B10/vとなる。図
23中のフレーム#n+1の左から12番目の画素の、シャ
ッタが開いて最初乃至3番目の、シャッタ時間/vの背景
の成分は、B11/vとなる。
Since the object corresponding to the background is stationary, the background component of the tenth pixel from the left of frame # n + 1 in FIG. 23 corresponding to the first portion of the shutter time / v from when the shutter has opened is B09 / v. The background components of the eleventh pixel from the left of frame # n + 1 in FIG. 23 corresponding to the first and second portions of the shutter time / v from when the shutter has opened are B10 / v. The background components of the twelfth pixel from the left of frame # n + 1 in FIG. 23 corresponding to the first through third portions of the shutter time / v from when the shutter has opened are B11 / v.

【0216】図23中のフレーム#n+1において、左側か
ら10番目乃至12番目の画素は、カバードバックグラ
ウンド領域である混合領域に対応する。
In frame # n + 1 in FIG. 23, the tenth through twelfth pixels from the left correspond to the mixed area which is the covered background area.

【0217】図24は、図23に示す画素値から前景の
成分を抽出した画像のモデル図である。
FIG. 24 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.

【0218】図25は、静止している背景と共に図中の
右側に移動するオブジェクトに対応する前景を撮像した
画像の3つのフレームの、隣接して1列に並んでいる画
素であって、フレーム上で同一の位置の画素の画素値を
時間方向に展開したモデル図である。図25において、
アンカバードバックグラウンド領域が含まれている。
FIG. 25 is a view showing three adjacent pixels of three frames of an image obtained by capturing a foreground corresponding to an object moving to the right in the figure together with a stationary background. FIG. 10 is a model diagram in which pixel values of pixels at the same position are developed in the time direction. In FIG.
An uncovered background area is included.

【0219】図25において、前景に対応するオブジェ
クトは、剛体であり、かつ等速で移動していると仮定で
きる。前景に対応するオブジェクトが、次のフレームに
おいて4画素分右側に表示されるように移動しているの
で、動き量vは、4である。
In FIG. 25, it can be assumed that the object corresponding to the foreground is a rigid body and is moving at a constant speed. Since the object corresponding to the foreground is moving so as to be displayed on the right side by four pixels in the next frame, the motion amount v is 4.

【0220】例えば、図25中のフレーム#n-1の最も左
側の画素の、シャッタが開いて最初の、シャッタ時間/v
の前景の成分は、F13/vとなり、図25中の左から2番
目の画素の、シャッタが開いて2番目のシャッタ時間/v
の前景の成分も、F13/vとなる。図25中の左から3番
目の画素の、シャッタが開いて3番目のシャッタ時間/v
の前景の成分、および図25中の左から4番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの前景の
成分は、F13/vとなる。
For example, the first shutter time / v of the leftmost pixel of frame # n-1 in FIG.
Of the foreground is F13 / v, and the second shutter time / v of the second pixel from the left in FIG.
Is also F13 / v. The third shutter time / v from when the shutter has opened for the third pixel from the left in FIG.
25, and the foreground component of the fourth pixel from the left in FIG. 25 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is F13 / v.

【0221】図25中のフレーム#n-1の左から2番目の
画素の、シャッタが開いて最初のシャッタ時間/vの前景
の成分は、F14/vとなり、図25中の左から3番目の画
素の、シャッタが開いて2番目のシャッタ時間/vの前景
の成分も、F14/vとなる。図25中の左から3番目の画
素の、シャッタが開いて最初の、シャッタ時間/vの前景
の成分は、F15/vとなる。
The foreground component of the second pixel from the left of frame # n-1 in FIG. 25 corresponding to the first shutter time / v from when the shutter has opened is F14 / v, and the third pixel from the left in FIG. 25 is F14 / v. The foreground component of the pixel of the second shutter time / v after the shutter is opened also becomes F14 / v. The foreground component of the third pixel from the left in FIG. 25 corresponding to the first portion of the shutter time / v from when the shutter has opened is F15 / v.

【0222】背景に対応するオブジェクトが静止してい
るので、図25中のフレーム#n-1の最も左側の画素の、
シャッタが開いて2番目乃至4番目の、シャッタ時間/v
の背景の成分は、B25/vとなる。図25中のフレーム#n-
1の左から2番目の画素の、シャッタが開いて3番目お
よび4番目の、シャッタ時間/vの背景の成分は、B26/v
となる。図25中のフレーム#n-1の左から3番目の画素
の、シャッタが開いて4番目のシャッタ時間/vの背景の
成分は、B27/vとなる。
Since the object corresponding to the background is stationary, the leftmost pixel of frame # n-1 in FIG.
Second to fourth shutter time / v after shutter opens
Is B25 / v. Frame # n- in FIG.
The background components of the second pixel from the left, the third and fourth portions of the shutter time / v from when the shutter has opened are B26 / v
Becomes The background component of the third pixel from the left of frame # n-1 in FIG. 25 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is B27 / v.

【0223】図25中のフレーム#n-1において、最も左
側の画素乃至3番目の画素は、アンカバードバックグラ
ウンド領域である混合領域に属する。
In the frame # n-1 in FIG. 25, the leftmost pixel to the third pixel belong to the mixed area which is the uncovered background area.

【0224】図25中のフレーム#n-1の左から4番目の
画素乃至12番目の画素は、前景領域に属する。フレー
ムの前景の成分は、F13/v乃至F24/vのいずれかである。
The fourth through twelfth pixels from the left of frame # n-1 in FIG. 25 belong to the foreground area. The foreground component of the frame is one of F13 / v to F24 / v.

【0225】図25中のフレーム#nの最も左側の画素乃
至左から4番目の画素は、背景領域に属し、画素値は、
それぞれ、B25乃至B28となる。
The leftmost pixel to the fourth pixel from the left of frame #n in FIG. 25 belong to the background area, and the pixel value is
B25 to B28, respectively.

【0226】前景に対応するオブジェクトが、剛体であ
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図25中のフレーム#nの左から5番目の画素の、シ
ャッタが開いて最初のシャッタ時間/vの前景の成分は、
F13/vとなり、図25中の左から6番目の画素の、シャ
ッタが開いて2番目のシャッタ時間/vの前景の成分も、
F13/vとなる。図25中の左から7番目の画素の、シャ
ッタが開いて3番目のシャッタ時間/vの前景の成分、お
よび図25中の左から8番目の画素の、シャッタが開い
て4番目のシャッタ時間/vの前景の成分は、F13/vとな
る。
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the foreground image moves so as to be displayed four pixels to the right in the next frame, frame #n in FIG. The foreground component of the fifth pixel from the left of the first shutter time / v from when the shutter has opened is
F13 / v, the foreground component of the sixth pixel from the left in FIG. 25 corresponding to the second shutter time / v from when the shutter has opened is also
It becomes F13 / v. The foreground component of the seventh pixel from the left in FIG. 25 at the third shutter time / v from when the shutter has opened, and the fourth shutter time of the eighth pixel from the left in FIG. 25 having the shutter opened. The foreground component of / v is F13 / v.

【0227】図25中のフレーム#nの左から6番目の画
素の、シャッタが開いて最初のシャッタ時間/vの前景の
成分は、F14/vとなり、図25中の左から7番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F14/vとなる。図25中の左から8番目の画素
の、シャッタが開いて最初のシャッタ時間/vの前景の成
分は、F15/vとなる。
The foreground component of the sixth pixel from the left of frame #n in FIG. 25 corresponding to the first shutter time / v from when the shutter has opened is F14 / v, and the seventh pixel from the left in FIG. 25 is F14 / v. The foreground component of the second shutter time / v after the shutter is opened also becomes F14 / v. The foreground component of the eighth pixel from the left in FIG. 25 corresponding to the first shutter time / v from when the shutter has opened is F15 / v.

【0228】背景に対応するオブジェクトが静止してい
るので、図25中のフレーム#nの左から5番目の画素
の、シャッタが開いて2番目乃至4番目のシャッタ時間
/vの背景の成分は、B29/vとなる。図25中のフレーム#
nの左から6番目の画素の、シャッタが開いて3番目お
よび4番目のシャッタ時間/vの背景の成分は、B30/vと
なる。図25中のフレーム#nの左から7番目の画素の、
シャッタが開いて4番目のシャッタ時間/vの背景の成分
は、B31/vとなる。
Since the object corresponding to the background is stationary, the second to fourth shutter times of the fifth pixel from the left of frame #n in FIG.
The background component of / v is B29 / v. Frame # in FIG. 25
The background components of the sixth pixel from the left of n corresponding to the third and fourth shutter time / v from when the shutter has opened are B30 / v. Of the seventh pixel from the left of frame #n in FIG.
The background component of the fourth shutter time / v from when the shutter has opened is B31 / v.

【0229】図25中のフレーム#nにおいて、左から5
番目の画素乃至7番目の画素は、アンカバードバックグ
ラウンド領域である混合領域に属する。
In frame #n in FIG. 25, 5
The seventh through seventh pixels belong to a mixed area that is an uncovered background area.

【0230】図25中のフレーム#nの左から8番目の画
素乃至12番目の画素は、前景領域に属する。フレーム
#nの前景領域における、シャッタ時間/vの期間に対応す
る値は、F13/v乃至F20/vのいずれかである。
The eighth through twelfth pixels from the left of frame #n in FIG. 25 belong to the foreground area. flame
The value corresponding to the shutter time / v period in the foreground area #n is one of F13 / v to F20 / v.

【0231】図25中のフレーム#n+1の最も左側の画素
乃至左から8番目の画素は、背景領域に属し、画素値
は、それぞれ、B25乃至B32となる。
The leftmost pixel to the eighth pixel from the left of frame # n + 1 in FIG. 25 belong to the background area, and have pixel values B25 to B32, respectively.

【0232】前景に対応するオブジェクトが、剛体であ
り、等速で移動すると仮定でき、前景の画像が次のフレ
ームにおいて4画素右側に表示されるように移動するの
で、図25中のフレーム#n+1の左から9番目の画素の、
シャッタが開いて最初のシャッタ時間/vの前景の成分
は、F13/vとなり、図25中の左から10番目の画素
の、シャッタが開いて2番目のシャッタ時間/vの前景の
成分も、F13/vとなる。図25中の左から11番目の画
素の、シャッタが開いて3番目のシャッタ時間/vの前景
の成分、および図25中の左から12番目の画素の、シ
ャッタが開いて4番目のシャッタ時間/vの前景の成分
は、F13/vとなる。
It can be assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed. Since the foreground image moves so as to be displayed four pixels to the right in the next frame, frame #n in FIG. Of the ninth pixel from the left of +1
The foreground component of the first shutter time / v after the shutter is opened is F13 / v, and the foreground component of the tenth pixel from the left in FIG. 25 at the second shutter time / v after the shutter is opened is also F13 / v. It becomes F13 / v. The foreground component of the eleventh pixel from the left in FIG. 25 corresponding to the third shutter time / v from when the shutter has opened, and the twelfth pixel from the left in FIG. 25 having the fourth shutter time since the shutter has opened. The foreground component of / v is F13 / v.

【0233】図25中のフレーム#n+1の左から10番目
の画素の、シャッタが開いて最初のシャッタ時間/vの前
景の成分は、F14/vとなり、図25中の左から11番目
の画素の、シャッタが開いて2番目のシャッタ時間/vの
前景の成分も、F14/vとなる。図25中の左から12番
目の画素の、シャッタが開いて最初のシャッタ時間/vの
前景の成分は、F15/vとなる。
The foreground component of the tenth pixel from the left of frame # n + 1 in FIG. 25 corresponding to the first shutter time / v from when the shutter has opened is F14 / v, and the eleventh pixel from the left in FIG. 25 is F14 / v. The foreground component of the pixel of the second shutter time / v after the shutter is opened also becomes F14 / v. The foreground component of the twelfth pixel from the left in FIG. 25 corresponding to the first shutter time / v from when the shutter has opened is F15 / v.

【0234】背景に対応するオブジェクトが静止してい
るので、図25中のフレーム#n+1の左から9番目の画素
の、シャッタが開いて2番目乃至4番目の、シャッタ時
間/vの背景の成分は、B33/vとなる。図25中のフレー
ム#n+1の左から10番目の画素の、シャッタが開いて3
番目および4番目のシャッタ時間/vの背景の成分は、B3
4/vとなる。図25中のフレーム#n+1の左から11番目
の画素の、シャッタが開いて4番目のシャッタ時間/vの
背景の成分は、B35/vとなる。
Since the object corresponding to the background is stationary, the background of the ninth pixel from the left of frame # n + 1 in FIG. 25 corresponding to the second to fourth portions of the shutter time / v from when the shutter has opened. Is B33 / v. The shutter of the tenth pixel from the left of frame # n + 1 in FIG.
The background component of the 4th and 4th shutter time / v is B3
4 / v. The background component of the eleventh pixel from the left of frame # n + 1 in FIG. 25 corresponding to the fourth portion of the shutter time / v from when the shutter has opened is B35 / v.

【0235】図25中のフレーム#n+1において、左から
9番目の画素乃至11番目の画素は、アンカバードバッ
クグラウンド領域である混合領域に属する。
In frame # n + 1 in FIG. 25, the ninth to eleventh pixels from the left belong to the mixed area which is the uncovered background area.

【0236】図25中のフレーム#n+1の左から12番目
の画素は、前景領域に属する。フレーム#n+1の前景領域
における、シャッタ時間/vの前景の成分は、F13/v乃至F
16/vのいずれかである。
The twelfth pixel from the left of frame # n + 1 in FIG. 25 belongs to the foreground area. The foreground components of the shutter time / v in the foreground area of frame # n + 1 are F13 / v to F13 / v
16 / v.

【0237】図26は、図25に示す画素値から前景の
成分を抽出した画像のモデル図である。
FIG. 26 is a model diagram of an image in which foreground components are extracted from the pixel values shown in FIG.

【0238】図10に戻り、領域特定部103は、複数
のフレームの画素値を用いて、前景領域、背景領域、カ
バードバックグラウンド領域、またはアンカバードバッ
クグラウンド領域に属することを示すフラグを画素毎に
対応付けて、領域情報として、混合比算出部104およ
び動きボケ調整部106に供給する。
Returning to FIG. 10, the area specifying unit 103 uses the pixel values of a plurality of frames to set a flag indicating that the pixel belongs to the foreground area, background area, covered background area, or uncovered background area for each pixel. Is supplied to the mixture ratio calculation unit 104 and the motion blur adjustment unit 106 as region information.

【0239】混合比算出部104は、複数のフレームの
画素値、および領域情報を基に、混合領域に含まれる画
素について画素毎に混合比αを算出し、算出した混合比
αを前景背景分離部105に供給する。
The mixture ratio calculation unit 104 calculates the mixture ratio α for each pixel of the pixels included in the mixed region based on the pixel values of a plurality of frames and the region information, and uses the calculated mixture ratio α for the foreground / background separation. To the unit 105.

【0240】前景背景分離部105は、複数のフレーム
の画素値、領域情報、および混合比αを基に、前景の成
分のみからなる前景成分画像を抽出して、動きボケ調整
部106に供給する。
The foreground / background separation unit 105 extracts a foreground component image consisting of only foreground components based on the pixel values of a plurality of frames, area information, and the mixture ratio α, and supplies the extracted foreground component image to the motion blur adjustment unit 106. .

【0241】動きボケ調整部106は、前景背景分離部
105から供給された前景成分画像、動き検出部102
から供給された動きベクトル、および領域特定部103
から供給された領域情報を基に、前景成分画像に含まれ
る動きボケの量を調整して、動きボケの量を調整した前
景成分画像を出力する。
The motion-blur adjusting unit 106 controls the foreground component image supplied from the foreground / background separating unit 105 and the motion detecting unit 102.
Motion vector supplied from the
The amount of motion blur included in the foreground component image is adjusted on the basis of the area information supplied from, and a foreground component image in which the amount of motion blur is adjusted is output.

【0242】図27のフローチャートを参照して、信号
処理部12による動きボケの量の調整の処理を説明す
る。ステップS101において、領域特定部103は、
入力画像を基に、入力画像の画素毎に前景領域、背景領
域、カバードバックグラウンド領域、またはアンカバー
ドバックグラウンド領域のいずれかに属するかを示す領
域情報を生成する領域特定の処理を実行する。領域特定
の処理の詳細は、図36のフローチャートを参照して後
述する。領域特定部103は、生成した領域情報を混合
比算出部104に供給する。
The processing for adjusting the amount of motion blur by the signal processing unit 12 will be described with reference to the flowchart in FIG. In step S101, the area specifying unit 103
Based on the input image, an area specifying process for generating area information indicating whether the pixel belongs to a foreground area, a background area, a covered background area, or an uncovered background area for each pixel of the input image is executed. The details of the area specifying process will be described later with reference to the flowchart in FIG. The region specifying unit 103 supplies the generated region information to the mixture ratio calculation unit 104.

【0243】なお、ステップS101において、領域特
定部103は、入力画像を基に、入力画像の画素毎に前
景領域、背景領域、または混合領域(カバードバックグ
ラウンド領域、またはアンカバードバックグラウンド領
域の区別をしない)のいずれかに属するかを示す領域情
報を生成するようにしてもよい。この場合において、前
景背景分離部105および動きボケ調整部106は、動
きベクトルの方向を基に、混合領域がカバードバックグ
ラウンド領域であるか、またはアンカバードバックグラ
ウンド領域であるかを判定する。例えば、動きベクトル
の方向に対応して、前景領域、混合領域、および背景領
域と順に並んでいるとき、その混合領域は、カバードバ
ックグラウンド領域と判定され、動きベクトルの方向に
対応して、背景領域、混合領域、および前景領域と順に
並んでいるとき、その混合領域は、アンカバードバック
グラウンド領域と判定される。
In step S101, based on the input image, the area specifying unit 103 determines, for each pixel of the input image, a foreground area, a background area, or a mixed area (covered background area or uncovered background area). May be generated. In this case, the foreground / background separation unit 105 and the motion blur adjustment unit 106 determine whether the mixed area is a covered background area or an uncovered background area based on the direction of the motion vector. For example, when the foreground area, the mixed area, and the background area are sequentially arranged in correspondence with the direction of the motion vector, the mixed area is determined as a covered background area, and the background area is determined according to the direction of the motion vector. When the area, the mixed area, and the foreground area are arranged in this order, the mixed area is determined to be an uncovered background area.

【0244】ステップS102において、混合比算出部
104は、入力画像および領域情報を基に、混合領域に
含まれる画素毎に、混合比αを算出する。混合比算出の
処理の詳細は、図46のフローチャートを参照して後述
する。混合比算出部104は、算出した混合比αを前景
背景分離部105に供給する。
In step S102, the mixture ratio calculator 104 calculates a mixture ratio α for each pixel included in the mixed region based on the input image and the region information. Details of the mixture ratio calculation process will be described later with reference to the flowchart in FIG. The mixture ratio calculator 104 supplies the calculated mixture ratio α to the foreground / background separator 105.

【0245】ステップS103において、前景背景分離
部105は、領域情報、および混合比αを基に、入力画
像から前景の成分を抽出して、前景成分画像として動き
ボケ調整部106に供給する。
In step S103, the foreground / background separation unit 105 extracts a foreground component from the input image based on the region information and the mixture ratio α, and supplies the extracted foreground component image to the motion blur adjustment unit 106.

【0246】ステップS104において、動きボケ調整
部106は、動きベクトルおよび領域情報を基に、動き
方向に並ぶ連続した画素であって、アンカバードバック
グラウンド領域、前景領域、およびカバードバックグラ
ウンド領域のいずれかに属するものの画像上の位置を示
す処理単位を生成し、処理単位に対応する前景成分に含
まれる動きボケの量を調整する。動きボケの量の調整の
処理の詳細については、図63のフローチャートを参照
して後述する。
[0246] In step S104, the motion-blur adjusting unit 106 determines which of uncovered background area, foreground area, and covered background area is a continuous pixel lined up in the motion direction based on the motion vector and the area information. A processing unit indicating a position on the image of the object belonging to the genus is generated, and the amount of motion blur included in the foreground component corresponding to the processing unit is adjusted. Details of the process of adjusting the amount of motion blur will be described later with reference to the flowchart in FIG.

【0247】ステップS105において、信号処理部1
2は、画面全体について処理を終了したか否かを判定
し、画面全体について処理を終了していないと判定され
た場合、ステップS104に進み、処理単位に対応する
前景の成分を対象とした動きボケの量の調整の処理を繰
り返す。
In step S105, the signal processing unit 1
Step 2 determines whether or not the processing has been completed for the entire screen. If it is determined that the processing has not been completed for the entire screen, the process advances to step S104 to perform a motion on the foreground component corresponding to the processing unit. The process of adjusting the amount of blur is repeated.

【0248】ステップS106において、画面全体につ
いて処理を終了したと判定された場合、処理は終了す
る。
If it is determined in step S106 that the processing has been completed for the entire screen, the processing ends.

【0249】このように、信号処理部12は、前景と背
景を分離して、前景に含まれる動きボケの量を調整する
ことができる。すなわち、信号処理部12は、前景の画
素の画素値であるサンプルデータに含まれる動きボケの
量を調整することができる。
As described above, the signal processing section 12 can separate the foreground and the background and adjust the amount of motion blur included in the foreground. That is, the signal processing unit 12 can adjust the amount of motion blur included in the sample data that is the pixel value of the foreground pixel.

【0250】以下、領域特定部103、混合比算出部1
04、前景背景分離部105、および動きボケ調整部1
06のそれぞれの構成の一例について説明する。
Hereinafter, the area specifying unit 103 and the mixture ratio calculating unit 1
04, foreground / background separation unit 105, and motion blur adjustment unit 1
An example of each of the components 06 will be described.

【0251】図28は、領域特定部103の構成の一例
を示すブロック図である。フレームメモリ121は、入
力された画像をフレーム単位で記憶する。フレームメモ
リ121は、処理の対象がフレーム#nであるとき、フレ
ーム#nの2つ前のフレームであるフレーム#n-2、フレー
ム#nの1つ前のフレームであるフレーム#n-1、フレーム
#n、フレーム#nの1つ後のフレームであるフレーム#n+
1、およびフレーム#nの2つ後のフレームであるフレー
ム#n+2を記憶する。
FIG. 28 is a block diagram showing an example of the structure of the area specifying unit 103. The frame memory 121 stores the input image in frame units. When the processing target is the frame #n, the frame memory 121 outputs a frame # n-2 which is a frame immediately before the frame #n, a frame # n-1 which is a frame immediately before the frame #n, flame
#n, frame # n + which is one frame after frame #n
1 and frame # n + 2, which is two frames after frame #n.

【0252】静動判定部122−1は、フレーム#nの領
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+2の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n+1の画素の画素値をフレームメモリ1
21から読み出して、読み出した画素値の差の絶対値を
算出する。静動判定部122−1は、フレーム#n+2の画
素値とフレーム#n+1の画素値との差の絶対値が、予め設
定している閾値Thより大きいか否かを判定し、差の絶対
値が閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部123−1に供給する。フレーム#n
+2の画素の画素値とフレーム#n+1の画素の画素値との差
の絶対値が閾値Th以下であると判定された場合、静動判
定部122−1は、静止を示す静動判定を領域判定部1
23−1に供給する。
The still / moving judgment unit 122-1 determines the pixel value of the pixel of frame # n + 2 at the same position as the position of the pixel as the target of specifying the region of frame #n, and the pixel value of frame #n. The pixel value of the pixel of frame # n + 1 at the same position as the position of the pixel which is the target of region identification on the image is stored in the frame memory
21 to calculate the absolute value of the difference between the read pixel values. The static / movement determining unit 122-1 determines whether the absolute value of the difference between the pixel value of the frame # n + 2 and the pixel value of the frame # n + 1 is greater than a preset threshold Th, When it is determined that the absolute value of the difference is larger than the threshold Th, a still / moving determination indicating a motion is supplied to the area determination unit 123-1. Frame #n
When it is determined that the absolute value of the difference between the pixel value of the pixel of +2 and the pixel value of the pixel of frame # n + 1 is equal to or smaller than the threshold Th, the static / movement determining unit 122-1 determines whether or not the static The judgment is made to the area judgment unit 1
23-1.

【0253】静動判定部122−2は、フレーム#nの領
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n+1の画素の画素値、およびフレーム#nの
対象となる画素の画素値をフレームメモリ121から読
み出して、画素値の差の絶対値を算出する。静動判定部
122−2は、フレーム#n+1の画素値とフレーム#nの画
素値との差の絶対値が、予め設定している閾値Thより大
きいか否かを判定し、画素値の差の絶対値が、閾値Thよ
り大きいと判定された場合、動きを示す静動判定を領域
判定部123−1および領域判定部123−2に供給す
る。フレーム#n+1の画素の画素値とフレーム#nの画素の
画素値との差の絶対値が、閾値Th以下であると判定され
た場合、静動判定部122−2は、静止を示す静動判定
を領域判定部123−1および領域判定部123−2に
供給する。
The still / moving judgment unit 122-2 determines the pixel value of the pixel of frame # n + 1 at the same position as the position of the pixel for specifying the region of frame #n on the image and the pixel value of frame #n. The pixel value of the target pixel is read from the frame memory 121, and the absolute value of the difference between the pixel values is calculated. The static / moving determining unit 122-2 determines whether the absolute value of the difference between the pixel value of the frame # n + 1 and the pixel value of the frame #n is larger than a preset threshold Th. If it is determined that the absolute value of the difference is larger than the threshold Th, a still / moving determination indicating a motion is supplied to the region determination unit 123-1 and the region determination unit 123-2. When it is determined that the absolute value of the difference between the pixel value of the pixel of frame # n + 1 and the pixel value of the pixel of frame #n is equal to or smaller than the threshold Th, the still / moving determination unit 122-2 indicates that the camera is still. The static / movement determination is supplied to the region determination unit 123-1 and the region determination unit 123-2.

【0254】静動判定部122−3は、フレーム#nの領
域特定の対象である画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-1の画素の画素値をフレームメモリ1
21から読み出して、画素値の差の絶対値を算出する。
静動判定部122−3は、フレーム#nの画素値とフレー
ム#n-1の画素値との差の絶対値が、予め設定している閾
値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部123−2および領域判定部123
−3に供給する。フレーム#nの画素の画素値とフレーム
#n-1の画素の画素値との差の絶対値が、閾値Th以下であ
ると判定された場合、静動判定部122−3は、静止を
示す静動判定を領域判定部123−2および領域判定部
123−3に供給する。
The still / moving judgment section 122-3 is located at the same position as the pixel value of the pixel which is the target of specifying the region of the frame #n and the position of the pixel which is the target of specifying the region of the frame #n on the image. The pixel value of the pixel of frame # n-1 is stored in frame memory 1
21 to calculate the absolute value of the difference between the pixel values.
The still / moving determination unit 122-3 determines whether the absolute value of the difference between the pixel value of the frame #n and the pixel value of the frame # n-1 is greater than a preset threshold Th. If the absolute value of the difference is determined to be larger than the threshold Th, the static / movement determination indicating the motion is performed by the region determination unit 123-2 and the region determination unit 123-2.
-3. Pixel value of pixel of frame #n and frame
When it is determined that the absolute value of the difference between the pixel value of the pixel # n-1 and the pixel value is equal to or smaller than the threshold Th, the static / moving determination unit 122-3 performs a static / moving determination indicating stillness by the region determining unit 123-2. And to the area determination unit 123-3.

【0255】静動判定部122−4は、フレーム#nの領
域特定の対象である画素の画像上の位置と同一の位置に
あるフレーム#n-1の画素の画素値、およびフレーム#nの
領域特定の対象である画素の画像上の位置と同一の位置
にあるフレーム#n-2の画素の画素値をフレームメモリ1
21から読み出して、画素値の差の絶対値を算出する。
静動判定部122−4は、フレーム#n-1の画素値とフレ
ーム#n-2の画素値との差の絶対値が、予め設定している
閾値Thより大きいか否かを判定し、画素値の差の絶対値
が、閾値Thより大きいと判定された場合、動きを示す静
動判定を領域判定部123−3に供給する。フレーム#n
-1の画素の画素値とフレーム#n-2の画素の画素値との差
の絶対値が、閾値Th以下であると判定された場合、静動
判定部122−4は、静止を示す静動判定を領域判定部
123−3に供給する。
The static / movement determining unit 122-4 determines the pixel value of the pixel of the frame # n-1 at the same position as the pixel on the image, which is the object of specifying the region of the frame #n, and the pixel value of the frame #n. The pixel value of the pixel of frame # n-2 at the same position as the position of the pixel to be specified in the image is stored in the frame memory 1.
21 to calculate the absolute value of the difference between the pixel values.
The static / movement determining unit 122-4 determines whether the absolute value of the difference between the pixel value of the frame # n-1 and the pixel value of the frame # n-2 is larger than a preset threshold Th, When it is determined that the absolute value of the difference between the pixel values is greater than the threshold Th, a still / moving determination indicating a motion is supplied to the region determination unit 123-3. Frame #n
When it is determined that the absolute value of the difference between the pixel value of the pixel of −1 and the pixel value of the pixel of frame # n−2 is equal to or smaller than the threshold Th, the static / movement determining unit 122-4 determines that the static value indicates static. The motion determination is supplied to the area determination unit 123-3.

【0256】領域判定部123−1は、静動判定部12
2−1から供給された静動判定が静止を示し、かつ、静
動判定部122−2から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がアンカバードバックグラウンド領域に属すると
判定し、領域の判定される画素に対応するアンカバード
バックグラウンド領域判定フラグに、アンカバードバッ
クグラウンド領域に属することを示す”1”を設定す
る。
The area judging section 123-1 comprises the static / moving judging section 12
When the still / movement determination supplied from 2-1 indicates stillness and the still / movement determination supplied from still / movement determination section 122-2 indicates movement, a pixel which is a target of region identification in frame #n Is determined to belong to the uncovered background area, and the uncovered background area determination flag corresponding to the pixel whose area is determined is set to “1” indicating that the pixel belongs to the uncovered background area.

【0257】領域判定部123−1は、静動判定部12
2−1から供給された静動判定が動きを示すか、また
は、静動判定部122−2から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素がアンカバードバックグラウンド領域に属
しないと判定し、領域の判定される画素に対応するアン
カバードバックグラウンド領域判定フラグに、アンカバ
ードバックグラウンド領域に属しないことを示す”0”
を設定する。
The area determining unit 123-1 is a static motion determining unit 12
When the still / movement determination supplied from 2-1 indicates a motion or the still / movement determination supplied from the still / movement determination unit 122-2 indicates stillness, the region is to be specified in the frame #n. It is determined that the pixel does not belong to the uncovered background area, and “0” indicating that the pixel does not belong to the uncovered background area is set in the uncovered background area determination flag corresponding to the pixel whose area is determined.
Set.

【0258】領域判定部123−1は、このように”
1”または”0”が設定されたアンカバードバックグラ
ウンド領域判定フラグを判定フラグ格納フレームメモリ
124に供給する。
The area judging unit 123-1 outputs “
The uncovered background area determination flag in which “1” or “0” is set is supplied to the determination flag storage frame memory 124.

【0259】領域判定部123−2は、静動判定部12
2−2から供給された静動判定が静止を示し、かつ、静
動判定部122−3から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が静止領域に属すると判定し、領域の判定される
画素に対応する静止領域判定フラグに、静止領域に属す
ることを示す”1”を設定する。
The area determination section 123-2 is a static / motion determination section 12.
When the still / movement determination supplied from 2-2 indicates stillness and the still / movement determination supplied from still / movement determination unit 122-3 indicates stillness, a pixel which is a target of region identification in frame #n Is determined to belong to the still area, and “1” indicating that the pixel belongs to the still area is set in the still area determination flag corresponding to the pixel whose area is determined.

【0260】領域判定部123−2は、静動判定部12
2−2から供給された静動判定が動きを示すか、また
は、静動判定部122−3から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素が静止領域に属しないと判定し、領域の判
定される画素に対応する静止領域判定フラグに、静止領
域に属しないことを示す”0”を設定する。
The area determination section 123-2 is a
When the static / movement determination supplied from 2-2 indicates a motion, or when the static / movement determination supplied from the static / movement determination unit 122-3 indicates a motion, the region is a target of area identification in frame #n. It is determined that the pixel does not belong to the still area, and “0” indicating that the pixel does not belong to the still area is set in the still area determination flag corresponding to the pixel whose area is determined.

【0261】領域判定部123−2は、このように”
1”または”0”が設定された静止領域判定フラグを判
定フラグ格納フレームメモリ124に供給する。
The area determination unit 123-2 determines "
The still area determination flag in which 1 ”or“ 0 ”is set is supplied to the determination flag storage frame memory 124.

【0262】領域判定部123−2は、静動判定部12
2−2から供給された静動判定が動きを示し、かつ、静
動判定部122−3から供給された静動判定が動きを示
しているとき、フレーム#nにおける領域特定の対象であ
る画素が動き領域に属すると判定し、領域の判定される
画素に対応する動き領域判定フラグに、動き領域に属す
ることを示す”1”を設定する。
The area determination section 123-2 is a
When the still / movement determination supplied from 2-2 indicates a movement and the still / movement determination supplied from the still / movement determination unit 122-3 indicates a movement, the pixel which is the target of the region identification in the frame #n Is determined to belong to the motion area, and “1” indicating that the pixel belongs to the motion area is set in the motion area determination flag corresponding to the pixel whose area is determined.

【0263】領域判定部123−2は、静動判定部12
2−2から供給された静動判定が静止を示すか、また
は、静動判定部122−3から供給された静動判定が静
止を示しているとき、フレーム#nにおける領域特定の対
象である画素が動き領域に属しないと判定し、領域の判
定される画素に対応する動き領域判定フラグに、動き領
域に属しないことを示す”0”を設定する。
The area determination section 123-2 is a static / motion determination section 12.
When the static / movement determination supplied from 2-2 indicates stillness, or when the static / movement determination supplied from static / movement determination unit 122-3 indicates stillness, it is an area identification target in frame #n. It is determined that the pixel does not belong to the motion area, and “0” indicating that the pixel does not belong to the motion area is set in the motion area determination flag corresponding to the pixel whose area is determined.

【0264】領域判定部123−2は、このように”
1”または”0”が設定された動き領域判定フラグを判
定フラグ格納フレームメモリ124に供給する。
The area determining unit 123-2 determines "
The motion area determination flag in which 1 ”or“ 0 ”is set is supplied to the determination flag storage frame memory 124.

【0265】領域判定部123−3は、静動判定部12
2−3から供給された静動判定が動きを示し、かつ、静
動判定部122−4から供給された静動判定が静止を示
しているとき、フレーム#nにおける領域特定の対象であ
る画素がカバードバックグラウンド領域に属すると判定
し、領域の判定される画素に対応するカバードバックグ
ラウンド領域判定フラグに、カバードバックグラウンド
領域に属することを示す”1”を設定する。
The area determination section 123-3 is a static / motion determination section 12.
When the still / movement determination supplied from 2-3 indicates a motion and the still / movement determination supplied from the still / movement determination unit 122-4 indicates stillness, the pixel which is the target of the region identification in the frame #n Is determined to belong to the covered background area, and “1” indicating that the pixel belongs to the covered background area is set in the covered background area determination flag corresponding to the pixel whose area is determined.

【0266】領域判定部123−3は、静動判定部12
2−3から供給された静動判定が静止を示すか、また
は、静動判定部122−4から供給された静動判定が動
きを示しているとき、フレーム#nにおける領域特定の対
象である画素がカバードバックグラウンド領域に属しな
いと判定し、領域の判定される画素に対応するカバード
バックグラウンド領域判定フラグに、カバードバックグ
ラウンド領域に属しないことを示す”0”を設定する。
The area determination section 123-3 is a static / motion determination section 12.
When the still / movement determination supplied from 2-3 indicates stillness or when the still / movement determination supplied from the still / movement determination unit 122-4 indicates movement, the region is a target for area identification in frame #n. It is determined that the pixel does not belong to the covered background area, and “0” indicating that the pixel does not belong to the covered background area is set in a covered background area determination flag corresponding to the pixel whose area is determined.

【0267】領域判定部123−3は、このように”
1”または”0”が設定されたカバードバックグラウン
ド領域判定フラグを判定フラグ格納フレームメモリ12
4に供給する。
The area determination section 123-3 outputs "
The covered background area determination flag in which 1 ”or“ 0 ”is set is stored in the determination flag storage frame memory 12
4

【0268】判定フラグ格納フレームメモリ124は、
領域判定部123−1から供給されたアンカバードバッ
クグラウンド領域判定フラグ、領域判定部123−2か
ら供給された静止領域判定フラグ、領域判定部123−
2から供給された動き領域判定フラグ、および領域判定
部123−3から供給されたカバードバックグラウンド
領域判定フラグをそれぞれ記憶する。
The determination flag storage frame memory 124
The uncovered background area determination flag supplied from the area determination unit 123-1, the still area determination flag supplied from the area determination unit 123-2, and the area determination unit 123-
2 and the covered background area determination flag supplied from the area determination unit 123-3.

【0269】判定フラグ格納フレームメモリ124は、
記憶しているアンカバードバックグラウンド領域判定フ
ラグ、静止領域判定フラグ、動き領域判定フラグ、およ
びカバードバックグラウンド領域判定フラグを合成部1
25に供給する。合成部125は、判定フラグ格納フレ
ームメモリ124から供給された、アンカバードバック
グラウンド領域判定フラグ、静止領域判定フラグ、動き
領域判定フラグ、およびカバードバックグラウンド領域
判定フラグを基に、各画素が、アンカバードバックグラ
ウンド領域、静止領域、動き領域、およびカバードバッ
クグラウンド領域のいずれかに属することを示す領域情
報を生成し、判定フラグ格納フレームメモリ126に供
給する。
The judgment flag storage frame memory 124
The stored uncovered background area determination flag, stationary area determination flag, moving area determination flag, and covered background area determination flag are stored in the combining unit 1.
25. Based on the uncovered background area determination flag, the still area determination flag, the motion area determination flag, and the covered background area determination flag supplied from the determination flag storage frame memory 124, the combining unit 125 Region information indicating that the region belongs to any of the covered background region, the still region, the moving region, and the covered background region is generated and supplied to the determination flag storage frame memory 126.

【0270】判定フラグ格納フレームメモリ126は、
合成部125から供給された領域情報を記憶すると共
に、記憶している領域情報を出力する。
The determination flag storage frame memory 126 is
The area information supplied from the synthesizing unit 125 is stored, and the stored area information is output.

【0271】次に、領域特定部103の処理の例を図2
9乃至図33を参照して説明する。
Next, an example of the processing of the area specifying unit 103 will be described with reference to FIG.
This will be described with reference to FIGS.

【0272】前景に対応するオブジェクトが移動してい
るとき、オブジェクトに対応する画像の画面上の位置
は、フレーム毎に変化する。図29に示すように、フレ
ーム#nにおいて、Yn(x,y)で示される位置に位置するオ
ブジェクトに対応する画像は、次のフレームであるフレ
ーム#n+1において、Yn+1(x,y)に位置する。
When the object corresponding to the foreground is moving, the position on the screen of the image corresponding to the object changes for each frame. As shown in FIG. 29, in frame #n, the image corresponding to the object located at the position indicated by Yn (x, y) is Yn + 1 (x, y) in frame # n + 1 which is the next frame. located at y).

【0273】前景のオブジェクトに対応する画像の動き
方向に隣接して1列に並ぶ画素の画素値を時間方向に展
開したモデル図を図30に示す。例えば、前景のオブジ
ェクトに対応する画像の動き方向が画面に対して水平で
あるとき、図30におけるモデル図は、1つのライン上
の隣接する画素の画素値を時間方向に展開したモデルを
示す。
FIG. 30 shows a model diagram in which the pixel values of the pixels arranged in one row adjacent to the motion direction of the image corresponding to the foreground object are developed in the time direction. For example, when the motion direction of the image corresponding to the foreground object is horizontal with respect to the screen, the model diagram in FIG. 30 shows a model in which pixel values of adjacent pixels on one line are developed in the time direction.

【0274】図30において、フレーム#nにおけるライ
ンは、フレーム#n+1におけるラインと同一である。
In FIG. 30, the line in frame #n is the same as the line in frame # n + 1.

【0275】フレーム#nにおいて、左から2番目の画素
乃至13番目の画素に含まれているオブジェクトに対応
する前景の成分は、フレーム#n+1において、左から6番
目乃至17番目の画素に含まれる。
In frame #n, the foreground components corresponding to the objects included in the second through thirteenth pixels from the left are the sixth through seventeenth pixels from the left in frame # n + 1. included.

【0276】フレーム#nにおいて、カバードバックグラ
ウンド領域に属する画素は、左から11番目乃至13番
目の画素であり、アンカバードバックグラウンド領域に
属する画素は、左から2番目乃至4番目の画素である。
フレーム#n+1において、カバードバックグラウンド領域
に属する画素は、左から15番目乃至17番目の画素で
あり、アンカバードバックグラウンド領域に属する画素
は、左から6番目乃至8番目の画素である。
In frame #n, the pixels belonging to the covered background area are the eleventh to thirteenth pixels from the left, and the pixels belonging to the uncovered background area are the second to fourth pixels from the left. .
In frame # n + 1, the pixels belonging to the covered background area are the fifteenth through seventeenth pixels from the left, and the pixels belonging to the uncovered background area are the sixth through eighth pixels from the left.

【0277】図30に示す例において、フレーム#nに含
まれる前景の成分が、フレーム#n+1において4画素移動
しているので、動き量vは、4である。仮想分割数は、
動き量vに対応し、4である。
In the example shown in FIG. 30, since the foreground component included in frame #n has moved by four pixels in frame # n + 1, the motion amount v is 4. The number of virtual divisions is
It corresponds to the movement amount v and is 4.

【0278】次に、注目しているフレームの前後におけ
る混合領域に属する画素の画素値の変化について説明す
る。
Next, changes in pixel values of pixels belonging to the mixed area before and after the frame of interest will be described.

【0279】図31に示す、背景が静止し、前景の動き
量vが4であるフレーム#nにおいて、カバードバックグ
ラウンド領域に属する画素は、左から15番目乃至17
番目の画素である。動き量vが4であるので、1つ前の
フレーム#n-1において、左から15番目乃至17番目の
画素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ前のフレーム#n-2において、左から15番
目乃至17番目の画素は、背景の成分のみを含み、背景
領域に属する。
In frame #n shown in FIG. 31 in which the background is stationary and the foreground motion amount v is 4, the pixels belonging to the covered background area are the 15th to 17th pixels from the left.
The pixel of the th. Since the motion amount v is 4, the fifteenth through seventeenth pixels from the left in the immediately preceding frame # n-1 include only background components and belong to the background area. In the immediately preceding frame # n-2, the fifteenth through seventeenth pixels from the left include only background components and belong to the background area.

【0280】ここで、背景に対応するオブジェクトが静
止しているので、フレーム#n-1の左から15番目の画素
の画素値は、フレーム#n-2の左から15番目の画素の画
素値から変化しない。同様に、フレーム#n-1の左から1
6番目の画素の画素値は、フレーム#n-2の左から16番
目の画素の画素値から変化せず、フレーム#n-1の左から
17番目の画素の画素値は、フレーム#n-2の左から17
番目の画素の画素値から変化しない。
Here, since the object corresponding to the background is stationary, the pixel value of the fifteenth pixel from the left of frame # n-1 is the pixel value of the fifteenth pixel from the left of frame # n-2. Does not change from. Similarly, 1 from the left of frame # n-1
The pixel value of the sixth pixel does not change from the pixel value of the sixteenth pixel from the left of frame # n-2, and the pixel value of the seventeenth pixel from the left of frame # n-1 is 17 from the left of 2
It does not change from the pixel value of the th pixel.

【0281】すなわち、フレーム#nにおけるカバードバ
ックグラウンド領域に属する画素に対応する、フレーム
#n-1およびフレーム#n-2の画素は、背景の成分のみから
成り、画素値が変化しないので、その差の絶対値は、ほ
ぼ0の値となる。従って、フレーム#nにおける混合領域
に属する画素に対応する、フレーム#n-1およびフレーム
#n-2の画素に対する静動判定は、静動判定部122−4
により、静止と判定される。
That is, a frame corresponding to a pixel belonging to the covered background area in frame #n
The pixels of # n-1 and frame # n-2 are composed of only background components, and the pixel values do not change. Therefore, the absolute value of the difference is almost zero. Therefore, frame # n-1 and frame # n-1 corresponding to the pixels belonging to the mixed area in frame #n
The still / movement determination for the pixel # n-2 is performed by the still / movement determination unit 122-4.
Is determined to be stationary.

【0282】フレーム#nにおけるカバードバックグラウ
ンド領域に属する画素は、前景の成分を含むので、フレ
ーム#n-1における背景の成分のみから成る場合と、画素
値が異なる。従って、フレーム#nにおける混合領域に属
する画素、および対応するフレーム#n-1の画素に対する
静動判定は、静動判定部122−3により、動きと判定
される。
Since the pixels belonging to the covered background area in frame #n include the foreground components, the pixel values are different from those of frame # n-1 consisting of only the background components. Therefore, the still / movement determination for the pixels belonging to the mixed area in frame #n and the corresponding pixels in frame # n−1 is determined to be a movement by the still / movement determination unit 122-3.

【0283】このように、領域判定部123−3は、静
動判定部122−3から動きを示す静動判定の結果が供
給され、静動判定部122−4から静止を示す静動判定
の結果が供給されたとき、対応する画素がカバードバッ
クグラウンド領域に属すると判定する。
As described above, the region determining unit 123-3 is supplied with the result of the static / moving determination indicating the motion from the static / moving determining unit 122-3, and the static / dynamic determining unit 122-4 performs the static / moving determination indicating the stillness. When the result is supplied, it is determined that the corresponding pixel belongs to the covered background area.

【0284】図32に示す、背景が静止し、前景の動き
量vが4であるフレーム#nにおいて、アンカバードバッ
クグラウンド領域に含まれる画素は、左から2番目乃至
4番目の画素である。動き量vが4であるので、1つ後
のフレーム#n+1において、左から2番目乃至4番目の画
素は、背景の成分のみを含み、背景領域に属する。ま
た、更に1つ後のフレーム#n+2において、左から2番目
乃至4番目の画素は、背景の成分のみを含み、背景領域
に属する。
In frame #n shown in FIG. 32 where the background is stationary and the foreground motion amount v is 4, the pixels included in the uncovered background area are the second to fourth pixels from the left. Since the motion amount v is 4, in the next frame # n + 1, the second to fourth pixels from the left include only the background component and belong to the background area. Further, in the next frame # n + 2, the second to fourth pixels from the left include only the background component and belong to the background area.

【0285】ここで、背景に対応するオブジェクトが静
止しているので、フレーム#n+2の左から2番目の画素の
画素値は、フレーム#n+1の左から2番目の画素の画素値
から変化しない。同様に、フレーム#n+2の左から3番目
の画素の画素値は、フレーム#n+1の左から3番目の画素
の画素値から変化せず、フレーム#n+2の左から4番目の
画素の画素値は、フレーム#n+1の左から4番目の画素の
画素値から変化しない。
Here, since the object corresponding to the background is stationary, the pixel value of the second pixel from the left of frame # n + 2 is the pixel value of the second pixel from the left of frame # n + 1. Does not change from. Similarly, the pixel value of the third pixel from the left of frame # n + 2 does not change from the pixel value of the third pixel from the left of frame # n + 1, and the pixel value of the third pixel from the left of frame # n + 2 does not change. Does not change from the pixel value of the fourth pixel from the left of frame # n + 1.

【0286】すなわち、フレーム#nにおけるアンカバー
ドバックグラウンド領域に属する画素に対応する、フレ
ーム#n+1およびフレーム#n+2の画素は、背景の成分のみ
から成り、画素値が変化しないので、その差の絶対値
は、ほぼ0の値となる。従って、フレーム#nにおける混
合領域に属する画素に対応する、フレーム#n+1およびフ
レーム#n+2の画素に対する静動判定は、静動判定部12
2−1により、静止と判定される。
That is, the pixels of frame # n + 1 and frame # n + 2 corresponding to the pixels belonging to the uncovered background area in frame #n are composed only of the background components and the pixel values do not change. The absolute value of the difference is almost zero. Therefore, the still / movement determination for the pixels in frame # n + 1 and frame # n + 2 corresponding to the pixels belonging to the mixed area in frame #n is performed by the still / movement determination unit 12
By 2-1, it is determined to be stationary.

【0287】フレーム#nにおけるアンカバードバックグ
ラウンド領域に属する画素は、前景の成分を含むので、
フレーム#n+1における背景の成分のみから成る場合と、
画素値が異なる。従って、フレーム#nにおける混合領域
に属する画素、および対応するフレーム#n+1の画素に対
する静動判定は、静動判定部122−2により、動きと
判定される。
Since the pixels belonging to the uncovered background area in frame #n include the foreground components,
A case where only the background component in frame # n + 1 is included,
Pixel values are different. Therefore, the still / movement determination for the pixels belonging to the mixed area in frame #n and the corresponding pixels in frame # n + 1 is determined to be a motion by the still / movement determination unit 122-2.

【0288】このように、領域判定部123−1は、静
動判定部122−2から動きを示す静動判定の結果が供
給され、静動判定部122−1から静止を示す静動判定
の結果が供給されたとき、対応する画素がアンカバード
バックグラウンド領域に属すると判定する。
As described above, the area determination section 123-1 is supplied with the result of the static / movement determination indicating the motion from the static / movement determination section 122-2, and receives the static / movement determination indicating the stillness from the static / movement determination section 122-1. When the result is supplied, it is determined that the corresponding pixel belongs to the uncovered background area.

【0289】図33は、フレーム#nにおける領域特定部
103の判定条件を示す図である。フレーム#nの判定の
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n-2の画素と、フレーム#nの判定の対象となる画素
の画像上の位置と同一の位置にあるフレーム#n-1の画素
とが静止と判定され、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n-1の画
素と、フレーム#nの画素とが動きと判定されたとき、領
域特定部103は、フレーム#nの判定の対象となる画素
がカバードバックグラウンド領域に属すると判定する。
FIG. 33 is a diagram showing determination conditions of the area specifying unit 103 in frame #n. The pixel of frame # n-2 at the same position as the position of the pixel to be determined in frame #n on the image and the pixel of frame #n in the same position as the position of the pixel to be determined in frame #n The pixel of a certain frame # n-1 is determined to be still, and the pixel of the frame # n-1 and the pixel of the frame #n at the same position as the position of the pixel to be determined of the frame #n on the image Is determined to be a motion, the area specifying unit 103 determines that the pixel to be determined in the frame #n belongs to the covered background area.

【0290】フレーム#nの判定の対象となる画素の画像
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが静止と判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが静止と判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が静止領域に属すると判定する。
The pixel of frame # n-1 and the pixel of frame #n located at the same position on the image of the pixel to be determined of frame #n are determined to be still, and the pixel of frame #n When the pixel of the frame # n + 1 located at the same position as the position of the pixel to be determined in the frame #n on the image is determined to be still, the region identifying unit 103 determines the frame #n Is determined to belong to the still area.

【0291】フレーム#nの判定の対象となる画素の画像
上の位置と同一の位置にあるフレーム#n-1の画素と、フ
レーム#nの画素とが動きと判定され、フレーム#nの画素
と、フレーム#nの判定の対象となる画素の画像上の位置
と同一の位置にあるフレーム#n+1の画素とが動きと判定
されたとき、領域特定部103は、フレーム#nの判定の
対象となる画素が動き領域に属すると判定する。
The pixel of frame # n-1 and the pixel of frame #n at the same position as the position of the pixel to be determined for frame #n on the image are determined to be moving, and the pixel of frame #n And the pixel of frame # n + 1 located at the same position as the position of the pixel to be determined in frame #n on the image, is determined to be moving. Is determined to belong to the motion area.

【0292】フレーム#nの画素と、フレーム#nの判定の
対象となる画素の画像上の位置と同一の位置にあるフレ
ーム#n+1の画素とが動きと判定され、フレーム#nの判定
の対象となる画素の画像上の位置と同一の位置にあるフ
レーム#n+1の画素と、フレーム#nの判定の対象となる画
素の画像上の位置と同一の位置にあるフレーム#n+2の画
素とが静止と判定されたとき、領域特定部103は、フ
レーム#nの判定の対象となる画素がアンカバードバック
グラウンド領域に属すると判定する。
The pixel of frame #n and the pixel of frame # n + 1 located at the same position on the image as the pixel to be determined of frame #n are determined to be moving, and the determination of frame #n is performed. The pixel of frame # n + 1 located at the same position as the position of the target pixel on the image, and the frame # n + located at the same position on the image of the pixel targeted for determination of frame #n When the two pixels are determined to be still, the region specifying unit 103 determines that the pixel to be determined in the frame #n belongs to the uncovered background region.

【0293】図34は、領域特定部103の領域の特定
の結果の例を示す図である。図34(A)において、カ
バードバックグラウンド領域に属すると判定された画素
は、白で表示されている。図34(B)において、アン
カバードバックグラウンド領域に属すると判定された画
素は、白で表示されている。
FIG. 34 is a diagram showing an example of a result of specifying an area by the area specifying unit 103. In FIG. In FIG. 34A, pixels determined to belong to the covered background area are displayed in white. In FIG. 34B, the pixels determined to belong to the uncovered background area are displayed in white.

【0294】図34(C)において、動き領域に属する
と判定された画素は、白で表示されている。図34
(D)において、静止領域に属すると判定された画素
は、白で表示されている。
In FIG. 34C, pixels determined to belong to the motion area are displayed in white. FIG.
In (D), the pixels determined to belong to the still area are displayed in white.

【0295】図35は、判定フラグ格納フレームメモリ
126が出力する領域情報の内、混合領域を示す領域情
報を画像として示す図である。図35において、カバー
ドバックグラウンド領域またはアンカバードバックグラ
ウンド領域に属すると判定された画素、すなわち混合領
域に属すると判定された画素は、白で表示されている。
判定フラグ格納フレームメモリ126が出力する混合領
域を示す領域情報は、混合領域、および前景領域内のテ
クスチャの無い部分に囲まれたテクスチャの有る部分を
示す。
FIG. 35 is a diagram showing, as an image, area information indicating a mixed area among the area information output from the frame memory 126 for storing the determination flag. In FIG. 35, pixels determined to belong to the covered background area or the uncovered background area, that is, pixels determined to belong to the mixed area, are displayed in white.
The area information indicating the mixed area output from the determination flag storage frame memory 126 indicates a mixed area and a part having a texture surrounded by a non-textured part in the foreground area.

【0296】次に、図36のフローチャートを参照し
て、領域特定部103の領域特定の処理を説明する。ス
テップS121において、フレームメモリ121は、判
定の対象となるフレーム#nを含むフレーム#n-2乃至フレ
ーム#n+2の画像を取得する。
Next, the area specifying process of the area specifying unit 103 will be described with reference to the flowchart in FIG. In step S121, the frame memory 121 acquires images of frames # n-2 to # n + 2 including the frame #n to be determined.

【0297】ステップS122において、静動判定部1
22−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、静止か否かを判定し、静止と判定された
場合、ステップS123に進み、静動判定部122−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、静止か否かを判定する。
[0297] In step S122, the static / motion judging section 1
22-3 determines whether the pixel of frame # n-1 and the pixel at the same position of frame #n are still or not, and if it is determined to be still, proceeds to step S123 and proceeds to step S123. 2
Determines whether the pixel of frame #n and the pixel at the same position of frame # n + 1 are still.

【0298】ステップS123において、フレーム#nの
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、ステップS124に進み、領域判定部12
3−2は、領域の判定される画素に対応する静止領域判
定フラグに、静止領域に属することを示す”1”を設定
する。領域判定部123−2は、静止領域判定フラグを
判定フラグ格納フレームメモリ124に供給し、手続き
は、ステップS125に進む。
If it is determined in step S123 that the pixel of frame #n and the pixel at the same position of frame # n + 1 are still, the process proceeds to step S124, and the area determination unit 12
Step 3-2 sets “1” indicating that the pixel belongs to the still area in the still area determination flag corresponding to the pixel whose area is determined. The area determination unit 123-2 supplies the still area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S125.

【0299】ステップS122において、フレーム#n-1
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、または、ステップS123において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、動
きと判定された場合、フレーム#nの画素が静止領域には
属さないので、ステップS124の処理はスキップさ
れ、手続きは、ステップS125に進む。
At step S122, frame # n-1
Pixel and the pixel at the same position in frame #n are determined to be moving, or in step S123, the pixel is determined to be moving in the frame #n and the pixel at the same position in frame # n + 1. In this case, since the pixel of frame #n does not belong to the still area, the process of step S124 is skipped, and the procedure proceeds to step S125.

【0300】ステップS125において、静動判定部1
22−3は、フレーム#n-1の画素とフレーム#nの同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS126に進み、静動判定部122−2
は、フレーム#nの画素とフレーム#n+1の同一位置の画素
とで、動きか否かを判定する。
[0300] In step S125, the static / motion judging section 1
22-3 determines whether or not the pixel of the frame # n-1 and the pixel at the same position of the frame #n are moving. 2
Determines whether or not there is a motion between the pixel of frame #n and the pixel at the same position of frame # n + 1.

【0301】ステップS126において、フレーム#nの
画素とフレーム#n+1の同一位置の画素とで、動きと判定
された場合、ステップS127に進み、領域判定部12
3−2は、領域の判定される画素に対応する動き領域判
定フラグに、動き領域に属することを示す”1”を設定
する。領域判定部123−2は、動き領域判定フラグを
判定フラグ格納フレームメモリ124に供給し、手続き
は、ステップS128に進む。
If it is determined in step S126 that the pixel of frame #n and the pixel at the same position of frame # n + 1 are motion, the process proceeds to step S127, and the area determination unit 12
3-2 sets “1” indicating that the pixel belongs to the motion area in the motion area determination flag corresponding to the pixel whose area is determined. The area determination unit 123-2 supplies the motion area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S128.

【0302】ステップS125において、フレーム#n-1
の画素とフレーム#nの同一位置の画素とで、静止と判定
された場合、または、ステップS126において、フレ
ーム#nの画素とフレーム#n+1の同一位置の画素とで、静
止と判定された場合、フレーム#nの画素が動き領域には
属さないので、ステップS127の処理はスキップさ
れ、手続きは、ステップS128に進む。
At step S125, frame # n-1
Pixel and the pixel at the same position in frame #n are determined to be still, or in step S126, the pixel in frame #n and the pixel in the same position in frame # n + 1 are determined to be still. In this case, since the pixel of frame #n does not belong to the motion area, the process of step S127 is skipped, and the procedure proceeds to step S128.

【0303】ステップS128において、静動判定部1
22−4は、フレーム#n-2の画素とフレーム#n-1の同一
位置の画素とで、静止か否かを判定し、静止と判定され
た場合、ステップS129に進み、静動判定部122−
3は、フレーム#n-1の画素とフレーム#nの同一位置の画
素とで、動きか否かを判定する。
[0303] In step S128, the static / motion judging section 1
22-4, the pixel of frame # n-2 and the pixel at the same position of frame # n-1 are used to determine whether or not they are still. If it is determined that they are still, the flow proceeds to step S129, 122-
No. 3 determines whether or not the pixel of frame # n-1 and the pixel at the same position of frame #n are moving.

【0304】ステップS129において、フレーム#n-1
の画素とフレーム#nの同一位置の画素とで、動きと判定
された場合、ステップS130に進み、領域判定部12
3−3は、領域の判定される画素に対応するカバードバ
ックグラウンド領域判定フラグに、カバードバックグラ
ウンド領域に属することを示す”1”を設定する。領域
判定部123−3は、カバードバックグラウンド領域判
定フラグを判定フラグ格納フレームメモリ124に供給
し、手続きは、ステップS131に進む。
At step S129, frame # n-1
If it is determined that there is a motion between the pixel of the frame #n and the pixel at the same position in the frame #n, the process proceeds to step S130, and the region determination unit 12
Step 3-3 sets “1” indicating that the pixel belongs to the covered background area in the covered background area determination flag corresponding to the pixel whose area is determined. The area determination unit 123-3 supplies the covered background area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S131.

【0305】ステップS128において、フレーム#n-2
の画素とフレーム#n-1の同一位置の画素とで、動きと判
定された場合、または、ステップS129において、フ
レーム#n-1の画素とフレーム#nの同一位置の画素とで、
静止と判定された場合、フレーム#nの画素がカバードバ
ックグラウンド領域には属さないので、ステップS13
0の処理はスキップされ、手続きは、ステップS131
に進む。
In step S128, frame # n-2
Is determined to be a motion between the pixel of the frame # n-1 and the pixel at the same position of the frame # n-1, or, at step S129, the pixel of the frame # n-1 and the pixel at the same position of the frame #n are:
If it is determined that the pixel is stationary, the pixel of frame #n does not belong to the covered background area.
0 is skipped, and the procedure proceeds to step S131.
Proceed to.

【0306】ステップS131において、静動判定部1
22−2は、フレーム#nの画素とフレーム#n+1の同一位
置の画素とで、動きか否かを判定し、動きと判定された
場合、ステップS132に進み、静動判定部122−1
は、フレーム#n+1の画素とフレーム#n+2の同一位置の画
素とで、静止か否かを判定する。
[0306] In step S131, the static / motion judging section 1
22-2 determines whether or not the pixel of the frame #n and the pixel at the same position of the frame # n + 1 are moving. If it is determined that the motion is detected, the process proceeds to step S132, and the static / moving determining unit 122- 1
Determines whether the pixel at frame # n + 1 and the pixel at the same position in frame # n + 2 are still.

【0307】ステップS132において、フレーム#n+1
の画素とフレーム#n+2の同一位置の画素とで、静止と判
定された場合、ステップS133に進み、領域判定部1
23−1は、領域の判定される画素に対応するアンカバ
ードバックグラウンド領域判定フラグに、アンカバード
バックグラウンド領域に属することを示す”1”を設定
する。領域判定部123−1は、アンカバードバックグ
ラウンド領域判定フラグを判定フラグ格納フレームメモ
リ124に供給し、手続きは、ステップS134に進
む。
[0307] In step S132, the frame # n + 1
If the pixel of the frame # n + 2 and the pixel at the same position are determined to be still, the process proceeds to step S133, and the region determination unit 1
23-1 sets "1" to the uncovered background area determination flag corresponding to the pixel whose area is determined, indicating that the pixel belongs to the uncovered background area. The area determination unit 123-1 supplies the uncovered background area determination flag to the determination flag storage frame memory 124, and the procedure proceeds to step S134.

【0308】ステップS131において、フレーム#nの
画素とフレーム#n+1の同一位置の画素とで、静止と判定
された場合、または、ステップS132において、フレ
ーム#n+1の画素とフレーム#n+2の同一位置の画素とで、
動きと判定された場合、フレーム#nの画素がアンカバー
ドバックグラウンド領域には属さないので、ステップS
133の処理はスキップされ、手続きは、ステップS1
34に進む。
If it is determined in step S131 that the pixel of frame #n and the pixel at the same position in frame # n + 1 are stationary, or in step S132, the pixel of frame # n + 1 and the pixel of frame #n With the pixel at the same position of +2,
If it is determined that the pixel is in motion, the pixel of frame #n does not belong to the uncovered background area,
133 is skipped, and the procedure proceeds to step S1.
Proceed to 34.

【0309】ステップS134において、領域特定部1
03は、フレーム#nの全ての画素について領域を特定し
たか否かを判定し、フレーム#nの全ての画素について領
域を特定していないと判定された場合、手続きは、ステ
ップS122に戻り、他の画素について、領域特定の処
理を繰り返す。
In step S134, the area specifying unit 1
03 judges whether or not the area has been specified for all the pixels of frame #n. If it is determined that the area has not been specified for all the pixels of frame #n, the procedure returns to step S122. The region specifying process is repeated for other pixels.

【0310】ステップS134において、フレーム#nの
全ての画素について領域を特定したと判定された場合、
ステップS135に進み、合成部125は、判定フラグ
格納フレームメモリ124に記憶されているアンカバー
ドバックグラウンド領域判定フラグ、およびカバードバ
ックグラウンド領域判定フラグを基に、混合領域を示す
領域情報を生成し、更に、各画素が、アンカバードバッ
クグラウンド領域、静止領域、動き領域、およびカバー
ドバックグラウンド領域のいずれかに属することを示す
領域情報を生成し、生成した領域情報を判定フラグ格納
フレームメモリ126に設定し、処理は終了する。
[0310] If it is determined in step S134 that the area has been specified for all the pixels of frame #n,
Proceeding to step S135, the combining unit 125 generates area information indicating the mixed area based on the uncovered background area determination flag and the covered background area determination flag stored in the determination flag storage frame memory 124, Furthermore, area information indicating that each pixel belongs to any of the uncovered background area, the still area, the motion area, and the covered background area is generated, and the generated area information is set in the determination flag storage frame memory 126. Then, the process ends.

【0311】このように、領域特定部103は、フレー
ムに含まれている画素のそれぞれについて、動き領域、
静止領域、アンカバードバックグラウンド領域、または
カバードバックグラウンド領域に属することを示す領域
情報を生成することができる。
[0311] As described above, the area specifying unit 103 calculates the motion area,
Region information indicating belonging to a stationary region, an uncovered background region, or a covered background region can be generated.

【0312】なお、領域特定部103は、アンカバード
バックグラウンド領域およびカバードバックグラウンド
領域に対応する領域情報に論理和を適用することによ
り、混合領域に対応する領域情報を生成して、フレーム
に含まれている画素のそれぞれについて、動き領域、静
止領域、または混合領域に属することを示すフラグから
成る領域情報を生成するようにしてもよい。
[0312] The area specifying unit 103 generates area information corresponding to the mixed area by applying a logical sum to the area information corresponding to the uncovered background area and the covered background area, and includes the area information in the frame. For each of the pixels that have been set, area information including a flag indicating that the pixel belongs to a moving area, a still area, or a mixed area may be generated.

【0313】前景に対応するオブジェクトがテクスチャ
を有す場合、領域特定部103は、より正確に動き領域
を特定することができる。
When the object corresponding to the foreground has a texture, the area specifying unit 103 can specify the moving area more accurately.

【0314】領域特定部103は、動き領域を示す領域
情報を前景領域を示す領域情報として、また、静止領域
を示す領域情報を背景領域を示す領域情報として出力す
ることができる。
The area specifying unit 103 can output area information indicating a moving area as area information indicating a foreground area and area information indicating a still area as area information indicating a background area.

【0315】なお、背景に対応するオブジェクトが静止
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した領域を特定する処理を適用
することができる。例えば、背景領域に対応する画像が
一様に動いているとき、領域特定部103は、この動き
に対応して画像全体をシフトさせ、背景に対応するオブ
ジェクトが静止している場合と同様に処理する。また、
背景領域に対応する画像が局所毎に異なる動きを含んで
いるとき、領域特定部103は、動きに対応した画素を
選択して、上述の処理を実行する。
Although the description has been made assuming that the object corresponding to the background is stationary, the above-described processing for specifying the area can be applied even if the image corresponding to the background area includes motion. For example, when the image corresponding to the background area is moving uniformly, the area specifying unit 103 shifts the entire image in accordance with this movement, and performs the same processing as when the object corresponding to the background is stationary. I do. Also,
When the image corresponding to the background area includes a different motion for each local area, the area specifying unit 103 selects a pixel corresponding to the motion and executes the above-described processing.

【0316】図37は、混合比算出部104の構成の一
例を示すブロック図である。推定混合比処理部201
は、入力画像を基に、カバードバックグラウンド領域の
モデルに対応する演算により、画素毎に推定混合比を算
出して、算出した推定混合比を混合比決定部203に供
給する。
FIG. 37 is a block diagram showing an example of the configuration of the mixture ratio calculating section 104. Estimated mixture ratio processing unit 201
Calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and supplies the calculated estimated mixture ratio to the mixture ratio determination unit 203.

【0317】推定混合比処理部202は、入力画像を基
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を混合比決定部203に供給する。
The estimated mixture ratio processing unit 202 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and determines the calculated estimated mixture ratio for the mixture ratio. To the unit 203.

【0318】前景に対応するオブジェクトがシャッタ時
間内に等速で動いていると仮定できるので、混合領域に
属する画素の混合比αは、以下の性質を有する。すなわ
ち、混合比αは、画素の位置の変化に対応して、直線的
に変化する。画素の位置の変化を1次元とすれば、混合
比αの変化は、直線で表現することができ、画素の位置
の変化を2次元とすれば、混合比αの変化は、平面で表
現することができる。
Since it can be assumed that the object corresponding to the foreground is moving at a constant speed within the shutter time, the mixture ratio α of the pixels belonging to the mixed area has the following properties. That is, the mixture ratio α changes linearly in accordance with the change in the position of the pixel. If the change in the pixel position is one-dimensional, the change in the mixture ratio α can be represented by a straight line. If the change in the pixel position is two-dimensional, the change in the mixture ratio α is represented by a plane. be able to.

【0319】なお、1フレームの期間は短いので、前景
に対応するオブジェクトが剛体であり、等速で移動して
いると仮定が成り立つ。
Since the period of one frame is short, it is assumed that the object corresponding to the foreground is a rigid body and moves at a constant speed.

【0320】この場合、混合比αの傾きは、前景のシャ
ッタ時間内での動き量vの逆比となる。
In this case, the inclination of the mixture ratio α is the inverse ratio of the movement amount v within the shutter time of the foreground.

【0321】理想的な混合比αの例を図38に示す。理
想的な混合比αの混合領域における傾きlは、動き量vの
逆数として表すことができる。
FIG. 38 shows an example of the ideal mixture ratio α. The gradient l in the mixing region having the ideal mixing ratio α can be represented as the reciprocal of the motion amount v.

【0322】図38に示すように、理想的な混合比α
は、背景領域において、1の値を有し、前景領域におい
て、0の値を有し、混合領域において、0を越え1未満
の値を有する。
As shown in FIG. 38, the ideal mixture ratio α
Has a value of 1 in the background region, a value of 0 in the foreground region, and a value exceeding 0 and less than 1 in the mixed region.

【0323】図39の例において、フレーム#nの左から
7番目の画素の画素値C06は、フレーム#n-1の左から7
番目の画素の画素値P06を用いて、式(14)で表すこ
とができる。
In the example of FIG. 39, the pixel value C06 of the seventh pixel from the left of frame #n is the seventh pixel value from the left of frame # n-1.
Expression (14) can be expressed by using the pixel value P06 of the th pixel.

【0324】[0324]

【数3】 (Equation 3)

【0325】式(14)において、画素値C06を混合領
域の画素の画素値Mと、画素値P06を背景領域の画素の画
素値Bと表現する。すなわち、混合領域の画素の画素値M
および背景領域の画素の画素値Bは、それぞれ、式(1
5)および式(16)のように表現することができる。
In equation (14), the pixel value C06 is expressed as the pixel value M of the pixel in the mixed area, and the pixel value P06 is expressed as the pixel value B of the pixel in the background area. That is, the pixel value M of the pixel in the mixed area
And the pixel value B of the pixel in the background area are given by the formula (1)
5) and Expression (16).

【0326】 M=C06 (15) B=P06 (16)M = C06 (15) B = P06 (16)

【0327】式(14)中の2/vは、混合比αに対応す
る。動き量vが4なので、フレーム#nの左から7番目の
画素の混合比αは、0.5となる。
[0327] 2 / v in the equation (14) corresponds to the mixture ratio α. Since the motion amount v is 4, the mixture ratio α of the seventh pixel from the left of frame #n is 0.5.

【0328】以上のように、注目しているフレーム#nの
画素値Cを混合領域の画素値と見なし、フレーム#nの前
のフレーム#n-1の画素値Pを背景領域の画素値と見なす
ことで、混合比αを示す式(13)は、式(17)のよ
うに書き換えられる。
As described above, the pixel value C of the focused frame #n is regarded as the pixel value of the mixed area, and the pixel value P of the frame # n-1 before the frame #n is regarded as the pixel value of the background area. By considering this, Expression (13) indicating the mixture ratio α is rewritten as Expression (17).

【0329】 C=α・P+f (17) 式(17)のfは、注目している画素に含まれる前景の
成分の和ΣiFi/vである。式(17)に含まれる変数
は、混合比αおよび前景の成分の和fの2つである。
C = α · P + f (17) f in Expression (17) is the sum Σ i Fi / v of the foreground components included in the pixel of interest. The variables included in equation (17) are the mixture ratio α and the sum f of the foreground components.

【0330】同様に、アンカバードバックグラウンド領
域における、動き量vが4であり、時間方向の仮想分割
数が4である、画素値を時間方向に展開したモデルを図
40に示す。
Similarly, FIG. 40 shows a model obtained by expanding pixel values in the uncovered background area in which the amount of motion v is 4 and the number of virtual divisions in the time direction is 4, in the time direction.

【0331】アンカバードバックグラウンド領域におい
て、上述したカバードバックグラウンド領域における表
現と同様に、注目しているフレーム#nの画素値Cを混合
領域の画素値と見なし、フレーム#nの後のフレーム#n+1
の画素値Nを背景領域の画素値と見なすことで、混合比
αを示す式(13)は、式(18)のように表現するこ
とができる。
In the uncovered background area, similarly to the expression in the covered background area, the pixel value C of the frame #n of interest is regarded as the pixel value of the mixed area, and the frame #n after the frame #n n + 1
Expression (13) indicating the mixture ratio α can be expressed as Expression (18) by regarding the pixel value N of the pixel value as the pixel value of the background region.

【0332】 C=α・N+f (18)C = α · N + f (18)

【0333】なお、背景のオブジェクトが静止している
として説明したが、背景のオブジェクトが動いている場
合においても、背景の動き量vに対応させた位置の画素
の画素値を利用することにより、式(14)乃至式(1
8)を適用することができる。例えば、図39におい
て、背景に対応するオブジェクトの動き量vが2であ
り、仮想分割数が2であるとき、背景に対応するオブジ
ェクトが図中の右側に動いているとき、式(16)にお
ける背景領域の画素の画素値Bは、画素値P04とされる。
Although the background object has been described as being stationary, even when the background object is moving, the pixel value of the pixel at the position corresponding to the background movement amount v can be used. Equations (14) through (1)
8) can be applied. For example, in FIG. 39, when the motion amount v of the object corresponding to the background is 2 and the number of virtual divisions is 2, when the object corresponding to the background is moving to the right in the drawing, the expression (16) The pixel value B of the pixel in the background area is set to a pixel value P04.

【0334】式(17)および式(18)は、それぞれ
2つの変数を含むので、そのままでは混合比αを求める
ことができない。ここで、画像は一般的に空間的に相関
が強いので近接する画素同士でほぼ同じ画素値となる。
Since the equations (17) and (18) each include two variables, the mixture ratio α cannot be obtained as it is. Here, since an image generally has a strong spatial correlation, adjacent pixels have substantially the same pixel value.

【0335】そこで、前景成分は、空間的に相関が強い
ので、前景の成分の和fを前または後のフレームから導
き出せるように式を変形して、混合比αを求める。
Therefore, since the foreground components have a strong spatial correlation, the equation is modified so that the sum f of the foreground components can be derived from the previous or subsequent frame, and the mixture ratio α is obtained.

【0336】図41のフレーム#nの左から7番目の画素
の画素値Mcは、式(19)で表すことができる。
The pixel value Mc of the seventh pixel from the left of frame #n in FIG. 41 can be expressed by equation (19).

【0337】[0337]

【数4】 式(19)の右辺第1項の2/vは、混合比αに相当す
る。式(19)の右辺第2項は、後のフレーム#n+1の画
素値を利用して、式(20)のように表すこととする。
(Equation 4) 2 / v in the first term on the right side of the equation (19) corresponds to the mixture ratio α. The second term on the right side of Expression (19) is expressed as Expression (20) using the pixel value of the subsequent frame # n + 1.

【0338】[0338]

【数5】 (Equation 5)

【0339】ここで、前景の成分の空間相関を利用し
て、式(21)が成立するとする。
Here, it is assumed that Expression (21) is established using the spatial correlation of the foreground components.

【0340】 F=F05=F06=F07=F08=F09=F10=F11=F12 (21) 式(20)は、式(21)を利用して、式(22)のよ
うに置き換えることができる。
F = F05 = F06 = F07 = F08 = F09 = F10 = F11 = F12 (21) Expression (20) can be replaced by expression (22) using expression (21).

【0341】[0341]

【数6】 (Equation 6)

【0342】結果として、βは、式(23)で表すこと
ができる。
As a result, β can be expressed by equation (23).

【0343】 β=2/4 (23)Β = 2/4 (23)

【0344】一般的に、式(21)に示すように混合領
域に関係する前景の成分が等しいと仮定すると、混合領
域の全ての画素について、内分比の関係から式(24)
が成立する。
In general, assuming that foreground components related to the mixed area are equal as shown in equation (21), equation (24) is obtained from the relationship of the internal division ratio for all pixels in the mixed area.
Holds.

【0345】 β=1-α (24)Β = 1-α (24)

【0346】式(24)が成立するとすれば、式(1
7)は、式(25)に示すように展開することができ
る。
If equation (24) holds, then equation (1)
7) can be expanded as shown in equation (25).

【0347】[0347]

【数7】 (Equation 7)

【0348】同様に、式(24)が成立するとすれば、
式(18)は、式(26)に示すように展開することが
できる。
Similarly, if equation (24) holds, then
Equation (18) can be expanded as shown in equation (26).

【0349】[0349]

【数8】 (Equation 8)

【0350】式(25)および式(26)において、
C,N、およびPは、既知の画素値なので、式(25)お
よび式(26)に含まれる変数は、混合比αのみであ
る。式(25)および式(26)における、C,N、およ
びPの関係を図42に示す。Cは、混合比αを算出する、
フレーム#nの注目している画素の画素値である。Nは、
注目している画素と空間方向の位置が対応する、フレー
ム#n+1の画素の画素値である。Pは、注目している画素
と空間方向の位置が対応する、フレーム#n-1の画素の画
素値である。
In equations (25) and (26),
Since C, N, and P are known pixel values, the only variable included in Expressions (25) and (26) is the mixture ratio α. FIG. 42 shows the relationship between C, N, and P in Expressions (25) and (26). C calculates the mixture ratio α,
This is the pixel value of the pixel of interest in frame #n. N is
The pixel value of the pixel of frame # n + 1 corresponding to the pixel of interest and the position in the spatial direction. P is the pixel value of the pixel of frame # n-1 corresponding to the pixel of interest and the position in the spatial direction.

【0351】従って、式(25)および式(26)のそ
れぞれに1つの変数が含まれることとなるので、3つの
フレームの画素の画素値を利用して、混合比αを算出す
ることができる。式(25)および式(26)を解くこ
とにより、正しい混合比αが算出されるための条件は、
混合領域に関係する前景の成分が等しい、すなわち、前
景のオブジェクトが静止しているとき撮像された前景の
画像オブジェクトにおいて、前景のオブジェクトの動き
の方向に対応する、画像オブジェクトの境界に位置する
画素であって、動き量vの2倍の数の連続している画素
の画素値が、一定であることである。
Therefore, since each of the equations (25) and (26) includes one variable, the mixture ratio α can be calculated using the pixel values of the pixels of the three frames. . By solving equations (25) and (26), the conditions for calculating the correct mixture ratio α are as follows:
Foreground components related to the mixed region, that is, pixels located at the boundary of the image object corresponding to the direction of motion of the foreground object in the foreground image object captured when the foreground object is stationary That is, the pixel values of the continuous pixels twice as many as the motion amount v are constant.

【0352】以上のように、カバードバックグラウンド
領域に属する画素の混合比αは、式(27)により算出
され、アンカバードバックグラウンド領域に属する画素
の混合比αは、式(28)により算出される。
As described above, the mixture ratio α of the pixels belonging to the covered background area is calculated by the equation (27), and the mixture ratio α of the pixels belonging to the uncovered background area is calculated by the equation (28). You.

【0353】 α=(C-N)/(P-N) (27) α=(C-P)/(N-P) (28)Α = (C-N) / (P-N) (27) α = (C-P) / (N-P) (28)

【0354】図43は、推定混合比処理部201の構成
を示すブロック図である。フレームメモリ221は、入
力された画像をフレーム単位で記憶し、入力画像として
入力されているフレームから1つ後のフレームをフレー
ムメモリ222および混合比演算部223に供給する。
FIG. 43 is a block diagram showing a configuration of the estimated mixture ratio processing section 201. The frame memory 221 stores the input image in frame units, and supplies the next frame after the frame input as the input image to the frame memory 222 and the mixture ratio calculation unit 223.

【0355】フレームメモリ222は、入力された画像
をフレーム単位で記憶し、フレームメモリ221から供
給されているフレームから1つ後のフレームを混合比演
算部223に供給する。
The frame memory 222 stores the input image in frame units, and supplies the next frame from the frame supplied from the frame memory 221 to the mixture ratio calculation unit 223.

【0356】従って、入力画像としてフレーム#n+1が混
合比演算部223に入力されているとき、フレームメモ
リ221は、フレーム#nを混合比演算部223に供給
し、フレームメモリ222は、フレーム#n-1を混合比演
算部223に供給する。
Therefore, when frame # n + 1 is input as an input image to the mixture ratio calculator 223, the frame memory 221 supplies the frame #n to the mixture ratio calculator 223, and the frame memory 222 # n−1 is supplied to the mixture ratio calculation unit 223.

【0357】混合比演算部223は、式(27)に示す
演算により、フレーム#nの注目している画素の画素値
C、注目している画素と空間的位置が対応する、フレー
ム#n+1の画素の画素値N、および注目している画素と空
間的位置が対応する、フレーム#n-1の画素の画素値Pを
基に、注目している画素の推定混合比を算出して、算出
した推定混合比を出力する。例えば、背景が静止してい
るとき、混合比演算部223は、フレーム#nの注目して
いる画素の画素値C、注目している画素とフレーム内の
位置が同じ、フレーム#n+1の画素の画素値N、および注
目している画素とフレーム内の位置が同じ、フレーム#n
-1の画素の画素値Pを基に、注目している画素の推定混
合比を算出して、算出した推定混合比を出力する。
The mixture ratio calculator 223 calculates the pixel value of the pixel of interest in frame #n by the calculation shown in equation (27).
C, the pixel value N of the pixel of frame # n + 1 corresponding to the pixel of interest and the spatial position, and the pixel value of the pixel of frame # n-1 corresponding to the pixel of interest and the spatial position Based on the value P, an estimated mixture ratio of the pixel of interest is calculated, and the calculated estimated mixture ratio is output. For example, when the background is stationary, the mixture ratio calculating unit 223 determines the pixel value C of the pixel of interest in frame #n, the pixel value of frame # n + 1 in the same position as the pixel of interest in the frame. The pixel value N of the pixel, and the position of the pixel of interest and the position in the frame are the same, frame #n
Based on the pixel value P of the pixel of −1, the estimated mixing ratio of the pixel of interest is calculated, and the calculated estimated mixing ratio is output.

【0358】このように、推定混合比処理部201は、
入力画像を基に、推定混合比を算出して、混合比決定部
203に供給することができる。
Thus, the estimated mixture ratio processing unit 201
An estimated mixture ratio can be calculated based on the input image and supplied to the mixture ratio determination unit 203.

【0359】なお、推定混合比処理部202は、推定混
合比処理部201が式(27)に示す演算により、注目
している画素の推定混合比を算出するのに対して、式
(28)に示す演算により、注目している画素の推定混
合比を算出する部分が異なることを除き、推定混合比処
理部201と同様なので、その説明は省略する。
The estimated mixture ratio processing unit 202 calculates the estimated mixture ratio of the pixel of interest by the calculation shown in Expression (27), whereas the estimated mixture ratio processing unit 201 calculates Expression (28). Is the same as that of the estimated mixture ratio processing unit 201 except that the part for calculating the estimated mixture ratio of the pixel of interest is different from the operation shown in FIG.

【0360】図44は、推定混合比処理部201により
算出された推定混合比の例を示す図である。図44に示
す推定混合比は、等速で動いているオブジェクトに対応
する前景の動き量vが11である場合の結果を、1ライ
ンに対して示すものである。
FIG. 44 is a diagram showing an example of the estimated mixture ratio calculated by the estimated mixture ratio processing unit 201. The estimated mixture ratio shown in FIG. 44 shows a result in a case where the foreground motion amount v corresponding to an object moving at a constant speed is 11, for one line.

【0361】推定混合比は、混合領域において、図38
に示すように、ほぼ直線的に変化していることがわか
る。
The estimated mixture ratio is shown in FIG.
It can be seen that as shown in FIG.

【0362】図37に戻り、混合比決定部203は、領
域特定部103から供給された、混合比αの算出の対象
となる画素が、前景領域、背景領域、カバードバックグ
ラウンド領域、またはアンカバードバックグラウンド領
域のいずれかに属するかを示す領域情報を基に、混合比
αを設定する。混合比決定部203は、対象となる画素
が前景領域に属する場合、0を混合比αに設定し、対象
となる画素が背景領域に属する場合、1を混合比αに設
定し、対象となる画素がカバードバックグラウンド領域
に属する場合、推定混合比処理部201から供給された
推定混合比を混合比αに設定し、対象となる画素がアン
カバードバックグラウンド領域に属する場合、推定混合
比処理部202から供給された推定混合比を混合比αに
設定する。混合比決定部203は、領域情報を基に設定
した混合比αを出力する。
Returning to FIG. 37, the mixture ratio determination unit 203 determines whether the pixel for which the mixture ratio α is supplied from the region identification unit 103 is a foreground region, a background region, a covered background region, or an uncovered region. The mixing ratio α is set based on area information indicating whether the pixel belongs to any of the background areas. If the target pixel belongs to the foreground area, the mixture ratio determination unit 203 sets 0 to the mixture ratio α, and if the target pixel belongs to the background area, sets 1 to the mixture ratio α and becomes the target. If the pixel belongs to the covered background area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 201 is set to the mixture ratio α, and if the target pixel belongs to the uncovered background area, the estimated mixture ratio processing unit The estimated mixture ratio supplied from 202 is set to the mixture ratio α. The mixture ratio determination unit 203 outputs a mixture ratio α set based on the region information.

【0363】図45は、混合比算出部104の他の構成
を示すブロック図である。選択部231は、領域特定部
103から供給された領域情報を基に、カバードバック
グラウンド領域に属する画素および、これに対応する前
および後のフレームの画素を推定混合比処理部232に
供給する。選択部231は、領域特定部103から供給
された領域情報を基に、アンカバードバックグラウンド
領域に属する画素および、これに対応する前および後の
フレームの画素を推定混合比処理部233に供給する。
FIG. 45 is a block diagram showing another configuration of mixture ratio calculating section 104. In FIG. The selecting unit 231 supplies the pixels belonging to the covered background area and the corresponding pixels of the previous and subsequent frames to the estimated mixture ratio processing unit 232 based on the area information supplied from the area specifying unit 103. The selection unit 231 supplies the pixels belonging to the uncovered background area and the corresponding pixels of the previous and subsequent frames to the estimated mixture ratio processing unit 233 based on the area information supplied from the area identification unit 103. .

【0364】推定混合比処理部232は、選択部231
から入力された画素値を基に、式(27)に示す演算に
より、カバードバックグラウンド領域に属する、注目し
ている画素の推定混合比を算出して、算出した推定混合
比を選択部234に供給する。
The estimated mixture ratio processing unit 232 includes a selection unit 231
Based on the pixel value input from, the estimated mixture ratio of the pixel of interest belonging to the covered background area is calculated by the calculation shown in Expression (27), and the calculated estimated mixture ratio is sent to the selection unit 234. Supply.

【0365】推定混合比処理部233は、選択部231
から入力された画素値を基に、式(28)に示す演算に
より、アンカバードバックグラウンド領域に属する、注
目している画素の推定混合比を算出して、算出した推定
混合比を選択部234に供給する。
The estimated mixture ratio processing unit 233 includes a selection unit 231
Based on the pixel value input from, the estimated mixture ratio of the pixel of interest belonging to the uncovered background area is calculated by the operation shown in Expression (28), and the calculated estimated mixture ratio is selected by the selection unit 234. To supply.

【0366】選択部234は、領域特定部103から供
給された領域情報を基に、対象となる画素が前景領域に
属する場合、0である推定混合比を選択して、混合比α
に設定し、対象となる画素が背景領域に属する場合、1
である推定混合比を選択して、混合比αに設定する。選
択部234は、対象となる画素がカバードバックグラウ
ンド領域に属する場合、推定混合比処理部232から供
給された推定混合比を選択して混合比αに設定し、対象
となる画素がアンカバードバックグラウンド領域に属す
る場合、推定混合比処理部233から供給された推定混
合比を選択して混合比αに設定する。選択部234は、
領域情報を基に選択して設定した混合比αを出力する。
When the target pixel belongs to the foreground area based on the area information supplied from the area specifying unit 103, the selection unit 234 selects an estimated mixture ratio of 0, and selects the mixture ratio α.
If the target pixel belongs to the background area, 1
Is selected and set to the mixture ratio α. When the target pixel belongs to the covered background area, the selection unit 234 selects the estimated mixture ratio supplied from the estimated mixture ratio processing unit 232 and sets the mixture to the mixture ratio α. If it belongs to the ground area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 233 is selected and set as the mixture ratio α. The selection unit 234
The mixture ratio α selected and set based on the region information is output.

【0367】このように、図45に示す他の構成を有す
る混合比算出部104は、画像の含まれる画素毎に混合
比αを算出して、算出した混合比αを出力することがで
きる。
As described above, the mixture ratio calculation unit 104 having another configuration shown in FIG. 45 can calculate the mixture ratio α for each pixel included in the image, and can output the calculated mixture ratio α.

【0368】図46のフローチャートを参照して、図3
7に構成を示す混合比算出部104の混合比αの算出の
処理を説明する。ステップS151において、混合比算
出部104は、領域特定部103から供給された領域情
報を取得する。ステップS152において、推定混合比
処理部201は、カバードバックグラウンド領域に対応
するモデルにより推定混合比の演算の処理を実行し、算
出した推定混合比を混合比決定部203に供給する。混
合比推定の演算の処理の詳細は、図47のフローチャー
トを参照して、後述する。
Referring to the flowchart of FIG. 46, FIG.
The process of calculating the mixture ratio α by the mixture ratio calculator 104 shown in FIG. 7 will be described. In step S151, the mixture ratio calculation unit 104 acquires the region information supplied from the region identification unit 103. In step S152, the estimated mixture ratio processing unit 201 executes a process of calculating the estimated mixture ratio using a model corresponding to the covered background area, and supplies the calculated estimated mixture ratio to the mixture ratio determination unit 203. Details of the calculation process of the mixture ratio estimation will be described later with reference to the flowchart in FIG.

【0369】ステップS153において、推定混合比処
理部202は、アンカバードバックグラウンド領域に対
応するモデルにより推定混合比の演算の処理を実行し、
算出した推定混合比を混合比決定部203に供給する。
[0369] In step S153, the estimated mixture ratio processing unit 202 executes a process of calculating the estimated mixture ratio using a model corresponding to the uncovered background area.
The calculated estimated mixture ratio is supplied to the mixture ratio determination unit 203.

【0370】ステップS154において、混合比算出部
104は、フレーム全体について、混合比αを推定した
か否かを判定し、フレーム全体について、混合比αを推
定していないと判定された場合、ステップS152に戻
り、次の画素について混合比αを推定する処理を実行す
る。
In step S154, the mixture ratio calculator 104 determines whether the mixture ratio α has been estimated for the entire frame. If it is determined that the mixture ratio α has not been estimated for the entire frame, the process proceeds to step S154. Returning to S152, processing for estimating the mixture ratio α for the next pixel is executed.

【0371】ステップS154において、フレーム全体
について、混合比αを推定したと判定された場合、ステ
ップS155に進み、混合比決定部203は、画素が、
前景領域、背景領域、カバードバックグラウンド領域、
またはアンカバードバックグラウンド領域のいずれかに
属するかを示す、領域特定部103から供給された領域
情報を基に、混合比αを設定する。混合比決定部203
は、対象となる画素が前景領域に属する場合、0を混合
比αに設定し、対象となる画素が背景領域に属する場
合、1を混合比αに設定し、対象となる画素がカバード
バックグラウンド領域に属する場合、推定混合比処理部
201から供給された推定混合比を混合比αに設定し、
対象となる画素がアンカバードバックグラウンド領域に
属する場合、推定混合比処理部202から供給された推
定混合比を混合比αに設定し、処理は終了する。
If it is determined in step S154 that the mixture ratio α has been estimated for the entire frame, the process proceeds to step S155, where the mixture ratio determination unit 203 determines that the pixel is
Foreground area, background area, covered background area,
Alternatively, the mixing ratio α is set based on the area information supplied from the area specifying unit 103, which indicates which of the uncovered background areas belongs. Mixing ratio determining unit 203
Sets 0 to the mixture ratio α when the target pixel belongs to the foreground region, and sets 1 to the mixture ratio α when the target pixel belongs to the background region, and sets the target pixel to the covered background. If it belongs to the region, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 201 is set to the mixture ratio α,
If the target pixel belongs to the uncovered background area, the estimated mixture ratio supplied from the estimated mixture ratio processing unit 202 is set to the mixture ratio α, and the process ends.

【0372】このように、混合比算出部104は、領域
特定部103から供給された領域情報、および入力画像
を基に、各画素に対応する特徴量である混合比αを算出
することができる。
As described above, the mixture ratio calculation unit 104 can calculate the mixture ratio α, which is a feature amount corresponding to each pixel, based on the region information supplied from the region identification unit 103 and the input image. .

【0373】図45に構成を示す混合比算出部104の
混合比αの算出の処理は、図46のフローチャートで説
明した処理と同様なので、その説明は省略する。
The process of calculating the mixture ratio α by the mixture ratio calculator 104 having the configuration shown in FIG. 45 is the same as the process described in the flowchart of FIG. 46, and a description thereof will not be repeated.

【0374】次に、図46のステップS152に対応す
る、カバードバックグラウンド領域に対応するモデルに
よる混合比推定の処理を図47のフローチャートを参照
して説明する。
Next, the process of estimating the mixture ratio using the model corresponding to the covered background area, corresponding to step S152 in FIG. 46, will be described with reference to the flowchart in FIG.

【0375】ステップS171において、混合比演算部
223は、フレームメモリ221から、フレーム#nの注
目画素の画素値Cを取得する。
[0375] In step S171, the mixture ratio calculation unit 223 acquires the pixel value C of the target pixel of frame #n from the frame memory 221.

【0376】ステップS172において、混合比演算部
223は、フレームメモリ222から、注目画素に対応
する、フレーム#n-1の画素の画素値Pを取得する。
In step S172, the mixture ratio calculation unit 223 obtains the pixel value P of the pixel of frame # n-1 corresponding to the target pixel from the frame memory 222.

【0377】ステップS173において、混合比演算部
223は、入力画像に含まれる注目画素に対応する、フ
レーム#n+1の画素の画素値Nを取得する。
[0377] In step S173, the mixture ratio calculation unit 223 obtains the pixel value N of the pixel of frame # n + 1 corresponding to the target pixel included in the input image.

【0378】ステップS174において、混合比演算部
223は、フレーム#nの注目画素の画素値C、フレーム#
n-1の画素の画素値P、およびフレーム#n+1の画素の画素
値Nを基に、推定混合比を演算する。
[0378] In step S174, the mixture ratio calculation unit 223 determines the pixel value C of the target pixel in frame #n,
An estimated mixture ratio is calculated based on the pixel value P of the pixel of n−1 and the pixel value N of the pixel of frame # n + 1.

【0379】ステップS175において、混合比演算部
223は、フレーム全体について、推定混合比を演算す
る処理を終了したか否かを判定し、フレーム全体につい
て、推定混合比を演算する処理を終了していないと判定
された場合、ステップS171に戻り、次の画素につい
て推定混合比を算出する処理を繰り返す。
In step S175, the mixture ratio calculating section 223 determines whether or not the process of calculating the estimated mixture ratio has been completed for the entire frame, and has completed the process of calculating the estimated mixture ratio for the entire frame. If it is determined that there is no pixel, the process returns to step S171, and the process of calculating the estimated mixture ratio for the next pixel is repeated.

【0380】ステップS175において、フレーム全体
について、推定混合比を演算する処理を終了したと判定
された場合、処理は終了する。
If it is determined in step S175 that the process of calculating the estimated mixture ratio has been completed for the entire frame, the process ends.

【0381】このように、推定混合比処理部201は、
入力画像を基に、推定混合比を演算することができる。
Thus, the estimated mixture ratio processing unit 201
The estimated mixture ratio can be calculated based on the input image.

【0382】図46のステップS153におけるアンカ
バードバックグラウンド領域に対応するモデルによる混
合比推定の処理は、アンカバードバックグラウンド領域
のモデルに対応する式を利用した、図47のフローチャ
ートに示す処理と同様なので、その説明は省略する。
The process of estimating the mixture ratio in the model corresponding to the uncovered background region in step S153 in FIG. 46 is the same as the process shown in the flowchart in FIG. 47 using the equation corresponding to the model in the uncovered background region. Therefore, the description is omitted.

【0383】なお、図45に示す推定混合比処理部23
2および推定混合比処理部233は、図47に示すフロ
ーチャートと同様の処理を実行して推定混合比を演算す
るので、その説明は省略する。
The estimated mixture ratio processing unit 23 shown in FIG.
47 and the estimated mixture ratio processing unit 233 calculate the estimated mixture ratio by executing the same processing as that in the flowchart shown in FIG. 47, and the description thereof will be omitted.

【0384】また、背景に対応するオブジェクトが静止
しているとして説明したが、背景領域に対応する画像が
動きを含んでいても上述した混合比αを求める処理を適
用することができる。例えば、背景領域に対応する画像
が一様に動いているとき、推定混合比処理部201は、
背景の動きに対応して画像全体をシフトさせ、背景に対
応するオブジェクトが静止している場合と同様に処理す
る。また、背景領域に対応する画像が局所毎に異なる背
景の動きを含んでいるとき、推定混合比処理部201
は、混合領域に属する画素に対応する画素として、背景
の動きに対応した画素を選択して、上述の処理を実行す
る。
Although the description has been made assuming that the object corresponding to the background is stationary, the above-described processing for obtaining the mixture ratio α can be applied even when the image corresponding to the background area includes motion. For example, when the image corresponding to the background region is moving uniformly, the estimated mixture ratio processing unit 201
The entire image is shifted according to the movement of the background, and the processing is performed in the same manner as when the object corresponding to the background is stationary. When the image corresponding to the background region includes a background motion that differs for each local area, the estimated mixture ratio processing unit 201
Performs the above-described processing by selecting a pixel corresponding to the background movement as a pixel corresponding to a pixel belonging to the mixed area.

【0385】なお、図37または図45に示す混合比算
出部104の構成は、一例である。
The configuration of the mixture ratio calculating section 104 shown in FIG. 37 or FIG. 45 is an example.

【0386】また、混合比算出部104は、全ての画素
について、カバードバックグラウンド領域に対応するモ
デルによる混合比推定の処理のみを実行して、算出され
た推定混合比を混合比αとして出力するようにしてもよ
い。この場合において、混合比αは、カバードバックグ
ラウンド領域に属する画素について、背景の成分の割合
を示し、アンカバードバックグラウンド領域に属する画
素について、前景の成分の割合を示す。アンカバードバ
ックグラウンド領域に属する画素について、このように
算出された混合比αと1との差分の絶対値を算出して、
算出した絶対値を混合比αに設定すれば、信号処理部1
2は、アンカバードバックグラウンド領域に属する画素
について、背景の成分の割合を示す混合比αを求めるこ
とができる。
Also, the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the covered background area for all the pixels, and outputs the calculated estimated mixture ratio as the mixture ratio α. You may do so. In this case, the mixture ratio α indicates the ratio of the background component with respect to the pixels belonging to the covered background region, and indicates the ratio of the foreground component with respect to the pixels belonging to the uncovered background region. For pixels belonging to the uncovered background area, the absolute value of the difference between the mixture ratio α thus calculated and 1 is calculated,
If the calculated absolute value is set to the mixture ratio α, the signal processing unit 1
2 can determine the mixture ratio α indicating the ratio of the background component for the pixels belonging to the uncovered background area.

【0387】なお、同様に、混合比算出部104は、全
ての画素について、アンカバードバックグラウンド領域
に対応するモデルによる混合比推定の処理のみを実行し
て、算出された推定混合比を混合比αとして出力するよ
うにしてもよい。
Similarly, the mixture ratio calculation unit 104 executes only the mixture ratio estimation process using the model corresponding to the uncovered background area for all the pixels, and calculates the calculated estimated mixture ratio. You may make it output as (alpha).

【0388】次に、前景背景分離部105について説明
する。図48は、前景背景分離部105の構成の一例を
示すブロック図である。前景背景分離部105に供給さ
れた入力画像は、分離部251、スイッチ252、およ
びスイッチ254に供給される。カバードバックグラウ
ンド領域を示す情報、およびアンカバードバックグラウ
ンド領域を示す、領域特定部103から供給された領域
情報は、分離部251に供給される。前景領域を示す領
域情報は、スイッチ252に供給される。背景領域を示
す領域情報は、スイッチ254に供給される。
Next, the foreground / background separation unit 105 will be described. FIG. 48 is a block diagram illustrating an example of a configuration of the foreground / background separation unit 105. The input image supplied to the foreground / background separation unit 105 is supplied to a separation unit 251, a switch 252, and a switch 254. The information indicating the covered background area and the area information indicating the uncovered background area and supplied from the area specifying unit 103 are supplied to the separation unit 251. Area information indicating the foreground area is supplied to the switch 252. Area information indicating the background area is supplied to the switch 254.

【0389】混合比算出部104から供給された混合比
αは、分離部251に供給される。
The mixture ratio α supplied from the mixture ratio calculation section 104 is supplied to the separation section 251.

【0390】分離部251は、カバードバックグラウン
ド領域を示す領域情報、アンカバードバックグラウンド
領域を示す領域情報、および混合比αを基に、入力画像
から前景の成分を分離して、分離した前景の成分を合成
部253に供給するとともに、入力画像から背景の成分
を分離して、分離した背景の成分を合成部255に供給
する。
The separating section 251 separates the foreground component from the input image based on the area information indicating the covered background area, the area information indicating the uncovered background area, and the mixture ratio α. The component is supplied to the combining unit 253, the background component is separated from the input image, and the separated background component is supplied to the combining unit 255.

【0391】スイッチ252は、前景領域を示す領域情
報を基に、前景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる前景に対応する画素のみを合
成部253に供給する。
The switch 252 is closed when a pixel corresponding to the foreground is input, based on the area information indicating the foreground area, and supplies only the pixel corresponding to the foreground included in the input image to the synthesizing unit 253.

【0392】スイッチ254は、背景領域を示す領域情
報を基に、背景に対応する画素が入力されたとき、閉じ
られ、入力画像に含まれる背景に対応する画素のみを合
成部255に供給する。
The switch 254 is closed when a pixel corresponding to the background is input, based on the area information indicating the background area, and supplies only the pixel corresponding to the background included in the input image to the synthesizing unit 255.

【0393】合成部253は、分離部251から供給さ
れた前景に対応する成分、スイッチ252から供給され
た前景に対応する画素を基に、前景成分画像を合成し、
合成した前景成分画像を出力する。前景領域と混合領域
とは重複しないので、合成部253は、例えば、前景に
対応する成分と、前景に対応する画素とに論理和の演算
を適用して、前景成分画像を合成する。
The synthesizing section 253 synthesizes a foreground component image based on the foreground component supplied from the separation section 251 and the pixel corresponding to the foreground supplied from the switch 252.
The synthesized foreground component image is output. Since the foreground area and the mixed area do not overlap, the synthesis unit 253 synthesizes a foreground component image by applying a logical OR operation to, for example, a component corresponding to the foreground and a pixel corresponding to the foreground.

【0394】合成部253は、前景成分画像の合成の処
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、前景成分画像の合成の処理において、前景成分画
像を格納(上書き)する。従って、合成部253が出力
する前景成分画像の内、背景領域に対応する画素には、
画素値として0が格納されている。
The synthesizing unit 253 stores an image whose pixel values are all 0 in a built-in frame memory in the initialization processing executed at the beginning of the processing of synthesizing the foreground component image. , The foreground component image is stored (overwritten). Accordingly, in the foreground component image output by the synthesis unit 253, pixels corresponding to the background region are:
0 is stored as the pixel value.

【0395】合成部255は、分離部251から供給さ
れた背景に対応する成分、スイッチ254から供給され
た背景に対応する画素を基に、背景成分画像を合成し
て、合成した背景成分画像を出力する。背景領域と混合
領域とは重複しないので、合成部255は、例えば、背
景に対応する成分と、背景に対応する画素とに論理和の
演算を適用して、背景成分画像を合成する。
The synthesizing unit 255 synthesizes a background component image based on the component corresponding to the background supplied from the separating unit 251 and the pixel corresponding to the background supplied from the switch 254, and converts the synthesized background component image. Output. Since the background region and the mixed region do not overlap, the synthesis unit 255 synthesizes the background component image by, for example, applying a logical OR operation to the component corresponding to the background and the pixel corresponding to the background.

【0396】合成部255は、背景成分画像の合成の処
理の最初に実行される初期化の処理において、内蔵して
いるフレームメモリに全ての画素値が0である画像を格
納し、背景成分画像の合成の処理において、背景成分画
像を格納(上書き)する。従って、合成部255が出力
する背景成分画像の内、前景領域に対応する画素には、
画素値として0が格納されている。
The synthesizing unit 255 stores an image whose pixel values are all 0 in a built-in frame memory in an initialization process executed at the beginning of the background component image synthesizing process. The background component image is stored (overwritten). Accordingly, in the background component image output by the synthesis unit 255, pixels corresponding to the foreground area include:
0 is stored as the pixel value.

【0397】図49は、前景背景分離部105に入力さ
れる入力画像、並びに前景背景分離部105から出力さ
れる前景成分画像および背景成分画像を示す図である。
FIG. 49 is a diagram showing an input image input to the foreground / background separation unit 105, and a foreground component image and a background component image output from the foreground / background separation unit 105.

【0398】図49(A)は、表示される画像の模式図
であり、図49(B)は、図49(A)に対応する前景
領域に属する画素、背景領域に属する画素、および混合
領域に属する画素を含む1ラインの画素を時間方向に展
開したモデル図を示す。
FIG. 49A is a schematic diagram of an image to be displayed, and FIG. 49B is a diagram showing a pixel belonging to the foreground region, a pixel belonging to the background region, and a mixed region corresponding to FIG. 1 is a model diagram in which pixels of one line including pixels belonging to are developed in the time direction.

【0399】図49(A)および図49(B)に示すよ
うに、前景背景分離部105から出力される背景成分画
像は、背景領域に属する画素、および混合領域の画素に
含まれる背景の成分から構成される。
As shown in FIGS. 49 (A) and 49 (B), the background component image output from foreground / background separation unit 105 is composed of the background component included in the background region and the background component included in the pixel of the mixed region. Consists of

【0400】図49(A)および図49(B)に示すよ
うに、前景背景分離部105から出力される前景成分画
像は、前景領域に属する画素、および混合領域の画素に
含まれる前景の成分から構成される。
As shown in FIGS. 49 (A) and 49 (B), the foreground component image output from foreground / background separator 105 is composed of pixels belonging to the foreground area and foreground components included in the pixels of the mixed area. Consists of

【0401】混合領域の画素の画素値は、前景背景分離
部105により、背景の成分と、前景の成分とに分離さ
れる。分離された背景の成分は、背景領域に属する画素
と共に、背景成分画像を構成する。分離された前景の成
分は、前景領域に属する画素と共に、前景成分画像を構
成する。
The pixel values of the pixels in the mixed area are separated into a background component and a foreground component by the foreground / background separation unit 105. The separated background component forms a background component image together with the pixels belonging to the background area. The separated foreground component forms a foreground component image together with the pixels belonging to the foreground area.

【0402】このように、前景成分画像は、背景領域に
対応する画素の画素値が0とされ、前景領域に対応する
画素および混合領域に対応する画素に意味のある画素値
が設定される。同様に、背景成分画像は、前景領域に対
応する画素の画素値が0とされ、背景領域に対応する画
素および混合領域に対応する画素に意味のある画素値が
設定される。
As described above, in the foreground component image, the pixel value of the pixel corresponding to the background area is set to 0, and significant pixel values are set to the pixel corresponding to the foreground area and the pixel corresponding to the mixed area. Similarly, in the background component image, the pixel value of the pixel corresponding to the foreground area is set to 0, and meaningful pixel values are set to the pixel corresponding to the background area and the pixel corresponding to the mixed area.

【0403】次に、分離部251が実行する、混合領域
に属する画素から前景の成分、および背景の成分を分離
する処理について説明する。
Next, the process of separating the foreground component and the background component from the pixels belonging to the mixed area, which is performed by the separating unit 251 will be described.

【0404】図50は、図中の左から右に移動するオブ
ジェクトに対応する前景を含む、2つのフレームの前景
の成分および背景の成分を示す画像のモデルである。図
50に示す画像のモデルにおいて、前景の動き量vは4
であり、仮想分割数は、4とされている。
FIG. 50 is an image model showing foreground components and background components of two frames including a foreground corresponding to an object moving from left to right in the figure. In the image model shown in FIG. 50, the motion amount v of the foreground is 4
, And the number of virtual divisions is 4.

【0405】フレーム#nにおいて、最も左の画素、およ
び左から14番目乃至18番目の画素は、背景の成分の
みから成り、背景領域に属する。フレーム#nにおいて、
左から2番目乃至4番目の画素は、背景の成分および前
景の成分を含み、アンカバードバックグラウンド領域に
属する。フレーム#nにおいて、左から11番目乃至13
番目の画素は、背景の成分および前景の成分を含み、カ
バードバックグラウンド領域に属する。フレーム#nにお
いて、左から5番目乃至10番目の画素は、前景の成分
のみから成り、前景領域に属する。
In frame #n, the leftmost pixel and the fourteenth through eighteenth pixels from the left consist only of background components and belong to the background area. In frame #n,
The second to fourth pixels from the left include background components and foreground components, and belong to the uncovered background area. In frame #n, eleventh to thirteenth from the left
The second pixel contains background and foreground components and belongs to the covered background area. In frame #n, the fifth through tenth pixels from the left consist only of foreground components and belong to the foreground area.

【0406】フレーム#n+1において、左から1番目乃至
5番目の画素、および左から18番目の画素は、背景の
成分のみから成り、背景領域に属する。フレーム#n+1に
おいて、左から6番目乃至8番目の画素は、背景の成分
および前景の成分を含み、アンカバードバックグラウン
ド領域に属する。フレーム#n+1において、左から15番
目乃至17番目の画素は、背景の成分および前景の成分
を含み、カバードバックグラウンド領域に属する。フレ
ーム#n+1において、左から9番目乃至14番目の画素
は、前景の成分のみから成り、前景領域に属する。
In frame # n + 1, the first through fifth pixels from the left and the eighteenth pixel from the left consist only of background components and belong to the background area. In frame # n + 1, the sixth through eighth pixels from the left include the background component and the foreground component, and belong to the uncovered background area. In frame # n + 1, the fifteenth through seventeenth pixels from the left include the background component and the foreground component, and belong to the covered background area. In frame # n + 1, the ninth to fourteenth pixels from the left consist only of foreground components and belong to the foreground area.

【0407】図51は、カバードバックグラウンド領域
に属する画素から前景の成分を分離する処理を説明する
図である。図51において、α1乃至α18は、フレー
ム#nにおける画素のぞれぞれに対応する混合比である。
図51において、左から15番目乃至17番目の画素
は、カバードバックグラウンド領域に属する。
FIG. 51 is a view for explaining the processing for separating the foreground components from the pixels belonging to the covered background area. In FIG. 51, α1 to α18 are mixing ratios corresponding to the respective pixels in frame #n.
In FIG. 51, the fifteenth through seventeenth pixels from the left belong to the covered background area.

【0408】フレーム#nの左から15番目の画素の画素
値C15は、式(29)で表される。
The pixel value C15 of the fifteenth pixel from the left of frame #n is represented by equation (29).

【0409】 C15=B15/v+F09/v+F08/v+F07/v =α15・B15+F09/v+F08/v+F07/v =α15・P15+F09/v+F08/v+F07/v (29) ここで、α15は、フレーム#nの左から15番目の画素の
混合比である。P15は、フレーム#n-1の左から15番目
の画素の画素値である。
C15 = B15 / v + F09 / v + F08 / v + F07 / v = α15 ・ B15 + F09 / v + F08 / v + F07 / v = α15 ・ P15 + F09 / v + F08 / v + F07 / v (29) Here, α15 is a mixture ratio of the fifteenth pixel from the left of frame #n. P15 is the pixel value of the fifteenth pixel from the left of frame # n-1.

【0410】式(29)を基に、フレーム#nの左から1
5番目の画素の前景の成分の和f15は、式(30)で表
される。
[0410] Based on equation (29), one frame from the left of frame #n
The sum f15 of the foreground components of the fifth pixel is represented by Expression (30).

【0411】 f15=F09/v+F08/v+F07/v =C15-α15・P15 (30)F15 = F09 / v + F08 / v + F07 / v = C15-α15 · P15 (30)

【0412】同様に、フレーム#nの左から16番目の画
素の前景の成分の和f16は、式(31)で表され、フレ
ーム#nの左から17番目の画素の前景の成分の和f17
は、式(32)で表される。
Similarly, the sum f16 of the foreground components of the sixteenth pixel from the left of frame #n is expressed by equation (31), and the sum f17 of the foreground components of the seventeenth pixel from the left of frame #n is
Is represented by equation (32).

【0413】 f16=C16-α16・P16 (31) f17=C17-α17・P17 (32)F16 = C16-α16 · P16 (31) f17 = C17-α17 · P17 (32)

【0414】このように、カバードバックグラウンド領
域に属する画素の画素値Cに含まれる前景の成分fcは、
式(33)で計算される。
Thus, the foreground component fc contained in the pixel value C of the pixel belonging to the covered background area is
It is calculated by equation (33).

【0415】 fc=C-α・P (33)P
は、1つ前のフレームの、対応する画素の画素値であ
る。
Fc = C-α · P (33) P
Is the pixel value of the corresponding pixel in the previous frame.

【0416】図52は、アンカバードバックグラウンド
領域に属する画素から前景の成分を分離する処理を説明
する図である。図52において、α1乃至α18は、フ
レーム#nにおける画素のぞれぞれに対応する混合比であ
る。図52において、左から2番目乃至4番目の画素
は、アンカバードバックグラウンド領域に属する。
FIG. 52 is a view for explaining the processing for separating the foreground components from the pixels belonging to the uncovered background area. In FIG. 52, α1 to α18 are mixing ratios corresponding to the respective pixels in frame #n. In FIG. 52, the second to fourth pixels from the left belong to the uncovered background area.

【0417】フレーム#nの左から2番目の画素の画素値
C02は、式(34)で表される。
[0417] The pixel value of the second pixel from the left of frame #n
C02 is represented by equation (34).

【0418】 C02=B02/v+B02/v+B02/v+F01/v =α2・B02+F01/v =α2・N02+F01/v (34) ここで、α2は、フレーム#nの左から2番目の画素の混
合比である。N02は、フレーム#n+1の左から2番目の画
素の画素値である。
C02 = B02 / v + B02 / v + B02 / v + F01 / v = α2 · B02 + F01 / v = α2 · N02 + F01 / v (34) where α2 is the left of frame #n Is the mixture ratio of the second pixel from. N02 is the pixel value of the second pixel from the left of frame # n + 1.

【0419】式(34)を基に、フレーム#nの左から2
番目の画素の前景の成分の和f02は、式(35)で表さ
れる。
[0419] Based on equation (34), two frames from the left of frame #n
The sum f02 of the foreground components of the th pixel is expressed by Expression (35).

【0420】 f02=F01/v =C02-α2・N02 (35)F02 = F01 / v = C02-α2 · N02 (35)

【0421】同様に、フレーム#nの左から3番目の画素
の前景の成分の和f03は、式(36)で表され、フレー
ム#nの左から4番目の画素の前景の成分の和f04は、式
(37)で表される。
Similarly, the sum f03 of the foreground components of the third pixel from the left of frame #n is expressed by equation (36), and the sum f04 of the foreground components of the fourth pixel from the left of frame #n is Is represented by equation (37).

【0422】 f03=C03-α3・N03 (36) f04=C04-α4・N04 (37)F03 = C03-α3 · N03 (36) f04 = C04-α4 · N04 (37)

【0423】このように、アンカバードバックグラウン
ド領域に属する画素の画素値Cに含まれる前景の成分fu
は、式(38)で計算される。
As described above, the foreground component fu included in the pixel value C of the pixel belonging to the uncovered background area is obtained.
Is calculated by Expression (38).

【0424】 fu=C-α・N (38) Nは、1つ後のフレームの、対応する画素の画素値であ
る。
Fu = C−α · N (38) N is the pixel value of the corresponding pixel in the next frame.

【0425】このように、分離部251は、領域情報に
含まれる、カバードバックグラウンド領域を示す情報、
およびアンカバードバックグラウンド領域を示す情報、
並びに画素毎の混合比αを基に、混合領域に属する画素
から前景の成分、および背景の成分を分離することがで
きる。
[0425] As described above, the separation unit 251 outputs the information indicating the covered background area included in the area information,
And information indicating the uncovered background area,
The foreground component and the background component can be separated from the pixels belonging to the mixed area based on the mixing ratio α for each pixel.

【0426】図53は、以上で説明した処理を実行する
分離部251の構成の一例を示すブロック図である。分
離部251に入力された画像は、フレームメモリ301
に供給され、混合比算出部104から供給されたカバー
ドバックグラウンド領域およびアンカバードバックグラ
ウンド領域を示す領域情報、並びに混合比αは、分離処
理ブロック302に入力される。
FIG. 53 is a block diagram showing an example of the structure of the separating section 251 for executing the processing described above. The image input to the separation unit 251 is stored in the frame memory 301.
The area information indicating the covered background area and the uncovered background area supplied from the mixing ratio calculation unit 104 and the mixing ratio α are input to the separation processing block 302.

【0427】フレームメモリ301は、入力された画像
をフレーム単位で記憶する。フレームメモリ301は、
処理の対象がフレーム#nであるとき、フレーム#nの1つ
前のフレームであるフレーム#n-1、フレーム#n、および
フレーム#nの1つ後のフレームであるフレーム#n+1を記
憶する。
[0447] The frame memory 301 stores an input image in frame units. The frame memory 301 is
When the target of processing is frame #n, frame # n−1, frame #n, which is one frame before frame #n, and frame # n + 1, which is one frame after frame #n, Remember.

【0428】フレームメモリ301は、フレーム#n-1、
フレーム#n、およびフレーム#n+1の対応する画素を分離
処理ブロック302に供給する。
[0428] The frame memory 301 stores the frame # n-1,
The pixels corresponding to the frame #n and the frame # n + 1 are supplied to the separation processing block 302.

【0429】分離処理ブロック302は、カバードバッ
クグラウンド領域およびアンカバードバックグラウンド
領域を示す領域情報、並びに混合比αを基に、フレーム
メモリ301から供給されたフレーム#n-1、フレーム#
n、およびフレーム#n+1の対応する画素の画素値に図5
1および図52を参照して説明した演算を適用して、フ
レーム#nの混合領域に属する画素から前景の成分および
背景の成分を分離して、フレームメモリ303に供給す
る。
The separation processing block 302 determines the frames # n−1 and # supplied from the frame memory 301 based on the area information indicating the covered background area and the uncovered background area and the mixture ratio α.
n and the pixel value of the corresponding pixel in frame # n + 1 in FIG.
By applying the calculation described with reference to FIG. 1 and FIG. 52, foreground components and background components are separated from pixels belonging to the mixed area of frame #n, and supplied to the frame memory 303.

【0430】分離処理ブロック302は、アンカバード
領域処理部311、カバード領域処理部312、合成部
313、および合成部314で構成されている。
The separation processing block 302 includes an uncovered area processing section 311, a covered area processing section 312, a synthesis section 313, and a synthesis section 314.

【0431】アンカバード領域処理部311の乗算器3
21は、混合比αを、フレームメモリ301から供給さ
れたフレーム#n+1の画素の画素値に乗じて、スイッチ3
22に出力する。スイッチ322は、フレームメモリ3
01から供給されたフレーム#nの画素(フレーム#n+1の
画素に対応する)がアンカバードバックグラウンド領域
であるとき、閉じられ、乗算器321から供給された混
合比αを乗じた画素値を演算器322および合成部31
4に供給する。スイッチ322から出力されるフレーム
#n+1の画素の画素値に混合比αを乗じた値は、フレーム
#nの対応する画素の画素値の背景の成分に等しい。
The multiplier 3 of the uncovered area processing unit 311
21 multiplies the pixel value of the pixel of frame # n + 1 supplied from the frame memory 301 by the mixture ratio α
22. The switch 322 is connected to the frame memory 3
When the pixel of frame #n supplied from 01 (corresponding to the pixel of frame # n + 1) is the uncovered background area, the pixel is closed and multiplied by the mixture ratio α supplied from the multiplier 321 To the arithmetic unit 322 and the combining unit 31
4 Frame output from switch 322
The value obtained by multiplying the pixel value of pixel # n + 1 by the mixture ratio α
It is equal to the background component of the pixel value of the corresponding pixel of #n.

【0432】演算器323は、フレームメモリ301か
ら供給されたフレーム#nの画素の画素値から、スイッチ
322から供給された背景の成分を減じて、前景の成分
を求める。演算器323は、アンカバードバックグラウ
ンド領域に属する、フレーム#nの画素の前景の成分を合
成部313に供給する。
The arithmetic unit 323 obtains a foreground component by subtracting the background component supplied from the switch 322 from the pixel value of the pixel of frame #n supplied from the frame memory 301. The calculator 323 supplies the foreground component of the pixel of frame #n belonging to the uncovered background area to the combining unit 313.

【0433】カバード領域処理部312の乗算器331
は、混合比αを、フレームメモリ301から供給された
フレーム#n-1の画素の画素値に乗じて、スイッチ332
に出力する。スイッチ332は、フレームメモリ301
から供給されたフレーム#nの画素(フレーム#n-1の画素
に対応する)がカバードバックグラウンド領域であると
き、閉じられ、乗算器331から供給された混合比αを
乗じた画素値を演算器333および合成部314に供給
する。スイッチ332から出力されるフレーム#n-1の画
素の画素値に混合比αを乗じた値は、フレーム#nの対応
する画素の画素値の背景の成分に等しい。
The multiplier 331 of the covered area processing unit 312
Multiplies the pixel value of the pixel of frame # n-1 supplied from the frame memory 301 by the
Output to The switch 332 is connected to the frame memory 301
When the pixel of frame #n (corresponding to the pixel of frame # n-1) supplied from is a covered background area, the pixel value is closed and multiplied by the mixture ratio α supplied from the multiplier 331. 333 and the combining unit 314. The value obtained by multiplying the pixel value of the pixel of frame # n−1 output from the switch 332 by the mixture ratio α is equal to the background component of the pixel value of the corresponding pixel of frame #n.

【0434】演算器333は、フレームメモリ301か
ら供給されたフレーム#nの画素の画素値から、スイッチ
332から供給された背景の成分を減じて、前景の成分
を求める。演算器333は、カバードバックグラウンド
領域に属する、フレーム#nの画素の前景の成分を合成部
313に供給する。
The computing unit 333 subtracts the background component supplied from the switch 332 from the pixel value of the pixel of frame #n supplied from the frame memory 301 to obtain a foreground component. The calculator 333 supplies the foreground component of the pixel of frame #n belonging to the covered background area to the combining unit 313.

【0435】合成部313は、フレーム#nの、演算器3
23から供給された、アンカバードバックグラウンド領
域に属する画素の前景の成分、および演算器333から
供給された、カバードバックグラウンド領域に属する画
素の前景の成分を合成して、フレームメモリ303に供
給する。
[0435] The synthesizing unit 313 calculates the arithmetic unit 3 of the frame #n.
The foreground component of the pixel belonging to the uncovered background area supplied from 23 and the foreground component of the pixel belonging to the covered background area supplied from the calculator 333 are combined and supplied to the frame memory 303. .

【0436】合成部314は、フレーム#nの、スイッチ
322から供給された、アンカバードバックグラウンド
領域に属する画素の背景の成分、およびスイッチ332
から供給された、カバードバックグラウンド領域に属す
る画素の背景の成分を合成して、フレームメモリ303
に供給する。
[0436] The synthesizing unit 314 calculates the background component of the pixel belonging to the uncovered background area and the switch 332 supplied from the switch 322 in the frame #n.
The background components of the pixels belonging to the covered background area supplied from the
To supply.

【0437】フレームメモリ303は、分離処理ブロッ
ク302から供給された、フレーム#nの混合領域の画素
の前景の成分と、背景の成分とをそれぞれに記憶する。
[0437] The frame memory 303 stores the foreground component and the background component of the pixels in the mixed area of the frame #n supplied from the separation processing block 302, respectively.

【0438】フレームメモリ303は、記憶しているフ
レーム#nの混合領域の画素の前景の成分、および記憶し
ているフレーム#nの混合領域の画素の背景の成分を出力
する。
The frame memory 303 outputs the stored foreground components of the pixels in the mixed area of frame #n and the stored background components of the pixels in the mixed area of frame #n.

【0439】特徴量である混合比αを利用することによ
り、画素値に含まれる前景の成分と背景の成分とを完全
に分離することが可能になる。
By utilizing the mixture ratio α, which is a feature quantity, it becomes possible to completely separate the foreground component and the background component contained in the pixel value.

【0440】合成部253は、分離部251から出力さ
れた、フレーム#nの混合領域の画素の前景の成分と、前
景領域に属する画素とを合成して前景成分画像を生成す
る。合成部255は、分離部251から出力された、フ
レーム#nの混合領域の画素の背景の成分と、背景領域に
属する画素とを合成して背景成分画像を生成する。
[0440] The combining section 253 combines the foreground components of the pixels in the mixed area of frame #n and the pixels belonging to the foreground area output from the separating section 251 to generate a foreground component image. The combining unit 255 combines the background component of the pixel in the mixed area of the frame #n and the pixel belonging to the background area output from the separating unit 251 to generate a background component image.

【0441】図54は、図50のフレーム#nに対応す
る、前景成分画像の例と、背景成分画像の例を示す図で
ある。
FIG. 54 is a diagram showing an example of a foreground component image and an example of a background component image corresponding to frame #n in FIG.

【0442】図54(A)は、図50のフレーム#nに対
応する、前景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景が分離される前
において、背景の成分のみから成っていたので、画素値
が0とされる。
FIG. 54A shows an example of a foreground component image corresponding to frame #n in FIG. Since the leftmost pixel and the fourteenth pixel from the left consist of only the background component before the foreground and the background are separated, the pixel value is set to 0.

【0443】左から2番目乃至4番目の画素は、前景と
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、背景の成分が0とされ、前景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、背景の成分が0と
され、前景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景の成分のみから成るの
で、そのまま残される。
The second to fourth pixels from the left belong to the uncovered background area before the foreground and the background are separated, the background component is set to 0, and the foreground component is left as it is. . The eleventh to thirteenth pixels from the left belong to the covered background area before the foreground and the background are separated, the background component is set to 0, and the foreground component is left as it is. The fifth to tenth pixels from the left are left as they are because they consist only of foreground components.

【0444】図54(B)は、図50のフレーム#nに対
応する、背景成分画像の例を示す。最も左の画素、およ
び左から14番目の画素は、前景と背景とが分離される
前において、背景の成分のみから成っていたので、その
まま残される。
FIG. 54B shows an example of a background component image corresponding to frame #n in FIG. The leftmost pixel and the fourteenth pixel from the left are left alone because they consisted only of the background component before the foreground and the background were separated.

【0445】左から2番目乃至4番目の画素は、前景と
背景とが分離される前において、アンカバードバックグ
ラウンド領域に属し、前景の成分が0とされ、背景の成
分がそのまま残されている。左から11番目乃至13番
目の画素は、前景と背景とが分離される前において、カ
バードバックグラウンド領域に属し、前景の成分が0と
され、背景の成分がそのまま残されている。左から5番
目乃至10番目の画素は、前景と背景とが分離される前
において、前景の成分のみから成っていたので、画素値
が0とされる。
The second to fourth pixels from the left belong to the uncovered background area before the foreground and background are separated, the foreground component is set to 0, and the background component is left as it is. . Before the foreground and background are separated, the eleventh to thirteenth pixels from the left belong to the covered background area, the foreground component is set to 0, and the background component is left as it is. Before the foreground and the background are separated, the fifth through tenth pixels from the left consist only of the foreground components, and thus have a pixel value of 0.

【0446】次に、図55に示すフローチャートを参照
して、前景背景分離部105による前景と背景との分離
の処理を説明する。ステップS201において、分離部
251のフレームメモリ301は、入力画像を取得し、
前景と背景との分離の対象となるフレーム#nを、その前
のフレーム#n-1およびその後のフレーム#n+1と共に記憶
する。
Next, the process of separating the foreground and background by the foreground / background separation unit 105 will be described with reference to the flowchart shown in FIG. In step S201, the frame memory 301 of the separation unit 251 acquires an input image,
The frame #n to be separated from the foreground and the background is stored together with the previous frame # n-1 and the subsequent frame # n + 1.

【0447】ステップS202において、分離部251
の分離処理ブロック302は、混合比算出部104から
供給された領域情報を取得する。ステップS203にお
いて、分離部251の分離処理ブロック302は、混合
比算出部104から供給された混合比αを取得する。
In step S202, the separation unit 251
The separation processing block 302 acquires the area information supplied from the mixture ratio calculation unit 104. In step S203, the separation processing block 302 of the separation unit 251 acquires the mixture ratio α supplied from the mixture ratio calculation unit 104.

【0448】ステップS204において、アンカバード
領域処理部311は、領域情報および混合比αを基に、
フレームメモリ301から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、背景の
成分を抽出する。
[0448] In step S204, the uncovered area processing unit 311 performs processing based on the area information and the mixture ratio α.
The background component is extracted from the pixel values of the pixels belonging to the uncovered background area supplied from the frame memory 301.

【0449】ステップS205において、アンカバード
領域処理部311は、領域情報および混合比αを基に、
フレームメモリ301から供給された、アンカバードバ
ックグラウンド領域に属する画素の画素値から、前景の
成分を抽出する。
[0449] In step S205, the uncovered area processing unit 311 performs the processing based on the area information and the mixture ratio α.
The foreground component is extracted from the pixel values of the pixels belonging to the uncovered background area supplied from the frame memory 301.

【0450】ステップS206において、カバード領域
処理部312は、領域情報および混合比αを基に、フレ
ームメモリ301から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、背景の成分を抽
出する。
In step S206, the covered area processing unit 312 extracts a background component from the pixel values of the pixels belonging to the covered background area supplied from the frame memory 301 based on the area information and the mixture ratio α. .

【0451】ステップS207において、カバード領域
処理部312は、領域情報および混合比αを基に、フレ
ームメモリ301から供給された、カバードバックグラ
ウンド領域に属する画素の画素値から、前景の成分を抽
出する。
In step S207, the covered area processing unit 312 extracts a foreground component from the pixel values of the pixels belonging to the covered background area supplied from the frame memory 301 based on the area information and the mixture ratio α. .

【0452】ステップS208において、合成部313
は、ステップS205の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の前景の成分と、ス
テップS207の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の前景の成分とを合成する。合
成された前景の成分は、合成部253に供給される。更
に、合成部253は、スイッチ252を介して供給され
た前景領域に属する画素と、分離部251から供給され
た前景の成分とを合成して、前景成分画像を生成する。
In step S208, the synthesizing unit 313
Combines the foreground components of the pixels belonging to the uncovered background area extracted in the processing of step S205 and the foreground components of the pixels belonging to the covered background area extracted in the processing of step S207. The synthesized foreground component is supplied to the synthesis unit 253. Further, the synthesizing unit 253 generates a foreground component image by synthesizing the pixels belonging to the foreground area supplied via the switch 252 and the foreground components supplied from the separation unit 251.

【0453】ステップS209において、合成部314
は、ステップS204の処理で抽出されたアンカバード
バックグラウンド領域に属する画素の背景の成分と、ス
テップS206の処理で抽出されたカバードバックグラ
ウンド領域に属する画素の背景の成分とを合成する。合
成された背景の成分は、合成部255に供給される。更
に、合成部255は、スイッチ254を介して供給され
た背景領域に属する画素と、分離部251から供給され
た背景の成分とを合成して、背景成分画像を生成する。
In step S209, the synthesizing unit 314
Synthesizes the background component of the pixel belonging to the uncovered background area extracted in the processing of step S204 and the background component of the pixel belonging to the covered background area extracted in the processing of step S206. The synthesized background component is supplied to the synthesis unit 255. Further, the synthesizing unit 255 synthesizes the pixels belonging to the background area supplied via the switch 254 and the background component supplied from the separating unit 251 to generate a background component image.

【0454】ステップS210において、合成部253
は、前景成分画像を出力する。ステップS211におい
て、合成部255は、背景成分画像を出力し、処理は終
了する。
In step S210, combining section 253
Outputs a foreground component image. In step S211, the combining unit 255 outputs the background component image, and the process ends.

【0455】このように、前景背景分離部105は、領
域情報および混合比αを基に、入力画像から前景の成分
と、背景の成分とを分離し、前景の成分のみから成る前
景成分画像、および背景の成分のみから成る背景成分画
像を出力することができる。
As described above, the foreground / background separation unit 105 separates the foreground component and the background component from the input image based on the region information and the mixture ratio α, and outputs the foreground component image composed of only the foreground component. Also, a background component image consisting of only background components can be output.

【0456】次に、前景成分画像からの動きボケの量の
調整について説明する。
Next, adjustment of the amount of motion blur from the foreground component image will be described.

【0457】図56は、動きボケ調整部106の構成の
一例を示すブロック図である。動き検出部102から供
給された動きベクトルとその位置情報、および領域特定
部103から供給された領域情報は、処理単位決定部3
51およびモデル化部352に供給される。前景背景分
離部105から供給された前景成分画像は、足し込み部
354に供給される。
FIG. 56 is a block diagram showing an example of the configuration of the motion-blur adjusting unit 106. The motion vector and its position information supplied from the motion detection unit 102 and the region information supplied from the region identification unit 103 are processed by the processing unit determination unit 3
51 and the modeling unit 352. The foreground component image supplied from the foreground / background separation unit 105 is supplied to the addition unit 354.

【0458】処理単位決定部351は、動きベクトルと
その位置情報、および領域情報を基に、動きベクトルと
共に、生成した処理単位をモデル化部352に供給す
る。処理単位決定部351は、生成した処理単位を足し
込み部354に供給する。
The processing unit determination unit 351 supplies the generated processing unit to the modeling unit 352 together with the motion vector based on the motion vector, its position information, and the area information. The processing unit determination unit 351 supplies the generated processing unit to the adding unit 354.

【0459】処理単位決定部351が生成する処理単位
は、図57に例を示すように、前景成分画像のカバード
バックグラウンド領域に対応する画素から始まり、アン
カバードバックグラウンド領域に対応する画素までの動
き方向に並ぶ連続する画素、またはアンカバードバック
グラウンド領域に対応する画素から始まり、カバードバ
ックグラウンド領域に対応する画素までの動き方向に並
ぶ連続する画素を示す。処理単位は、例えば、左上点
(処理単位で指定される画素であって、画像上で最も左
または最も上に位置する画素の位置)および右下点の2
つのデータから成る。
As shown in the example of FIG. 57, the processing unit generated by the processing unit determination unit 351 starts from a pixel corresponding to the covered background area of the foreground component image and extends to a pixel corresponding to the uncovered background area. A continuous pixel in the movement direction starting from a pixel corresponding to the uncovered background area or a continuous pixel aligned in the movement direction to a pixel corresponding to the covered background area is shown. The processing unit is, for example, an upper left point (a pixel designated by the processing unit and a position of a pixel located at the leftmost or uppermost position on the image) and a lower right point.
Data.

【0460】モデル化部352は、動きベクトルおよび
入力された処理単位を基に、モデル化を実行する。より
具体的には、例えば、モデル化部352は、処理単位に
含まれる画素の数、画素値の時間方向の仮想分割数、お
よび画素毎の前景の成分の数に対応する複数のモデルを
予め記憶しておき、処理単位、および画素値の時間方向
の仮想分割数を基に、図58に示すような、画素値と前
景の成分との対応を指定するモデルを選択するようにし
ても良い。
[0460] The modeling unit 352 performs modeling based on the motion vector and the input processing unit. More specifically, for example, the modeling unit 352 previously stores a plurality of models corresponding to the number of pixels included in the processing unit, the number of virtual divisions of pixel values in the time direction, and the number of foreground components for each pixel. A model that specifies the correspondence between a pixel value and a foreground component as shown in FIG. 58 may be selected based on the processing unit and the number of virtual divisions of the pixel value in the time direction. .

【0461】例えば、処理単位に対応する画素の数が1
2でありシャッタ時間内の動き量vが5であるときにお
いては、モデル化部352は、仮想分割数を5とし、最
も左に位置する画素が1つの前景の成分を含み、左から
2番目の画素が2つの前景の成分を含み、左から3番目
の画素が3つの前景の成分を含み、左から4番目の画素
が4つの前景の成分を含み、左から5番目の画素が5つ
の前景の成分を含み、左から6番目の画素が5つの前景
の成分を含み、左から7番目の画素が5つの前景の成分
を含み、左から8番目の画素が5つの前景の成分を含
み、左から9番目の画素が4つの前景の成分を含み、左
から10番目の画素が3つの前景の成分を含み、左から
11番目の画素が2つの前景の成分を含み、左から12
番目の画素が1つの前景の成分を含み、全体として8つ
の前景の成分から成るモデルを選択する。
For example, if the number of pixels corresponding to the processing unit is one,
When the motion amount v during the shutter time is 5, the modeling unit 352 sets the virtual division number to 5, the leftmost pixel includes one foreground component, and the second pixel from the left. Pixel includes two foreground components, the third pixel from the left includes three foreground components, the fourth pixel from the left includes four foreground components, and the fifth pixel from the left includes five foreground components. Including the foreground component, the sixth pixel from the left contains five foreground components, the seventh pixel from the left contains five foreground components, and the eighth pixel from the left contains five foreground components. , The ninth pixel from the left contains four foreground components, the tenth pixel from the left contains three foreground components, the eleventh pixel from the left contains two foreground components, and 12 from the left.
A model is selected in which the th pixel contains one foreground component and comprises a total of eight foreground components.

【0462】なお、モデル化部352は、予め記憶して
あるモデルから選択するのではなく、動きベクトル、お
よび処理単位が供給されたとき、動きベクトル、および
処理単位を基に、モデルを生成するようにしてもよい。
Note that the modeling unit 352 does not select a model stored in advance but generates a model based on the motion vector and the processing unit when the motion vector and the processing unit are supplied. You may do so.

【0463】モデル化部352は、選択したモデルを方
程式生成部353に供給する。
[0463] The modeling unit 352 supplies the selected model to the equation generation unit 353.

【0464】方程式生成部353は、モデル化部352
から供給されたモデルを基に、方程式を生成する。図5
8に示す前景成分画像のモデルを参照して、前景の成分
の数が8であり、処理単位に対応する画素の数が12で
あり、動き量vが5であり、仮想分割数が5であるとき
の、方程式生成部353が生成する方程式について説明
する。
[0464] The equation generating unit 353 includes a modeling unit 352.
Generate an equation based on the model supplied from. FIG.
Referring to the model of the foreground component image shown in FIG. 8, the number of foreground components is 8, the number of pixels corresponding to the processing unit is 12, the motion amount v is 5, and the number of virtual divisions is 5. An equation generated by the equation generating unit 353 at a certain time will be described.

【0465】前景成分画像に含まれるシャッタ時間/vに
対応する前景成分がF01/v乃至F08/vであるとき、F01/v
乃至F08/vと画素値C01乃至C12との関係は、式(39)
乃至式(50)で表される。
When the foreground component corresponding to the shutter time / v included in the foreground component image is F01 / v to F08 / v, F01 / v
To F08 / v and the pixel values C01 to C12 are given by Equation (39)
To (50).

【0466】 C01=F01/v (39) C02=F02/v+F01/v (40) C03=F03/v+F02/v+F01/v (41) C04=F04/v+F03/v+F02/v+F01/v (42) C05=F05/v+F04/v+F03/v+F02/v+F01/v (43) C06=F06/v+F05/v+F04/v+F03/v+F02/v (44) C07=F07/v+F06/v+F05/v+F04/v+F03/v (45) C08=F08/v+F07/v+F06/v+F05/v+F04/v (46) C09=F08/v+F07/v+F06/v+F05/v (47) C10=F08/v+F07/v+F06/v (48) C11=F08/v+F07/v (49) C12=F08/v (50)C01 = F01 / v (39) C02 = F02 / v + F01 / v (40) C03 = F03 / v + F02 / v + F01 / v (41) C04 = F04 / v + F03 / v + F02 / v + F01 / v (42) C05 = F05 / v + F04 / v + F03 / v + F02 / v + F01 / v (43) C06 = F06 / v + F05 / v + F04 / v + F03 / v + F02 / v (44) C07 = F07 / v + F06 / v + F05 / v + F04 / v + F03 / v (45) C08 = F08 / v + F07 / v + F06 / v + F05 / v + F04 / v (46) C09 = F08 / v + F07 / v + F06 / v + F05 / v (47) C10 = F08 / v + F07 / v + F06 / v (48) C11 = F08 / v + F07 / v (49) C12 = F08 / v (50)

【0467】方程式生成部353は、生成した方程式を
変形して方程式を生成する。方程式生成部353が生成
する方程式を、式(51)乃至式(62)に示す。 C01=1・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (51) C02=1・F01/v+1・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (52) C03=1・F01/v+1・F02/v+1・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (53) C04=1・F01/v+1・F02/v+1・F03/v+1・F04/v+0・F05/v +0・F06/v+0・F07/v+0・F08/v (54) C05=1・F01/v+1・F02/v+1・F03/v+1・F04/v+1・F05/v +0・F06/v+0・F07/v+0・F08/v (55) C06=0・F01/v+1・F02/v+1・F03/v+1・F04/v+1・F05/v +1・F06/v+0・F07/v+0・F08/v (56) C07=0・F01/v+0・F02/v+1・F03/v+1・F04/v+1・F05/v +1・F06/v+1・F07/v+0・F08/v (57) C08=0・F01/v+0・F02/v+0・F03/v+1・F04/v+1・F05/v +1・F06/v+1・F07/v+1・F08/v (58) C09=0・F01/v+0・F02/v+0・F03/v+0・F04/v+1・F05/v +1・F06/v+1・F07/v+1・F08/v (59) C10=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +1・F06/v+1・F07/v+1・F08/v (60) C11=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+1・F07/v+1・F08/v (61) C12=0・F01/v+0・F02/v+0・F03/v+0・F04/v+0・F05/v +0・F06/v+0・F07/v+1・F08/v (62)
[0467] The equation generating section 353 deforms the generated equation to generate an equation. The equations generated by the equation generation unit 353 are shown in equations (51) to (62). C01 = 1 ・ F01 / v + 0 ・ F02 / v + 0 ・ F03 / v + 0 ・ F04 / v + 0 ・ F05 / v +0 ・ F06 / v + 0 ・ F07 / v + 0 ・ F08 / v ( 51) C02 = 1 ・ F01 / v + 1 ・ F02 / v + 0 ・ F03 / v + 0 ・ F04 / v + 0 ・ F05 / v +0 ・ F06 / v + 0 ・ F07 / v + 0 ・ F08 / v (52) C03 = 1 ・ F01 / v + 1 ・ F02 / v + 1 ・ F03 / v + 0 ・ F04 / v + 0 ・ F05 / v +0 ・ F06 / v + 0 ・ F07 / v + 0 ・F08 / v (53) C04 = 1 ・ F01 / v + 1 ・ F02 / v + 1 ・ F03 / v + 1 ・ F04 / v + 0 ・ F05 / v +0 ・ F06 / v + 0 ・ F07 / v + 0 ・ F08 / v (54) C05 = 1 ・ F01 / v + 1 ・ F02 / v + 1 ・ F03 / v + 1 ・ F04 / v + 1 ・ F05 / v +0 ・ F06 / v + 0 ・ F07 / v + 0 ・ F08 / v (55) C06 = 0 ・ F01 / v + 1 ・ F02 / v + 1 ・ F03 / v + 1 ・ F04 / v + 1 ・ F05 / v +1 ・ F06 / v + 0 ・F07 / v + 0 ・ F08 / v (56) C07 = 0 ・ F01 / v + 0 ・ F02 / v + 1 ・ F03 / v + 1 ・ F04 / v + 1 ・ F05 / v +1 ・ F06 / v + 1 ・ F07 / v + 0 ・ F08 / v (57) C08 = 0 ・ F01 / v + 0 ・ F02 / v + 0 ・ F03 / v + 1 ・ F04 / v + 1 ・ F05 / v +1 ・ F06 / v + 1 ・ F07 / v + 1 ・ F08 / v (58) C09 = 0 ・ F01 / v + 0 ・ F02 / v + 0 ・ F03 / v + 0 ・ F04 / v + 1 ・ F05 / v +1 ・F06 / v + 1 ・ F07 / v + 1 ・ F08 / v (59) C10 = 0 ・ F01 / v + 0 ・ F02 / v + 0 ・ F03 / v + 0 ・ F04 / v + 0 ・ F05 / v + 1 ・ F06 / v + 1 ・ F07 / v + 1 ・ F08 / v (60) C11 = 0 ・ F01 / v + 0 ・ F0 2 / v + 0 ・ F03 / v + 0 ・ F04 / v + 0 ・ F05 / v +0 ・ F06 / v + 1 ・ F07 / v + 1 ・ F08 / v (61) C12 = 0 ・ F01 / v + 0 ・ F02 / v + 0 ・ F03 / v + 0 ・ F04 / v + 0 ・ F05 / v +0 ・ F06 / v + 0 ・ F07 / v + 1 ・ F08 / v (62)

【0468】式(51)乃至式(62)は、式(63)
として表すこともできる。
Formulas (51) to (62) are obtained by using formula (63).
It can also be expressed as

【0469】[0469]

【数9】 式(63)において、jは、画素の位置を示す。この例
において、jは、1乃至12のいずれか1つの値を有す
る。また、iは、前景値の位置を示す。この例におい
て、iは、1乃至8のいずれか1つの値を有する。aij
は、iおよびjの値に対応して、0または1の値を有す
る。
(Equation 9) In Expression (63), j indicates a position of a pixel. In this example, j has a value of any one of 1 to 12. I indicates the position of the foreground value. In this example, i has a value of any one of 1 to 8. aij
Has a value of 0 or 1 corresponding to the values of i and j.

【0470】誤差を考慮して表現すると、式(63)
は、式(64)のように表すことができる。
When expressed in consideration of the error, equation (63)
Can be expressed as in equation (64).

【0471】[0471]

【数10】 式(64)において、ejは、注目画素Cjに含まれる誤差
である。
(Equation 10) In Expression (64), ej is an error included in the target pixel Cj.

【0472】式(64)は、式(65)に書き換えるこ
とができる。
The equation (64) can be rewritten as the equation (65).

【0473】[0473]

【数11】 [Equation 11]

【0474】ここで、最小自乗法を適用するため、誤差
の自乗和Eを式(66)に示すように定義する。
Here, in order to apply the least squares method, the sum of squares E of the error is defined as shown in Expression (66).

【0475】[0475]

【数12】 (Equation 12)

【0476】誤差が最小になるためには、誤差の自乗和
Eに対する、変数Fkによる偏微分の値が0になればよ
い。式(67)を満たすようにFkを求める。
In order to minimize the error, the sum of squares of the error
What is necessary is that the value of the partial differentiation of E with respect to the variable Fk becomes 0. Fk is determined so as to satisfy Expression (67).

【0477】[0477]

【数13】 (Equation 13)

【0478】式(67)において、動き量vは固定値で
あるから、式(68)を導くことができる。
In equation (67), since the motion amount v is a fixed value, equation (68) can be derived.

【0479】[0479]

【数14】 [Equation 14]

【0480】式(68)を展開して、移項すると、式
(69)を得る。
By expanding the equation (68) and transposing it, the equation (69) is obtained.

【0481】[0481]

【数15】 (Equation 15)

【0482】式(69)のkに1乃至8の整数のいずれ
か1つを代入して得られる8つの式に展開する。得られ
た8つの式を、行列により1つの式により表すことがで
きる。この式を正規方程式と呼ぶ。
[0447] The expression is expanded into eight expressions obtained by substituting any one of integers 1 to 8 into k in the expression (69). The obtained eight expressions can be represented by one expression by a matrix. This equation is called a normal equation.

【0483】このような最小自乗法に基づく、方程式生
成部353が生成する正規方程式の例を式(70)に示
す。
An example of a normal equation generated by the equation generating section 353 based on the least squares method is shown in equation (70).

【0484】[0484]

【数16】 (Equation 16)

【0485】式(70)をA・F=v・Cと表すと、C,A,vが既
知であり、Fは未知である。また、A,vは、モデル化の時
点で既知だが、Cは、足し込み動作において画素値を入
力することで既知となる。
If equation (70) is expressed as A · F = v · C, C, A, v are known, and F is unknown. A and v are known at the time of modeling, but C becomes known by inputting pixel values in the adding operation.

【0486】最小自乗法に基づく正規方程式により前景
成分を算出することにより、画素Cに含まれている誤差
を分散させることができる。
The error contained in the pixel C can be dispersed by calculating the foreground component by the normal equation based on the least square method.

【0487】方程式生成部353は、このように生成さ
れた正規方程式を足し込み部354に供給する。
The equation generating section 353 supplies the normal equation generated in this way to the adding section 354.

【0488】足し込み部354は、処理単位決定部35
1から供給された処理単位を基に、前景成分画像に含ま
れる画素値Cを、方程式生成部353から供給された行
列の式に設定する。足し込み部354は、画素値Cを設
定した行列を演算部355に供給する。
The adding unit 354 includes the processing unit determining unit 35
Based on the processing unit supplied from 1, the pixel value C included in the foreground component image is set to the matrix expression supplied from the equation generation unit 353. The adding unit 354 supplies the matrix in which the pixel values C are set to the calculation unit 355.

【0489】演算部355は、掃き出し法(Gauss-Jord
anの消去法)などの解法に基づく処理により、動きボケ
が除去された前景成分Fi/vを算出して、動きボケが除去
された前景の画素値である、0乃至8の整数のいずれか
のiに対応するFiを算出して、図59に例を示す、動き
ボケが除去された画素値であるFiから成る、動きボケが
除去された前景成分画像を動きボケ付加部356および
選択部357に出力する。
[0489] The arithmetic unit 355 performs the sweep-out method (Gauss-Jord).
An elimination method such as an) is used to calculate the foreground component Fi / v from which the motion blur has been removed, and the pixel value of the foreground from which the motion blur has been removed, which is an integer from 0 to 8 Of the foreground component image from which the motion blur has been removed, which is composed of the pixel values Fi from which the motion blur has been removed, as shown in the example of FIG. 357.

【0490】なお、図59に示す動きボケが除去された
前景成分画像において、C03乃至C10のそれぞれにF01乃
至F08のそれぞれが設定されているのは、画面に対する
前景成分画像の位置を変化させないためであり、任意の
位置に対応させることができる。
In the foreground component image from which the motion blur is removed as shown in FIG. 59, each of F01 to F08 is set for each of C03 to C10 because the position of the foreground component image with respect to the screen is not changed. And can correspond to an arbitrary position.

【0491】動きボケ付加部356は、動き量vとは異
なる値の動きボケ調整量v'、例えば、動き量vの半分の
値の動きボケ調整量v'や、動き量vと無関係の値の動き
ボケ調整量v'を与えることで、動きボケの量を調整する
ことができる。例えば、図60に示すように、動きボケ
付加部356は、動きボケが除去された前景の画素値Fi
を動きボケ調整量v'で除すことにより、前景成分Fi/v'
を算出して、前景成分Fi/v'の和を算出して、動きボケ
の量が調整された画素値を生成する。例えば、動きボケ
調整量v'が3のとき、画素値C02は、(F01)/v'とさ
れ、画素値C03は、(F01+F02)/v'とされ、画素値C04
は、(F01+F02+F03)/v'とされ、画素値C05は、(F02+F
03+F04)/v'とされる。
The motion-blur adding unit 356 generates a motion-blur adjustment amount v ′ having a value different from the motion amount v, for example, a motion-blur adjustment amount v ′ having a half value of the motion amount v, or a value unrelated to the motion amount v. By giving the motion blur adjustment amount v ′, the amount of motion blur can be adjusted. For example, as shown in FIG. 60, the motion-blur adding unit 356 outputs the pixel value Fi of the foreground from which the motion blur has been removed.
Is divided by the motion blur adjustment amount v 'to obtain the foreground component Fi / v'
Is calculated, and the sum of the foreground components Fi / v ′ is calculated to generate a pixel value in which the amount of motion blur is adjusted. For example, when the motion blur adjustment amount v ′ is 3, the pixel value C02 is (F01) / v ′, the pixel value C03 is (F01 + F02) / v ′, and the pixel value C04 is
Is (F01 + F02 + F03) / v ', and the pixel value C05 is (F02 + F02).
03 + F04) / v '.

【0492】動きボケ付加部356は、動きボケの量を
調整した前景成分画像を選択部357に供給する。
[0492] The motion blur adding unit 356 supplies the foreground component image in which the amount of motion blur has been adjusted to the selecting unit 357.

【0493】選択部357は、例えば使用者の選択に対
応した選択信号を基に、演算部355から供給された動
きボケが除去された前景成分画像、および動きボケ付加
部356から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
[0493] The selection section 357, for example, based on a selection signal corresponding to the user's selection, receives the foreground component image from which the motion blur has been removed and the motion supplied from the motion blur addition section 356. One of the foreground component images whose blur amount has been adjusted is selected, and the selected foreground component image is output.

【0494】このように、動きボケ調整部106は、選
択信号および動きボケ調整量v'を基に、動きボケの量を
調整することができる。
As described above, the motion-blur adjusting unit 106 can adjust the amount of motion blur based on the selection signal and the motion-blur adjustment amount v ′.

【0495】また、例えば、図61に示すように、処理
単位に対応する画素の数が8であり、動き量vが4であ
るとき、動きボケ調整部106は、式(71)に示す行
列の式を生成する。
For example, as shown in FIG. 61, when the number of pixels corresponding to the processing unit is 8 and the motion amount v is 4, the motion-blur adjusting unit 106 sets the matrix shown in the equation (71). Generates the expression

【0496】[0496]

【数17】 [Equation 17]

【0497】動きボケ調整部106は、このように処理
単位の長さに対応した数の式を立てて、動きボケの量が
調整された画素値であるFiを算出する。同様に、例え
ば、処理単位に含まれる画素の数が100あるとき、1
00個の画素に対応する式を生成して、Fiを算出する。
[0497] The motion-blur adjusting unit 106 calculates Fi, which is a pixel value in which the amount of motion blur is adjusted, by formulating a number corresponding to the length of the processing unit. Similarly, for example, when the number of pixels included in the processing unit is 100, 1
An equation corresponding to 00 pixels is generated to calculate Fi.

【0498】図62は、動きボケ調整部106の他の構
成を示す図である。図56に示す場合と同様の部分には
同一の番号を付してあり、その説明は省略する。
FIG. 62 is a diagram showing another configuration of the motion-blur adjusting unit 106. The same portions as those shown in FIG. 56 are denoted by the same reference numerals, and description thereof will be omitted.

【0499】選択部361は、選択信号を基に、入力さ
れた動きベクトルとその位置信号をそのまま処理単位決
定部351およびモデル化部352に供給するか、また
は動きベクトルの大きさを動きボケ調整量v'に置き換え
て、その大きさが動きボケ調整量v'に置き換えられた動
きベクトルとその位置信号を処理単位決定部351およ
びモデル化部352に供給する。
The selecting section 361 supplies the input motion vector and its position signal to the processing unit determining section 351 and the modeling section 352 as they are, or adjusts the magnitude of the motion vector based on the selection signal. The motion vector whose magnitude is replaced by the motion blur adjustment amount v ′ and its position signal instead of the amount v ′ are supplied to the processing unit determination unit 351 and the modeling unit 352.

【0500】このようにすることで、図62の動きボケ
調整部106の処理単位決定部351乃至演算部355
は、動き量vと動きボケ調整量v'との値に対応して、動
きボケの量を調整することができる。例えば、動き量v
が5であり、動きボケ調整量v'が3であるとき、図62の
動きボケ調整部106の処理単位決定部351乃至演算
部355は、図58に示す動き量vが5である前景成分画
像に対して、3である動きボケ調整量v'対応する図60
に示すようなモデルに従って、演算を実行し、(動き量
v)/(動きボケ調整量v')=5/3、すなわちほぼ1.7の動
き量vに応じた動きボケを含む画像を算出する。なお、
この場合、算出される画像は、3である動き量vに対応し
た動きボケを含むのではないので、動きボケ付加部35
6の結果とは動き量vと動きボケ調整量v'の関係の意味
合いが異なる点に注意が必要である。
By doing so, the processing unit determination unit 351 through the operation unit 355 of the motion blur adjustment unit 106 shown in FIG.
Can adjust the amount of motion blur according to the values of the motion amount v and the motion blur adjustment amount v ′. For example, the amount of movement v
Is 5, and the motion blur adjustment amount v ′ is 3, the processing unit determination unit 351 to the calculation unit 355 of the motion blur adjustment unit 106 in FIG. FIG. 60 corresponding to the motion blur adjustment amount v ′ of 3 for the image
The calculation is performed according to the model shown in
v) / (Motion blur adjustment amount v ′) = 5/3, that is, an image including a motion blur corresponding to the motion amount v of approximately 1.7 is calculated. In addition,
In this case, since the calculated image does not include the motion blur corresponding to the motion amount v of 3, the motion blur adding unit 35
It should be noted that the meaning of the relationship between the motion amount v and the motion blur adjustment amount v ′ differs from the result of No. 6.

【0501】以上のように、動きボケ調整部106は、
動き量vおよび処理単位に対応して、式を生成し、生成
した式に前景成分画像の画素値を設定して、動きボケの
量が調整された前景成分画像を算出する。
[0501] As described above, the motion-blur adjusting unit 106
An equation is generated corresponding to the motion amount v and the processing unit, and the pixel value of the foreground component image is set in the generated equation to calculate a foreground component image in which the amount of motion blur is adjusted.

【0502】次に、図63のフローチャートを参照し
て、動きボケ調整部106による前景成分画像に含まれ
る動きボケの量の調整の処理を説明する。
Next, the process of adjusting the amount of motion blur included in the foreground component image by the motion blur adjustment unit 106 will be described with reference to the flowchart in FIG.

【0503】ステップS251において、動きボケ調整
部106の処理単位決定部351は、動きベクトルおよ
び領域情報を基に、処理単位を生成し、生成した処理単
位をモデル化部352に供給する。
[0503] In step S251, the processing unit determination unit 351 of the motion blur adjustment unit 106 generates a processing unit based on the motion vector and the area information, and supplies the generated processing unit to the modeling unit 352.

【0504】ステップS252において、動きボケ調整
部106のモデル化部352は、動き量vおよび処理単
位に対応して、モデルの選択や生成を行う。ステップS
253において、方程式生成部353は、選択されたモ
デルを基に、正規方程式を作成する。
[0504] In step S252, the modeling unit 352 of the motion-blur adjusting unit 106 selects or generates a model in accordance with the motion amount v and the processing unit. Step S
In 253, the equation generation unit 353 creates a normal equation based on the selected model.

【0505】ステップS254において、足し込み部3
54は、作成された正規方程式に前景成分画像の画素値
を設定する。ステップS255において、足し込み部3
54は、処理単位に対応する全ての画素の画素値の設定
を行ったか否かを判定し、処理単位に対応する全ての画
素の画素値の設定を行っていないと判定された場合、ス
テップS254に戻り、正規方程式への画素値の設定の
処理を繰り返す。
At step S254, adding section 3
Reference numeral 54 sets the pixel value of the foreground component image in the created normal equation. In step S255, the adding unit 3
Step 54 determines whether or not the pixel values of all the pixels corresponding to the processing unit have been set, and if it is determined that the pixel values of all the pixels corresponding to the processing unit have not been set. And the process of setting the pixel value to the normal equation is repeated.

【0506】ステップS255において、処理単位の全
ての画素の画素値の設定を行ったと判定された場合、ス
テップS256に進み、演算部355は、足し込み部3
54から供給された画素値が設定された正規方程式を基
に、動きボケの量を調整した前景の画素値を算出して、
処理は終了する。
[0506] If it is determined in step S255 that the pixel values of all the pixels in the processing unit have been set, the process proceeds to step S256, and the arithmetic unit 355 causes the adding unit 3
Based on the normal equation in which the pixel value supplied from 54 is set, the pixel value of the foreground with the amount of motion blur adjusted is calculated,
The process ends.

【0507】このように、動きボケ調整部106は、動
きベクトルおよび領域情報を基に、動きボケを含む前景
画像から動きボケの量を調整することができる。
As described above, the motion-blur adjusting unit 106 can adjust the amount of motion blur from the foreground image including the motion blur based on the motion vector and the area information.

【0508】すなわち、サンプルデータである画素値に
含まれる動きボケの量を調整することができる。
That is, it is possible to adjust the amount of motion blur included in a pixel value which is sample data.

【0509】なお、図56に示す動きボケ調整部106
の構成は、一例であり、唯一の構成ではない。
The motion-blur adjusting unit 106 shown in FIG.
Is an example and is not the only configuration.

【0510】以上のように、図10に構成を示す信号処
理部12は、入力画像に含まれる動きボケの量を調整す
ることができる。図10に構成を示す信号処理部12
は、埋もれた情報である混合比αを算出して、算出した
混合比αを出力することができる。
[0510] As described above, the signal processing unit 12 shown in Fig. 10 can adjust the amount of motion blur included in the input image. Signal processing unit 12 whose configuration is shown in FIG.
Calculates the mixture ratio α, which is the buried information, and can output the calculated mixture ratio α.

【0511】図64は、信号処理部12の機能の他の構
成を示すブロック図である。
[0511] FIG. 64 is a block diagram showing another configuration of the function of the signal processing unit 12.

【0512】図10に示す部分と同様の部分には同一の
番号を付してあり、その説明は適宜省略する。
[0512] The same portions as those shown in Fig. 10 are denoted by the same reference numerals, and description thereof will be omitted as appropriate.

【0513】領域特定部103は、領域情報を混合比算
出部104および合成部371に供給する。
[0513] The area specifying unit 103 supplies the area information to the mixture ratio calculating unit 104 and the synthesizing unit 371.

【0514】混合比算出部104は、混合比αを前景背
景分離部105および合成部371に供給する。
[0514] The mixture ratio calculation unit 104 supplies the mixture ratio α to the foreground / background separation unit 105 and the synthesis unit 371.

【0515】前景背景分離部105は、前景成分画像を
合成部371に供給する。
[0515] The foreground / background separation unit 105 supplies the foreground component image to the synthesis unit 371.

【0516】合成部371は、混合比算出部104から
供給された混合比α、領域特定部103から供給された
領域情報を基に、任意の背景画像と、前景背景分離部1
05から供給された前景成分画像とを合成して、任意の
背景画像と前景成分画像とが合成された合成画像を出力
する。
[0516] The combining section 371 generates an arbitrary background image and a foreground / background separating section 1 based on the mixing ratio α supplied from the mixing ratio calculating section 104 and the area information supplied from the area specifying section 103.
The foreground component image supplied from step 05 is synthesized, and a synthesized image in which an arbitrary background image and a foreground component image are synthesized is output.

【0517】図65は、合成部371の構成を示す図で
ある。背景成分生成部381は、混合比αおよび任意の
背景画像を基に、背景成分画像を生成して、混合領域画
像合成部382に供給する。
FIG. 65 is a diagram showing the structure of the synthesizing unit 371. The background component generation unit 381 generates a background component image based on the mixture ratio α and an arbitrary background image, and supplies the background component image to the mixed region image synthesis unit 382.

【0518】混合領域画像合成部382は、背景成分生
成部381から供給された背景成分画像と前景成分画像
とを合成することにより、混合領域合成画像を生成し
て、生成した混合領域合成画像を画像合成部383に供
給する。
[0518] The mixed area image synthesizing section 382 generates a mixed area synthesized image by synthesizing the background component image supplied from the background component generating section 381 and the foreground component image, and generates the mixed area synthesized image. It is supplied to the image synthesizing unit 383.

【0519】画像合成部383は、領域情報を基に、前
景成分画像、混合領域画像合成部382から供給された
混合領域合成画像、および任意の背景画像を合成して、
合成画像を生成して出力する。
[0519] The image combining section 383 combines the foreground component image, the mixed area combined image supplied from the mixed area image combining section 382, and an arbitrary background image based on the area information.
Generate and output a composite image.

【0520】このように、合成部371は、前景成分画
像を、任意の背景画像に合成することができる。
As described above, the synthesizing unit 371 can synthesize a foreground component image with an arbitrary background image.

【0521】特徴量である混合比αを基に前景成分画像
を任意の背景画像と合成して得られた画像は、単に画素
を合成した画像に比較し、より自然なものと成る。
An image obtained by synthesizing a foreground component image with an arbitrary background image based on the mixture ratio α, which is a characteristic amount, is more natural than an image obtained by simply synthesizing pixels.

【0522】図66は、動きボケの量を調整する信号処
理部12の機能の更に他の構成を示すブロック図であ
る。図10に示す信号処理部12が領域特定と混合比α
の算出を順番に行うのに対して、図66に示す信号処理
部12は、領域特定と混合比αの算出を並行して行う。
FIG. 66 is a block diagram showing still another configuration of the function of the signal processing unit 12 for adjusting the amount of motion blur. The signal processing unit 12 shown in FIG.
Are sequentially performed, whereas the signal processing unit 12 illustrated in FIG. 66 performs the area specification and the calculation of the mixture ratio α in parallel.

【0523】図10のブロック図に示す機能と同様の部
分には同一の番号を付してあり、その説明は省略する。
[0523] The same portions as those shown in the block diagram of FIG. 10 are denoted by the same reference numerals, and description thereof will be omitted.

【0524】入力画像は、混合比算出部401、前景背
景分離部402、領域特定部103、およびオブジェク
ト抽出部101に供給される。
[0524] The input image is supplied to the mixture ratio calculating section 401, the foreground / background separating section 402, the area specifying section 103, and the object extracting section 101.

【0525】混合比算出部401は、入力画像を基に、
画素がカバードバックグラウンド領域に属すると仮定し
た場合における推定混合比、および画素がアンカバード
バックグラウンド領域に属すると仮定した場合における
推定混合比を、入力画像に含まれる画素のそれぞれに対
して算出し、算出した画素がカバードバックグラウンド
領域に属すると仮定した場合における推定混合比、およ
び画素がアンカバードバックグラウンド領域に属すると
仮定した場合における推定混合比を前景背景分離部40
2に供給する。
[0525] The mixture ratio calculating section 401 calculates the mixture ratio based on the input image.
An estimated mixture ratio when the pixel is assumed to belong to the covered background region and an estimated mixture ratio when the pixel is assumed to belong to the uncovered background region are calculated for each of the pixels included in the input image. The estimated mixture ratio when the calculated pixel belongs to the covered background area and the estimated mixture ratio when the pixel belongs to the uncovered background area are calculated by the foreground / background separation unit 40.
Feed to 2.

【0526】図67は、混合比算出部401の構成の一
例を示すブロック図である。
FIG. 67 is a block diagram showing an example of the configuration of the mixture ratio calculating section 401.

【0527】図67に示す推定混合比処理部201は、
図37に示す推定混合比処理部201と同じである。図
67に示す推定混合比処理部202は、図37に示す推
定混合比処理部202と同じである。
The estimated mixture ratio processing unit 201 shown in FIG.
This is the same as the estimated mixture ratio processing unit 201 shown in FIG. The estimated mixture ratio processing unit 202 shown in FIG. 67 is the same as the estimated mixture ratio processing unit 202 shown in FIG.

【0528】推定混合比処理部201は、入力画像を基
に、カバードバックグラウンド領域のモデルに対応する
演算により、画素毎に推定混合比を算出して、算出した
推定混合比を出力する。
The estimated mixture ratio processing unit 201 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the covered background area based on the input image, and outputs the calculated estimated mixture ratio.

【0529】推定混合比処理部202は、入力画像を基
に、アンカバードバックグラウンド領域のモデルに対応
する演算により、画素毎に推定混合比を算出して、算出
した推定混合比を出力する。
The estimated mixture ratio processing unit 202 calculates an estimated mixture ratio for each pixel by an operation corresponding to the model of the uncovered background area based on the input image, and outputs the calculated estimated mixture ratio.

【0530】前景背景分離部402は、混合比算出部4
01から供給された、画素がカバードバックグラウンド
領域に属すると仮定した場合における推定混合比、およ
び画素がアンカバードバックグラウンド領域に属すると
仮定した場合における推定混合比、並びに領域特定部1
03から供給された領域情報を基に、入力画像から前景
成分画像を生成し、生成した前景成分画像を動きボケ調
整部106および選択部107に供給する。
The foreground / background separation unit 402
01, the estimated mixture ratio when the pixel is assumed to belong to the covered background region, the estimated mixture ratio when the pixel is assumed to belong to the uncovered background region, and the region identification unit 1.
A foreground component image is generated from the input image on the basis of the area information supplied from 03, and the generated foreground component image is supplied to the motion blur adjustment unit 106 and the selection unit 107.

【0531】図68は、前景背景分離部402の構成の
一例を示すブロック図である。
FIG. 68 is a block diagram showing an example of the structure of the foreground / background separation unit 402.

【0532】図48に示す前景背景分離部105と同様
の部分には同一の番号を付してあり、その説明は省略す
る。
[0532] The same parts as those in the foreground / background separation unit 105 shown in Fig. 48 are denoted by the same reference numerals, and description thereof will be omitted.

【0533】選択部421は、領域特定部103から供
給された領域情報を基に、混合比算出部401から供給
された、画素がカバードバックグラウンド領域に属する
と仮定した場合における推定混合比、および画素がアン
カバードバックグラウンド領域に属すると仮定した場合
における推定混合比のいずれか一方を選択して、選択し
た推定混合比を混合比αとして分離部251に供給す
る。
[0533] The selection unit 421, based on the region information supplied from the region identification unit 103, estimates the mixture ratio supplied from the mixture ratio calculation unit 401 when it is assumed that the pixel belongs to the covered background region, and One of the estimated mixture ratios when the pixel is assumed to belong to the uncovered background area is selected, and the selected estimated mixture ratio is supplied to the separation unit 251 as the mixture ratio α.

【0534】分離部251は、選択部421から供給さ
れた混合比αおよび領域情報を基に、混合領域に属する
画素の画素値から前景の成分および背景の成分を抽出
し、抽出した前景の成分を合成部253に供給すると共
に、背景の成分を合成部255に供給する。
The separation unit 251 extracts a foreground component and a background component from the pixel values of the pixels belonging to the mixed region based on the mixture ratio α and the region information supplied from the selection unit 421, and extracts the extracted foreground component. Is supplied to the synthesizing unit 253, and the background component is supplied to the synthesizing unit 255.

【0535】分離部251は、図53に示す構成と同じ
構成とすることができる。
The separating section 251 can have the same configuration as the configuration shown in FIG.

【0536】合成部253は、前景成分画像を合成し
て、出力する。合成部255は、背景成分画像を合成し
て出力する。
The combining section 253 combines and outputs a foreground component image. The combining unit 255 combines and outputs the background component image.

【0537】図66に示す動きボケ調整部106は、図
10に示す場合と同様の構成とすることができ、領域情
報および動きベクトルを基に、前景背景分離部402か
ら供給された前景成分画像に含まれる動きボケの量を調
整して、動きボケの量が調整された前景成分画像を出力
する。
[0537] The motion-blur adjusting unit 106 shown in Fig. 66 can have the same configuration as that shown in Fig. 10. The foreground component image supplied from the foreground / background separating unit 402 based on the area information and the motion vector. Is adjusted, and a foreground component image in which the amount of motion blur is adjusted is output.

【0538】図66に示す選択部107は、例えば使用
者の選択に対応した選択信号を基に、前景背景分離部4
02から供給された前景成分画像、および動きボケ調整
部106から供給された動きボケの量が調整された前景
成分画像のいずれか一方を選択して、選択した前景成分
画像を出力する。
[0538] The selection unit 107 shown in FIG. 66, for example, based on a selection signal corresponding to the user's selection, outputs the foreground / background separation unit 4
Either the foreground component image supplied from 02 or the foreground component image supplied from the motion-blur adjusting unit 106 with the amount of motion blur adjusted is selected, and the selected foreground component image is output.

【0539】このように、図66に構成を示す信号処理
部12は、入力画像に含まれる前景のオブジェクトに対
応する画像に対して、その画像に含まれる動きボケの量
を調整して出力することができる。図66に構成を示す
信号処理部12は、第1の実施例と同様に、埋もれた情
報である混合比αを算出して、算出した混合比αを出力
することができる。
As described above, the signal processing unit 12 shown in FIG. 66 adjusts the amount of motion blur included in an image corresponding to a foreground object included in an input image and outputs the adjusted image. be able to. The signal processing unit 12 shown in FIG. 66 can calculate the mixture ratio α, which is the buried information, and output the calculated mixture ratio α, as in the first embodiment.

【0540】図69は、前景成分画像を任意の背景画像
と合成する信号処理部12の機能の他の構成を示すブロ
ック図である。図64に示す信号処理部12が領域特定
と混合比αの算出をシリアルに行うのに対して、図69
に示す信号処理部12は、領域特定と混合比αの算出を
パラレルに行う。
FIG. 69 is a block diagram showing another configuration of the function of the signal processing section 12 for synthesizing a foreground component image with an arbitrary background image. While the signal processing unit 12 shown in FIG. 64 serially performs the area specification and the calculation of the mixture ratio α, FIG.
The signal processing unit 12 shown in (1) performs region identification and calculation of the mixture ratio α in parallel.

【0541】図66のブロック図に示す機能と同様の部
分には同一の番号を付してあり、その説明は省略する。
The same reference numerals are given to the same portions as those shown in the block diagram of FIG. 66, and the description thereof will be omitted.

【0542】図69に示す混合比算出部401は、入力
画像を基に、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比を、入力画像に含まれる画素の
それぞれに対して算出し、算出した画素がカバードバッ
クグラウンド領域に属すると仮定した場合における推定
混合比、および画素がアンカバードバックグラウンド領
域に属すると仮定した場合における推定混合比を前景背
景分離部402および合成部431に供給する。
[0542] The mixture ratio calculation unit 401 shown in Fig. 69 estimates the estimated mixture ratio when the pixel belongs to the covered background area based on the input image, and assumes that the pixel belongs to the uncovered background area. The estimated mixture ratio in the case is calculated for each of the pixels included in the input image, and the estimated mixture ratio in the case where the calculated pixel belongs to the covered background region, and the pixel belongs to the uncovered background region Is supplied to the foreground / background separation unit 402 and the synthesis unit 431.

【0543】図69に示す前景背景分離部402は、混
合比算出部401から供給された、画素がカバードバッ
クグラウンド領域に属すると仮定した場合における推定
混合比、および画素がアンカバードバックグラウンド領
域に属すると仮定した場合における推定混合比、並びに
領域特定部103から供給された領域情報を基に、入力
画像から前景成分画像を生成し、生成した前景成分画像
を合成部431に供給する。
The foreground / background separation unit 402 shown in FIG. 69 calculates the estimated mixture ratio supplied from the mixture ratio calculation unit 401 when it is assumed that the pixel belongs to the covered background region, and the pixel in the uncovered background region. A foreground component image is generated from the input image based on the estimated mixture ratio when it is assumed to belong and the area information supplied from the area specifying unit 103, and the generated foreground component image is supplied to the combining unit 431.

【0544】合成部431は、混合比算出部401から
供給された、画素がカバードバックグラウンド領域に属
すると仮定した場合における推定混合比、および画素が
アンカバードバックグラウンド領域に属すると仮定した
場合における推定混合比、領域特定部103から供給さ
れた領域情報を基に、任意の背景画像と、前景背景分離
部402から供給された前景成分画像とを合成して、任
意の背景画像と前景成分画像とが合成された合成画像を
出力する。
The combining unit 431 supplies the estimated mixture ratio when the pixel belongs to the covered background area and the estimated mixture ratio when the pixel belongs to the uncovered background area, supplied from the mixture ratio calculation unit 401. An arbitrary background image and a foreground component image supplied from the foreground / background separation unit 402 are combined based on the estimated mixture ratio and the region information supplied from the region identification unit 103, and the arbitrary background image and the foreground component image are combined. And outputs a composite image obtained by combining the above.

【0545】図70は、合成部431の構成を示す図で
ある。図65のブロック図に示す機能と同様の部分には
同一の番号を付してあり、その説明は省略する。
FIG. 70 is a diagram showing the structure of the synthesizing section 431. Parts that are the same as the functions illustrated in the block diagram of FIG. 65 are given the same numbers, and descriptions thereof will be omitted.

【0546】選択部441は、領域特定部103から供
給された領域情報を基に、混合比算出部401から供給
された、画素がカバードバックグラウンド領域に属する
と仮定した場合における推定混合比、および画素がアン
カバードバックグラウンド領域に属すると仮定した場合
における推定混合比のいずれか一方を選択して、選択し
た推定混合比を混合比αとして背景成分生成部381に
供給する。
[0546] Based on the region information supplied from the region identification unit 103, the selection unit 441 provides the estimated mixture ratio supplied from the mixture ratio calculation unit 401 when the pixel belongs to the covered background region, and One of the estimated mixture ratios when the pixel is assumed to belong to the uncovered background area is selected, and the selected estimated mixture ratio is supplied to the background component generation unit 381 as the mixture ratio α.

【0547】図70に示す背景成分生成部381は、選
択部441から供給された混合比αおよび任意の背景画
像を基に、背景成分画像を生成して、混合領域画像合成
部382に供給する。
The background component generation section 381 shown in FIG. 70 generates a background component image based on the mixture ratio α and an arbitrary background image supplied from the selection section 441, and supplies the background component image to the mixed area image synthesis section 382. .

【0548】図70に示す混合領域画像合成部382
は、背景成分生成部381から供給された背景成分画像
と前景成分画像とを合成することにより、混合領域合成
画像を生成して、生成した混合領域合成画像を画像合成
部383に供給する。
The mixed area image synthesizing unit 382 shown in FIG.
Generates a mixed region composite image by combining the background component image supplied from the background component generation unit 381 with the foreground component image, and supplies the generated mixed region composite image to the image combination unit 383.

【0549】画像合成部383は、領域情報を基に、前
景成分画像、混合領域画像合成部382から供給された
混合領域合成画像、および任意の背景画像を合成して、
合成画像を生成して出力する。
The image synthesizing section 383 synthesizes the foreground component image, the mixed area synthesized image supplied from the mixed area image synthesizing section 382, and an arbitrary background image based on the area information.
Generate and output a composite image.

【0550】このように、合成部431は、前景成分画
像を、任意の背景画像に合成することができる。
Thus, the synthesizing section 431 can synthesize the foreground component image with an arbitrary background image.

【0551】なお、混合比αは、画素値に含まれる背景
の成分の割合として説明したが、画素値に含まれる前景
の成分の割合としてもよい。
Although the mixture ratio α has been described as the ratio of the background component included in the pixel value, it may be the ratio of the foreground component included in the pixel value.

【0552】また、前景となるオブジェクトの動きの方
向は左から右として説明したが、その方向に限定されな
いことは勿論である。
Also, the direction of movement of the foreground object has been described from left to right, but it is needless to say that the direction is not limited to that direction.

【0553】次に、上述した信号処理部12と同様の処
理により、温度のデータ、または圧力のデータに含まれ
る動きボケの量を調整する、例について説明する。
Next, an example will be described in which the amount of motion blur included in the temperature data or the pressure data is adjusted by the same processing as that of the signal processing unit 12 described above.

【0554】図71は、本発明に係る信号処理装置の構
成例を示す図である。サーモグラフィ装置451は、測
定の対象となるオブジェクトから輻射される赤外線を、
赤外線CCDなど、内蔵している赤外線センサで検出し、
検出した赤外線の波長または強さに対応する信号を生成
する。サーモグラフィ装置451は、生成した信号をア
ナログデジタル変換し、基準温度に対応する基準データ
と比較し、オブジェクトの各部位の温度を示す温度デー
タを生成して、生成した温度データを信号処理部452
に出力する。
FIG. 71 is a diagram showing a configuration example of a signal processing device according to the present invention. The thermographic device 451 converts the infrared rays radiated from the object to be measured into
Detected by built-in infrared sensor such as infrared CCD,
A signal corresponding to the detected infrared wavelength or intensity is generated. The thermography device 451 converts the generated signal from analog to digital, compares the generated signal with reference data corresponding to a reference temperature, generates temperature data indicating the temperature of each part of the object, and converts the generated temperature data into a signal processing unit 452.
Output to

【0555】サーモグラフィ装置451は、センサ11
と同様に、空間に対して、および時間に対して積分効果
を有する。
[0555] The thermographic device 451 is provided with the sensor 11
Similarly, has an integrating effect on space and on time.

【0556】サーモグラフィ装置451が信号処理部4
52に供給する温度データは、動画像の画像データと同
様の構成を有し、測定の対象となるオブジェクトの各部
位の温度を示す値(画像データの画素値に対応する)
が、空間方向に2次元に配置され(画像データのフレー
ムに対応する)、更に、時間方向に配置されているデー
タである。
[0556] The thermographic device 451 is the signal processing unit 4
The temperature data supplied to 52 has the same configuration as the image data of the moving image, and is a value indicating the temperature of each part of the object to be measured (corresponding to the pixel value of the image data).
Are two-dimensionally arranged in the spatial direction (corresponding to a frame of image data), and further arranged in the time direction.

【0557】信号処理部452は、入力された温度デー
タに含まれる、測定の対象となるオブジェクトが動くこ
とにより発生した歪みを調整する。例えば、信号処理部
452は、測定の対象となるオブジェクトの所望の部位
のより正確な温度を抽出する。
The signal processing unit 452 adjusts the distortion included in the input temperature data and caused by the movement of the object to be measured. For example, the signal processing unit 452 extracts a more accurate temperature of a desired portion of the object to be measured.

【0558】図72は、信号処理部452による動きボ
ケの量の調整の処理を説明するフローチャートである。
ステップS301において、信号処理部452は、測定
の対象となるオブジェクトの各部位に対応する、温度を
示す値が2次元に配置された温度データを取得する。信
号処理部452は、温度データを基に、動きを示すデー
タを生成する。
FIG. 72 is a flowchart for explaining the process of adjusting the amount of motion blur by the signal processing unit 452.
In step S301, the signal processing unit 452 acquires temperature data in which values indicating temperatures are two-dimensionally arranged, corresponding to each part of the object to be measured. The signal processing unit 452 generates data indicating movement based on the temperature data.

【0559】ステップS302において、信号処理部4
52は、温度の測定を所望するオブジェクトに対応する
温度を示す値のみから成る前景領域、所望のオブジェク
ト以外のオブジェクトに対応する温度を示す値のみから
成る背景領域、並びに所望のオブジェクトに対応する温
度の情報および所望のオブジェクト以外のオブジェクト
に対応する温度の情報が混合して成る混合領域に、温度
データの領域を特定する。
In step S302, the signal processing unit 4
Reference numeral 52 denotes a foreground region consisting of only a value indicating a temperature corresponding to an object whose temperature is desired to be measured, a background region consisting of only a value representing a temperature corresponding to an object other than the desired object, and a temperature corresponding to a desired object. The temperature data area is specified in a mixed area formed by mixing the information of the object and the temperature information corresponding to the object other than the desired object.

【0560】ステップS303において、信号処理部4
52は、温度データに含まれる温度を示す値が混合領域
に属するか否かを判定し、混合領域に属すると判定され
た場合、ステップS304に進み、図27のステップS
102の処理と同様の処理で、混合比αを算出する。
In step S303, the signal processing unit 4
52 determines whether or not the value indicating the temperature included in the temperature data belongs to the mixed region. If it is determined that the value belongs to the mixed region, the process proceeds to step S304, and the process proceeds to step S304 in FIG.
The mixture ratio α is calculated by a process similar to the process of 102.

【0561】ステップS305において、信号処理部4
52は、図27のステップS103の処理と同様の処理
で、温度測定を所望するオブジェクトに対応する温度の
情報を分離して、手続きは、ステップS306に進む。
In step S305, the signal processing unit 4
Reference numeral 52 denotes a process similar to the process of step S103 in FIG. 27, which separates temperature information corresponding to the object whose temperature is desired to be measured, and the procedure proceeds to step S306.

【0562】ステップS305における温度の情報の分
離の処理は、キルヒホッフの法則またはシュテファン・
ボルツマンの法則などのオブジェクトの温度と放射され
る赤外線との関係を示す法則を基に、温度の情報を、温
度の測定を所望するオブジェクトから放出される赤外線
のエネルギ量に変換して、変換した赤外線のエネルギ量
を分離し、再度、分離したエネルギ量を温度に変換する
ようにしてもよい。赤外線のエネルギ量に変換して分離
することにより、信号処理部452は、温度の情報をそ
のまま分離するときに比較して、より精度良く、温度の
情報を分離することができる。
The process of separating the temperature information in step S305 is based on Kirchhoff's law or Stephans
Based on the law indicating the relationship between the temperature of an object and the emitted infrared rays, such as Boltzmann's law, the temperature information is converted into the amount of infrared energy emitted from the object whose temperature is desired to be measured and converted. The energy amount of infrared rays may be separated, and the separated energy amount may be converted into temperature again. The signal processing unit 452 can separate the temperature information with higher accuracy as compared with the case where the temperature information is separated as it is by converting the information into the amount of infrared energy and separating.

【0563】ステップS303において、温度データに
含まれる温度を示す値が混合領域に属しないと判定され
た場合、温度測定を所望するオブジェクトに対応する温
度の情報を分離する処理は必要無いので、ステップS3
04およびステップS305の処理はスキップされ、手
続きは、ステップS306に進む。
If it is determined in step S303 that the value indicating the temperature included in the temperature data does not belong to the mixed area, there is no need to perform processing for separating the temperature information corresponding to the object whose temperature measurement is desired. S3
04 and step S305 are skipped, and the procedure proceeds to step S306.

【0564】ステップS306において、信号処理部4
52は、前景領域に属する温度を示す値、および温度測
定を所望するオブジェクトに対応する温度の情報とで、
温度測定を所望するオブジェクトに対応する温度データ
を生成する。
[0564] In step S306, the signal processing unit 4
52 is a value indicating the temperature belonging to the foreground area and temperature information corresponding to the object for which the temperature measurement is desired.
Generate temperature data corresponding to an object for which temperature measurement is desired.

【0565】ステップS307において、信号処理部4
52は、図63のステップS251の処理と同様の処理
で、生成した温度データに対応するモデルを生成する。
[0565] In step S307, the signal processing unit 4
52 is a process similar to the process of step S251 in FIG. 63, and generates a model corresponding to the generated temperature data.

【0566】ステップS308において、信号処理部4
52は、生成したモデルを基に、図63のステップS2
52乃至ステップS255の処理と同様の処理で、温度
測定を所望するオブジェクトに対応する温度データに含
まれる動きボケの量を調整して、処理は終了する。
[0566] In step S308, the signal processing unit 4
Reference numeral 52 denotes a step S2 in FIG. 63 based on the generated model.
By the same processing as the processing from 52 to S255, the amount of motion blur included in the temperature data corresponding to the object whose temperature measurement is desired is adjusted, and the processing ends.

【0567】このように、信号処理部452は、測定の
対象となるオブジェクトの動きにより生じた温度データ
に含まれる動きボケの量を調整して、オブジェクトの各
部のより正確な温度の値を算出することができる。
As described above, the signal processing unit 452 adjusts the amount of motion blur included in the temperature data generated by the movement of the object to be measured, and calculates a more accurate temperature value of each part of the object. can do.

【0568】図73は、本発明に係る信号処理装置の構
成例を示す図である。この例では、重量測定を行う。圧
力エリアセンサ501は、複数の圧力センサから構成さ
れ、平面の単位面積に対する荷重、すなわち圧力を測定
する。圧力エリアセンサ501は、例えば、図74に示
すように、複数の圧力センサ511−1−1乃至511
−M−Nが床面に2次元に配置されて成る構造を有す
る。重量が測定されるオブジェクト512が圧力エリア
センサ501上を移動するとき、圧力エリアセンサ50
1は、圧力センサ511−1−1乃至511−M−Nの
それぞれに、加えられる圧力を検出し、圧力センサ51
1−1−1乃至511−M−Nのそれぞれの測定範囲に
対応する重量を示す重量データを生成し、生成した重量
データを信号処理部502に出力する。
FIG. 73 is a diagram showing a configuration example of a signal processing device according to the present invention. In this example, weight measurement is performed. The pressure area sensor 501 includes a plurality of pressure sensors, and measures a load on a unit area of a plane, that is, a pressure. The pressure area sensor 501 includes, for example, a plurality of pressure sensors 511-1-1 to 511 as shown in FIG.
-M-N is two-dimensionally arranged on the floor. When the object 512 whose weight is to be measured moves on the pressure area sensor 501, the pressure area sensor 50
1 detects the pressure applied to each of the pressure sensors 511-1-1 to 511-M-N,
It generates weight data indicating the weight corresponding to each of the measurement ranges of 1-1-1 to 511-MN, and outputs the generated weight data to the signal processing unit 502.

【0569】圧力センサ511−1−1乃至511−M
−Nのそれぞれは、例えば、透明な弾性体に外力が加わ
ったとき、その歪みによって生じる複屈折性、いわゆる
光弾性を利用したセンサなどで構成される。
[0566] Pressure sensors 511-1-1 to 511-M
Each of -N is constituted by, for example, a sensor using birefringence, so-called photoelasticity, which is generated by distortion when an external force is applied to a transparent elastic body.

【0570】なお、圧力エリアセンサ501は、全体を
1つの光弾性を利用したセンサで構成するようにしても
よい。
[0570] The pressure area sensor 501 may be constituted entirely by one sensor utilizing photoelasticity.

【0571】図75は、圧力エリアセンサ501を構成
する圧力センサ511−m−1乃至511−m−Nのそ
れぞれに加えられる、オブジェクト512の各部の重量
に対応する荷重を説明する図である。
FIG. 75 is a view for explaining loads applied to each of the pressure sensors 511-m-1 to 511-m-N constituting the pressure area sensor 501 and corresponding to the weight of each part of the object 512.

【0572】オブジェクト512の図中の最も左に位置
する部分の重量に対応する荷重aは、圧力センサ511
−m−1に加えられる。オブジェクト512の図中の左
から2番目に位置する部分の重量に対応する荷重bは、
圧力センサ511−m−2に加えられる。オブジェクト
512の図中の左から3番目に位置する部分の重量に対
応する荷重cは、圧力センサ511−m−3に加えられ
る。オブジェクト512の図中の左から4番目に位置す
る部分の重量に対応する荷重dは、圧力センサ511−
m−4に加えられる。
The load a corresponding to the weight of the leftmost portion of the object 512 in the drawing is calculated by the pressure sensor 511.
-M-1. The load b corresponding to the weight of the portion of the object 512 located second from the left in the drawing is:
It is applied to the pressure sensor 511-m-2. The load c corresponding to the weight of the portion of the object 512 located third from the left in the drawing is applied to the pressure sensor 511-m-3. The load d corresponding to the weight of the portion of the object 512 located at the fourth position from the left in the drawing is the pressure sensor 511-
m-4.

【0573】オブジェクト512の図中の左から5番目
に位置する部分の重量に対応する荷重eは、圧力センサ
511−m−5に加えられる。オブジェクト512の図
中の左から6番目に位置する部分の重量に対応する荷重
fは、圧力センサ511−m−6に加えられる。オブジ
ェクト512の図中の左から7番目に位置する部分の重
量に対応する荷重gは、圧力センサ511−m−7に加
えられる。
The load e corresponding to the weight of the portion of the object 512 located fifth from the left in the figure is applied to the pressure sensors 511-m-5. The load f corresponding to the weight of the portion of the object 512 located sixth from the left in the drawing is applied to the pressure sensor 511-m-6. The load g corresponding to the weight of the portion of the object 512 located seventh from the left in the drawing is applied to the pressure sensor 511-m-7.

【0574】圧力エリアセンサ501が出力する重量デ
ータは、圧力センサ511−1−1乃至511−M−N
の配置に対応し、空間方向に2次元に配置されている重
量を示す値から成る。
[0574] The weight data output from the pressure area sensor 501 includes the pressure sensors 511-1-1 through 511-MN.
, And a value indicating the weight arranged two-dimensionally in the spatial direction.

【0575】図76は、圧力エリアセンサ501が積分
効果を有し、オブジェクト512が移動しているとき、
圧力エリアセンサ501が出力する重量データの例を説
明する図である。
FIG. 76 shows that when the pressure area sensor 501 has an integrating effect and the object 512 is moving,
FIG. 4 is a diagram illustrating an example of weight data output by a pressure area sensor 501.

【0576】圧力センサ511−m−1は、計測する単
位時間において、オブジェクト512の図中の最も左に
位置する部分の重量に対応する荷重aが加えられるの
で、重量データに含まれる重量を示す値として、値aを
出力する。
The pressure sensor 511-m-1 applies a load a corresponding to the weight of the leftmost portion of the object 512 in the figure in the unit time to be measured, and indicates the weight included in the weight data. The value a is output as the value.

【0577】圧力センサ511−m−2は、計測する単
位時間において、オブジェクト512の図中の左から2
番目に位置する部分の重量に対応する荷重bが加えら
れ、その後、オブジェクト512の図中の最も左に位置
する部分の重量に対応する荷重aが加えられるので、重
量データに含まれる重量を示す値として、値a+bを出
力する。
[0577] The pressure sensor 511-m-2 outputs the object 512 from the left in the figure in the unit time to be measured.
A load b corresponding to the weight of the portion located at the second position is added, and then a load a corresponding to the weight of the leftmost portion of the object 512 in the drawing is added. The value a + b is output as the value.

【0578】圧力センサ511−m−3は、計測する単
位時間において、オブジェクト512の図中の左から3
番目に位置する部分の重量に対応する荷重cが加えら
れ、オブジェクト512の図中の左から2番目に位置す
る部分の重量に対応する荷重bが加えられ、その後、オ
ブジェクト512の図中の最も左に位置する部分の重量
に対応する荷重aが加えられるので、重量データに含ま
れる重量を示す値として、値a+b+cを出力する。
[0578] The pressure sensor 511-m-3 detects the object 512 from the left in the figure in the unit time to be measured.
A load c corresponding to the weight of the portion positioned second is added, and a load b corresponding to the weight of the portion positioned second from the left of the object 512 in the drawing is added. Since a load a corresponding to the weight of the portion located on the left is applied, a value a + b + c is output as a value indicating the weight included in the weight data.

【0579】圧力センサ511−m−4は、計測する単
位時間において、オブジェクト512の図中の左から4
番目に位置する部分の重量に対応する荷重dが加えら
れ、オブジェクト512の図中の左から3番目に位置す
る部分の重量に対応する荷重cが加えられ、オブジェク
ト512の図中の左から2番目に位置する部分の重量に
対応する荷重bが加えられ、その後、オブジェクト51
2の図中の最も左に位置する部分の重量に対応する荷重
aが加えられるので、重量データに含まれる重量を示す
値として、値a+b+c+dを出力する。
[0579] The pressure sensor 511-m-4 outputs the object 512 from the left in the figure in the unit time to be measured.
A load d corresponding to the weight of the third position is added, and a load c corresponding to the weight of the third position of the object 512 from the left in the figure is added. A load b corresponding to the weight of the portion located at the third position is applied, and then the object 51
Since a load a corresponding to the weight of the leftmost portion in FIG. 2 is applied, a value a + b + c + d is output as a value indicating the weight included in the weight data.

【0580】圧力センサ511−m−5は、計測する単
位時間において、オブジェクト512の図中の左から5
番目に位置する部分の重量に対応する荷重eが加えら
れ、オブジェクト512の図中の左から4番目に位置す
る部分の重量に対応する荷重dが加えられ、オブジェク
ト512の図中の左から3番目に位置する部分の重量に
対応する荷重cが加えられ、その後、オブジェクト51
2の図中の左から2番目に位置する部分の重量に対応す
る荷重bが加えられるので、重量データに含まれる重量
を示す値として、値b+c+d+eを出力する。
[0580] The pressure sensor 511-m-5 detects the object 512 from the left in the figure in the unit time to be measured.
A load e corresponding to the weight of the portion located at the third position is added, and a load d corresponding to the weight of the fourth portion of the object 512 from the left in the drawing is added. A load c corresponding to the weight of the portion located at the third position is applied, and then the object 51
Since a load b corresponding to the weight of the second portion from the left in FIG. 2 is applied, a value b + c + d + e is output as a value indicating the weight included in the weight data.

【0581】圧力センサ511−m−6は、計測する単
位時間において、オブジェクト512の図中の左から6
番目に位置する部分の重量に対応する荷重fが加えら
れ、オブジェクト512の図中の左から5番目に位置す
る部分の重量に対応する荷重eが加えられ、オブジェク
ト512の図中の左から4番目に位置する部分の重量に
対応する荷重dが加えられ、その後、オブジェクト51
2の図中の左から3番目に位置する部分の重量に対応す
る荷重cが加えられるので、重量データに含まれる重量
を示す値として、値c+d+e+fを出力する。
[0581] The pressure sensor 511-m-6 detects the object 512 from the left in the figure in the unit time to be measured.
A load f corresponding to the weight of the portion positioned at the nth position is added, and a load e corresponding to the weight of the portion positioned at the fifth position of the object 512 from the left in the drawing is added. A load d corresponding to the weight of the third position is applied, and then the object 51
Since a load c corresponding to the weight of the third position from the left in FIG. 2 is applied, a value c + d + e + f is output as a value indicating the weight included in the weight data.

【0582】圧力センサ511−m−7は、計測する単
位時間において、オブジェクト512の図中の左から7
番目に位置する部分の重量に対応する荷重gが加えら
れ、オブジェクト512の図中の左から6番目に位置す
る部分の重量に対応する荷重fが加えられ、オブジェク
ト512の図中の左から5番目に位置する部分の重量に
対応する荷重eが加えられ、その後、オブジェクト51
2の図中の左から4番目に位置する部分の重量に対応す
る荷重dが加えられるので、重量データに含まれる重量
を示す値として、値d+e+f+gを出力する。
[0582] The pressure sensor 511-m-7 detects the object 512 from the left in the figure in the unit time to be measured.
A load g corresponding to the weight of the portion located at the nth position is added, and a load f corresponding to the weight of the portion located at the sixth position of the object 512 from the left in the figure is added. A load e corresponding to the weight of the third position is applied, and then the object 51
Since a load d corresponding to the weight of the fourth position from the left in FIG. 2 is applied, a value d + e + f + g is output as a value indicating the weight included in the weight data.

【0583】圧力センサ511−m−8は、計測する単
位時間において、オブジェクト512の図中の左から7
番目に位置する部分の重量に対応する荷重gが加えら
れ、オブジェクト512の図中の左から6番目に位置す
る部分の重量に対応する荷重fが加えられ、オブジェク
ト512の図中の左から5番目に位置する部分の重量に
対応する荷重eが加えられるので、重量データに含まれ
る重量を示す値として、値e+f+gを出力する。
[0583] The pressure sensor 511-m-8 detects the object 512 from the left in the figure in the unit time to be measured.
A load g corresponding to the weight of the portion located at the nth position is added, and a load f corresponding to the weight of the portion located at the sixth position of the object 512 from the left in the figure is added. Since a load e corresponding to the weight of the portion located at the second position is applied, a value e + f + g is output as a value indicating the weight included in the weight data.

【0584】圧力センサ511−m−9は、計測する単
位時間において、オブジェクト512の図中の左から7
番目に位置する部分の重量に対応する荷重gが加えら
れ、オブジェクト512の図中の左から6番目に位置す
る部分の重量に対応する荷重fが加えられるので、重量
データに含まれる重量を示す値として、値f+gを出力
する。
[0584] The pressure sensor 511-m-9 detects the object 512 from the left in the figure in the unit time to be measured.
A load g corresponding to the weight of the portion located at the nth position is added, and a load f corresponding to the weight of the portion located at the sixth position from the left of the object 512 in the drawing is added, indicating the weight included in the weight data. The value f + g is output as the value.

【0585】圧力センサ511−m−10は、計測する
単位時間において、オブジェクト512の図中の左から
7番目に位置する部分の重量に対応する荷重gが加えら
れるので、重量データに含まれる重量を示す値として、
値gを出力する。
The pressure sensor 511-m-10 applies a load g corresponding to the weight of the portion of the object 512 located at the seventh position from the left in the drawing in the unit time to be measured. As a value indicating
Output the value g.

【0586】圧力エリアセンサ501は、圧力センサ5
11−m−1が出力する値a、圧力センサ511−m−
2が出力する値a+b、圧力センサ511−m−3が出
力する値a+b+c、圧力センサ511−m−4が出力
する値a+b+c+d、圧力センサ511−m−5が出
力する値b+c+d+e、圧力センサ511−m−6が
出力する値c+d+e+f、圧力センサ511−m−7
が出力する値d+e+f+g、圧力センサ511−m−
8が出力する値e+f+g、圧力センサ511−m−9
が出力する値f+g、および圧力センサ511−m−1
0が出力する値gを含む重力データを出力する。
[0586] The pressure area sensor 501 is
The value a output from 11-m-1 and the pressure sensor 511-m-
2, a + b + c output by the pressure sensor 511-m-3, a + b + c + d output by the pressure sensor 511-m-4, b + c + d + e output by the pressure sensor 511-m-5, and the pressure sensor 511- The value c + d + e + f output by m-6, the pressure sensor 511-m-7
Output value d + e + f + g, pressure sensor 511-m−
8, the output e + f + g, the pressure sensor 511-m-9
And the pressure sensor 511-m-1
The gravity data including the value g output by 0 is output.

【0587】信号処理部502は、圧力エリアセンサ5
01から供給された重量データから、測定の対象となる
オブジェクト512が動くことにより発生した歪みを調
整する。例えば、信号処理部502は、測定の対象とな
るオブジェクト512の所望の部位のより正確な重量を
抽出する。例えば、信号処理部502は、値a、値a+
b、値a+b+c、値a+b+c+d、値b+c+d+
e、値c+d+e+f、値d+e+f+g、値e+f+
g、値f+g、および値gを含む重量データから、荷重
a、荷重b、荷重c、荷重d、荷重e、荷重f、および荷重g
を抽出する。
[0587] The signal processing unit 502
From the weight data supplied from 01, the distortion generated by the movement of the object 512 to be measured is adjusted. For example, the signal processing unit 502 extracts a more accurate weight of a desired portion of the object 512 to be measured. For example, the signal processing unit 502 calculates the value a, the value a +
b, value a + b + c, value a + b + c + d, value b + c + d +
e, value c + d + e + f, value d + e + f + g, value e + f +
g, the value f + g, and the weight data
a, load b, load c, load d, load e, load f, and load g
Is extracted.

【0588】図77のフローチャートを参照して、信号
処理部502が実行する荷重の算出の処理を説明する。
With reference to the flowchart in FIG. 77, a description will be given of a load calculation process executed by the signal processing unit 502.

【0589】ステップS401において、信号処理部5
02は、圧力エリアセンサ501が出力する重量データ
を取得する。ステップS402において、信号処理部5
02は、圧力エリアセンサ501から取得した重量デー
タを基に、オブジェクト512の荷重が圧力エリアセン
サ501に加わっているか否かを判定し、オブジェクト
512の荷重が圧力エリアセンサ501に加わっている
と判定された場合、ステップS403に進み、重量デー
タの変化を基に、オブジェクト512の動きを取得す
る。
In step S401, the signal processing unit 5
02 acquires the weight data output from the pressure area sensor 501. In step S402, the signal processing unit 5
02 determines whether the load of the object 512 is applied to the pressure area sensor 501 based on the weight data acquired from the pressure area sensor 501, and determines that the load of the object 512 is applied to the pressure area sensor 501. If so, the process advances to step S403 to acquire the movement of the object 512 based on the change in the weight data.

【0590】ステップS404において、信号処理部5
02は、ステップS403の処理で取得した動きの方向
に沿って、重量データに含まれる、圧力センサ511の
1ライン分のデータを取得する。
[0590] In step S404, the signal processing unit 5
In step 02, data for one line of the pressure sensor 511 included in the weight data is acquired along the direction of movement acquired in the process of step S403.

【0591】ステップS405において、信号処理部5
02は、オブジェクト512の各部の重さに対応する荷
重を算出して、処理は終了する。信号処理部502は、
例えば、図63のフローチャートを参照して説明した処
理と同様の処理で、オブジェクト512の各部の重さに
対応する荷重を算出する。
[0591] In step S405, the signal processing unit 5
02 calculates the load corresponding to the weight of each part of the object 512, and the processing ends. The signal processing unit 502
For example, a load corresponding to the weight of each part of the object 512 is calculated by the same processing as the processing described with reference to the flowchart in FIG.

【0592】ステップS402において、オブジェクト
512の荷重が圧力エリアセンサ501に加わっていな
いと判定された場合、処理すべき重量データが無いの
で、処理は終了する。
If it is determined in step S402 that the load of the object 512 is not applied to the pressure area sensor 501, there is no weight data to be processed, and the process ends.

【0593】このように、重量測定システムは、移動し
ているオブジェクトの各部の重さに対応する正確な荷重
を算出することができる。
As described above, the weight measuring system can calculate an accurate load corresponding to the weight of each part of the moving object.

【0594】次に、空間方向に、より高解像度の画像を
生成する信号処理部12について説明する。
Next, the signal processing unit 12 for generating a higher resolution image in the spatial direction will be described.

【0595】図78は、信号処理部12の他の機能とし
て、1フレームあたりの画素数を増加させ、高解像度画
像を生成する構成を示すブロック図である。
FIG. 78 is a block diagram showing a configuration for generating a high-resolution image by increasing the number of pixels per frame as another function of the signal processing unit 12.

【0596】フレームメモリ701は、入力画像をフレ
ーム単位で記憶し、記憶している画像を画素値生成部7
02および相関演算部703に供給する。
The frame memory 701 stores an input image in frame units, and stores the stored image in the pixel value generation unit 7.
02 and the correlation calculation unit 703.

【0597】相関演算部703は、フレームメモリ70
1から供給された画像に含まれる横方向に隣り合う画素
データの画素値の相関値を演算して、画素値生成部70
2に供給する。画素値生成部702は、相関演算部70
3から供給された相関値を基に、横に並ぶ3つの画素デ
ータの画素値を基に、中央の画素の画素値から横方向に
倍密の画像の成分を算出して、それを画素値として水平
倍密画像を生成する。画素値生成部702は、生成した
水平倍密画像をフレームメモリ704に供給する。
[0597] The correlation operation section 703 is provided in the frame memory 70.
The pixel value generation unit 70 calculates a correlation value between pixel values of horizontally adjacent pixel data included in the image supplied from No. 1
Feed to 2. The pixel value generation unit 702 includes a correlation calculation unit 70
Based on the pixel values of the three pieces of pixel data arranged side by side based on the correlation value supplied from No. 3, a component of a double-density image in the horizontal direction is calculated from the pixel value of the central pixel, and is calculated as the pixel value To generate a horizontal double-density image. The pixel value generation unit 702 supplies the generated horizontal double-density image to the frame memory 704.

【0598】フレームメモリ704は、画素値生成部7
02から供給された水平倍密画像をフレーム単位で記憶
し、記憶している水平倍密画像を画素値生成部705お
よび相関演算部706に供給する。
[0598] The frame memory 704 stores the pixel value
The horizontal density image supplied from 02 is stored in frame units, and the stored horizontal density image is supplied to the pixel value generation unit 705 and the correlation calculation unit 706.

【0599】相関演算部706は、フレームメモリ70
4から供給された水平倍密画像に含まれる縦方向に隣り
合う画素データの画素値の相関値を演算して、画素値生
成部705に供給する。画素値生成部705は、相関演
算部703から供給された相関値を基に、縦に並ぶ3つ
の画素データの画素値を基に、中央の画素の画素値から
縦方向に倍密の画像の成分を算出して、それを画素値と
して倍密画像を生成する。画素値生成部705は、生成
した倍密画像を出力する。
[0599] The correlation operation unit 706 is provided in the frame memory 70.
The correlation value of pixel values of pixel data adjacent in the vertical direction included in the horizontal double-density image supplied from 4 is calculated and supplied to the pixel value generation unit 705. The pixel value generation unit 705 uses the correlation values supplied from the correlation calculation unit 703 to calculate the density of the vertically doubled image from the pixel value of the central pixel based on the pixel values of the three pixel data arranged vertically. The component is calculated, and a double-density image is generated by using the component as a pixel value. The pixel value generation unit 705 outputs the generated double-density image.

【0600】次に、画素値生成部702による、水平倍
密画像を生成する処理について説明する。
Next, a process of generating a horizontal double-density image by the pixel value generation unit 702 will be described.

【0601】図79は、図12に対応する、CCDである
センサ11に設けられている画素の配置、および水平倍
密画像の画素データに対応する領域を説明する図であ
る。図79中において、A乃至Iは、個々の画素を示す。
領域a乃至rは、画素A乃至Iの個々の画素を縦に半分にし
た受光領域である。画素A乃至Iの受光領域の幅が、2lで
あるとき、領域a乃至rの幅は、lである。画素値生成部
702は、領域a乃至rに対応する画素データの画素値を
算出する。
FIG. 79 is a view for explaining the arrangement of the pixels provided in the sensor 11, which is a CCD, and the area corresponding to the pixel data of the horizontal double-density image, corresponding to FIG. In FIG. 79, A to I indicate individual pixels.
The regions a to r are light receiving regions in which each of the pixels A to I is vertically halved. When the width of the light receiving area of the pixels A to I is 2l, the width of the areas a to r is l. The pixel value generation unit 702 calculates pixel values of pixel data corresponding to the regions a to r.

【0602】図80は、領域a乃至rに入力される光に対
応する画素データを説明する図である。図80のf'(x)
は、入力される光および空間的な微少区間に対応する、
空間的に見て理想的な画素値を示す。
FIG. 80 is a view for explaining pixel data corresponding to light input to the areas a to r. F '(x) in FIG. 80
Corresponds to the input light and the minute spatial section,
This shows an ideal pixel value when viewed spatially.

【0603】1つの画素データの画素値が、理想的な画
素値f'(x)の一様な積分で表されるとすれば、領域iに対
応する画素データの画素値Y1は、式(72)で表され、
領域jに対応する画素データの画素値Y2は、式(73)
で表され、画素Eの画素値Y3は、式(74)で表され
る。
Assuming that the pixel value of one pixel data is represented by a uniform integration of the ideal pixel value f ′ (x), the pixel value Y1 of the pixel data corresponding to the region i is expressed by the formula (1) 72),
The pixel value Y2 of the pixel data corresponding to the area j is given by the equation (73)
And the pixel value Y3 of the pixel E is represented by Expression (74).

【0604】[0604]

【数18】 (Equation 18)

【0605】[0605]

【数19】 [Equation 19]

【0606】[0606]

【数20】 式(72)乃至式(74)において、x1,x2、およびx3
は、画素Eの受光領域、領域i、および領域jのそれぞれ
の境界の空間座標である。
(Equation 20) In Equations (72) to (74), x1, x2, and x3
Are the spatial coordinates of the respective boundaries of the light receiving area of the pixel E, the area i, and the area j.

【0607】式(74)を変形することにより、式(7
5)および式(76)を導くことができる。
By transforming equation (74), equation (7)
5) and equation (76) can be derived.

【0608】 Y1=2・Y3-Y2 (75) Y2=2・Y3-Y1 (76) 従って、画素Eの画素値Y3および領域jに対応する画素デ
ータの画素値Y2が既知であれば、式(75)により、領
域iに対応する画素データの画素値Y1を算出することが
できる。また、画素Eの画素値Y3および領域iに対応する
画素データの画素値Y1が既知であれば、式(76)によ
り、領域jに対応する画素データの画素値Y2を算出する
ことができる。
Y1 = 2 · Y3-Y2 (75) Y2 = 2 · Y3-Y1 (76) Therefore, if the pixel value Y3 of the pixel E and the pixel value Y2 of the pixel data corresponding to the area j are known, the following equation is obtained. According to (75), the pixel value Y1 of the pixel data corresponding to the area i can be calculated. If the pixel value Y3 of the pixel E and the pixel value Y1 of the pixel data corresponding to the region i are known, the pixel value Y2 of the pixel data corresponding to the region j can be calculated by the equation (76).

【0609】このように、画素に対応する画素値と、そ
の画素の2つの領域に対応する画素データのいずれか一
方の画素値とを知ることができれば、画素の2つの領域
に対応する他の画素データの画素値を算出することがで
きる。
As described above, if the pixel value corresponding to the pixel and one of the pixel values of the pixel data corresponding to the two regions of the pixel can be known, the other values corresponding to the two regions of the pixel can be obtained. The pixel value of the pixel data can be calculated.

【0610】図81を参照して、1つの画素の2つの領
域に対応する画素データの画素値の算出を説明する。図
81(A)は、画素D,画素E、および画素Fと、空間的
に見て理想的な画素値f'(x)との関係を示す。
Referring to FIG. 81, calculation of pixel values of pixel data corresponding to two regions of one pixel will be described. FIG. 81A shows a relationship between a pixel D, a pixel E, and a pixel F and a spatially ideal pixel value f ′ (x).

【0611】画素D,画素E、および画素Fは、空間的
に、積分効果があり、1つの画素が1つの画素値を出力
するので、図81(B)に示すように、それぞれ、1つ
の画素値を出力する。画素Eが出力する画素値は、受光
領域の範囲で画素値f'(x)を積分した値に対応する。
The pixels D, E and F have a spatial integration effect, and one pixel outputs one pixel value. Therefore, as shown in FIG. Output the pixel value. The pixel value output by the pixel E corresponds to a value obtained by integrating the pixel value f ′ (x) in the range of the light receiving region.

【0612】相関演算部703は、画素Dの画素値と画
素Eの画素値との相関値、および画素Eの画素値と画素F
の画素値との相関値を生成して、画素値生成部702に
供給する。相関演算部703が算出する相関値は、例え
ば、画素Dの画素値と画素Eの画素値との差分値、または
画素Eの画素値と画素Fの画素値との差分値を基に算出さ
れる。近接する画素の画素値がより近い値であるとき、
それらの画素の相関はより強いと言える。すなわち、画
素値の差分値のより小さい値は、より強い相関を示す。
The correlation operation unit 703 calculates the correlation value between the pixel value of the pixel D and the pixel value of the pixel E, and the pixel value of the pixel E and the pixel value of the pixel F
Then, a correlation value with the pixel value is generated and supplied to the pixel value generation unit 702. The correlation value calculated by the correlation calculator 703 is calculated based on, for example, a difference value between the pixel value of the pixel D and the pixel value of the pixel E, or a difference value between the pixel value of the pixel E and the pixel value of the pixel F. You. When the pixel values of adjacent pixels are closer,
It can be said that the correlation between those pixels is stronger. That is, a smaller value of the pixel value difference value indicates a stronger correlation.

【0613】従って、画素Dの画素値と画素Eの画素値と
の差分値、または画素Eの画素値と画素Fの画素値との差
分値をそのまま相関値として利用するとき、より小さい
差分値である相関値は、より強い相関を示す。
Therefore, when the difference value between the pixel value of the pixel D and the pixel value of the pixel E or the difference value between the pixel value of the pixel E and the pixel value of the pixel F is directly used as a correlation value, a smaller difference value is obtained. A correlation value of indicates a stronger correlation.

【0614】例えば、画素Dの画素値と画素Eの画素値と
の相関が、画素Eの画素値と画素Fの画素値との相関より
強いとき、図81(C)に示すように、画素値生成部7
02は、画素Dの画素値を2で除して、その結果求められ
た値を領域iの画素データとする。
For example, when the correlation between the pixel value of the pixel D and the pixel value of the pixel E is stronger than the correlation between the pixel value of the pixel E and the pixel value of the pixel F, as shown in FIG. Value generator 7
In the case of 02, the pixel value of the pixel D is divided by 2, and the resulting value is used as the pixel data of the area i.

【0615】画素値生成部702は、図81(D)に示
すように、式(75)または式(76)により、画素E
の画素値および領域iの画素データの画素値を基に、領
域jの画素データの画素値を算出する。
As shown in FIG. 81 (D), the pixel value generation unit 702 calculates the pixel E by the equation (75) or (76).
The pixel value of the pixel data of the area j is calculated based on the pixel value of the pixel data of the area i and the pixel value of the pixel data of the area i.

【0616】画素値生成部702は、例えば、画素Dに
ついての、領域gの画素データの画素値、および領域hの
画素データの画素値を算出して、画素Eについての、領
域iの画素データの画素値、および領域jの画素データの
画素値を算出して、続いて、画素Fについての、領域kの
画素データの画素値、および領域lの画素データの画素
値を算出するように、順次、画面内の画素について上述
したように画素データの画素値を算出して、算出した画
素データの画素値を含む水平倍密画像を生成し、生成し
た水平倍密画像をフレームメモリ704に供給する。
The pixel value generation unit 702 calculates the pixel value of the pixel data of the area g and the pixel value of the pixel data of the area h for the pixel D, and calculates the pixel data of the area i for the pixel E. The pixel value of the pixel data of the area j, and the pixel value of the pixel data of the area j are calculated. The pixel values of the pixel data are sequentially calculated for the pixels in the screen as described above, a horizontal double-density image including the calculated pixel values of the pixel data is generated, and the generated horizontal double-density image is supplied to the frame memory 704. I do.

【0617】画素値生成部705は、画素値生成部70
2と同様に、相関演算部706から供給された水平倍密
画像の、縦に並ぶ3つの画素の画素値の相関、およびそ
の3つの画素の画素値から、画素の受光領域を縦に2つ
に分割した領域に対応する画像データの画素値を算出す
ることで倍密画像を生成する。
The pixel value generation unit 705 is
Similarly to 2, from the correlation between the pixel values of the three pixels arranged vertically and the pixel values of the three pixels of the horizontal double-density image supplied from the correlation operation unit 706, two light receiving areas of the pixels are vertically arranged. A double-density image is generated by calculating the pixel value of the image data corresponding to the divided region.

【0618】図82に例を示す画像が入力画像であると
き、画素値生成部702は、図83に例を示す水平倍密
画像を生成する。
When the image shown in FIG. 82 is an input image, the pixel value generating section 702 generates a horizontal double-density image shown in FIG. 83.

【0619】画素値生成部705は、図82に例を示す
画像が入力されたとき、図84に例を示す画像を生成
し、図83に例を示す水平倍密画像が入力されたとき、
図85に例を示す倍密画像を生成する。
The pixel value generation unit 705 generates an image shown in FIG. 84 when the image shown in FIG. 82 is input, and generates a horizontal double-density image shown in FIG.
A double-density image whose example is shown in FIG. 85 is generated.

【0620】図86は、図78に構成を示す信号処理部
12の倍密画像の生成の処理を説明するフローチャート
である。ステップS601において、信号処理部12
は、入力された画像を取得し、フレームメモリ701に
記憶する。
FIG. 86 is a flowchart for explaining the process of generating a double-density image by the signal processing section 12 having the configuration shown in FIG. In step S601, the signal processing unit 12
Acquires an input image and stores it in the frame memory 701.

【0621】ステップS602において、相関演算部7
03は、画面中の1つの画素を注目画素として選択し、
フレームメモリ701に記憶されている画素値を基に、
注目画素に対して水平方向に隣接する画素の相関値を求
める。ステップS603において、画素値生成部702
は、相関演算部703から供給された相関値を基に、相
関の強い、すなわち相関値の大きい方の画素値から水平
倍密画像の片側の画素データの画素値を生成する。
[0621] In step S602, the correlation operation unit 7
03 selects one pixel in the screen as a pixel of interest,
Based on the pixel values stored in the frame memory 701,
A correlation value of a pixel horizontally adjacent to the target pixel is obtained. In step S603, the pixel value generation unit 702
Generates the pixel value of the pixel data on one side of the horizontal double-density image from the pixel value with the stronger correlation, that is, the larger correlation value, based on the correlation value supplied from the correlation calculator 703.

【0622】ステップS604において、画素値生成部
702は、CCDの特性を基に、水平倍密画像の他の画素
データの画素値を生成する。具体的には、画素値生成部
702は、図80を参照して説明した式(75)および
式(76)を基に、ステップS603の処理で算出した
画素値、および入力画像の画素データの画素値を基に、
水平倍密画像の他の画像データの画素値を算出する。ス
テップS603およびステップS604の処理で生成さ
れた、注目画素に対応する水平倍密画像の画素データ
は、フレームメモリ704に記憶される。
In step S604, the pixel value generation unit 702 generates pixel values of other pixel data of the horizontal double-density image based on the characteristics of the CCD. Specifically, the pixel value generation unit 702 calculates the pixel value calculated in step S603 and the pixel data of the input image based on Expressions (75) and (76) described with reference to FIG. Based on the pixel value,
A pixel value of another image data of the horizontal double-density image is calculated. The pixel data of the horizontal double-density image corresponding to the target pixel, which is generated in the processing of steps S603 and S604, is stored in the frame memory 704.

【0623】ステップS605において、画素値生成部
702は、画面全体の処理を終了したか否かを判定し、
画面全体の処理を終了していないと判定された場合、手
続きは、ステップS602に戻り、次の画素を注目画素
として選択して、水平倍密画像の生成の処理を繰り返
す。
[0623] In step S605, the pixel value generation unit 702 determines whether or not processing of the entire screen has been completed.
If it is determined that the processing of the entire screen has not been completed, the procedure returns to step S602, the next pixel is selected as the target pixel, and the processing of generating a horizontal double-density image is repeated.

【0624】ステップS605において、画面全体の処
理を終了したと判定された場合、ステップS606に進
み、相関演算部706は、画面中の1つの画素を注目画
素として選択し、フレームメモリ704に記憶されてい
る水平倍密画像の画素値を基に、注目画素に対して垂直
方向に隣接する画素の相関値を求める。ステップS60
7において、画素値生成部705は、相関演算部706
から供給された相関値を基に、相関の強い画素値から倍
密画像の片側の画素値を生成する。
If it is determined in step S605 that the processing of the entire screen has been completed, the process proceeds to step S606, where the correlation calculation unit 706 selects one pixel in the screen as a pixel of interest and stores it in the frame memory 704. Based on the pixel values of the horizontal double-density image, a correlation value of a pixel vertically adjacent to the target pixel is obtained. Step S60
7, the pixel value generation unit 705 includes a correlation calculation unit 706
The pixel value of one side of the double-density image is generated from the pixel value having a strong correlation based on the correlation value supplied from.

【0625】ステップS608において、画素値生成部
705は、ステップS604と同様に、CCDの特性を基
に、倍密画像の他の画素値を生成する。具体的には、画
素値生成部702は、図80を参照して説明した式(7
5)および式(76)を基に、ステップS607の処理
で算出した画素値、および水平倍密画像の画素データの
画素値を基に、倍密画像の他の画像データの画素値を算
出する。
In step S608, the pixel value generation unit 705 generates other pixel values of the double-density image based on the characteristics of the CCD as in step S604. Specifically, the pixel value generation unit 702 calculates the equation (7) described with reference to FIG.
Based on 5) and equation (76), the pixel value of the other image data of the double-density image is calculated based on the pixel value calculated in the process of step S607 and the pixel value of the pixel data of the horizontal double-density image. .

【0626】ステップS609において、画素値生成部
705は、画面全体の処理を終了したか否かを判定し、
画面全体の処理を終了していないと判定された場合、手
続きは、ステップS606に戻り、次の画素を注目画素
として選択して、倍密画像の生成の処理を繰り返す。
[0626] In step S609, the pixel value generation unit 705 determines whether or not processing of the entire screen has been completed.
If it is determined that the processing of the entire screen has not been completed, the procedure returns to step S606, the next pixel is selected as the target pixel, and the processing of generating a double-density image is repeated.

【0627】ステップS609において、画面全体の処
理を終了したと判定された場合、画素値生成部705
は、生成した倍密画像を出力して、処理は終了する。
If it is determined in step S609 that the processing of the entire screen has been completed, the pixel value generation unit 705
Outputs the generated double-density image, and the process ends.

【0628】このように、図78に構成を示す信号処理
部12は、入力された画像から、画像の縦方向に画素の
数を2倍とし、横方向に画素の数を2倍とした倍密画像
を生成することができる。
Thus, the signal processing section 12 shown in FIG. 78 doubles the number of pixels in the vertical direction of the image and doubles the number of pixels in the horizontal direction from the input image. A dense image can be generated.

【0629】以上のように、図78に構成を示す信号処
理部12は、画素の相関、およびCCDの空間に対する積
分効果を考慮した信号処理を行うことにより空間的に解
像度の高い画像を生成することができる。
As described above, the signal processing unit 12 shown in FIG. 78 generates a spatially high-resolution image by performing signal processing in consideration of pixel correlation and integration effect on CCD space. be able to.

【0630】以上においては、3次元空間と時間軸情報
を有する現実空間の画像をビデオカメラを用いて2次元
空間と時間軸情報を有する時空間への射影を行った場合
を例としたが、本発明は、この例に限らず、より多くの
第1の次元の第1の情報を、より少ない第2の次元の第
2の情報に射影した場合に、その射影によって発生する
歪みを補正したり、有意情報を抽出したり、またはより
自然に画像を合成する場合に適応することが可能であ
る。
In the above description, an example is given in which an image of a real space having three-dimensional space and time axis information is projected onto a two-dimensional space and time and space having time axis information using a video camera. The present invention is not limited to this example, and corrects the distortion caused by the projection when more first-dimensional first information is projected onto less second-dimensional second information. It can be applied to extracting significant information, or combining images more naturally.

【0631】なお、センサ11は、CCDに限らす、固体
撮像素子である、例えば、BBD(Bucket Brigade Devic
e)、CID(Charge Injection Device)、またはCPD(Ch
arge Priming Device)などのセンサでもよく、また、
検出素子がマトリックス状に配置されているセンサに限
らず、検出素子が1列に並んでいるセンサでもよい。
[0631] The sensor 11 is a solid-state image sensor, not limited to a CCD, for example, a BBD (Bucket Brigade Device).
e), CID (Charge Injection Device), or CPD (Ch
arge Priming Device).
The sensor is not limited to a sensor in which the detection elements are arranged in a matrix, but may be a sensor in which the detection elements are arranged in one row.

【0632】本発明の信号処理を行うプログラムを記録
した記録媒体は、図3に示すように、コンピュータとは
別に、ユーザにプログラムを提供するために配布され
る、プログラムが記録されている磁気ディスク51(フ
ロッピディスクを含む)、光ディスク52(CD-ROM(Com
paut Disk-Read Only Memory),DVD(Digital VersatileD
isk)を含む)、光磁気ディスク53(MD(Mini-Dis
k)を含む)、もしくは半導体メモリ54などよりなる
パッケージメディアにより構成されるだけでなく、コン
ピュータに予め組み込まれた状態でユーザに提供され
る、プログラムが記録されているROM22や、記憶部2
8に含まれるハードディスクなどで構成される。
As shown in FIG. 3, the recording medium on which the program for performing the signal processing of the present invention is recorded is a magnetic disk on which the program is recorded, which is distributed separately from the computer in order to provide the program to the user. 51 (including floppy disk), optical disk 52 (CD-ROM (Com
paut Disk-Read Only Memory), DVD (Digital VersatileD
isk)), magneto-optical disk 53 (MD (Mini-Dis
k)), or a package medium including a semiconductor memory 54 or the like, and also provided to a user in a state where the program is incorporated in a computer in advance.
8 and the like.

【0633】なお、本明細書において、記録媒体に記録
されるプログラムを記述するステップは、記載された順
序に沿って時系列的に行われる処理はもちろん、必ずし
も時系列的に処理されなくとも、並列的あるいは個別に
実行される処理をも含むものである。
In this specification, the step of describing a program recorded on a recording medium is not limited to processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. This also includes processing executed in parallel or individually.

【0634】[0634]

【発明の効果】以上の如く、請求項1に記載の信号処理
装置、請求項27に記載の信号処理方法、および請求項
28に記載の記録媒体によれば、第1の次元を有する現
実世界の信号である第1の信号が、センサに射影され、
センサによって検出することで得た第1の次元より少な
い第2の次元の第2の信号が取得され、第2の信号に基
づく信号処理を行うことにより、射影により埋もれた有
意情報が第2の信号から抽出されるようにしたので、有
意情報を抽出することができるようになる。
As described above, according to the signal processing device of claim 1, the signal processing method of claim 27, and the recording medium of claim 28, the real world having the first dimension A first signal, which is a signal of
A second signal of a second dimension smaller than the first dimension obtained by detection by the sensor is obtained, and by performing signal processing based on the second signal, significant information buried by projection is converted to a second signal. Since the information is extracted from the signal, significant information can be extracted.

【0635】請求項29に記載の信号処理装置、請求項
44に記載の信号処理方法、および請求項45に記載の
記録媒体によれば、第1の次元を有する現実世界の信号
である第1の信号をセンサによって検出することにより
得た、第1の次元に比較し次元が少ない第2の次元を有
し、第1の信号に対する歪を含む第2の信号が取得さ
れ、第2の信号に基づく信号処理を行うことにより、第
2の信号に比して歪の軽減された第3の信号が生成され
るようにしたので、信号の歪みを軽減することができる
ようになる。
According to the signal processing apparatus of claim 29, the signal processing method of claim 44, and the recording medium of claim 45, the first signal which is a real-world signal having a first dimension. A second signal having a second dimension, which is smaller in dimension than the first dimension and obtained by detecting the signal of the second signal and having a distortion with respect to the first signal, is obtained. By performing the signal processing based on the third signal, the third signal whose distortion is reduced as compared with the second signal is generated, so that the distortion of the signal can be reduced.

【0636】請求項46に記載の信号処理装置、請求項
48に記載の信号処理方法、および請求項49に記載の
記録媒体によれば、検出信号の内、前景オブジェクトを
構成する前景オブジェクト成分のみから成る前景領域
と、背景オブジェクトを構成する背景オブジェクト成分
のみから成る背景領域と、前景オブジェクト成分および
背景オブジェクト成分とが混合されて成る混合領域とが
特定され、少なくとも混合領域における前景オブジェク
ト成分と背景オブジェクト成分との混合比が検出され、
特定結果と混合比とに基づいて、前景オブジェクトと、
背景オブジェクトとが分離されるようにしたので、より
高質なデータである前景オブジェクトおよび背景オブジ
ェクトを利用することができるようになる。
According to the signal processing apparatus of claim 46, the signal processing method of claim 48, and the recording medium of claim 49, only the foreground object component constituting the foreground object is included in the detection signal. , A background region consisting only of the background object component constituting the background object, and a mixed region formed by mixing the foreground object component and the background object component are specified, and at least the foreground object component and the background in the mixed region The mixture ratio with the object component is detected,
Based on the specific result and the mixture ratio, the foreground object,
Since the background object is separated from the background object, the foreground object and the background object, which are higher quality data, can be used.

【0637】請求項50に記載の信号処理装置、請求項
54に記載の信号処理方法、および請求項55に記載の
記録媒体によれば、検出信号の内、前景オブジェクトを
構成する前景オブジェクト成分のみから成る前景領域
と、背景オブジェクトを構成する背景オブジェクト成分
のみから成る背景領域と、前景オブジェクト成分および
背景オブジェクト成分とが混合されて成る混合領域とが
特定され、特定結果に基づいて、少なくとも混合領域に
おける前景オブジェクト成分と背景オブジェクト成分と
の混合比が検出されるようにしたので、有意情報である
混合比を抽出することができるようになる。
According to the signal processing device of claim 50, the signal processing method of claim 54, and the recording medium of claim 55, only the foreground object component constituting the foreground object is included in the detection signal. , A background region consisting of only the background object component constituting the background object, and a mixed region formed by mixing the foreground object component and the background object component are specified. Based on the specified result, at least the mixed region Since the mixture ratio of the foreground object component and the background object component in is detected, the mixture ratio that is significant information can be extracted.

【0638】請求項56に記載の信号処理装置、請求項
59に記載の信号処理方法、および請求項60に記載の
記録媒体によれば、前景オブジェクトを構成する前景オ
ブジェクト成分と、背景オブジェクトを構成する背景オ
ブジェクト成分とが混合されて成る混合領域における、
前景オブジェクト成分と背景オブジェクト成分との混合
比が検出され、混合比に基づいて、前景オブジェクトと
背景オブジェクトとが分離されるようにしたので、より
高質なデータである前景オブジェクトおよび背景オブジ
ェクトを利用することができるようになる。
According to the signal processing device of claim 56, the signal processing method of claim 59, and the recording medium of claim 60, the foreground object component forming the foreground object and the background object forming the foreground object component In the mixed area where the background object component
Since the mixture ratio between the foreground object component and the background object component is detected and the foreground object and the background object are separated based on the mixture ratio, the foreground object and the background object that are higher quality data are used. Will be able to

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の原理を説明する図である。FIG. 1 is a diagram illustrating the principle of the present invention.

【図2】本発明を適用するシステムの構成例を示すブロ
ック図である。
FIG. 2 is a block diagram illustrating a configuration example of a system to which the present invention is applied.

【図3】図2の信号処理部の構成例を示すブロック図で
ある。
FIG. 3 is a block diagram illustrating a configuration example of a signal processing unit in FIG. 2;

【図4】図2のシステムの動作を説明するフローチャー
トである。
FIG. 4 is a flowchart illustrating the operation of the system in FIG. 2;

【図5】図4のステップS1で取得される画像の例を示
す図である。
FIG. 5 is a diagram showing an example of an image acquired in step S1 of FIG.

【図6】混合領域の画素値を説明する図である。FIG. 6 is a diagram illustrating pixel values of a mixed area.

【図7】図6の区間D1乃至D3において背景の画像成
分を減算して得られる結果を説明する図である。
FIG. 7 is a diagram illustrating a result obtained by subtracting a background image component in sections D1 to D3 of FIG. 6;

【図8】動きボケの構造を説明する図である。FIG. 8 is a diagram illustrating the structure of motion blur.

【図9】図2のシステムの他の処理例を説明するフロー
チャートである。
FIG. 9 is a flowchart illustrating another processing example of the system in FIG. 2;

【図10】信号処理部12を示すブロック図である。FIG. 10 is a block diagram showing a signal processing unit 12;

【図11】センサによる撮像を説明する図である。FIG. 11 is a diagram illustrating imaging by a sensor.

【図12】画素の配置を説明する図である。FIG. 12 is a diagram illustrating an arrangement of pixels.

【図13】検出素子の動作を説明する図である。FIG. 13 is a diagram illustrating the operation of the detection element.

【図14】動いている前景に対応するオブジェクトと、
静止している背景に対応するオブジェクトとを撮像して
得られる画像を説明する図である。
FIG. 14 shows an object corresponding to a moving foreground;
FIG. 3 is a diagram illustrating an image obtained by capturing an object corresponding to a stationary background.

【図15】背景領域、前景領域、混合領域、カバードバ
ックグラウンド領域、およびアンカバードバックグラウ
ンド領域を説明する図である。
FIG. 15 is a diagram illustrating a background area, a foreground area, a mixed area, a covered background area, and an uncovered background area.

【図16】静止している前景に対応するオブジェクトお
よび静止している背景に対応するオブジェクトを撮像し
た画像における、隣接して1列に並んでいる画素の画素
値を時間方向に展開したモデル図である。
FIG. 16 is a model diagram in which pixel values of adjacent pixels arranged in one column in an image obtained by capturing an object corresponding to a stationary foreground and an object corresponding to a stationary background are developed in the time direction. It is.

【図17】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 17 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図18】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 18 is a model diagram in which pixel values are developed in a time direction and a period corresponding to a shutter time is divided.

【図19】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 19 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図20】前景領域、背景領域、および混合領域の画素
を抽出した例を示す図である。
FIG. 20 is a diagram illustrating an example in which pixels in a foreground area, a background area, and a mixed area are extracted.

【図21】画素と画素値を時間方向に展開したモデルと
の対応を示す図である。
FIG. 21 is a diagram showing correspondence between pixels and models in which pixel values are developed in the time direction.

【図22】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 22 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図23】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 23 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図24】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 24 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図25】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 25 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図26】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 26 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図27】動きボケの量の調整の処理を説明するフロー
チャートである。
FIG. 27 is a flowchart illustrating a process of adjusting the amount of motion blur.

【図28】領域特定部103の構成の一例を示すブロッ
ク図である。
FIG. 28 is a block diagram illustrating an example of a configuration of an area specifying unit 103.

【図29】前景に対応するオブジェクトが移動している
ときの画像を説明する図である。
FIG. 29 is a diagram illustrating an image when an object corresponding to the foreground is moving.

【図30】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 30 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図31】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 31 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図32】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 32 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図33】領域判定の条件を説明する図である。FIG. 33 is a diagram illustrating conditions for region determination.

【図34】領域特定部103の領域の特定の結果の例を
示す図である。
FIG. 34 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103;

【図35】領域特定部103の領域の特定の結果の例を
示す図である。
35 is a diagram illustrating an example of a result of specifying an area by the area specifying unit 103. FIG.

【図36】領域特定の処理を説明するフローチャートで
ある。
FIG. 36 is a flowchart illustrating an area specifying process.

【図37】混合比算出部104の構成の一例を示すブロ
ック図である。
FIG. 37 is a block diagram illustrating an example of a configuration of a mixture ratio calculation unit 104.

【図38】理想的な混合比αの例を示す図である。FIG. 38 is a diagram showing an example of an ideal mixture ratio α.

【図39】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 39 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図40】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 40 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図41】前景の成分の相関を利用した近似を説明する
図である。
FIG. 41 is a diagram illustrating approximation using correlation of foreground components.

【図42】C,N、およびPの関係を説明する図である。FIG. 42 is a diagram illustrating the relationship between C, N, and P.

【図43】推定混合比処理部201の構成を示すブロッ
ク図である。
FIG. 43 is a block diagram illustrating a configuration of an estimated mixture ratio processing unit 201.

【図44】推定混合比の例を示す図である。FIG. 44 is a diagram illustrating an example of an estimated mixture ratio.

【図45】混合比算出部104の他の構成を示すブロッ
ク図である。
FIG. 45 is a block diagram showing another configuration of the mixture ratio calculation unit 104.

【図46】混合比の算出の処理を説明するフローチャー
トである。
FIG. 46 is a flowchart illustrating a process of calculating a mixture ratio.

【図47】推定混合比の演算の処理を説明するフローチ
ャートである。
FIG. 47 is a flowchart illustrating a process of calculating an estimated mixture ratio.

【図48】前景背景分離部105の構成の一例を示すブ
ロック図である。
FIG. 48 is a block diagram illustrating an example of a configuration of a foreground / background separation unit 105.

【図49】入力画像、前景成分画像、および背景成分画
像を示す図である。
FIG. 49 is a diagram showing an input image, a foreground component image, and a background component image.

【図50】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 50 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図51】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 51 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図52】画素値を時間方向に展開し、シャッタ時間に
対応する期間を分割したモデル図である。
FIG. 52 is a model diagram in which pixel values are developed in the time direction and a period corresponding to a shutter time is divided.

【図53】分離部251の構成の一例を示すブロック図
である。
FIG. 53 is a block diagram illustrating an example of a configuration of a separation unit 251.

【図54】分離された前景成分画像、および背景成分画
像の例を示す図である。
FIG. 54 is a diagram illustrating an example of a separated foreground component image and a background component image.

【図55】前景と背景との分離の処理を説明するフロー
チャートである。
FIG. 55 is a flowchart illustrating a process of separating a foreground and a background.

【図56】動きボケ調整部106の構成の一例を示すブ
ロック図である。
FIG. 56 is a block diagram illustrating an example of a configuration of a motion blur adjustment unit 106.

【図57】処理単位を説明する図である。FIG. 57 is a diagram illustrating a processing unit.

【図58】前景成分画像の画素値を時間方向に展開し、
シャッタ時間に対応する期間を分割したモデル図であ
る。
FIG. 58 expands the pixel values of the foreground component image in the time direction,
FIG. 3 is a model diagram obtained by dividing a period corresponding to a shutter time.

【図59】前景成分画像の画素値を時間方向に展開し、
シャッタ時間に対応する期間を分割したモデル図であ
る。
FIG. 59 expands pixel values of a foreground component image in the time direction,
FIG. 3 is a model diagram obtained by dividing a period corresponding to a shutter time.

【図60】前景成分画像の画素値を時間方向に展開し、
シャッタ時間に対応する期間を分割したモデル図であ
る。
FIG. 60 expands pixel values of a foreground component image in the time direction,
FIG. 3 is a model diagram obtained by dividing a period corresponding to a shutter time.

【図61】前景成分画像の画素値を時間方向に展開し、
シャッタ時間に対応する期間を分割したモデル図であ
る。
FIG. 61 expands pixel values of a foreground component image in the time direction,
FIG. 3 is a model diagram obtained by dividing a period corresponding to a shutter time.

【図62】動きボケ調整部106の他の構成を示す図で
ある。
62 is a diagram illustrating another configuration of the motion blur adjustment unit 106. FIG.

【図63】動きボケ調整部106による前景成分画像に
含まれる動きボケの量の調整の処理を説明するフローチ
ャートである。
FIG. 63 is a flowchart illustrating a process of adjusting the amount of motion blur included in the foreground component image by the motion blur adjustment unit 106.

【図64】信号処理部12の機能の他の構成を示すブロ
ック図である。
FIG. 64 is a block diagram illustrating another configuration of the function of the signal processing unit 12.

【図65】合成部371の構成を示す図である。FIG. 65 is a diagram illustrating a configuration of a synthesis unit 371.

【図66】信号処理部12の機能の更に他の構成を示す
ブロック図である。
FIG. 66 is a block diagram showing still another configuration of the function of the signal processing unit 12;

【図67】混合比算出部401の構成を示すブロック図
である。
FIG. 67 is a block diagram illustrating a configuration of a mixture ratio calculation unit 401.

【図68】前景背景分離部402の構成を示すブロック
図である。
68 is a block diagram illustrating a configuration of a foreground / background separation unit 402. FIG.

【図69】信号処理部12の機能の他の構成を示すブロ
ック図である。
FIG. 69 is a block diagram showing another configuration of the function of the signal processing unit 12.

【図70】合成部431の構成を示す図である。FIG. 70 is a diagram illustrating a configuration of a combining unit 431.

【図71】本発明に係る信号処理装置の構成例を示す図
である。
FIG. 71 is a diagram illustrating a configuration example of a signal processing device according to the present invention.

【図72】信号処理部452による動きボケの量の調整
の処理を説明するフローチャートである。
FIG. 72 is a flowchart illustrating processing for adjusting the amount of motion blur by the signal processing unit 452.

【図73】本発明に係る信号処理装置の構成例を示す図
である。
FIG. 73 is a diagram illustrating a configuration example of a signal processing device according to the present invention.

【図74】圧力エリアセンサ501の構成を示す図であ
る。
74 is a diagram showing a configuration of a pressure area sensor 501. FIG.

【図75】圧力エリアセンサ501に加えられる荷重を
説明する図である。
FIG. 75 is a diagram illustrating a load applied to the pressure area sensor 501.

【図76】圧力エリアセンサ501が出力する重量デー
タの例を説明する図である。
FIG. 76 is a diagram illustrating an example of weight data output by a pressure area sensor 501.

【図77】信号処理部502が実行する荷重の算出の処
理を説明するフローチャートである。
FIG. 77 is a flowchart illustrating a load calculation process performed by a signal processing unit 502;

【図78】信号処理部12の他の機能として、1フレー
ムあたりの画素数を増加させた画像を生成する構成を示
すブロック図である。
FIG. 78 is a block diagram showing a configuration for generating an image in which the number of pixels per frame is increased as another function of the signal processing unit 12.

【図79】画素の配置、および水平倍密画像の画素に対
応する領域を説明する図である。
FIG. 79 is a diagram illustrating an arrangement of pixels and an area corresponding to a pixel of the horizontal double-density image.

【図80】領域a乃至rに入力される光に対応する画像の
成分を説明する図である。
FIG. 80 is a diagram illustrating components of an image corresponding to light input to regions a to r.

【図81】1つの画素の2つの領域に対応する画像の成
分の算出を説明する図である。
FIG. 81 is a diagram illustrating calculation of components of an image corresponding to two regions of one pixel.

【図82】入力画像の例を示す図である。FIG. 82 is a diagram illustrating an example of an input image.

【図83】水平倍密画像の例を示す図である。Fig. 83 is a diagram illustrating an example of a horizontal double-density image.

【図84】垂直倍密画像の例を示す図である。FIG. 84 is a diagram illustrating an example of a vertically doubled image.

【図85】倍密画像の例を示す図である。FIG. 85 is a diagram illustrating an example of a double-density image.

【図86】図78に構成を示す信号処理部12の倍密画
像の生成の処理を説明するフローチャートである。
86 is a flowchart illustrating a process of generating a double-density image by the signal processing unit 12 illustrated in FIG. 78.

【符号の説明】[Explanation of symbols]

11 センサ, 12 信号処理部, 21 CPU,
22 ROM, 23 RAM, 26 入力部, 27 出
力部, 28 記憶部, 29 通信部, 51 磁気
ディスク, 52 光ディスク, 53 光磁気ディス
ク, 54 半導体メモリ, 61 背景, 62 前
景, 63 混合領域, 101 オブジェクト抽出
部, 102 動き検出部, 103 領域特定部,
104 混合比算出部, 105 前景背景分離部,
106 動きボケ調整部, 107選択部, 121
フレームメモリ, 122−1乃至122−4 静動判
定部, 123−1乃至123−3 領域判定部, 1
24 判定フラグ格納フレームメモリ, 125 合成
部, 126 判定フラグ格納フレームメモリ,201
推定混合比処理部, 202 推定混合比処理部,
203 混合比決定部, 221 フレームメモリ,
222 フレームメモリ, 223 混合比演算部,
231 選択部, 232 推定混合比処理部, 23
3 推定混合比処理部, 234 選択部, 251
分離部, 252 スイッチ, 253 合成部, 2
54 スイッチ, 255 合成部, 301 フレー
ムメモリ, 302 分離処理ブロック, 303 フ
レームメモリ, 311 アンカバード領域処理部,
312 カバード領域処理部, 313 合成部,31
4 合成部, 351 処理単位決定部, 352 モ
デル化部, 353方程式生成部, 354 足し込み
部, 355 演算部, 356 動きボケ付加部,
357 選択部, 361 選択部, 371 合成
部, 381背景成分生成部, 382 混合領域画像
合成部, 383 画像合成部,401 混合比算出
部, 402 前景背景分離部, 421 選択部,
431 合成部, 441 選択部, 451 サーモ
グラフィ装置, 452 信号処理部, 501 圧力
エリアセンサ, 502 信号処理部, 511−1−
1乃至511−M−N 圧力センサ, 701 フレー
ムメモリ, 702画素値生成部, 703 相関演算
部, 704 フレームメモリ, 705画素値生成
部, 706 相関演算部
11 sensors, 12 signal processing units, 21 CPUs,
22 ROM, 23 RAM, 26 input unit, 27 output unit, 28 storage unit, 29 communication unit, 51 magnetic disk, 52 optical disk, 53 magneto-optical disk, 54 semiconductor memory, 61 background, 62 foreground, 63 mixed area, 101 object Extraction unit, 102 motion detection unit, 103 area identification unit,
104 mixture ratio calculator, 105 foreground / background separator,
106 motion blur adjustment unit, 107 selection unit, 121
Frame memory, 122-1 to 122-4 static / moving determining section, 123-1 to 123-3 area determining section, 1
24 determination flag storage frame memory, 125 synthesis unit, 126 determination flag storage frame memory, 201
Estimated mixture ratio processor, 202 Estimated mixture ratio processor,
203 mixing ratio determination unit, 221 frame memory,
222 frame memory, 223 mixture ratio calculator,
231 selection unit, 232 estimated mixture ratio processing unit, 23
3 Estimated mixture ratio processing section, 234 Selection section, 251
Separation unit, 252 switch, 253 synthesis unit, 2
54 switches, 255 synthesis unit, 301 frame memory, 302 separation processing block, 303 frame memory, 311 uncovered area processing unit,
312 Covered area processing unit, 313 synthesis unit, 31
4 synthesis unit, 351 processing unit determination unit, 352 modeling unit, 353 equation generation unit, 354 addition unit, 355 calculation unit, 356 motion blur addition unit,
357 selection section, 361 selection section, 371 synthesis section, 381 background component generation section, 382 mixed area image synthesis section, 383 image synthesis section, 401 mixing ratio calculation section, 402 foreground / background separation section, 421 selection section,
431 synthesis section, 441 selection section, 451 thermography device, 452 signal processing section, 501 pressure area sensor, 502 signal processing section, 511-1-
1 to 511-MN pressure sensor, 701 frame memory, 702 pixel value generation unit, 703 correlation operation unit, 704 frame memory, 705 pixel value generation unit, 706 correlation operation unit

───────────────────────────────────────────────────── フロントページの続き (72)発明者 石橋 淳一 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 沢尾 貴志 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 藤原 直樹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 永野 隆浩 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 (72)発明者 三宅 徹 東京都品川区北品川6丁目7番35号 ソニ ー株式会社内 ──────────────────────────────────────────────────続 き Continuing from the front page (72) Inventor Junichi Ishibashi 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Takashi Sawao 6-35, Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Naoki Fujiwara 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation (72) Inventor Takahiro Nagano 6-7-35 Kita-Shinagawa, Shinagawa-ku, Tokyo Soni -Inside Co., Ltd. (72) Inventor Toru Miyake 6-35 Kita Shinagawa, Shinagawa-ku, Tokyo Inside Sony Corporation

Claims (60)

【特許請求の範囲】[Claims] 【請求項1】 第1の次元を有する現実世界の信号であ
る第1の信号が、センサに射影され、前記センサによっ
て検出することで得た前記第1の次元より少ない第2の
次元の第2の信号を取得する取得手段と、 前記第2の信号に基づく信号処理を行うことにより、射
影により埋もれた有意情報を前記第2の信号から抽出す
る信号処理手段とを備えることを特徴とする信号処理装
置。
A first signal, which is a real-world signal having a first dimension, is projected onto a sensor, and a second signal having a second dimension less than the first dimension obtained by detection by the sensor. And a signal processing unit for performing signal processing based on the second signal to extract significant information buried by projection from the second signal. Signal processing device.
【請求項2】 前記有意情報は、射影により生じた歪を
調整するための情報であることを特徴とする請求項1に
記載の信号処理装置。
2. The signal processing apparatus according to claim 1, wherein the significant information is information for adjusting distortion caused by projection.
【請求項3】 前記センサは、それぞれ時間積分効果を
有する複数の検出素子からなるセンサであって、 前記取得手段は、前記センサによって検出された個々の
前記検出素子に対応する複数の検出信号を前記第2の信
号として取得し、 前記歪は、時間積分効果による歪であることを特徴とす
る請求項2に記載の信号処理装置。
3. The sensor according to claim 1, wherein the sensor includes a plurality of detection elements each having a time integration effect, and the acquisition unit outputs a plurality of detection signals corresponding to each of the detection elements detected by the sensor. The signal processing apparatus according to claim 2, wherein the distortion is obtained as the second signal, and the distortion is a distortion due to a time integration effect.
【請求項4】 前記取得手段は、所定時間単位毎に前記
センサの複数の検出素子で検出された複数の時間単位の
前記複数の検出信号を取得し、 前記信号処理手段は、前記複数の時間単位の複数の検出
信号に基づいて、所望の時間の前記第2の信号に対する
前記有意情報を抽出することを特徴とする請求項3に記
載の信号処理装置。
4. The method according to claim 1, wherein the obtaining unit obtains the plurality of detection signals in a plurality of time units detected by a plurality of detection elements of the sensor for each predetermined time unit. The signal processing apparatus according to claim 3, wherein the significant information for the second signal at a desired time is extracted based on a plurality of detection signals in units.
【請求項5】 前記第2の信号は、画像信号であること
を特徴とする請求項1に記載の信号処理装置。
5. The signal processing device according to claim 1, wherein the second signal is an image signal.
【請求項6】 前記信号処理手段は、前記第2の信号の
うち、前記射影により埋もれた有意情報を含む有意領域
と他の領域とを特定し、特定された領域を示す領域情報
を前記有意情報として出力する領域特定手段を備えるこ
とを特徴とする請求項1に記載の信号処理装置。
6. The signal processing unit specifies a significant region including significant information buried by the projection and another region in the second signal, and converts the region information indicating the specified region into the significant region. The signal processing apparatus according to claim 1, further comprising an area specifying unit that outputs the information as information.
【請求項7】 前記領域情報は、前景オブジェクトを構
成する前景オブジェクト成分のみからなる前記他の領域
である前景領域と、背景オブジェクトを構成する背景オ
ブジェクト成分のみからなる前記他の領域である背景領
域と、前記前景オブジェクト成分と前記背景オブジェク
ト成分とが混合されてなる前記有意領域である混合領域
を示すことを特徴とする請求項6に記載の信号処理装
置。
7. The area information includes a foreground area, which is another area only including a foreground object component forming a foreground object, and a background area, which is another area including only a background object component forming a background object. 7. The signal processing device according to claim 6, wherein the signal processing device indicates a mixed region that is the significant region obtained by mixing the foreground object component and the background object component.
【請求項8】 前記領域情報は、前記混合領域をカバー
ドバックグラウンド領域とアンカバードバックグラウン
ド領域とに識別する情報を含むことを特徴とする請求項
7に記載の信号処理装置。
8. The signal processing apparatus according to claim 7, wherein the area information includes information for identifying the mixed area as a covered background area and an uncovered background area.
【請求項9】 前記信号処理手段は、前記領域特定手段
により特定された前記有意情報を含む領域から前記有意
情報を抽出する有意情報抽出手段をさらに備えることを
特徴とする請求項6に記載の信号処理装置。
9. The apparatus according to claim 6, wherein the signal processing unit further includes a significant information extracting unit that extracts the significant information from a region including the significant information specified by the region specifying unit. Signal processing device.
【請求項10】 前記有意情報は、前景オブジェクトを
構成する前景オブジェクト成分のみからなる前景領域
と、背景オブジェクトを構成する背景オブジェクト成分
のみからなる背景領域と、前記前景オブジェクト成分と
前記背景オブジェクト成分とが混合されてなる混合領域
からなる前記第2の信号のうちの前記混合領域における
前記前景オブジェクト成分と前記背景オブジェクト成分
の混合比を示すことを特徴とする請求項9に記載の信号
処理装置。
10. The significant information includes a foreground area consisting only of a foreground object component constituting a foreground object, a background area consisting only of a background object component constituting a background object, the foreground object component and the background object component. The signal processing apparatus according to claim 9, wherein the signal processing device indicates a mixing ratio of the foreground object component and the background object component in the mixing region in the second signal including a mixing region formed by mixing the two.
【請求項11】 前記信号処理手段は、前記有意情報に
基づいて、前記射影により前記第2の信号に生じている
歪の量を調整する歪量調整手段をさらに備えることを特
徴とする請求項9に記載の信号処理装置。
11. The apparatus according to claim 11, wherein the signal processing unit further includes a distortion amount adjusting unit that adjusts an amount of distortion generated in the second signal by the projection based on the significant information. 10. The signal processing device according to 9.
【請求項12】 前記歪量調整手段は、前記歪の量を低
減することを特徴とする請求項11に記載の信号処理装
置。
12. The signal processing device according to claim 11, wherein the distortion amount adjusting unit reduces the amount of the distortion.
【請求項13】 前記歪量調整手段は、前記歪を除去す
ることを特徴とする請求項11に記載の信号処理装置。
13. The signal processing apparatus according to claim 11, wherein the distortion amount adjusting unit removes the distortion.
【請求項14】 前記歪が、前記前景オブジェクトに生
じている動きボケであることを特徴とする請求項11に
記載の信号処理装置。
14. The signal processing apparatus according to claim 11, wherein the distortion is a motion blur occurring in the foreground object.
【請求項15】 前記信号処理手段は、前記前景オブジ
ェクトの動き量を検出するオブジェクト動き検出手段を
さらに備え、 前記歪量調整手段は、前記前景オブジェクトの動き量に
基づいて、前記歪である動きボケの量を調整することを
特徴とする請求項14に記載の信号処理装置。
15. The signal processing means further comprises an object motion detecting means for detecting a motion amount of the foreground object, and the distortion amount adjusting means comprises a motion which is the distortion based on the motion amount of the foreground object. The signal processing device according to claim 14, wherein the amount of blur is adjusted.
【請求項16】 前記信号処理手段は、前景オブジェク
トを構成する前景オブジェクト成分のみからなる前景領
域と、背景オブジェクトを構成する背景オブジェクト成
分のみからなる背景領域と、前記前景オブジェクト成分
と前記背景オブジェクト成分とが混合されてなる混合領
域とからなる前記第2信号のうちの、前記混合領域にお
ける前記前景オブジェクト成分と前記背景オブジェクト
成分の混合比を、前記有意情報として抽出することを特
徴とする請求項1に記載の信号処理装置。
16. The signal processing means includes: a foreground region consisting of only a foreground object component constituting a foreground object; a background region consisting of only a background object component constituting a background object; the foreground object component and the background object component. And extracting, as the significant information, a mixture ratio of the foreground object component and the background object component in the mixed region in the second signal including a mixed region obtained by mixing the foreground object component and the background object component. 2. The signal processing device according to 1.
【請求項17】 前記信号処理手段は、前記有意情報に
基づいて、前記射影により前記第2の信号に生じている
歪の量を調整する歪量調整手段をさらに備えることを特
徴とする請求項16に記載の信号処理装置。
17. The apparatus according to claim 1, wherein the signal processing unit further includes a distortion amount adjusting unit that adjusts an amount of distortion generated in the second signal by the projection based on the significant information. The signal processing device according to item 16.
【請求項18】 前記歪量調整手段は、前記歪の量を低
減することを特徴とする請求項17に記載の信号処理装
置。
18. The signal processing device according to claim 17, wherein the distortion amount adjusting unit reduces the amount of the distortion.
【請求項19】 前記歪量調整手段は、前記歪を除去す
ることを特徴とする請求項17に記載の信号処理装置。
19. The signal processing device according to claim 17, wherein the distortion amount adjusting unit removes the distortion.
【請求項20】 前記歪が、前記前景オブジェクトに生
じている動きボケであることを特徴とする請求項17に
記載の信号処理装置。
20. The signal processing apparatus according to claim 17, wherein the distortion is a motion blur occurring in the foreground object.
【請求項21】 前記信号処理手段は、前記前景オブジ
ェクトの動き量を検出するオブジェクト動き検出手段を
さらに備え、 前記歪量調整手段は、前記前景オブジェクトの動き量に
基づいて、前記歪である動きボケの量を調整することを
特徴とする請求項20に記載の信号処理装置。
21. The signal processing means further comprises an object motion detecting means for detecting a motion amount of the foreground object, and the distortion amount adjusting means comprises a motion which is the distortion based on the motion amount of the foreground object. 21. The signal processing device according to claim 20, wherein the amount of blur is adjusted.
【請求項22】 前記信号処理手段は、前記第2の信号
に基づいて、前記混合比を前記有意情報として抽出し、 前記信号処理手段は、前記第2の信号から、前記前景領
域と前記背景領域と前記混合領域とを示す領域情報を、
前記有意情報として抽出することを特徴とする請求項1
6に記載の信号処理装置。
22. The signal processing unit extracts the mixture ratio as the significant information based on the second signal, and the signal processing unit extracts the foreground region and the background from the second signal. Area information indicating an area and the mixed area,
2. The method according to claim 1, wherein the information is extracted as the significant information.
7. The signal processing device according to 6.
【請求項23】 前記信号処理手段は、前記混合比と前
記領域情報とに基づいて、前記前景オブジェクト成分の
みからなる前記前景オブジェクトと前記背景オブジェク
ト成分のみからなる前記背景オブジェクトとを分離する
ことを特徴とする請求項22に記載の信号処理装置。
23. The apparatus according to claim 23, wherein the signal processing unit separates the foreground object including only the foreground object component from the background object including only the background object component based on the mixture ratio and the area information. The signal processing device according to claim 22, characterized in that:
【請求項24】 前記信号処理手段は、前記前景オブジ
ェクトに生じている前記歪である動きボケを調整する歪
量調整手段をさらに備えることを特徴とする請求項23
に記載の信号処理装置。
24. The apparatus according to claim 23, wherein the signal processing unit further includes a distortion amount adjusting unit that adjusts a motion blur as the distortion occurring in the foreground object.
The signal processing device according to claim 1.
【請求項25】 前記信号処理手段は、前記前景オブジ
ェクトの動き量を検出するオブジェクト動き検出手段を
さらに備え、 前記歪量調整手段は、前記前景オブジェクトの動き量に
基づいて、前記歪である動きボケの量を調整することを
特徴とする請求項24に記載の信号処理装置。
25. The signal processing means further comprises an object motion detecting means for detecting a motion amount of the foreground object, and the distortion amount adjusting means comprises a motion which is the distortion based on the motion amount of the foreground object. The signal processing device according to claim 24, wherein the amount of blur is adjusted.
【請求項26】 前記信号処理手段は、前記前景オブジ
ェクトを任意の背景画像と合成することを特徴とする請
求項23に記載の信号処理装置。
26. The signal processing apparatus according to claim 23, wherein the signal processing unit combines the foreground object with an arbitrary background image.
【請求項27】 第1の次元を有する現実世界の信号で
ある第1の信号が、センサに射影され、前記センサによ
って検出することで得た前記第1の次元より少ない第2
の次元の第2の信号を取得する取得ステップと、 前記第2の信号に基づく信号処理を行うことにより、射
影により埋もれた有意情報を前記第2の信号から抽出す
る信号処理ステップとを含むことを特徴とする信号処理
方法。
27. A first signal, which is a real-world signal having a first dimension, is projected onto a sensor, and a second signal less than the first dimension obtained by detecting with the sensor.
And a signal processing step of performing signal processing based on the second signal to extract significant information buried by projection from the second signal. A signal processing method characterized by the above-mentioned.
【請求項28】 第1の次元を有する現実世界の信号で
ある第1の信号が、センサに射影され、前記センサによ
って検出することで得た前記第1の次元より少ない第2
の次元の第2の信号を取得する取得ステップと、 前記第2の信号に基づく信号処理を行うことにより、射
影により埋もれた有意情報を前記第2の信号から抽出す
る信号処理ステップとを含むことを特徴とするコンピュ
ータが読み取り可能なプログラムが記録されている記録
媒体。
28. A first signal, which is a real-world signal having a first dimension, is projected onto a sensor, and a second signal less than the first dimension obtained by detecting with the sensor.
And a signal processing step of performing signal processing based on the second signal to extract significant information buried by projection from the second signal. A recording medium on which a computer-readable program is recorded.
【請求項29】 第1の次元を有する現実世界の信号で
ある第1の信号をセンサによって検出することにより得
た、前記第1の次元に比較し次元が少ない第2の次元を
有し、前記第1の信号に対する歪を含む第2の信号を取
得する取得手段と、 前記第2の信号に基づく信号処理を行うことにより、前
記第2の信号に比して前記歪の軽減された第3の信号を
生成する信号処理手段とを備えることを特徴とする信号
処理装置。
29. having a second dimension, obtained by detecting a first signal, which is a real-world signal having a first dimension, with a sensor, the dimension being smaller than the first dimension, Acquiring means for acquiring a second signal including distortion with respect to the first signal; and performing signal processing based on the second signal to reduce the distortion with respect to the second signal. 3. A signal processing device comprising: signal processing means for generating the signal of (3).
【請求項30】 前記センサは、それぞれ前記歪である
時間積分効果を有する複数の検出素子から成るセンサで
あって、 前記取得手段は、前記センサによって検出された個々の
前記検出素子に対応する複数の検出信号を前記第2の信
号として取得し、 前記信号処理手段は、前記第2の信号に基づく信号処理
を行うことにより、時間積分効果が軽減された、前記複
数の検出信号に対応する複数のサンプルデータから成る
前記第3の信号を生成することを特徴とする請求項29
に記載の信号処理装置。
30. The sensor, comprising: a plurality of detection elements each having a time integration effect as the distortion, wherein the acquisition unit includes a plurality of detection elements corresponding to each of the detection elements detected by the sensor. Is obtained as the second signal, and the signal processing means performs signal processing based on the second signal, thereby reducing a time integration effect and corresponding to the plurality of detection signals. 30. The method according to claim 29, further comprising: generating the third signal comprising the sample data of
The signal processing device according to claim 1.
【請求項31】 前記信号処理手段は、現実世界におけ
る第1のオブジェクトと、前記第1のオブジェクトに対
して相対的に移動する第2のオブジェクトとを前記セン
サで検出した場合、前記第2の信号によって表される前
記第1のオブジェクトと前記第2のオブジェクトとの境
界近傍において、前記センサの時間積分効果によって生
じた前記第1のオブジェクトと前記第2のオブジェクト
との混合による歪を前記信号処理により軽減することを
特徴とする請求項30に記載の信号処理装置。
31. When the sensor detects a first object in the real world and a second object that moves relatively to the first object, the signal processing unit executes the second object. In the vicinity of a boundary between the first object and the second object represented by a signal, distortion caused by mixing of the first object and the second object caused by a time integration effect of the sensor is represented by the signal. 31. The signal processing apparatus according to claim 30, wherein the signal processing apparatus reduces the processing.
【請求項32】 前記取得手段は、所定時間単位ごとに
前記センサの複数の検出素子で検出された、複数の前記
時間単位の前記検出信号を取得し、 前記信号処理手段は、複数の前記時間単位の前記検出信
号に基づいて、所望の前記時間単位に対応する前記第2
の信号によって表される前記第1のオブジェクトと前記
第2のオブジェクトとの境界近傍における歪を、前記信
号処理により軽減することを特徴とする請求項31に記
載の信号処理装置。
32. The acquisition unit acquires the detection signals of a plurality of time units detected by a plurality of detection elements of the sensor for each predetermined time unit, and the signal processing unit acquires a plurality of the time signals. The second unit corresponding to the desired time unit based on the detection signal of the unit;
32. The signal processing device according to claim 31, wherein the signal processing reduces distortion near the boundary between the first object and the second object represented by the following signal.
【請求項33】 前記信号処理手段は、現実世界におけ
る第1のオブジェクトと、前記第1のオブジェクトに対
して相対的に移動する第2のオブジェクトとを前記セン
サで検出した場合、前記第2の信号において混合されて
いる前記第1のオブジェクトおよび前記第2のオブジェ
クトから、前記第1のオブジェクトおよび前記第2のオ
ブジェクトのいずれか一方を分離して、分離された前記
第1のオブジェクトおよび前記第2のオブジェクトのい
ずれか一方を前記第3の信号として出力することを特徴
とする請求項30に記載の信号処理装置。
33. When the sensor detects a first object in the real world and a second object that moves relatively to the first object, the signal processing unit performs the second object processing. One of the first object and the second object is separated from the first object and the second object mixed in a signal, and the separated first object and the second object are separated. 31. The signal processing apparatus according to claim 30, wherein one of the two objects is output as the third signal.
【請求項34】 前記センサは、前記第1の信号であ
る、光を含む電磁波を光電変換により前記第2の信号で
ある画像信号に変換することを特徴とする請求項29に
記載の信号処理装置。
34. The signal processing according to claim 29, wherein the sensor converts an electromagnetic wave including light, which is the first signal, into an image signal, which is the second signal, by photoelectric conversion. apparatus.
【請求項35】 前記センサは、温度を測定するサーモ
グラフィ装置であることを特徴とする請求項29に記載
の信号処理装置。
35. The signal processing device according to claim 29, wherein the sensor is a thermography device for measuring a temperature.
【請求項36】 前記センサは、圧力センサであること
を特徴とする請求項29に記載の信号処理装置。
36. The signal processing device according to claim 29, wherein the sensor is a pressure sensor.
【請求項37】 前記センサは、所定時間間隔毎に前記
第2の信号を生成することを特徴とする請求項29に記
載の信号処理装置。
37. The signal processing apparatus according to claim 29, wherein the sensor generates the second signal at predetermined time intervals.
【請求項38】 前記センサが、それぞれ空間積分効果
を有する複数の検出素子を有するセンサであって、 前記取得手段は、前記センサによって検出された個々の
前記検出素子に対応する複数の検出信号を前記第2の信
号として取得し、 前記信号処理手段は、前記第2の信号に基づく信号処理
を行うことにより、前記歪である射影による空間積分効
果が軽減された複数の検出信号からなる前記第3の信号
を生成することを特徴とする請求項29に記載の信号処
理装置。
38. The sensor according to claim 38, wherein the sensor includes a plurality of detection elements each having a spatial integration effect, wherein the acquisition unit outputs a plurality of detection signals corresponding to each of the detection elements detected by the sensor. The signal processing unit obtains the second signal, and performs signal processing based on the second signal, so that the second signal includes a plurality of detection signals in which a spatial integration effect due to the projection as the distortion is reduced. 30. The signal processing apparatus according to claim 29, wherein the signal processing apparatus generates three signals.
【請求項39】 前記センサは、前記複数の検出素子が
少なくとも1つの方向である所定の方向に複数個配置さ
れており、 前記信号処理手段は、 前記第2の信号の各サンプルデータに対して、前記所定
の方向において隣接する前記第2の信号の2つのサンプ
ルデータとの間の相関をそれぞれ検出する相関検出手段
と、 各注目サンプルデータに対して、前記隣接する2つのサ
ンプルデータの内、前記相関の大きいほうのサンプルデ
ータのサンプル値に基づいて、前記相関の大きいサンプ
ルデータ側のサンプル値となる第1のサンプル値を生成
し、前記注目サンプルデータのサンプル値と前記第1の
サンプル値とに基づいて、前記相関の小さい側のサンプ
ル値となる第2のサンプル値を生成し、前記第1のサン
プル値と前記第2のサンプル値を前記注目サンプルに対
応する前記第3の信号の2つのサンプル値として出力す
る倍密サンプル生成手段とを備えることを特徴とする請
求項38に記載の信号処理装置。
39. The sensor, wherein a plurality of the plurality of detection elements are arranged in a predetermined direction which is at least one direction, and wherein the signal processing unit is configured to perform processing on each sample data of the second signal. A correlation detecting means for respectively detecting a correlation between two sample data of the second signal adjacent in the predetermined direction; and for each sample data of interest, of the two adjacent sample data, Generating, based on the sample value of the sample data having the larger correlation, a first sample value which is a sample value on the sample data side having the larger correlation, and generating a sample value of the sample data of interest and the first sample value; And generating a second sample value that is a sample value on the smaller correlation side based on the first sample value and the second sample value. 39. The signal processing apparatus according to claim 38, further comprising: a double-density sample generating unit that outputs two sample values of the third signal corresponding to the sample of interest.
【請求項40】 前記センサは、複数の前記検出素子が
マトリクス状に配置されており、 前記所定の方向は、前記マトリクス状の配置における水
平方向および垂直方向の少なくとも一方であることを特
徴とする請求項39に記載の信号処理装置。
40. The sensor, wherein a plurality of the detection elements are arranged in a matrix, and the predetermined direction is at least one of a horizontal direction and a vertical direction in the matrix arrangement. The signal processing device according to claim 39.
【請求項41】 前記信号処理手段は、水平方向および
垂直方向の両方向について倍密化することを特徴とする
請求項40に記載の信号処理装置。
41. The signal processing apparatus according to claim 40, wherein said signal processing means doubles a density in both a horizontal direction and a vertical direction.
【請求項42】 前記相関は、前記サンプルデータの差
分であることを特徴とする請求項39に記載の信号処理
装置。
42. The signal processing apparatus according to claim 39, wherein the correlation is a difference between the sample data.
【請求項43】 前記取得手段は、前記複数の検出素子
から所定時間毎に前記第2の信号を取得することを特徴
とする請求項39に記載の信号処理装置。
43. The signal processing apparatus according to claim 39, wherein the acquisition unit acquires the second signal at predetermined time intervals from the plurality of detection elements.
【請求項44】 第1の次元を有する現実世界の信号で
ある第1の信号をセンサによって検出することにより得
た、前記第1の次元に比較し次元が少ない第2の次元を
有し、前記第1の信号に対する歪を含む第2の信号を取
得する取得ステップと、 前記第2の信号に基づく信号処理を行うことにより、前
記第2の信号に比して前記歪の軽減された第3の信号を
生成する信号処理ステップとを含むことを特徴とする信
号処理方法。
44. A second dimension having a smaller dimension than the first dimension, obtained by detecting a first signal that is a real-world signal having a first dimension with a sensor, An acquisition step of acquiring a second signal including a distortion with respect to the first signal, and a signal processing based on the second signal, whereby a second signal having the distortion reduced compared to the second signal is obtained. And a signal processing step of generating a third signal.
【請求項45】 第1の次元を有する現実世界の信号で
ある第1の信号をセンサによって検出することにより得
た、前記第1の次元に比較し次元が少ない第2の次元を
有し、前記第1の信号に対する歪を含む第2の信号を取
得する取得ステップと、 前記第2の信号に基づく信号処理を行うことにより、前
記第2の信号に比して前記歪の軽減された第3の信号を
生成する信号処理ステップとを含むことを特徴とするコ
ンピュータが読み取り可能なプログラムが記録されてい
る記録媒体。
45. A second dimension having a smaller dimension than the first dimension, obtained by detecting a first signal that is a real-world signal having a first dimension with a sensor, An acquisition step of acquiring a second signal including a distortion with respect to the first signal, and a signal processing based on the second signal, whereby a second signal having the distortion reduced compared to the second signal is obtained. And a signal processing step of generating the signal of (3). A recording medium on which a computer-readable program is recorded.
【請求項46】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理装置において、 前記検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前記前景オブジェクト成分および前記背景オブ
ジェクト成分とが混合されて成る混合領域とを特定する
領域特定手段と、 少なくとも前記混合領域における前記前景オブジェクト
成分と前記背景オブジェクト成分との混合比を検出する
混合比検出手段と、 前記領域特定手段の特定結果と前記混合比とに基づい
て、前記前景オブジェクトと、前記背景オブジェクトと
を分離する分離手段とを含むことを特徴とする信号処理
装置。
46. A signal processing device for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object constituting a foreground object among the detection signals Region specifying means for specifying a foreground region consisting only of components, a background region consisting only of background object components constituting a background object, and a mixed region consisting of a mixture of the foreground object component and the background object component; and A mixture ratio detection unit that detects a mixture ratio between the foreground object component and the background object component in the mixture region; a foreground object and the background object based on a specification result of the region specification unit and the mixture ratio. Signal separating means for separating Equipment.
【請求項47】 前記前景オブジェクトの動きボケ量を
調整する動きボケ量調整手段をさらに含むことを特徴と
する請求項46の信号処理装置。
47. The signal processing apparatus according to claim 46, further comprising a motion blur amount adjusting means for adjusting a motion blur amount of the foreground object.
【請求項48】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理方法において、 前記検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前記前景オブジェクト成分および前記背景オブ
ジェクト成分とが混合されて成る混合領域とを特定する
領域特定ステップと、 少なくとも前記混合領域における前記前景オブジェクト
成分と前記背景オブジェクト成分との混合比を検出する
混合比検出ステップと、 前記領域特定ステップの処理の特定結果と前記混合比と
に基づいて、前記前景オブジェクトと、前記背景オブジ
ェクトとを分離する分離ステップとを含むことを特徴と
する信号処理方法。
48. A signal processing method for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object constituting a foreground object among the detection signals An area specifying step of specifying a foreground area consisting of only a component, a background area consisting only of a background object component constituting a background object, and a mixed area obtained by mixing the foreground object component and the background object component; and A mixture ratio detection step of detecting a mixture ratio between the foreground object component and the background object component in the mixture region; and a foreground object based on a result of the process of the region identification step and the mixture ratio. Separating step from the background object A signal processing method characterized by the above-mentioned.
【請求項49】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理用のプログラムであって、 前記検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前記前景オブジェクト成分および前記背景オブ
ジェクト成分とが混合されて成る混合領域とを特定する
領域特定ステップと、 少なくとも前記混合領域における前記前景オブジェクト
成分と前記背景オブジェクト成分との混合比を検出する
混合比検出ステップと、 前記領域特定ステップの処理の特定結果と前記混合比と
に基づいて、前記前景オブジェクトと、前記背景オブジ
ェクトとを分離する分離ステップとを含むことを特徴と
するコンピュータが読み取り可能なプログラムが記録さ
れている記録媒体。
49. A signal processing program for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object is included in the detection signals. Area specification for specifying a foreground area consisting only of constituent foreground object components, a background area consisting only of background object components constituting a background object, and a mixed area consisting of a mixture of the foreground object component and the background object component A mixture ratio detecting step of detecting a mixture ratio of the foreground object component and the background object component in at least the mixed region; and a foreground based on a specification result of the process of the region specifying step and the mixture ratio. Separation step for separating the object from the background object A recording medium on which a computer-readable program is recorded.
【請求項50】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理装置において、 前記検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前記前景オブジェクト成分および前記背景オブ
ジェクト成分とが混合されて成る混合領域とを特定する
領域特定手段と、 前記領域特定手段の特定結果に基づいて、少なくとも前
記混合領域における前記前景オブジェクト成分と前記背
景オブジェクト成分との混合比を検出する混合比検出手
段とを含むことを特徴とする信号処理装置。
50. A signal processing apparatus for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object constituting a foreground object among the detection signals A region specifying means for specifying a foreground region consisting of only a component, a background region consisting of only a background object component constituting a background object, and a mixed region formed by mixing the foreground object component and the background object component; A signal processing apparatus comprising: a mixture ratio detection unit configured to detect a mixture ratio of the foreground object component and the background object component in at least the mixed region based on a specification result of the region specification unit.
【請求項51】 前記混合比に基づいて、前記前景オブ
ジェクトと前記背景オブジェクトとを分離する分離手段
をさらに備える請求項50に記載の信号処理装置。
51. The signal processing apparatus according to claim 50, further comprising a separating unit configured to separate the foreground object and the background object based on the mixture ratio.
【請求項52】 前記前景オブジェクトに含まれる動き
ボケの量を調整する動きボケ量調整手段をさらに備える
ことを特徴とする請求項50に記載の信号処理装置。
52. The signal processing apparatus according to claim 50, further comprising a motion blur amount adjusting means for adjusting an amount of motion blur included in the foreground object.
【請求項53】 少なくとも前記前景オブジェクトおよ
び前記背景オブジェクトのいずれか一方の動きを検出す
る動き検出手段をさらに含み、 前記動きボケ調整手段は、検出された動きに基づいて、
動きボケの量を調整することを特徴とする請求項52に
記載の信号処理装置。
53. The image processing apparatus further includes: a motion detection unit configured to detect a motion of at least one of the foreground object and the background object;
53. The signal processing apparatus according to claim 52, wherein the amount of motion blur is adjusted.
【請求項54】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理方法において、 前記検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前記前景オブジェクト成分および前記背景オブ
ジェクト成分とが混合されて成る混合領域とを特定する
領域特定ステップと、 前記領域特定ステップの処理の特定結果に基づいて、少
なくとも前記混合領域における前記前景オブジェクト成
分と前記背景オブジェクト成分との混合比を検出する混
合比検出ステップとを含むことを特徴とする信号処理方
法。
54. A signal processing method for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object constituting a foreground object among the detection signals An area specifying step of specifying a foreground area consisting of only a component, a background area consisting only of a background object component constituting a background object, and a mixed area formed by mixing the foreground object component and the background object component; A signal processing method comprising: detecting a mixture ratio of at least the foreground object component and the background object component in the mixed region based on a result of the process of the region specifying step.
【請求項55】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理用のプログラムであって、 前記検出信号の内、前景オブジェクトを構成する前景オ
ブジェクト成分のみから成る前景領域と、背景オブジェ
クトを構成する背景オブジェクト成分のみから成る背景
領域と、前記前景オブジェクト成分および前記背景オブ
ジェクト成分とが混合されて成る混合領域とを特定する
領域特定ステップと、 前記領域特定ステップの処理の特定結果に基づいて、少
なくとも前記混合領域における前記前景オブジェクト成
分と前記背景オブジェクト成分との混合比を検出する混
合比検出ステップとを含むことを特徴とするコンピュー
タが読み取り可能なプログラムが記録されている記録媒
体。
55. A signal processing program for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, wherein a foreground object is included in the detection signals. Area specification for specifying a foreground area consisting only of constituent foreground object components, a background area consisting only of background object components constituting a background object, and a mixed area consisting of a mixture of the foreground object component and the background object component And a mixing ratio detecting step of detecting a mixing ratio of the foreground object component and the background object component in at least the mixed region based on a specification result of the process of the region specifying step. Recording medium on which a readable program is recorded .
【請求項56】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理装置において、 前景オブジェクトを構成する前景オブジェクト成分と、
背景オブジェクトを構成する背景オブジェクト成分とが
混合されて成る前記混合領域における、前記前景オブジ
ェクト成分と前記背景オブジェクト成分との混合比を検
出する混合比検出手段と、 前記混合比に基づいて、前記前景オブジェクトと前記背
景オブジェクトとを分離する分離手段とを含むことを特
徴とする信号処理装置。
56. A signal processing device for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, comprising: a foreground object component forming a foreground object;
Mixing ratio detection means for detecting a mixing ratio of the foreground object component and the background object component in the mixed region formed by mixing background object components constituting a background object; and A signal processing apparatus comprising: a separating unit configured to separate an object from the background object.
【請求項57】 前記前景オブジェクトに含まれる動き
ボケの量を調整する動きボケ量調整手段をさらに備える
ことを特徴とする請求項56に記載の信号処理装置。
57. The signal processing apparatus according to claim 56, further comprising a motion blur amount adjusting means for adjusting an amount of motion blur included in the foreground object.
【請求項58】 少なくとも前記前景オブジェクトおよ
び前記背景オブジェクトのいずれか一方の動きを検出す
る動き検出手段をさらに含み、 前記動きボケ調整手段は、検出された動きに基づいて、
動きボケの量を調整することを特徴とする請求項57に
記載の信号処理装置。
58. The image processing apparatus further comprising: motion detection means for detecting at least one of the foreground object and the background object, wherein the motion-blur adjusting means calculates
58. The signal processing device according to claim 57, wherein an amount of motion blur is adjusted.
【請求項59】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理方法において、 前景オブジェクトを構成する前景オブジェクト成分と、
背景オブジェクトを構成する背景オブジェクト成分とが
混合されて成る前記混合領域における、前記前景オブジ
ェクト成分と前記背景オブジェクト成分との混合比を検
出する混合比検出ステップと、 前記混合比に基づいて、前記前景オブジェクトと前記背
景オブジェクトとを分離する分離ステップとを含むこと
を特徴とする信号処理方法。
59. A signal processing method for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, comprising: a foreground object component forming a foreground object;
A mixing ratio detecting step of detecting a mixing ratio between the foreground object component and the background object component in the mixed region formed by mixing background object components constituting a background object; and A signal processing method, comprising: a separating step of separating an object from the background object.
【請求項60】 時間積分効果を有する所定の数の検出
素子から成るセンサによって取得された所定の数の検出
信号を処理する信号処理用のプログラムであって、 前景オブジェクトを構成する前景オブジェクト成分と、
背景オブジェクトを構成する背景オブジェクト成分とが
混合されて成る前記混合領域における、前記前景オブジ
ェクト成分と前記背景オブジェクト成分との混合比を検
出する混合比検出ステップと、 前記混合比に基づいて、前記前景オブジェクトと前記背
景オブジェクトとを分離する分離ステップとを含むこと
を特徴とするコンピュータが読み取り可能なプログラム
が記録されている記録媒体。
60. A signal processing program for processing a predetermined number of detection signals obtained by a sensor including a predetermined number of detection elements having a time integration effect, comprising: a foreground object component forming a foreground object; ,
A mixing ratio detecting step of detecting a mixing ratio between the foreground object component and the background object component in the mixed region formed by mixing background object components constituting a background object; and A recording medium in which a computer-readable program is recorded, comprising a separating step of separating an object and the background object.
JP2000389045A 1999-12-28 2000-12-21 Signal processing apparatus and method, and recording medium Expired - Fee Related JP4491965B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2000389045A JP4491965B2 (en) 1999-12-28 2000-12-21 Signal processing apparatus and method, and recording medium
TW89128040A TWI237196B (en) 1999-12-28 2000-12-27 Signal processing equipment and method as well as recorded medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP37378299 1999-12-28
JP11-373782 1999-12-28
JP2000389045A JP4491965B2 (en) 1999-12-28 2000-12-21 Signal processing apparatus and method, and recording medium

Publications (3)

Publication Number Publication Date
JP2001250119A true JP2001250119A (en) 2001-09-14
JP2001250119A5 JP2001250119A5 (en) 2007-05-10
JP4491965B2 JP4491965B2 (en) 2010-06-30

Family

ID=26582531

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000389045A Expired - Fee Related JP4491965B2 (en) 1999-12-28 2000-12-21 Signal processing apparatus and method, and recording medium

Country Status (1)

Country Link
JP (1) JP4491965B2 (en)

Cited By (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190028A (en) * 2000-12-21 2002-07-05 Sony Corp Device and method for processing signal, and recording medium
WO2002061685A1 (en) * 2001-02-01 2002-08-08 Sony Corporation Image processor
WO2002063565A1 (en) * 2001-02-05 2002-08-15 Sony Corporation Image processing device
WO2002067200A1 (en) * 2001-02-19 2002-08-29 Sony Corporation Image processing device
JP2002352237A (en) * 2001-05-30 2002-12-06 Sony Corp Device and method for processing image, and recording medium and program
WO2002099753A1 (en) * 2001-06-05 2002-12-12 Sony Corporation Image processor
JP2002366949A (en) * 2001-06-05 2002-12-20 Sony Corp Device and method for processing image, recording medium and program
WO2002103636A1 (en) * 2001-06-15 2002-12-27 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2002103635A1 (en) * 2001-06-15 2002-12-27 Sony Corporation Image processing apparatus and method and image pickup apparatus
WO2003001452A1 (en) * 2001-06-20 2003-01-03 Sony Corporation Image processing device and method, and imager
WO2003001453A1 (en) * 2001-06-25 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003001455A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003001454A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method and image pickup apparatus
WO2003001456A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003003307A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003003308A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Communication apparatus and method
WO2003003306A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method
WO2003003304A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003003305A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP2003006658A (en) * 2001-06-19 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003006651A (en) * 2001-06-22 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003006656A (en) * 2001-06-22 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003006653A (en) * 2001-06-26 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003018564A (en) * 2001-06-27 2003-01-17 Sony Corp Apparatus and method for communication, communication system, recording medium and program
JP2003016446A (en) * 2001-06-27 2003-01-17 Sony Corp Image processor and image processing method, recording medium, and program
JP2003233817A (en) * 2002-02-08 2003-08-22 Sony Corp Image processor and image processing method, recording medium, and its program
WO2004077351A1 (en) * 2003-02-28 2004-09-10 Sony Corporation Image processing device and method, recording medium, and program
WO2005001762A1 (en) 2003-06-27 2005-01-06 Sony Corporation Signal processing device, signal processing method, program, and recording medium
WO2006068292A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method and image processing program
WO2006068293A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method, and image processing program
WO2006068298A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, learning device, and coefficient generating device and method
WO2006068282A1 (en) 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method, and image processing program
WO2006068289A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Learning device, learning method, and learning program
JP2006287808A (en) * 2005-04-04 2006-10-19 Sony Corp Image compositing apparatus and method, and recording medium
KR100864341B1 (en) * 2001-03-15 2008-10-17 소니 가부시끼 가이샤 Image processing device and method, and imaging device
WO2009078454A1 (en) 2007-12-18 2009-06-25 Sony Corporation Data processing apparatus, data processing method, and storage medium
EP2111037A2 (en) 2008-04-17 2009-10-21 Sony Corporation Image processing apparatus, image-capturing apparatus, image processing method, and program
US7684635B2 (en) 2003-06-27 2010-03-23 Sony Corporation Signal processing device, and signal processing method, and program, and recording medium
US7692688B2 (en) 2006-02-13 2010-04-06 Sony Corporation Method for correcting distortion of captured image, device for correcting distortion of captured image, and imaging device
JP2013524590A (en) * 2010-03-30 2013-06-17 テスト アクチエンゲゼルシャフト Image processing method and thermal image camera
WO2020116213A1 (en) 2018-12-06 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Reception device and transmission device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4660980B2 (en) * 2001-06-15 2011-03-30 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4660979B2 (en) * 2001-06-15 2011-03-30 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4596214B2 (en) * 2001-06-15 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4596211B2 (en) * 2001-06-15 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0937153A (en) * 1995-05-12 1997-02-07 Sony Corp Key signal generator, image composing device, key signal generating method and image composing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0937153A (en) * 1995-05-12 1997-02-07 Sony Corp Key signal generator, image composing device, key signal generating method and image composing method

Cited By (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190028A (en) * 2000-12-21 2002-07-05 Sony Corp Device and method for processing signal, and recording medium
WO2002061685A1 (en) * 2001-02-01 2002-08-08 Sony Corporation Image processor
JP4596201B2 (en) * 2001-02-01 2010-12-08 ソニー株式会社 Image processing apparatus and method, and recording medium
JP2002230556A (en) * 2001-02-01 2002-08-16 Sony Corp Image processing device and method and storage medium
US7412075B2 (en) 2001-02-01 2008-08-12 Sony Corporation Picture processing apparatus for processing picture data in accordance with background information
KR100846261B1 (en) * 2001-02-05 2008-07-16 소니 가부시끼 가이샤 Image processing device, image processing method, recording medium and image pick up device
US7154541B2 (en) 2001-02-05 2006-12-26 Sony Corporation Image processing device
WO2002063565A1 (en) * 2001-02-05 2002-08-15 Sony Corporation Image processing device
US7130464B2 (en) 2001-02-19 2006-10-31 Sony Corporation Image processing device
KR100848427B1 (en) * 2001-02-19 2008-07-28 소니 가부시끼 가이샤 Image processing device
WO2002067200A1 (en) * 2001-02-19 2002-08-29 Sony Corporation Image processing device
KR100864341B1 (en) * 2001-03-15 2008-10-17 소니 가부시끼 가이샤 Image processing device and method, and imaging device
WO2002099752A1 (en) * 2001-05-30 2002-12-12 Sony Corporation Image processing apparatus
JP2002352237A (en) * 2001-05-30 2002-12-06 Sony Corp Device and method for processing image, and recording medium and program
US7409074B2 (en) 2001-05-30 2008-08-05 Sony Corporation Information processing apparatus and system using pixel data
WO2002099753A1 (en) * 2001-06-05 2002-12-12 Sony Corporation Image processor
US7139019B2 (en) 2001-06-05 2006-11-21 Sony Corporation Image processing device
JP2002366949A (en) * 2001-06-05 2002-12-20 Sony Corp Device and method for processing image, recording medium and program
JP4596209B2 (en) * 2001-06-05 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
WO2002103635A1 (en) * 2001-06-15 2002-12-27 Sony Corporation Image processing apparatus and method and image pickup apparatus
US7715643B2 (en) 2001-06-15 2010-05-11 Sony Corporation Image processing apparatus and method, and image pickup apparatus
US7336818B2 (en) 2001-06-15 2008-02-26 Sony Corporation Image processing device and method, and image-taking device
WO2002103636A1 (en) * 2001-06-15 2002-12-27 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4596215B2 (en) * 2001-06-19 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2003006658A (en) * 2001-06-19 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP2003006650A (en) * 2001-06-20 2003-01-10 Sony Corp Device and method for processing image, recording medium and program
WO2003001452A1 (en) * 2001-06-20 2003-01-03 Sony Corporation Image processing device and method, and imager
JP4596216B2 (en) * 2001-06-20 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
US7612909B2 (en) 2001-06-20 2009-11-03 Sony Corporation Image processing apparatus and method, and image-capturing apparatus based on the difference between a signal detected by a sensor and the real world
JP4596218B2 (en) * 2001-06-22 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2003006656A (en) * 2001-06-22 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP4596217B2 (en) * 2001-06-22 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2003006651A (en) * 2001-06-22 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP4596219B2 (en) * 2001-06-25 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2003006652A (en) * 2001-06-25 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
WO2003001453A1 (en) * 2001-06-25 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003001456A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4596220B2 (en) * 2001-06-26 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2003006648A (en) * 2001-06-26 2003-01-10 Sony Corp Device and method for processing image, recording medium and program
US7536049B2 (en) 2001-06-26 2009-05-19 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP2003006657A (en) * 2001-06-26 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
US7340106B2 (en) 2001-06-26 2008-03-04 Sony Corporation Image processing apparatus and method, and image-capturing apparatus
US7221778B2 (en) 2001-06-26 2007-05-22 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003001455A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003001454A1 (en) * 2001-06-26 2003-01-03 Sony Corporation Image processing apparatus and method and image pickup apparatus
JP2003006653A (en) * 2001-06-26 2003-01-10 Sony Corp Image processor and method for processing image, recording medium and program
JP4596221B2 (en) * 2001-06-26 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4596222B2 (en) * 2001-06-26 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP4596223B2 (en) * 2001-06-27 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
US7619655B2 (en) 2001-06-27 2009-11-17 Sony Corporation Communication apparatus and method
US7260260B2 (en) 2001-06-27 2007-08-21 Sony Corporation Image processing apparatus and method
JP2003008991A (en) * 2001-06-27 2003-01-10 Sony Corp Image processing unit and method, recording medium, and program
JP4596226B2 (en) * 2001-06-27 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
US7352917B2 (en) 2001-06-27 2008-04-01 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003003308A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Communication apparatus and method
JP2003016455A (en) * 2001-06-27 2003-01-17 Sony Corp Device and method for communications, communication system, recording medium, and program
JP4650655B2 (en) * 2001-06-27 2011-03-16 ソニー株式会社 COMMUNICATION DEVICE AND METHOD, COMMUNICATION SYSTEM, RECORDING MEDIUM, AND PROGRAM
WO2003003305A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method, and image pickup apparatus
WO2003003304A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method, and image pickup apparatus
US7477289B2 (en) 2001-06-27 2009-01-13 Sony Corporation Image processing apparatus and method, and image pickup apparatus
US8164638B2 (en) 2001-06-27 2012-04-24 Sony Corporation Communication system and method thereof
JP2003016453A (en) * 2001-06-27 2003-01-17 Sony Corp Device and method for image processing, recording medium, and program
JP2003016456A (en) * 2001-06-27 2003-01-17 Sony Corp Device and method for image processing, recording medium, and program
JP2003016446A (en) * 2001-06-27 2003-01-17 Sony Corp Image processor and image processing method, recording medium, and program
JP2003016452A (en) * 2001-06-27 2003-01-17 Sony Corp Device and method for image processing, recording medium, and program
JP4596224B2 (en) * 2001-06-27 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
WO2003003306A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method
US7181080B2 (en) 2001-06-27 2007-02-20 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4596225B2 (en) * 2001-06-27 2010-12-08 ソニー株式会社 Image processing apparatus and method, recording medium, and program
WO2003003307A1 (en) * 2001-06-27 2003-01-09 Sony Corporation Image processing apparatus and method, and image pickup apparatus
JP4596227B2 (en) * 2001-06-27 2010-12-08 ソニー株式会社 COMMUNICATION DEVICE AND METHOD, COMMUNICATION SYSTEM, RECORDING MEDIUM, AND PROGRAM
JP2003018564A (en) * 2001-06-27 2003-01-17 Sony Corp Apparatus and method for communication, communication system, recording medium and program
JP2003233817A (en) * 2002-02-08 2003-08-22 Sony Corp Image processor and image processing method, recording medium, and its program
US7889944B2 (en) 2003-02-28 2011-02-15 Sony Corporation Image processing device and method, recording medium, and program
WO2004077351A1 (en) * 2003-02-28 2004-09-10 Sony Corporation Image processing device and method, recording medium, and program
US7778439B2 (en) 2003-02-28 2010-08-17 Sony Corporation Image processing device and method, recording medium, and program
US8026951B2 (en) 2003-02-28 2011-09-27 Sony Corporation Image processing device and method, recording medium, and program
KR101023452B1 (en) * 2003-02-28 2011-03-24 소니 주식회사 Image processing device and method, recording medium, and program
US7561188B2 (en) 2003-02-28 2009-07-14 Sony Corporation Image processing device and method, recording medium, and program
US7672526B2 (en) 2003-06-27 2010-03-02 Sony Corporation Signal processing device, signal processing method, program, and recording medium
US7672536B2 (en) 2003-06-27 2010-03-02 Sony Corporation Signal processing device, signal processing method, program, and recording medium
US7684635B2 (en) 2003-06-27 2010-03-23 Sony Corporation Signal processing device, and signal processing method, and program, and recording medium
WO2005001762A1 (en) 2003-06-27 2005-01-06 Sony Corporation Signal processing device, signal processing method, program, and recording medium
WO2006068292A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method and image processing program
KR101161706B1 (en) 2004-12-21 2012-07-03 소니 가부시끼가이샤 Image processing device, learning device, and coefficient generating device and method
CN100486299C (en) * 2004-12-21 2009-05-06 索尼株式会社 Image processing device and image processing method
CN100464570C (en) * 2004-12-21 2009-02-25 索尼株式会社 Image processing device, learning device, and coefficient generating device and method
US8213496B2 (en) 2004-12-21 2012-07-03 Sony Corporation Image processing device, image processing method, and image processing program
WO2006068289A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Learning device, learning method, and learning program
WO2006068282A1 (en) 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method, and image processing program
WO2006068298A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, learning device, and coefficient generating device and method
WO2006068293A1 (en) * 2004-12-21 2006-06-29 Sony Corporation Image processing device, image processing method, and image processing program
JP4872672B2 (en) * 2004-12-21 2012-02-08 ソニー株式会社 Learning device, learning method, and learning program
US7903890B2 (en) 2004-12-21 2011-03-08 Sony Corporation Image processing device, learning device, and coefficient generating device and method
US7750943B2 (en) 2004-12-21 2010-07-06 Sony Corporation Image processing device that removes motion blur from an image and method of removing motion blur from an image
US7710461B2 (en) 2004-12-21 2010-05-04 Sony Corporation Image processing device, image processing method, and image processing program
US7940993B2 (en) 2004-12-21 2011-05-10 Sony Corporation Learning device, learning method, and learning program
JP4766334B2 (en) * 2004-12-21 2011-09-07 ソニー株式会社 Image processing apparatus, image processing method, and image processing program
CN101088281B (en) * 2004-12-21 2011-09-07 索尼株式会社 Learning device and learning method
JP4766333B2 (en) * 2004-12-21 2011-09-07 ソニー株式会社 Image processing apparatus, image processing method, and image processing program
JP4868236B2 (en) * 2004-12-21 2012-02-01 ソニー株式会社 Image processing apparatus, image processing method, and image processing program
JP4867659B2 (en) * 2004-12-21 2012-02-01 ソニー株式会社 Image processing apparatus, learning apparatus, coefficient generation apparatus and method
JP4556745B2 (en) * 2005-04-04 2010-10-06 ソニー株式会社 Image composition apparatus and method, and recording medium
JP2006287808A (en) * 2005-04-04 2006-10-19 Sony Corp Image compositing apparatus and method, and recording medium
US7692688B2 (en) 2006-02-13 2010-04-06 Sony Corporation Method for correcting distortion of captured image, device for correcting distortion of captured image, and imaging device
WO2009078454A1 (en) 2007-12-18 2009-06-25 Sony Corporation Data processing apparatus, data processing method, and storage medium
US8169510B2 (en) 2007-12-18 2012-05-01 Sony Corporation Data processing device, data processing method, and storage medium
JP5288214B2 (en) * 2007-12-18 2013-09-11 ソニー株式会社 Data processing apparatus, data processing method, and program
US8121429B2 (en) 2008-04-17 2012-02-21 Sony Corporation Image processing apparatus, image-capturing apparatus, image processing method, and program
EP2111037A2 (en) 2008-04-17 2009-10-21 Sony Corporation Image processing apparatus, image-capturing apparatus, image processing method, and program
JP2013524590A (en) * 2010-03-30 2013-06-17 テスト アクチエンゲゼルシャフト Image processing method and thermal image camera
WO2020116213A1 (en) 2018-12-06 2020-06-11 ソニーセミコンダクタソリューションズ株式会社 Reception device and transmission device
KR20210096090A (en) 2018-12-06 2021-08-04 소니 세미컨덕터 솔루션즈 가부시키가이샤 Receiver and Sender
US11606500B2 (en) 2018-12-06 2023-03-14 Sony Semiconductor Solutions Corporation Reception apparatus and transmission apparatus
US11924546B2 (en) 2018-12-06 2024-03-05 Sony Semiconductor Solutions Corporation Reception apparatus and transmission apparatus

Also Published As

Publication number Publication date
JP4491965B2 (en) 2010-06-30

Similar Documents

Publication Publication Date Title
JP4491965B2 (en) Signal processing apparatus and method, and recording medium
KR100725192B1 (en) Signal processing device and method, and recording medium
JP4507044B2 (en) Image processing apparatus and method, and recording medium
JP4507045B2 (en) Signal processing apparatus and method, and recording medium
JP4479098B2 (en) Signal processing apparatus and method, and recording medium
KR100897965B1 (en) Image processing apparatus and method, and image pickup apparatus
JP2003006650A (en) Device and method for processing image, recording medium and program
US20050259870A1 (en) Image processing apparatus and method, and image pickup apparatus
JP2002230557A (en) Image processing device and method and storage medium
JP2003006657A (en) Image processor and method for processing image, recording medium and program
US20030174899A1 (en) Image processing apparatus
JP4596201B2 (en) Image processing apparatus and method, and recording medium
JP2002245463A (en) Device and method for image processing, recording medium, and program
US7477761B2 (en) Image processing apparatus and method, and image-capturing apparatus
US20040067040A1 (en) Image processing apparatus and method, and image pickup apparatus
KR20040014951A (en) Image processing apparatus and method, and image pickup apparatus
JP2003006658A (en) Image processor and method for processing image, recording medium and program
JP2002366949A (en) Device and method for processing image, recording medium and program
JP2003016446A (en) Image processor and image processing method, recording medium, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070315

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070315

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091224

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100316

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100329

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130416

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140416

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees